Windows平台浏览器内捕获桌面画面并RTMP推流

前期曾发布过一款windows平台RTMP推送摄像头画面的浏览器插件,近期对这款产品进行了升级,现已支持捕获桌面画面进行推流。

桌面推流当然首选OBS,专业性毋庸置疑。本人开发的这款产品定位为简单业务需求,只需引导客户安装5M左右大小的插件程序,无需任何配置,即可在web网页中进行摄像头或桌面画面的捕获推流。

在本次更新中,加入了H.265编码器的支持,视频码率更低。同时,在SSE指令集加速的软编码基础上,增加了AMD/NVIDIA/INTEL独显核显硬件加速编码,CPU消耗更低。

本插件同时也加入了直播播放器的支持,可以播放rtmp,rtsp,http协议的直播流,并支持硬件加速解码,首屏秒开与延迟消除技术。 继续阅读“Windows平台浏览器内捕获桌面画面并RTMP推流”

微信小程序蓝牙BLE发送数据包大于20字节的写法

  • 小程序不会对写入数据包大小做限制,但系统与蓝牙设备会限制蓝牙4.0单次传输的数据大小,超过最大字节数后会发生写入错误,建议每次写入不超过20字节。

可能你已经在用小程序开发BLE应用了,也遇上了这个问题,我这儿是一种写法,并不限于这一种,仅供参考

Android BLE通讯详解,连接JDY-19

Android手机与JDY-19蓝牙BLE模块通讯详解

最近做一款Android与蓝牙BLE设备通讯的项目,记录下开发经验。

蓝牙设备是JDY-19模块,串口透传,非常方便好用。官方教程需要创建Service进行通讯,此处需求为简单数据透传,直接在Activity中收发完成就结束,不开启服务,简单便捷。话不多说,代码伺候。

一、Android扫描BLE设备

0. 开启权限

1. 检查是否有BLE支持

2.检查是否有蓝牙支持

继续阅读“Android BLE通讯详解,连接JDY-19”

如何在Visual Studio 中,F5启动调试Firebreath插件

一般我们调试Firebreath的插件,使用的方法是,启动一个老版本的firefox(单进程),打开插件页面后,在调试中选择“附加到进程”,选择firefox进程,触发断点调试。

但有的时候需要调试启动过程,那么这个方法就不行了。
其实直接按F5启动调试的办法也很简单,只需设置“ALL_BUILD属性”,在“配置属性”-》“调试”中。
命令输入firefox.exe的全路径,命令参数输入插件的html地址,可以是本地文件路径,就行了。

如果dll注册就在debug生成目录,那么不需要额外操作,直接就能开始调试了。

如何在浏览器里面推送H.264+AAC的RTMP直播

如何在浏览器里面推送H.264+AAC的RTMP直播。开发ActiveX,NPAPI,PPAPI直播插件。

这是困扰N年的问题了,Adobe似要放弃但又不舍的flash,一直在更新,但大家呼唤已久的aac编码始终不肯加入。
于是基本上需要做高级点Web页直播的,不是让主播用第三方工具,就是在服务端实时转码,挺费劲的。
简单点的基本上全站flash的也有,flash仅做推流播放的也很多。

WebRTC在大家的期盼下也慢慢得到了大部分浏览器的支持,但结果一看这丫也不用aac,而是用的Opus,似乎是个版权问题?
Opus在语音与音乐等编码场景都能应对,但rtmp不支持呀,还是需要转码。协议接入也是一个麻烦点。

既然Adobe能开发flash插件,大家为啥不直接开发插件呢?

这个说起来似乎更痛苦,ie要开发ActiveX,win10 更新到Edge了,又不知道是支持哪种(有了解的朋友请告知我一下)?早先的chrome和firefox要开发NPAPI,现在不兼任了,又要开发PPAPI。
似乎只有大公司能折腾这些事吧。腾讯云好像有一款ActiveX的推流插件,但没仔细看。尽管可以兼容ie,做点行业应用,但你现在让前端做ie兼容的娱乐向页面,他分分钟摔键盘。

最近有一点研究时间了,回看了一下之前了解过的FireBreath,说是可以一次开发多个平台的浏览器插件,我觉得可以利用它来实现我一直想要实现的功能。
1.x版本可以支持ActiveX和NPAPI的插件,2.x说是准备兼容PPAPI,但似乎有点麻烦,这方面资料也不多,而且项目也已经很长时间未更新了。
似乎又陷入绝境。
继续阅读“如何在浏览器里面推送H.264+AAC的RTMP直播”

如何在aarch64的系统上执行armhf程序

如何在aarch64的系统上执行armhf程序,安装必须的libc6:armhf zlib1g:armhf即可

之前买了一片友善之臂NEO2做NAS,配置了aria2远程服务,下载百度云盘的资源,速度还不错。
但需要下载迅雷链接时,就没有办法了。
以前用Raspberry Pi 1代时,可以用迅雷的嵌入式版本Xware_armel_v5te_glibc.tar.gz
后来用pi3, neo2这种arm64处理器的板子时就无法使用了。

会提示“-bash: ./portal: No such file or directory” 。

今天突然想到,完全可以安装armhf的运行时呀。就好像在Ubunt下安装的一系列i386库一样。
继续阅读“如何在aarch64的系统上执行armhf程序”

ffmpeg.js使用libopenh264解码性能低的原因

最近在研究用Emscripten开发JavaScript的直播播放器,使用ffmpeg内置的h264解码速度还是可以接受的,本想使用openh264的解码进行比较,但发现非常慢,无法达到640×480@30帧的解码速度。

本来以前也有过用openh264的项目,直接使用libopenh264进行解码速度还是很快的。但编译进ffmpeg里使用就特别慢,于是-g重新编译NodePlayer.js并开始Chrome Performance录制。
继续阅读“ffmpeg.js使用libopenh264解码性能低的原因”

如何在iOS的浏览器环境内实现 “真·实时视频播放”

iOS的浏览器环境,当然就包括微信,QQ内打开。目前实现直播的协议一般都是HLS, 延迟大可想而知,“真·实时” 当然指的是2秒以内的延迟。

浏览器环境下支持常见的低延迟直播,首选的是flv.js。它支持多种数据获取方式(fetch,websocket,xhr),兼容性很好。解析flv流后再封装为mp4数据,使用Media Source Extensions 特性,将数据投喂给播放器以实现实时的解码播放。按浏览器支持情况,具有硬件加速的性能。

而iOS是目前无法实现的平台,https://caniuse.com/#search=mediasource 可以看到,到目前为止系统11.2仍然不支持该特性。

但通过websocket+WebAssembly技术,可以曲线救国。我已经实现了一个初版https://github.com/illuspas/NodePlayer.js
继续阅读“如何在iOS的浏览器环境内实现 “真·实时视频播放””

How to debug node.js addons in xcode

I recently started programming native addons but couldn’t find how to debug them easily. After couple nights, I found very easy solution described below.

To debug native addons generate an xcode project file. From the root of your project (where binding.gyp lives) run:

This will create ./build/binding.xcodeproj folder, which you can open:

Once project is opened, make sure to configure the scheme. Open Product -> Scheme -> Edit Scheme, and then: 继续阅读“How to debug node.js addons in xcode”