FFmpeg 3.1 发布

上个月第发布的最新版3.1,特性太多,高亮几个做移动多媒体开发的关注点

  • DXVA2-accelerated HEVC Main10 decoding
  • fieldhint filter
  • loop video filter and aloop audio filter
  • Bob Weaver deinterlacing filter
  • firequalizer filter
  • datascope filter
  • bench and abench filters
  • ciescope filter
  • protocol blacklisting API
  • MediaCodec H264 decoding
  • VC-2 HQ RTP payload format (draft v1) depacketizer and packetizer
  • VP9 RTP payload format (draft v2) packetizer
  • AudioToolbox audio decoders
  • AudioToolbox audio encoders
  • coreimage filter (GPU based image filtering on OSX)
  • libdcadec removed
  • bitstream filter for extracting DTS core
  • ADPCM IMA DAT4 decoder
  • musx demuxer
  • aix demuxer
  • remap filter
  • hash and framehash muxers
  • colorspace filter
  • hdcd filter
  • readvitc filter
  • VAAPI-accelerated format conversion and scaling
  • libnpp/CUDA-accelerated format conversion and scaling
  • Duck TrueMotion 2.0 Real Time decoder
  • Wideband Single-bit Data (WSD) demuxer
  • VAAPI-accelerated H.264/HEVC/MJPEG encoding
  • DTS Express (LBR) decoder
  • Generic OpenMAX IL encoder with support for Raspberry Pi
  • IFF ANIM demuxer & decoder
  • Direct Stream Transfer (DST) decoder
  • loudnorm filter
  • MTAF demuxer and decoder
  • MagicYUV decoder
  • OpenExr improvements (tile data and B44/B44A support)
  • BitJazz SheerVideo decoder
  • CUDA CUVID H264/HEVC decoder
  • 10-bit depth support in native utvideo decoder
  • libutvideo wrapper removed
  • YUY2 Lossless Codec decoder
  • VideoToolbox H.264 encoder

包括了iOS平台上的硬件编解码AAC,硬件编码H.264,Android平台的硬件解码,树莓派的OpenMAX IL硬编码器。官方强烈建议各位升级 :D。

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: FFmpeg 3.1 发布

Android使用EGL_image从GPU中读取渲染后的画面,部分手机花屏错位的问题

你已经能使用EGL_image扩展从GPU中读取渲染后的画面了。但你可能会发现,参数一样,有些手机预览时都是正确的,但输出的画面,呈现很有规律的错位花屏,像这样:
预览—-
QQ20160612-0

输出—-
QQ20160612-1

很典型的由于图片stride 和width不同造成的,比较常规的解决方案是

 

[转]Using GL_OES_EGL_image_external on Android

1. The texture target needs to be GLES20.GL_TEXTURE_EXTERNAL_OES instead of GL_TEXTURE_2D, e.g. in the glBindTexture calls and glTexParameteri calls.

2. In the fragment shader define a requirement to use the extension:#extension GL_OES_EGL_image_external : require

3. For the texture sampler used in the fragment shader, use samplerExternalOES instead of sampler2D. Everything below here is all in the C code, no more Java.

4. In the C code, use glEGLImageTargetTexture2DOES(GL_TEXTURE_EXTERNAL_OES, eglImage) to specify where the data is, instead of using glTexImage2D family of functions.

5. Now, this is android specific, as GraphicBuffer.h is defined in the android native source code. new a GraphicBuffer object, and init with with the width, height, pixel format, etc… this is where we’ll be writing the pixels to. Also, the android’s GraphicBuffer object is the one that will allocate the memory for us i.e. call gralloc.

6. To write pixels to the GraphicBuffer, lock it via graphicBuffer->lock(GRALLOC_USAGE_SW_WRITE_RARELY, (void **) &pixels), lock() will give you the address to write the pixels to in the 2nd parameter. Once you have the address, now, you can freely write the data to the address pixels.

7. After you finish writing, unlock it, graphicBuffer->unlock().

8. Now, you need the eglImage object to pass into glEGLImageTargetTexture2DOES in step 4. To create the eglImage using createEGLImageKHR(). http://www.khronos.org/registry/egl/extensions/KHR/EGL_KHR_image_base.txt. 4th parameter to eglCreateImageKHR() takes in a EGLClientBuffer, use this (EGLClientBuffer) graphicBuffer->getNativeBuffer();

9. To clean up, use eglDestroyImageKHR(). I think that’s about it. Everything is public API: glEGLImageTargetTexture2DOES(), eglCreateEGLImageKHR(), eglDestroyImageKHR(). gralloc is used, and the implementation of GraphicsBuffer object in the android native source code does that for us.

https://gist.github.com/rexguo/6696123

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: [转]Using GL_OES_EGL_image_external on Android

RTMP流媒体服务端应用开发系列 – Nginx-Rtmp分离音视频流

开一个RTMP 流媒体服务端开发系列的坑,主要用到Rtmp-Nginx, Linux平台。

需求:推流端发布后,播放端只希望拉取播放纯音频或视频流。

分析:这种需求可能是为了效仿映客直播分离音视频流来播放的方法。从抓包来看,映客使用http-flv的CDN加速直播流,形如
http://pull.a8.com/live/1458696839457751.flv?only-video=1
http://pull.a8.com/live/1458696839457751.flv?only-audio=1
有什么好处? 不确定,估计播放端网络卡时,可以断开视频流但保持码率不大的音频流,体验较好。 还有一种可能是方便做纯音频类应用,播放端只想听到音频,虽然可以不解码视频,但是视频的数据也不想拉下来,节省移动数据流量。

思路:使用Nginx-Rtmp的exec来调用ffmpeg,在服务端分离rtmp流。

实现: 继续阅读“RTMP流媒体服务端应用开发系列 – Nginx-Rtmp分离音视频流”

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: RTMP流媒体服务端应用开发系列 – Nginx-Rtmp分离音视频流

Android NDK更新到 11

NDK自上次10E后已有10个月更新了11,看了下发行日志,主要这几点值得关注。

  1. 官方推荐从GCC转到Clang了,clang也更新到3.8版。
  2. GCC只保留4.9版了,也不再更新到5.x版。
  3. samples和documentation也不再包含进NDK开发包,都放在了网上。
    NDK Samples :GitHub.
    Doc:Android developer website.
  4. Added Vulkan headers and library to API level N. 这个牛B啊,这不是khronos刚推出的用来替代OpenGL和OpenGL ES的新API么。这都已经可以用啦,后面专门在研究研究。 至少需要Android N的机器。

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: Android NDK更新到 11

在DD-WRT路由器上设置VPN服务为3G/4G网络提供google服务

目前Google系列服务使用hosts的方式访问仍然是比较方便的,在DD-WRT路由器上设置DNSMas来通配google.com 来为本局域网内所有设备提供简单的访问方式。

但有时候外出使用3/4G时也想使用,又不想花钱,在自家DD-WRT路由器上开启VPN服务就行!

首先需要满足如下条件:

  1. 一台DD-WRT路由器
  2. 家里的宽带有公网IP,并能从外部链入。

步骤:

  1. 先注册花生壳动态域名解析,网上教程颇多这里就不重复了。
  2. DDWRT-> 设置->动态DNS
    QQ20160316-1
  3. DDWRT->服务->VPN
    QQ20160316-2
    服务器IP就填路由器IP,客服端IP是一个范围,CHAP-Secrets 就是账户区,格式是
    用户名+ 空格 + * + 空格 + 密码 + 空格 + *
  4. DDWRT->NAT/QoS ->端口转发
    QQ20160316-3
    添加一条VPN的1723端口转发。
  5. DDWRT->服务->服务
    QQ20160316-4
    开启DNSMasq,添加规则。至于hosts我就不公布我用的了,网上也挺多。

手机切到3G/4G,添加VPN,地址填花生壳注册下来的动态域名,用户名密码就是CHAP-Secrets里添加的,连接成功,试试看google.com是否就能打开了。

当然,也不只是3,4G网络环境,你在其它WIFI环境下也能用。也不只google服务可以用hosts+https来访问,facebook,twitter也是可以的,浏览器、APP都可以。

关键是一分钱都不用花,博主路由器是TP-LINK WR841N-V7刷的。

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: 在DD-WRT路由器上设置VPN服务为3G/4G网络提供google服务

博客迁移完成SAE ==> aliyun

本博早先挂在新浪SAE,早期用户送豆1w多个,自己充值了100,挺过了4年多。最近又提醒豆不够用了,心一横,直接迁移到阿里云了。
目前用的是阿里云送的免费2年的万网云主机,33元/年的CDN。wordpress自然就可以用最新版了,不像SAE需要专版。
导出原博客的xml直接导入,媒体文件也能直接迁移过来,挺方便。
最总要的一点是需要将原sinaapp.com下的域名301跳转到新域名来。
直接在sae后台创建一个新版本,修改config.yaml
插入

 

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: 博客迁移完成SAE ==> aliyun

FFmpeg 发布3.0版

http://ffmpeg.org/releases/ffmpeg-3.0.tar.bz2

最值得关注是,本次更新内置的AAC编码器终于成为稳定版。移除了vo-aac 和libaacplus

载录一些更新特性

– Common Encryption (CENC) MP4 encoding and decoding support.

– New filters: extrastereo, OCR, alimiter, stereowiden, stereotools, rubberband, tremolo, agate, chromakey, maskedmerge, displace, selectivecolor, zscale, shuffleframes, vibrato, realtime, compensationdelay, acompressor, apulsator, sidechaingate, aemphasis, virtual binaural acoustics, showspectrumpic, afftfilt, convolution, swaprect, and others.

– New decoding: DXV, Screenpresso SPV1, ADPCM PSX, SDX2 DPCM, innoHeim/Rsupport Screen Capture Codec, ADPCM AICA, XMA1 & XMA2, and Cineform HD.

– New muxing: Chromaprint fingerprinting, WVE demuxer, Interplay ACM, and IVR demuxer.

– Dynamic volume control for ffplay.

– Native AAC encoder improvements.

– Zero-copy Intel QSV transcoding.

– Microsoft DXVA2-accelerated VP9 decoding on Windows.

– VA-API VP9 hardware acceleration.

– Automatic bitstream filtering.

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: FFmpeg 发布3.0版

如何方便的在iOS设备上抓包分析

以前网络协议分析经常是在Android root设备上 adb shell后 用tcpdump抓包,想来ios没越狱应该没有这种神器,可哪知苹果早就提供了方便的工具RVI(Remote Virtual Interface)

  1. 首先获取调试设备的UUID,iTunes里可以比较方便的复制
  2. 打开终端,输入 ?rvictl -s [Your Device’s UDID],成功的话,会显示
    Starting device ********** [SUCCEEDED] 继续阅读“如何方便的在iOS设备上抓包分析”

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: 如何方便的在iOS设备上抓包分析