一、前言
隨著音影片的爆發式的增長,各種推拉流應用場景應運而生,基本上都要求各個端都能檢視實時影片流,比如PC端、手機端、網頁端,在網頁端用websocket來接收並解碼實時影片流顯示,是一個非常常規的場景,單純的http-flv模式受限於最大6個通道同時顯示,一般會選擇ws-flv也就是websocket的flv影片流,這種突破了6個的限制,而且實時性很好,音影片也都有,264/265都支援,webrtc不支援265很惱火,現在這麼多265攝像頭,儘管webrtc實時性最好,但是不支援265這一點,就幾乎少掉一大半使用者,尤其是影片監控行業。
以前也就思考過,既然是264/265的影片流過來,收到後用ffmpeg直接解碼應該就可以播放,受限於之前的認知有限,以為一定要一個開啟的地址才行,比如ffmpeg中常規操作就是avformat_open_input中填入一個地址,這個地址可以是本地音影片檔案,也可以是網路影片流等,反正要有一個地址才行。直到近期要解決如何採集ws://這種地址的影片流的時候,才徹底靜下心來研究這一塊。原來ffmpeg從ffmpeg2開始就一直有這個機制,並不是一定要地址的,也可以是記憶體中的資料,需要定義一個AVIOContext物件,然後將formatCtx->pb賦值就完事,那邊透過avio_alloc_context的回撥函式獲取資料即可。你只需要開啟websocket收到資料,往快取介面存資料就好,ffmpeg在呼叫開啟也好讀取av_read_frame也好,都會從快取資料中取資料,取到資料就去解碼。也就是在原來的程式碼基礎上,加上少量的幾十行程式碼就好,整個解碼機制完全不變,硬解碼也不用變,真舒服真完美,不得不佩服ffmpeg的設計,天才介面設計。
二、效果圖
三、體驗地址
- 國內站點:https://gitee.com/feiyangqingyun
- 國際站點:https://github.com/feiyangqingyun
- 個人作品:https://blog.csdn.net/feiyangqingyun/article/details/97565652
- 體驗地址:https://pan.baidu.com/s/1d7TH_GEYl5nOecuNlWJJ7g 提取碼:01jf 檔名:bin_video_demo。
- 影片主頁:https://space.bilibili.com/687803542
四、功能特點
4.1. 基礎功能
- 支援各種音訊影片檔案格式,比如mp3、wav、mp4、asf、rm、rmvb、mkv等。
- 支援本地攝像頭裝置和本地桌面採集,支援多裝置和多螢幕。
- 支援各種影片流格式,比如rtp、rtsp、rtmp、http、udp等。
- 本地音影片檔案和網路音影片檔案,自動識別檔案長度、播放進度、音量大小、靜音狀態等。
- 檔案可以指定播放位置、調節音量大小、設定靜音狀態等。
- 支援倍速播放檔案,可選0.5倍、1.0倍、2.5倍、5.0倍等速度,相當於慢放和快放。
- 支援開始播放、停止播放、暫停播放、繼續播放。
- 支援抓拍截圖,可指定檔案路徑,可選抓拍完成是否自動顯示預覽。
- 支援錄影儲存,手動開始錄影、停止錄影,部分核心支援暫停錄影後繼續錄影,跳過不需要錄影的部分。
- 支援無感知切換迴圈播放、自動重連等機制。
- 提供播放成功、播放完成、收到解碼圖片、收到抓拍圖片、影片尺寸變化、錄影狀態變化等訊號。
- 多執行緒處理,一個解碼一個執行緒,不卡主介面。
4.2. 特色功能
- 同時支援多種解碼核心,包括qmedia核心(Qt4/Qt5/Qt6)、ffmpeg核心(ffmpeg2/ffmpeg3/ffmpeg4/ffmpeg5/ffmpeg6)、vlc核心(vlc2/vlc3)、mpv核心(mpv1/mp2)、mdk核心、海康sdk、easyplayer核心等。
- 非常完善的多重基類設計,新增一種解碼核心只需要實現極少的程式碼量,就可以應用整套機制,極易擴充。
- 同時支援多種畫面顯示策略,自動調整(原始解析度小於顯示控制元件尺寸則按照原始解析度大小顯示,否則等比縮放)、等比縮放(永遠等比縮放)、拉伸填充(永遠拉伸填充)。所有核心和所有影片顯示模式下都支援三種畫面顯示策略。
- 同時支援多種影片顯示模式,控制代碼模式(傳入控制元件控制代碼交給對方繪製控制)、繪製模式(回撥拿到資料後轉成QImage用QPainter繪製)、GPU模式(回撥拿到資料後轉成yuv用QOpenglWidget繪製)。
- 支援多種硬體加速型別,ffmpeg可選dxva2、d3d11va等,vlc可選any、dxva2、d3d11va,mpv可選auto、dxva2、d3d11va,mdk可選dxva2、d3d11va、cuda、mft等。不同的系統環境有不同的型別選擇,比如linux系統有vaapi、vdpau,macos系統有videotoolbox。
- 解碼執行緒和顯示窗體分離,可指定任意解碼核心掛載到任意顯示窗體,動態切換。
- 支援共享解碼執行緒,預設開啟並且自動處理,當識別到相同的影片地址,共享一個解碼執行緒,在網路影片環境中可以大大節約網路流量以及對方裝置的推流壓力。國內頂尖影片廠商均採用此策略。這樣只要拉一路影片流就可以共享到幾十個幾百個通道展示。
- 自動識別影片旋轉角度並繪製,比如手機上拍攝的影片一般是旋轉了90度的,播放的時候要自動旋轉處理,不然預設是倒著的。
- 自動識別影片流播放過程中解析度的變化,在影片控制元件上自動調整尺寸。比如攝像機可以在使用過程中動態配置解析度,當解析度改動後對應影片控制元件也要做出同步反應。
- 音影片檔案無感知自動切換迴圈播放,不會出現切換期間黑屏等肉眼可見的切換痕跡。
- 影片控制元件同時支援任意解碼核心、任意畫面顯示策略、任意影片顯示模式。
- 影片控制元件懸浮條同時支援控制代碼、繪製、GPU三種模式,非絕對座標移來移去。
- 本地攝像頭裝置支援指定裝置名稱、解析度、幀率進行播放。
- 本地桌面採集支援設定採集區域、偏移值、指定桌面索引、幀率、多個桌面同時採集等。還支援指定視窗標題採集固定視窗。
- 錄影檔案同時支援開啟的影片檔案、本地攝像頭、本地桌面、網路影片流等。
- 瞬間響應開啟和關閉,無論是開啟不存在的影片或者網路流,探測裝置是否存在,讀取中的超時等待,收到關閉指令立即中斷之前的操作並響應。
- 支援開啟各種圖片檔案,支援本地音影片檔案拖曳播放。
- 影片流通訊方式可選tcp/udp,有些裝置可能只提供了某一種協議通訊比如tcp,需要指定該種協議方式開啟。
- 可設定連線超時時間(影片流探測用的超時時間)、讀取超時時間(採集過程中的超時時間)。
- 支援逐幀播放,提供上一幀/下一幀函式介面,可以逐幀查閱採集到的影像。
- 音訊檔案自動提取專輯資訊比如標題、藝術家、專輯、專輯封面,自動顯示專輯封面。
- 影片響應極低延遲0.2s左右,極速響應開啟影片流0.5s左右,專門做了最佳化處理。
- 支援H264/H265編碼(現在越來越多的監控攝像頭是H265影片流格式)生成影片檔案,內部自動識別切換編碼格式。
- 支援使用者資訊中包含特殊字元(比如使用者資訊中包含+#@等字元)的影片流播放,內建解析轉義處理。
- 支援濾鏡,各種水印及圖形效果,支援多個水印和影像,可以將OSD標籤資訊和各種圖形資訊寫入到MP4檔案。
- 支援影片流中的各種音訊格式,AAC、PCM、G.726、G.711A、G.711Mu、G.711ulaw、G.711alaw、MP2L2等都支援,推薦選擇AAC相容性跨平臺性最好。
- 核心ffmpeg採用純qt+ffmpeg解碼,非sdl等第三方繪製播放依賴,gpu繪製採用qopenglwidget,音訊播放採用qaudiooutput。
- 核心ffmpeg和核心mdk支援安卓,其中mdk支援安卓硬解碼,效能非常兇殘。
- 可以切換音影片軌道,也就是節目通道,可能ts檔案帶了多個音影片節目流,可以分別設定要播放哪一個,可以播放前設定好和播放過程中動態設定。
- 可以設定影片旋轉角度,可以播放前設定好和播放過程中動態改變。
- 影片控制元件懸浮條自帶開始和停止錄影切換、聲音靜音切換、抓拍截圖、關閉影片等功能。
- 音訊元件支援聲音波形值資料解析,可以根據該值繪製波形曲線和柱狀聲音條,預設提供了聲音振幅訊號。
- 標籤和圖形資訊支援三種繪製方式,繪製到遮罩層、繪製到圖片、源頭繪製(對應資訊可以儲存到檔案)。
- 透過傳入一個url地址,該地址可以帶上通訊協議、解析度、幀率等資訊,無需其他設定。
- 儲存影片到檔案支援三種策略,自動處理、僅限檔案、全部轉碼,轉碼策略支援自動識別、轉264、轉265,編碼儲存支援指定解析度縮放或者等比例縮放。比如對儲存檔案體積有要求可以指定縮放後再儲存。
- 支援加密儲存檔案和解密播放檔案,可以指定秘鑰文字。
- 提供的監控佈局類支援64通道同時顯示,還支援各種異型佈局,比如13通道,手機上6行2列布局。各種佈局可以自由定義。
- 支援電子放大,在懸浮條切換到電子放大模式,在畫面上選擇需要放大的區域,選取完畢後自動放大,再次切換放大模式可以復位。
- 各元件中極其詳細的列印資訊提示,尤其是報錯資訊提示,封裝的統一列印格式。針對現場複雜的裝置環境測試極其方便有用,相當於精確定位到具體哪個通道哪個步驟出錯。
- 同時提供了簡單示例、影片播放器、多畫面影片監控、監控回放、逐幀播放、多屏渲染等單獨窗體示例,專門演示對應功能如何使用。
- 監控回放可選不同廠家型別、回放時間段、使用者資訊、指定通道。支援切換回放進度。
- 可以從音效卡裝置下拉框選擇音效卡播放聲音,提供對應的切換音效卡函式介面。
- 支援編譯到手機app使用,提供了專門的手機app佈局介面,可以作為手機上的影片監控使用。
- 程式碼框架和結構最佳化到最優,效能強悍,註釋詳細,持續迭代更新升級。
- 原始碼支援windows、linux、mac、android等,支援各種國產linux系統,包括但不限於統信UOS/中標麒麟/銀河麒麟等。還支援嵌入式linux。
- 原始碼支援Qt4、Qt5、Qt6,相容所有版本。
4.3. 影片控制元件
- 可動態新增任意多個osd標籤資訊,標籤資訊包括名字、是否可見、字號大小、文字文字、文字顏色、背景顏色、標籤圖片、標籤座標、標籤格式(文字、日期、時間、日期時間、圖片)、標籤位置(左上角、左下角、右上角、右下角、居中、自定義座標)。
- 可動態新增任意多個圖形資訊,這個非常有用,比如人工智慧演算法解析後的圖形區域資訊直接發給影片控制元件即可。圖形資訊支援任意形狀,直接繪製在原始圖片上,採用絕對座標。
- 圖形資訊包括名字、邊框大小、邊框顏色、背景顏色、矩形區域、路徑集合、點座標集合等。
- 每個圖形資訊都可指定三種區域中的一種或者多種,指定了的都會繪製。
- 內建懸浮條控制元件,懸浮條位置支援頂部、底部、左側、右側。
- 懸浮條控制元件引數包括邊距、間距、背景透明度、背景顏色、文字顏色、按下顏色、位置、按鈕圖示程式碼集合、按鈕名稱標識集合、按鈕提示資訊集合。
- 懸浮條控制元件一排工具按鈕可自定義,透過結構體引數設定,圖示可選圖形字型還是自定義圖片。
- 懸浮條按鈕內部實現了錄影切換、抓拍截圖、靜音切換、關閉影片等功能,也可以自行在原始碼中增加自己對應的功能。
- 懸浮條按鈕對應實現了功能的按鈕,有對應圖示切換處理,比如錄影按鈕按下後會切換到正在錄影中的圖示,聲音按鈕切換後變成靜音圖示,再次切換還原。
- 懸浮條按鈕單擊後都用名稱唯一標識作為訊號發出,可以自行關聯響應處理。
- 懸浮條空白區域可以顯示提示資訊,預設顯示當前影片解析度大小,可以增加幀率、碼流大小等資訊。
- 影片控制元件引數包括邊框大小、邊框顏色、焦點顏色、背景顏色(預設透明)、文字顏色(預設全域性文字顏色)、填充顏色(影片外的空白處填充黑色)、背景文字、背景圖片(如果設定了圖片優先取圖片)、是否複製圖片、縮放顯示模式(自動調整、等比縮放、拉伸填充)、影片顯示模式(控制代碼、繪製、GPU)、啟用懸浮條、懸浮條尺寸(橫向為高度、縱向為寬度)、懸浮條位置(頂部、底部、左側、右側)。
五、相關程式碼
#include "ffmpegwebsocket.h"
void FFmpegWebSocket::init(FFmpegWebSocket **obj, const QString &url, const QString &flag, MediaType mediaType)
{
if (mediaType == MediaType_WebSocket) {
if (!(*obj)) {
(*obj) = new FFmpegWebSocket;
(*obj)->setObjectName(QString("FFmpegWebSocket_%1").arg(flag));
}
(*obj)->setUrl(url);
(*obj)->start();
}
}
void FFmpegWebSocket::free(FFmpegWebSocket **obj)
{
if ((*obj)) {
(*obj)->quit();
(*obj)->wait();
(*obj)->free();
(*obj)->deleteLater();
(*obj) = NULL;
}
}
FFmpegWebSocket::FFmpegWebSocket(QObject *parent) : QThread(parent)
{
//可以自行調整下面幾個值
connTimeout = 1500;
//值越小開啟速度越快/解析度越大值建議越大
minSizeOpen = 100 * 1024;
//值越小越容易破圖/控制多大快取才能讀取
minSizeRead = 1 * 1024;
//整個快取佇列的大小
fifoSize = 10 * 1024 * 1024;
fifo = NULL;
avioCtx = NULL;
webSocket = NULL;
}
FFmpegWebSocket::~FFmpegWebSocket()
{
}
void FFmpegWebSocket::run()
{
this->initWeb();
this->closeWeb();
this->freeFifo();
this->initFifo();
this->openWeb();
this->exec();
}
void FFmpegWebSocket::initWeb()
{
#ifdef websocket
if (!webSocket) {
qRegisterMetaType<QAbstractSocket::SocketState>("QAbstractSocket::SocketState");
webSocket = new QWebSocket("WebSocket", QWebSocketProtocol::VersionLatest);
connect(webSocket, SIGNAL(binaryMessageReceived(QByteArray)), this, SLOT(binaryMessageReceived(QByteArray)), Qt::DirectConnection);
}
#endif
}
void FFmpegWebSocket::freeWeb()
{
#ifdef websocket
if (webSocket) {
disconnect(webSocket, SIGNAL(binaryMessageReceived(QByteArray)), this, SLOT(binaryMessageReceived(QByteArray)));
this->closeWeb();
webSocket->deleteLater();
webSocket = NULL;
}
#endif
}
#ifdef webhelper
#include "webhelper.h"
#endif
void FFmpegWebSocket::openWeb()
{
#ifdef websocket
QString url = this->url;
#ifdef webhelper
url = WebHelper::checkUrl(url, connTimeout);
#endif
if (!url.isEmpty()) {
webSocket->open(QUrl(url));
}
#endif
}
void FFmpegWebSocket::closeWeb()
{
#ifdef websocket
//如果不加判斷直接關閉會提示 QNativeSocketEngine::write() was not called in QAbstractSocket::ConnectedState
if (webSocket && webSocket->state() != QAbstractSocket::ConnectingState) {
webSocket->close();
}
#endif
}
void FFmpegWebSocket::initFifo()
{
if (!fifo) {
#if (FFMPEG_VERSION_MAJOR < 5)
fifo = av_fifo_alloc(fifoSize);
#else
fifo = av_fifo_alloc2(fifoSize, sizeof(uint8_t), AV_FIFO_FLAG_AUTO_GROW);
#endif
uint8_t *avioBuf = (uint8_t *)av_malloc(fifoSize);
avioCtx = avio_alloc_context(avioBuf, fifoSize, 0, fifo, &read_packet, NULL, NULL);
}
}
void FFmpegWebSocket::freeFifo()
{
if (fifo) {
#if (FFMPEG_VERSION_MAJOR < 5)
av_fifo_reset(fifo);
av_fifo_freep(&fifo);
#else
av_fifo_reset2(fifo);
av_fifo_freep2(&fifo);
#endif
av_freep(&avioCtx->buffer);
#if (FFMPEG_VERSION_MAJOR < 3)
av_free(avioCtx);
#else
avio_context_free(&avioCtx);
#endif
fifo = NULL;
}
}
void FFmpegWebSocket::binaryMessageReceived(const QByteArray &message)
{
int size = message.size();
const void *data = message.data();
#if (FFMPEG_VERSION_MAJOR < 5)
int num = av_fifo_space(fifo);
int ret = av_fifo_generic_write(fifo, (void *)data, size, NULL);
#else
int num = av_fifo_can_write(fifo);
int ret = av_fifo_write(fifo, data, size);
#endif
//qDebug() << TIMEMS << num << ret << size;
}
int FFmpegWebSocket::read_packet(void *opaque, uint8_t *buf, int size)
{
AVFifox *fifo = (AVFifox *)opaque;
int ret = -1;
if (!fifo) {
return ret;
}
#if (FFMPEG_VERSION_MAJOR < 5)
int availableBytes = av_fifo_size(fifo);
#else
int availableBytes = av_fifo_can_read(fifo);
#endif
if (availableBytes <= 0) {
return ret;
}
int len = qMin(availableBytes, size);
#if (FFMPEG_VERSION_MAJOR < 5)
ret = av_fifo_generic_read(fifo, buf, len, NULL);
#else
ret = av_fifo_read(fifo, buf, len);
#endif
return len;
}
bool FFmpegWebSocket::canOpen()
{
return this->checkData(minSizeOpen);
}
bool FFmpegWebSocket::canRead()
{
return this->checkData(minSizeRead);
}
bool FFmpegWebSocket::checkData(int size)
{
if (!fifo) {
return false;
}
#if (FFMPEG_VERSION_MAJOR < 5)
return (av_fifo_size(fifo) > size);
#else
return (av_fifo_can_read(fifo) > size);
#endif
}
AVIOContext *FFmpegWebSocket::getCtx()
{
return this->avioCtx;
}
void FFmpegWebSocket::setUrl(const QString &url)
{
this->url = url;
}
void FFmpegWebSocket::reopen()
{
this->quit();
this->wait();
this->start();
}
void FFmpegWebSocket::free()
{
this->freeWeb();
this->freeFifo();
}