您好,登錄后才能下訂單哦!
這篇文章主要介紹了Qt音視頻開發之怎么用ffmpeg實現解碼本地攝像頭的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇Qt音視頻開發之怎么用ffmpeg實現解碼本地攝像頭文章都會有所收獲,下面我們一起來看看吧。
void CameraThreadFFmpeg::initCamera() { //https://blog.csdn.net/weixin_37921201/article/details/120357826 //命令行打開 ffplay -f dshow -i video="USB Video Device" -s 1280x720 -framerate 30 //啟動計時 timer.restart(); //參數字典 AVDictionary *options = NULL; //設置分辨率 QString size = QString("%1x%2").arg(videoWidth).arg(videoHeight); av_dict_set(&options, "video_size", size.toUtf8().constData(), 0); //設置幀率 if (frameRate > 0) { av_dict_set(&options, "framerate", QString::number(frameRate).toUtf8().constData(), 0); } //設置輸入格式(前提是要對應設備對應平臺支持) //av_dict_set(&options, "input_format", "mjpeg", 0); //設置圖像格式(有些設備設置了格式后幀率上不去) //av_dict_set(&options, "pixel_format", "yuyv422", 0); //打印設備列表 //FFmpegHelper::showDevice(); //打印設備參數 //FFmpegHelper::showOption(cameraName); //實例化格式處理上下文 formatCtx = avformat_alloc_context(); AVInputFormatx *ifmt = NULL; QByteArray url = cameraName.toUtf8(); #if defined(Q_OS_WIN) //ifmt = av_find_input_format("vfwcap"); ifmt = av_find_input_format("dshow"); url = QString("video=%1").arg(cameraName).toUtf8(); #elif defined(Q_OS_LINUX) //ifmt = av_find_input_format("v4l2"); ifmt = av_find_input_format("video4linux2"); #elif defined(Q_OS_MAC) ifmt = av_find_input_format("avfoundation"); #endif int result = avformat_open_input(&formatCtx, url.data(), ifmt, &options); av_dict_free(&options); if (result < 0) { debug("打開地址", "錯誤: 打開出錯 " + FFmpegHelper::getError(result)); return; } //獲取流信息 result = avformat_find_stream_info(formatCtx, NULL); if (result < 0) { debug("打開地址", "錯誤: 找流失敗 " + FFmpegHelper::getError(result)); return; } //獲取最佳流索引 AVCodecx *videoCodec; videoIndex = av_find_best_stream(formatCtx, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0); if (videoIndex < 0) { debug("打開地址", "錯誤: 未找到視頻流"); return; } //獲取視頻流 AVStream *videoStream = formatCtx->streams[videoIndex]; //查找視頻解碼器(如果上面av_find_best_stream第五個參數傳了則這里不需要) AVCodecID codecID = FFmpegHelper::getCodecID(videoStream); videoCodec = avcodec_find_decoder(codecID); //videoCodec = avcodec_find_decoder_by_name("h364"); if (!videoCodec) { debug("打開地址", "錯誤: 查找視頻解碼器失敗"); return; } //創建視頻流解碼器上下文 videoCodecCtx = avcodec_alloc_context3(videoCodec); if (!videoCodecCtx) { debug("打開地址", "錯誤: 創建視頻解碼器上下文失敗"); return; } result = FFmpegHelper::copyContext(videoCodecCtx, videoStream, false); if (result < 0) { debug("打開地址", "錯誤: 設置視頻解碼器參數失敗"); return; } //設置解碼器參數 videoCodecCtx->flags |= AV_CODEC_FLAG_LOW_DELAY; videoCodecCtx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER; videoCodecCtx->flags2 |= AV_CODEC_FLAG2_FAST; //打開視頻解碼器 result = avcodec_open2(videoCodecCtx, videoCodec, NULL); if (result < 0) { debug("打開地址", "錯誤: 打開視頻解碼器失敗 " + FFmpegHelper::getError(result)); return; } //獲取實際分辨率大小 FFmpegHelper::getResolution(videoStream, videoWidth, videoHeight); //如果沒有獲取到寬高則返回 if (videoWidth <= 0 || videoHeight <= 0) { debug("打開地址", "錯誤: 獲取寬度高度失敗"); return; } //獲取最終真實的幀率 frameRate = av_q2d(videoStream->r_frame_rate); QString msg = QString("索引: %1 解碼: %2 幀率: %3 寬高: %4x%5").arg(videoIndex).arg(videoCodec->name).arg(frameRate).arg(videoWidth).arg(videoHeight); debug("視頻信息", msg); openCamera(); } bool CameraThreadFFmpeg::openCamera() { //分配內存 packet = FFmpegHelper::creatPacket(NULL); videoFrame = av_frame_alloc(); yuvFrame = av_frame_alloc(); imageFrame = av_frame_alloc(); //設置屬性以便該幀對象正常 yuvFrame->format = AV_PIX_FMT_YUV420P; yuvFrame->width = videoWidth; yuvFrame->height = videoHeight; //定義及獲取像素格式 AVPixelFormat srcFormat = AV_PIX_FMT_YUYV422; //通過解碼器獲取解碼格式 srcFormat = videoCodecCtx->pix_fmt; //各種轉換速度比對 https://www.cnblogs.com/xumaojun/p/8541634.html int flags = SWS_FAST_BILINEAR; //分配視頻幀數據(轉yuv420) int yuvSize = av_image_get_buffer_size(AV_PIX_FMT_YUV420P, videoWidth, videoHeight, 1); yuvData = (quint8 *)av_malloc(yuvSize * sizeof(quint8)); av_image_fill_arrays(yuvFrame->data, yuvFrame->linesize, yuvData, AV_PIX_FMT_YUV420P, videoWidth, videoHeight, 1); //視頻圖像轉換(轉yuv420) yuvSwsCtx = sws_getContext(videoWidth, videoHeight, srcFormat, videoWidth, videoHeight, AV_PIX_FMT_YUV420P, flags, NULL, NULL, NULL); //分配視頻幀數據(轉rgb) int imageSize = av_image_get_buffer_size(AV_PIX_FMT_RGB24, videoWidth, videoHeight, 1); imageData = (quint8 *)av_malloc(imageSize * sizeof(quint8)); av_image_fill_arrays(imageFrame->data, imageFrame->linesize, imageData, AV_PIX_FMT_RGB24, videoWidth, videoHeight, 1); //視頻圖像轉換(轉rgb) imageSwsCtx = sws_getContext(videoWidth, videoHeight, AV_PIX_FMT_YUV420P, videoWidth, videoHeight, AV_PIX_FMT_RGB24, flags, NULL, NULL, NULL); //打印媒體信息 //av_dump_format(formatCtx, 0, 0, 0); QString msg = QString("源頭: %1 目標: %2").arg(srcFormat).arg(videoMode == VideoMode_Painter ? AV_PIX_FMT_RGB24 : AV_PIX_FMT_YUV420P); debug("格式信息", msg); //初始化音頻播放 this->initAudioPlayer(); //初始化濾鏡 this->initFilter(); int time = timer.elapsed(); debug("打開成功", QString("用時: %1 毫秒").arg(time)); emit receivePlayStart(time); emit recorderStateChanged(RecorderState_Stopped, fileName); isOk = true; return isOk; }
支持各種音頻視頻文件格式,比如mp3、wav、mp4、asf、rm、rmvb、mkv等。
支持本地攝像頭設備,可指定分辨率、幀率。
支持各種視頻流格式,比如rtp、rtsp、rtmp、http等。
本地音視頻文件和網絡音視頻文件,自動識別文件長度、播放進度、音量大小、靜音狀態等。
文件可以指定播放位置、調節音量大小、設置靜音狀態等。
支持倍速播放文件,可選0.5倍、1.0倍、2.5倍、5.0倍等速度,相當于慢放和快放。
支持開始播放、停止播放、暫停播放、繼續播放。
支持抓拍截圖,可指定文件路徑,可選抓拍完成是否自動顯示預覽。
支持錄像存儲,手動開始錄像、停止錄像,部分內核支持暫停錄像后繼續錄像,跳過不需要錄像的部分。
支持無感知切換循環播放、自動重連等機制。
提供播放成功、播放完成、收到解碼圖片、收到抓拍圖片、視頻尺寸變化、錄像狀態變化等信號。
多線程處理,一個解碼一個線程,不卡主界面。
同時支持多種解碼內核,包括qmedia內核(Qt4/Qt5/Qt6)、ffmpeg內核(ffmpeg2/ffmpeg3/ffmpeg4/ffmpeg5)、vlc內核(vlc2/vlc3)、mpv內核(mpv1/mp2)、海康sdk、easyplayer內核等。
非常完善的多重基類設計,新增一種解碼內核只需要實現極少的代碼量,就可以應用整套機制。
同時支持多種畫面顯示策略,自動調整(原始分辨率小于顯示控件尺寸則按照原始分辨率大小顯示,否則等比例縮放)、等比例縮放(永遠等比例縮放)、拉伸填充(永遠拉伸填充)。所有內核和所有視頻顯示模式下都支持三種畫面顯示策略。
同時支持多種視頻顯示模式,句柄模式(傳入控件句柄交給對方繪制控制)、繪制模式(回調拿到數據后轉成QImage用QPainter繪制)、GPU模式(回調拿到數據后轉成yuv用QOpenglWidget繪制)。
支持多種硬件加速類型,ffmpeg可選dxva2、d3d11va等,mpv可選auto、dxva2、d3d11va,vlc可選any、dxva2、d3d11va。不同的系統環境有不同的類型選擇,比如linux系統有vaapi、vdpau,macos系統有videotoolbox。
解碼線程和顯示窗體分離,可指定任意解碼內核掛載到任意顯示窗體,動態切換。
支持共享解碼線程,默認開啟并且自動處理,當識別到相同的視頻地址,共享一個解碼線程,在網絡視頻環境中可以大大節約網絡流量以及對方設備的推流壓力。國內頂尖視頻廠商均采用此策略。這樣只要拉一路視頻流就可以共享到幾十個幾百個通道展示。
自動識別視頻旋轉角度并繪制,比如手機上拍攝的視頻一般是旋轉了90度的,播放的時候要自動旋轉處理,不然默認是倒著的。
自動識別視頻流播放過程中分辨率的變化,在視頻控件上自動調整尺寸。比如攝像機可以在使用過程中動態配置分辨率,當分辨率改動后對應視頻控件也要做出同步反應。
音視頻文件無感知自動切換循環播放,不會出現切換期間黑屏等肉眼可見的切換痕跡。
視頻控件同時支持任意解碼內核、任意畫面顯示策略、任意視頻顯示模式。
視頻控件懸浮條同時支持句柄、繪制、GPU三種模式,非絕對坐標移來移去。
本地攝像頭設備支持指定設備名稱、分辨率、幀率進行播放。
錄像文件同時支持打開的視頻文件、本地攝像頭、網絡視頻流等。
瞬間響應打開和關閉,無論是打開不存在的視頻或者網絡流,探測設備是否存在,讀取中的超時等待,收到關閉指令立即中斷之前的操作并響應。
支持打開各種圖片文件,支持本地音視頻文件拖曳播放。
視頻控件懸浮條自帶開始和停止錄像切換、聲音靜音切換、抓拍截圖、關閉視頻等功能。
音頻組件支持聲音波形值數據解析,可以根據該值繪制波形曲線和柱狀聲音條,默認提供了聲音振幅信號。
各組件中極其詳細的打印信息提示,尤其是報錯信息提示,封裝的統一打印格式。針對現場復雜的設備環境測試極其方便有用,相當于精確定位到具體哪個通道哪個步驟出錯。
代碼框架和結構優化到最優,性能強悍,持續迭代更新升級。
源碼支持Qt4、Qt5、Qt6,兼容所有版本。
可動態添加任意多個osd標簽信息,標簽信息包括名字、是否可見、字號大小、文本文字、文本顏色、標簽圖片、標簽坐標、標簽格式(文本、日期、時間、日期時間、圖片)、標簽位置(左上角、左下角、右上角、右下角、居中、自定義坐標)。
可動態添加任意多個圖形信息,這個非常有用,比如人工智能算法解析后的圖形區域信息直接發給視頻控件即可。圖形信息支持任意形狀,直接繪制在原始圖片上,采用絕對坐標。
圖形信息包括名字、邊框大小、邊框顏色、背景顏色、矩形區域、路徑集合、點坐標集合等。
每個圖形信息都可指定三種區域中的一種或者多種,指定了的都會繪制。
內置懸浮條控件,懸浮條位置支持頂部、底部、左側、右側。
懸浮條控件參數包括邊距、間距、背景透明度、背景顏色、文本顏色、按下顏色、位置、按鈕圖標代碼集合、按鈕名稱標識集合、按鈕提示信息集合。
懸浮條控件一排工具按鈕可自定義,通過結構體參數設置,圖標可選圖形字體還是自定義圖片。
懸浮條按鈕內部實現了錄像切換、抓拍截圖、靜音切換、關閉視頻等功能,也可以自行在源碼中增加自己對應的功能。
懸浮條按鈕對應實現了功能的按鈕,有對應圖標切換處理,比如錄像按鈕按下后會切換到正在錄像中的圖標,聲音按鈕切換后變成靜音圖標,再次切換還原。
懸浮條按鈕單擊后都用名稱唯一標識作為信號發出,可以自行關聯響應處理。
懸浮條空白區域可以顯示提示信息,默認顯示當前視頻分辨率大小,可以增加幀率、碼流大小等信息。
視頻控件參數包括邊框大小、邊框顏色、焦點顏色、背景顏色(默認透明)、文字顏色(默認全局文字顏色)、填充顏色(視頻外的空白處填充黑色)、背景文字、背景圖片(如果設置了圖片優先取圖片)、是否拷貝圖片、縮放顯示模式(自動調整、等比例縮放、拉伸填充)、視頻顯示模式(句柄、繪制、GPU)、啟用懸浮條、懸浮條尺寸(橫向為高度、縱向為寬度)、懸浮條位置(頂部、底部、左側、右側)。
關于“Qt音視頻開發之怎么用ffmpeg實現解碼本地攝像頭”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“Qt音視頻開發之怎么用ffmpeg實現解碼本地攝像頭”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。