中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

多人姿態識別框架AlphaPose怎么用

發布時間:2022-01-18 11:54:20 來源:億速云 閱讀:599 作者:柒染 欄目:大數據

多人姿態識別框架AlphaPose怎么用,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

多人姿態識別簡介

人體姿態估計有兩個主流方案:Two-step frameworkPart-based framework。第一種方案是檢測環境中的每一個人體檢測框,然后獨立地去檢測每一個人體區域的姿態(自頂向下的方法)。第二種方案是首先檢測出環境中的所有肢體節點,然后進行拼接得到多人的骨架(自底向上的方法)。第一種方案,姿態檢測準確度高度以來目標區域框檢測的質量。第二種方案,如果兩人離得十分近,容易出現模棱兩可的情況,而且由于是依賴兩個部件之間的關系,所以失去了對全局的信息獲取。

 

AlphaPose

AlphaPose采用自頂向下的方法,提出了RMPE(區域多人姿態檢測)框架。該框架主要包括symmetric spatial transformer network (SSTN)、Parametric Pose Non- Maximum-Suppression (NMS)和Pose-Guided Proposals Generator (PGPG)。并且使用symmetric spatial transformer network (SSTN)、deep proposals generator (DPG) 、parametric pose nonmaximum suppression (p-NMS) 三個技術來解決野外場景下多人姿態估計問題。

在SPPE結構上添加SSTN,能夠在不精準的區域框中提取到高質量的人體區域。并行的SPPE分支(SSTN)來優化自身網絡。使用parametric pose NMS來解決冗余檢測問題,在該結構中,使用了自創的姿態距離度量方案比較姿態之間的相似度。用數據驅動的方法優化姿態距離參數。最后我們使用PGPG來強化訓練數據,通過學習輸出結果中不同姿態的描述信息,來模仿人體區域框的生成過程,進一步產生一個更大的訓練集。

   
   
 

按照repo的安裝說明完成代碼庫的安裝,然后運行下面命令行:

python scripts/demo_inference.py --cfg configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml --checkpoint pretrained_models/fast_res50_256x192.pth --indir examples/demo/
 

運行結果如下:

多人姿態識別框架AlphaPose怎么用多人姿態識別框架AlphaPose怎么用多人姿態識別框架AlphaPose怎么用

    

關于多人姿態識別框架AlphaPose怎么用問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宜城市| 藁城市| 临泉县| 文昌市| 论坛| 台北县| 司法| 龙江县| 阿克苏市| 吉隆县| 鸡东县| 临西县| 县级市| 申扎县| 武清区| 浦城县| 信丰县| 柘荣县| 禹州市| 平邑县| 丰原市| 潞城市| 阳泉市| 盖州市| 内丘县| 乳源| 山丹县| 余江县| 陆川县| 西充县| 鲜城| 丰顺县| 望奎县| 彭水| 厦门市| 耿马| 惠水县| 扎兰屯市| 上林县| 平遥县| 龙游县|