您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關如何使用OpenCV對運動員的姿勢進行檢測,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
如今,體育運動的熱潮日益流行。同樣,以不正確的方式進行運動的風險也在增加。有時可能會導致嚴重的傷害。考慮到這些原因,提出一種以分析運動員的關節運動,來幫助運動員糾正姿勢的解決方案。
人體姿勢估計是計算機視覺領域的重要問題。它的算法有助于定位手腕,腳踝,膝蓋等部位。這樣做是為了使用深度學習和卷積神經網絡的概念提供個性化的運動訓練體驗。特別是對于體育活動而言,訓練質量在很大程度上取決于圖像或視頻序列中人體姿勢的正確性。
從圖像或視頻序列中檢測運動員的姿勢
正確選擇數據集以對結果產生適當影響也是非常必要的。在此姿勢檢測中,模型在兩個不同的數據集即COCO關鍵點數據集和MPII人類姿勢數據集上進行了預訓練。
1. COCO:COCO關鍵點數據集是一個多人2D姿勢估計數據集,其中包含從Flickr收集的圖像。迄今為止,COCO是最大的2D姿勢估計數據集,并被視為測試2D姿勢估計算法的基準。COCO模型有18種分類。COCO輸出格式:鼻子— 0,脖子—1,右肩—2,右肘—3,右手腕—4,左肩—5,左手肘—6,左手腕—7,右臀部—8,右膝蓋—9,右腳踝—10,左臀部—11,左膝—12,左腳踝—13,右眼—14,左眼—15,右耳—16,左耳—17,背景—18
訓練有素的模型需要加載到OpenCV中。這些模型在Caffe深度學習框架上進行了訓練。Caffe模型包含兩個文件,即.prototxt文件和.caffemodel文件。
.prototxt文件指定了神經網絡的體系結構。
.caffemodel文件存儲訓練后的模型的權重。
然后我們將這兩個文件加載到網絡中。
# Specify the paths for the 2 filesprotoFile = "pose/mpi/pose_deploy_linevec_faster_4_stages.prototxt"weightsFile = "pose/mpi/pose_iter_160000.caffemodel"# Read the network into Memorynet = cv2.dnn.readNetFromCaffe(protoFile, weightsFile)
首先,我們需要使用blobFromImage函數將圖像從OpenCV格式轉換為Caffe blob格式,以便可以將其作為輸入輸入到網絡。這些參數將在blobFromImage函數中提供。由于OpenCV和Caffe都使用BGR格式,因此無需交換R和B通道。
# Read imageframe = cv2.imread("image.jpg")# Specify the input image dimensionsinWidth = 368inHeight = 368# Prepare the frame to be fed to the networkinpBlob = cv2.dnn.blobFromImage(frame, 1.0 / 255, (inWidth, inHeight), (0, 0, 0), swapRB=False, crop=False)# Set the prepared object as the input blob of the networknet.setInput(inpBlob)
一旦將圖像傳遞到模型,就可以使用OpenCV中DNN類的正向方法進行預測,該方法通過網絡進行正向傳遞,這只是說它正在進行預測的另一種方式。
output = net.forward()
輸出為4D矩陣:
第一個維度是圖片ID(如果您將多個圖片傳遞到網絡)。
第二個維度指示關鍵點的索引。該模型會生成置信度圖(在圖像上的概率分布,表示每個像素處關節位置的置信度)和所有已連接的零件親和度圖。對于COCO模型,它由57個部分組成-18個關鍵點置信度圖+ 1個背景+ 19 * 2個部分親和度圖。同樣,對于MPI,它會產生44點。我們將僅使用與關鍵點相對應的前幾個點。
第三維是輸出圖的高度。
第四個維度是輸出圖的寬度。
然后,我們檢查圖像中是否存在每個關鍵點。我們通過找到關鍵點的置信度圖的最大值來獲得關鍵點的位置。我們還使用閾值來減少錯誤檢測。
置信度圖
一旦檢測到關鍵點,我們便將其繪制在圖像上。
H = out.shape[2]W = out.shape[3]# Empty list to store the detected keypointspoints = []for i in range(len()): # confidence map of corresponding body's part. probMap = output[0, i, :, :] # Find global maxima of the probMap. minVal, prob, minLoc, point = cv2.minMaxLoc(probMap) # Scale the point to fit on the original image x = (frameWidth * point[0]) / W y = (frameHeight * point[1]) / H if prob > threshold : cv2.circle(frame, (int(x), int(y)), 15, (0, 255, 255), thickness=-1, lineType=cv.FILLED) cv2.putText(frame, "{}".format(i), (int(x), int(y)), cv2.FONT_HERSHEY_SIMPLEX, 1.4, (0, 0, 255), 3, lineType=cv2.LINE_AA)# Add the point to the list if the probability is greater than the threshold points.append((int(x), int(y))) else : points.append(None)cv2.imshow("Output-Keypoints",frame)cv2.waitKey(0)cv2.destroyAllWindows()
由于我們已經繪制了關鍵點,因此我們現在只需將兩對連接即可繪制骨架。
for pair in POSE_PAIRS: partA = pair[0] partB = pair[1] if points[partA] and points[partB]: cv2.line(frameCopy, points[partA], points[partB], (0, 255, 0), 3)
上面顯示的輸出向我們顯示了運動員在特定時刻的準確姿勢。
看完上述內容,你們對如何使用OpenCV對運動員的姿勢進行檢測有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。