中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python如何實現手勢識別

發布時間:2020-08-03 13:52:52 來源:億速云 閱讀:187 作者:小豬 欄目:開發技術

這篇文章主要講解了python如何實現手勢識別,內容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。

使用open-cv實現簡單的手勢識別。剛剛接觸python不久,看到了很多有意思的項目,尤其時關于計算機視覺的。網上搜到了一些關于手勢處理的實驗,我在這兒簡單的實現一下(PS:和那些大佬比起來真的是差遠了,畢竟剛接觸不久),主要運用的知識就是opencv,python基本語法,圖像處理基礎知識。

最終實現結果:

python如何實現手勢識別

獲取視頻(攝像頭

這部分沒啥說的,就是獲取攝像頭。

cap = cv2.VideoCapture("C:/Users/lenovo/Videos/1.mp4")#讀取文件
#cap = cv2.VideoCapture(0)#讀取攝像頭
while(True):
  ret, frame = cap.read()  key = cv2.waitKey(50) & 0xFF
  if key == ord('q'):
  	break
cap.release()
cv2.destroyAllWindows()

膚色檢測

這里使用的是橢圓膚色檢測模型
在RGB空間里人臉的膚色受亮度影響相當大,所以膚色點很難從非膚色點中分離出來,也就是說在此空間經過處理后,膚色點是離散的點,中間嵌有很多非膚色,這為膚色區域標定(人臉標定、眼睛等)帶來了難題。如果把RGB轉為YCrCb空間的話,可以忽略Y(亮度)的影響,因為該空間受亮度影響很小,膚色會產生很好的類聚。這樣就把三維的空間將為二維的CrCb,膚色點會形成一定得形狀,如:人臉的話會看到一個人臉的區域,手臂的話會看到一條手臂的形態。

def A(img):

  YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #轉換至YCrCb空間
  (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
  cr1 = cv2.GaussianBlur(cr, (5,5), 0)
  _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu處理
  res = cv2.bitwise_and(img,img, mask = skin)
  return res

輪廓處理

輪廓處理的話主要用到兩個函數,cv2.findContours和cv2.drawContours,這兩個函數的使用使用方法很容易搜到就不說了,這部分主要的問題是提取到的輪廓有很多個,但是我們只需要手的輪廓,所以我們要用sorted函數找到最大的輪廓。

def B(img):

  #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny檢測
  h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #尋找輪廓
  contour = h[0]
  contour = sorted(contour, key = cv2.contourArea, reverse=True)#已輪廓區域面積進行排序
  #contourmax = contour[0][:, 0, :]#保留區域面積最大的輪廓點坐標
  bg = np.ones(dst.shape, np.uint8) *255#創建白色幕布
  ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #繪制黑色輪廓
  return ret

全部代碼

""" 從視頻讀取幀保存為圖片"""
import cv2
import numpy as np
cap = cv2.VideoCapture("C:/Users/lenovo/Videos/1.mp4")#讀取文件
#cap = cv2.VideoCapture(0)#讀取攝像頭

#皮膚檢測
def A(img):

  YCrCb = cv2.cvtColor(img, cv2.COLOR_BGR2YCR_CB) #轉換至YCrCb空間
  (y,cr,cb) = cv2.split(YCrCb) #拆分出Y,Cr,Cb值
  cr1 = cv2.GaussianBlur(cr, (5,5), 0)
  _, skin = cv2.threshold(cr1, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU) #Ostu處理
  res = cv2.bitwise_and(img,img, mask = skin)
  return res

def B(img):

  #binaryimg = cv2.Canny(Laplacian, 50, 200) #二值化,canny檢測
  h = cv2.findContours(img,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) #尋找輪廓
  contour = h[0]
  contour = sorted(contour, key = cv2.contourArea, reverse=True)#已輪廓區域面積進行排序
  #contourmax = contour[0][:, 0, :]#保留區域面積最大的輪廓點坐標
  bg = np.ones(dst.shape, np.uint8) *255#創建白色幕布
  ret = cv2.drawContours(bg,contour[0],-1,(0,0,0),3) #繪制黑色輪廓
  return ret


while(True):

  ret, frame = cap.read()
  #下面三行可以根據自己的電腦進行調節
  src = cv2.resize(frame,(400,350), interpolation=cv2.INTER_CUBIC)#窗口大小
  cv2.rectangle(src, (90, 60), (300, 300 ), (0, 255, 0))#框出截取位置
  roi = src[60:300 , 90:300] # 獲取手勢框圖

  res = A(roi) # 進行膚色檢測
  cv2.imshow("0",roi)

  gray = cv2.cvtColor(res, cv2.COLOR_BGR2GRAY)
  dst = cv2.Laplacian(gray, cv2.CV_16S, ksize = 3)
  Laplacian = cv2.convertScaleAbs(dst)

  contour = B(Laplacian)#輪廓處理
  cv2.imshow("2",contour)

  key = cv2.waitKey(50) & 0xFF
  if key == ord('q'):
      break
cap.release()
cv2.destroyAllWindows()

看完上述內容,是不是對python如何實現手勢識別有進一步的了解,如果還想學習更多內容,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

九江市| 南木林县| 镇沅| 孟津县| 平度市| 岱山县| 抚松县| 黄大仙区| 荔波县| 临猗县| 北碚区| 卓资县| 汤阴县| 布拖县| 廊坊市| 兴安盟| 右玉县| 定南县| 宝山区| 梅州市| 石阡县| 察雅县| 小金县| 苏尼特左旗| 七台河市| 微山县| 梅河口市| 文化| 白沙| 临桂县| 石狮市| 探索| 通江县| 临安市| 叶城县| 蓬溪县| 杭锦后旗| 武定县| 东乌珠穆沁旗| 望奎县| 梧州市|