先決條件是必須先安裝好相關的程式: Python、Opencv。。。。。。
就像 Youtube影片一樣,通過WebCam可以很容易地在Opencv的影像中檢測到臉部,完整Python程式碼如下:
import cv2
import sys
from time import sleep
cascPath = "haarcascade_frontalface_default.xml"
faceCascade = cv2.CascadeClassifier(cascPath)
video_capture = cv2.VideoCapture(0)
while True:
if not video_capture.isOpened():
print('Unable to load camera.')
sleep(5)
pass
# Capture frame-by-frame
ret, frame = video_capture.read()
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
faces = faceCascade.detectMultiScale(
gray,
scaleFactor=1.1,
minNeighbors=5,
minSize=(30, 30)
)
# Draw a rectangle around the faces
for (x, y, w, h) in faces:
cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 255, 0), 2)
# Display the resulting frame
cv2.imshow('Video', frame)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# Display the resulting frame
cv2.imshow('Video', frame)
# When everything is done, release the capture
video_capture.release()
cv2.destroyAllWindows()
現在我們來解析重點程式部分...
OpenCV已經包含許多預先訓練的分類器(classifiers),臉部常用的是 haarcascade_frontalface_default.xml,所以要先加載所需的XML分類器:
cascPath = "haarcascade_frontalface_default.xml"
faceCascade = cv2.CascadeClassifier(cascPath)
接著要將 WebCam 設定為 OpenCV 的視頻源(video source),這樣 OpenCV 可以擷取WebCam的視頻。
video_capture = cv2.VideoCapture(0)
再來循環執行,持續透過 Opencv 的 read()功能從視頻源中讀取一幀(Frame),及返回 ret, frame:
ret是返回值, frame是實際的視頻幀(Frame)讀取(每個循環一幀(Frame))。
ret, frame = video_capture.read()
再來Opencv 讀進來的影像格式預設為BGR,現將其讀取的影像(frame)灰階化得到gray影像。
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
Opencv最重要的人臉檢測函數,使用的是 detectMultiScale函數。它可以檢測出圖片中所有的人臉,並將人臉用vector保存各個人臉的座標、大小(用矩形表示),其函數呼叫如下:
faces = faceCascade.detectMultiScale(
gray,
scaleFactor=1.1,
minNeighbors=5,
minSize=(30, 30)
)
detectMultiScale 參數是: gray 是CV_8U類型的矩陣,其中包含檢測對象的圖像。 scaleFactor 是 指定在圖像大小依每個圖像比例縮小的程度。 minNeighbors是指定每個候選矩形必須保留多少個鄰居的參數。此參數將影響檢測到的人臉質量,較高的值會導致檢測數量較少但質量較高。minSize是最小可能的人臉大小。小於此值的人臉將被忽略。
再來是在偵測到的臉部周圍繪製一個矩形。
# Draw a rectangle around the faces
for (x, y, w, h) in faces:
cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 255, 0), 2)
最後將幀(Frame)顯示。
cv2.imshow('Video', frame)
再來 Python 等待'q'鍵被按下。如果偵測到按下 'q',退出Python。
if cv2.waitKey(1) & 0xFF == ord('q'):
break
最後是離開Python前,釋放capture 的 video。
# When everything is done, release the capture
video_capture.release()
cv2.destroyAllWindows()
video_capture.release()
cv2.destroyAllWindows()
沒有留言:
張貼留言