5LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2
Face Mask Detector using Deep Learning model MobileNetV2
Phạm Thị Hường
Email: pthuong@saodo.edu.vn
Trường Đại học Sao Đỏ
Ngày nhận bài: 13/4/2020
Ngày nhận bài sửa sau phản biện: 26/9/2020
Ngày chấp nhận đăng: 30/9/2020
Tóm tắt
Nghiên cứu này trình bày phương pháp học sâu (deep learning - DL) MobileNetV2 n
8 trang |
Chia sẻ: huongnhu95 | Lượt xem: 800 | Lượt tải: 0
Tóm tắt tài liệu Phát hiện khẩu trang sử dụng mô hình học sâu MobileNetV2, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
hằm phát hiện người
đeo khẩu trang trên ảnh và video thời gian thực. Mạng được huấn luyện để thực hiện nhận dạng hai lớp
gồm những người đeo khẩu trang và những người không đeo khẩu trang, đầu vào là các ảnh mầu RBG
với độ phân giải 224×224. Các ảnh mẫu được lấy từ cơ sở dữ liệu Real World Masked Face Dataset. Kết
quả thử nghiệm trên bộ mẫu gồm 4.591 mẫu cho khả nĕng phát hiện chính xác đạt 99,22% cho thấy đây
là một trong những phương pháp góp phần hạn chế lây nhiễm dịch bệnh COVID-19 nhằm bảo vệ sức
khỏe cộng đồng.
Từ khóa: COVID-19; học sâu; phát hiện khẩu trang.
Abstract
This study presents a deep learning method to detect people who wear masks on images and real-
time videos. A MobileNetV2 network was used to train a binary recognition task (people with mask or
without mask). The input RGB color images were at resolution of 224×224. The set of 4.591 images was
taken from Real World Fase Dataset to train and test the network. Numerical results showed an accurate
detection at 99,22%, whichproves that this could be one of the measures contributing to the limit of
COVID-19 disease transmission to protect public health.
Keywords: COVID-19; deep learning; face mask detection.
1. ĐẶT VẤN ĐỀ
Hiện tại, dịch bệnh COVID-19 vẫn có diễn biến
phức tạp trên toàn thế giới, nó không chỉ ảnh
hưởng đến kinh tế, thương mại, dịch vụ mà còn
ảnh hưởng không nhỏ đến tâm lý xã hội của người
dân và chưa có vacxin điều trị cho nên cần kiểm
soát tốt nguồn lây nhiễm. Leung et al. [1] cho rằng
khẩu trang có thể làm giảm sự lây lan của vi-rút
Corona vì đa số các ca lây nhiễm COVID-19 do
tiếp xúc rất gần và không đeo khẩu trang khi nói
chuyện. Theo trung tâm kiểm soát bệnh tật CDC
(Centers for Disease Control and Prevention),
khẩu trang được khuyến nghị là một rào chắn đơn
giản để giúp ngĕn các giọt bắn từ đường hô hấp
bay vào không khí và lên người khác. Khuyến nghị
này dựa trên nghiên cứu vai trò của các giọt bắn
từ đường hô hấp đối với sự lây lan của vi-rút gây
ra COVID-19, kết hợp với bằng chứng mới xuất
hiện từ các nghiên cứu lâm sàng và trong phòng
thí nghiệm cho thấy khẩu trang làm giảm việc phun
các giọt bắn khi đeo qua mũi và miệng [2]. Các
giọt cũng có thể rơi xuống các bề mặt nơi vi-rút có
thể tồn tại. Do đó, môi trường trực tiếp của một cá
nhân bị nhiễm bệnh có thể đóng vai trò là nguồn
lây truyền do tiếp xúc. Theo các chuyên gia của Tổ
chức Y tế thế giới (WHO), đeo khẩu trang có thể
hạn chế sự lây lan của một số bệnh đường hô hấp
trong đó có COVID-19. Dịch bệnh này lây lan chủ
yếu giữa những người tiếp xúc gần với nhau (trong
khoảng 6 feet), vì vậy việc sử dụng khẩu trang đặc
biệt quan trọng ở những nơi mọi người gần nhau
hoặc nơi khó có thể duy trì cách ly xã hội. WHO
cũng khuyến cáo mọi người nên đeo khẩu trang
nếu họ có triệu chứng hô hấp, hoặc họ đang chĕm
sóc những người có triệu chứng [3].
Như vậy, phát hiện người đeo khẩu trang đề cập
đến việc phát hiện xem một người đeo khẩu trang
hay không và vị trí của khuôn mặt đó [4] trở thành
Người phản biện: 1. PGS. TS. Trần Hoài Linh
2. TS. Đỗ Văn Đỉnh
6NGHIÊN CỨU KHOA HỌC
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
một nhiệm vụ quan trọng nhưng nghiên cứu liên
quan đến vấn đề này chưa phổ biến. Trên thế giới,
đã có một số nghiên cứu phát hiện người đeo hay
không đeo khẩu trang. Trong [5] đã xây dựng mô
hình CNN để phát hiện khuôn mặt đeo khẩu trang,
mô hình có độ chính xác 98,86% với bộ huấn luyện
và 96,19% với bộ thử nghiệm. Tác giả sử dụng đặc
trưng Haar để phát hiện khuôn mặt và CNN với các
lớp khác nhau như Conv2D, MaxPooling2D, Flatten,
Dropout và Dense. Trong [6] sử dụng PyTorch và
CNN để cài đặt học sâu. Các mô hình đã được thử
nghiệm với hình ảnh và video thời gian thực với độ
chính xác của mô hình là 60%. Trong [7] dùng mô
hình học sâu thay vì mô hình Haar-Cascade, CNN
sử dụng 4 lớp chập theo sau là 2 lớp tuyến tính,
dùng ReLU làm chức nĕng kích hoạt và MaxPool2
là lớp tổng hợp. Huấn luyện mô hình trong 10 lần
lặp và độ chính xác đạt cao nhất tại lần lặp thứ 8
là 99%. Trong [8], sử dụng deepleaning và bộ dữ
liệu của tác giả Prajna Bhandary là bộ dữ liệu đào
tạo có phần hạn chế bởi nhãn lớp có khẩu trang
được tạo một cách nhân tạo. Cụ thể, chụp ảnh
bình thường của khuôn mặt sau đó tùy chỉnh để
thêm khẩu trang cho chúng. Phương pháp này
dễ hơn nhiều so với áp dụng các mốc trên khuôn
mặt. Các mốc trên khuôn mặt cho phép chúng ta
tự động suy ra vị trí của các cấu trúc khuôn mặt,
bao gồm: Đôi mắt, lông mày, mũi, miệng, hàm.
Dựa vào các mốc trên khuôn mặt để xây dựng bộ
dữ liệu khuôn mặt đeo khẩu trang. Ngoài ra, bộ dữ
liệu nhân tạo hình ảnh khuôn mặt đeo khẩu trang
không chứa các hình ảnh có thể khiến phân loại
nhầm. Ở Pháp cũng sử dụng AI để kiểm tra xem
mọi người có đeo khẩu trang trên phương tiện giao
thông công cộng hay không như tại ga tàu điện
ngầm Chatelet-Les Halles. Tại Việt Nam, Robot do
Đại học Công nghệ (ĐH Quốc gia) chế tạo để phát
hiện người không đeo khẩu trang và nhắc nhở sử
dụng những thiết bị, linh kiện có sẵn. Camera tích
hợp cảm biến laser để đo khoảng cách, phát hiện
người ra vào cửa. Cùng lúc, camera sẽ thu lại hình
ảnh và truyền tới máy tính. Các chi tiết chính trên
khuôn mặt như mắt, mũi, miệng sẽ được số hóa
và xử lý. Nếu máy tính phát hiện mũi và miệng bị
che, có nghĩa là người đó đang đeo khẩu trang.
Còn trong trường hợp miệng bị che nhưng mũi
hở, hoặc cả mũi và miệng đều hở, nghĩa là người
đó đeo chưa đúng cách hoặc không đeo. Khi đó
máy tính sẽ lập tức kích hoạt loa và phát ra thông
báo. Độ chính xác phụ thuộc nhiều vào bối cảnh,
chẳng hạn ánh sáng, cách di chuyển của người
ra vào cao nhất đã đạt 95%. Như vậy, phát hiện
khẩu trang là một nhiệm vụ cần thiết trong tình hình
hiện nay, mục tiêu ngoài nhắc nhở những cá nhân
không đeo khẩu trang, mà còn tạo ra dữ liệu thống
kê giúp chính quyền dự đoán sự bùng phát của
COVID-19 trong tương lai. Nghiên cứu này tiếp
cận theo phương pháp học sâu sử dụng mô hình
MobileNetV2, một mô hình khá nhẹ, số lượng tham
số ít, tốc độ tính toán nhanh và dễ triển khai ứng
dụng real time trên các thiết bị di động hoặc thống
nhúng có khả nĕng tính toán thấp để tự động phát
hiện cùng lúc nhiều người không đeo khẩu trang
trên ảnh và video thời gian thực với bộ dữ liệu
người đeo khẩu trang thực.
Hình 1. Sơ đồ thuật toán phát hiện khẩu trang
Begin
Load ảnh/video
Dự đoán
Có khẩu trang
Có Không
Thông báo with _mask
Kết thúc
Thông báo with _mask
Lưu hình ảnh, thời gian hiện tại
7LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
2. NỘI DUNG NGHIÊN CỨU
2.1. Bài toán phát hiện khẩu trang
Phát hiện đối tượng là để trả lời câu hỏi: “Đối tượng
cần tìm có ở trong ảnh hay video hay không?” và
“Nếu có thì nằm ở vị trí nào?” Trong bài toán phát
hiện người đeo khẩu trang cần trả lời câu hỏi người
trong ảnh/video có hay không đeo khẩu trang? Bài
toán phân loại này gồm hai bước là xây dựng mô
hình và vận hành mô hình. Cho sẵn một tập dữ liệu
các khuôn mặt được gán nhãn là không đeo khẩu
trang hay có đeo khẩu trang gọi tắt là lớp không
khẩu trang và lớp có khẩu trang. Cần một phương
pháp huấn luyện để xây dựng một mô hình phân
lớp từ tập dữ liệu mẫu đó, sau đó dùng mô hình
này dự đoán lớp của những khuôn mặt mới chưa
biết nhãn.
2.2. Tiền xử lý dữ liệu
Cơ sở dữ liệu hình ảnh thu thập tại Real World
Masked Face Dataset (RMFD) chứa 5.000 khuôn
mặt đeo khẩu trang của 525 người và 90.000
khuôn mặt bình thường, sau đó tiến hành tiền xử
lý để đưa vào mô hình huấn luyện [11]. Các bước
xử lý trước bao gồm thay đổi kích thước thành
224 × 224 pixel, chuyển đổi sang định dạng mảng,
chuyển kênh màu BGR sang RGB và chia tỷ lệ
cường độ pixel trong hình ảnh đầu vào thành phạm
vi [-1, 1]. Sau đó sử dụng scikit-learn One-Hot-
Encoding để tạo nhãn lớp cho mỗi hình ảnh. Trong
chiến lược này, mỗi véc-tơ giá trị nhãn đầu ra được
chuyển đổi thành dạng mới, trong đó chỉ có 1 đầu
ra bằng “1” ứng với mã phân loại của véc-tơ đầu
vào tương ứng còn các đầu ra khác đều bằng “0”.
Tập hình ảnh này gọi là tập huấn luyện. Trong
nghiên cứu này tác giả sử dụng 686 hình ảnh khuôn
mặt không đeo khẩu trang và 3.905 hình ảnh đeo
khẩu trang làm dữ liệu huấn luyện mô hình.
Hình 2. (a) Mặt không có khẩu trang và (b) mặt có khẩu trang
(a) (b)
Hình 3. (a), (b), (c), (d) Minh họa các ảnh trong bộ dữ liệu phát hiện khẩu trang
(a) Mặt không có khẩu trang
(b) Mặt có khẩu trang
(c) Mặt có và không có khẩu trang
(d) Mặt nhầm lẫn là khẩu trang
8NGHIÊN CỨU KHOA HỌC
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
2.3. Huấn luyện mô hình
CNN (Mạng nơron tích chập) có nhiều phiên bản
của mạng được đào tạo trước và kiến trúc tốt như
AlexNet, ResNet, Inception, LeNet, MobileNet,
Trong trường hợp này sử dụng MobileNetV2 là mô
hình hướng di động, nhẹ và hiệu quả do số lượng
tham số ít. MobileNetV2 xây dựng dựa trên các ý
tưởng từ MobileNetV1 [10], sử dụng tích chập có
thể phân tách theo chiều sâu với các đặc trưng mới
cho kiến trúc.
Trong bước này, chia dữ liệu thành tập huấn luyện
chứa các hình ảnh mà mô hình CNN sẽ được huấn
luyện và tập kiểm tra với các hình ảnh mà mô hình
sẽ kiểm tra. Cụ thể lấy split_size = 0.8, có nghĩa là
80% tổng số hình ảnh cho huấn luyện và 20% còn
lại của hình ảnh cho kiểm tra một cách ngẫu nhiên.
Sau đó, xây dựng mô hình CNN với các lớp khác
nhau như AveragePooling2D với trọng số 7×7,
Flatten, Dropout và Dense. Trong lớp Dense cuối
cùng, sử dụng hàm softmax để xuất ra một véc - tơ
thể hiện xác suất của mỗi lớp.
Ảnh huấn luyện
Tiền xử lý ảnh
Trích chọn đặc trưng
Huấn luyện mô hình
Lưu mô hình
Hình 4. Huấn luyện mô hình
2.4. Vận hành mô hình
Tải hình ảnh, video đầu vào sau đó phát hiện
khuôn mặt trong ảnh. Áp dụng bộ phát hiện khẩu
trang để phân loại khuôn mặt đeo khẩu trang (with_
mask) hoặc là không đeo khẩu trang (without_
mask). Tiền xử lý được thực hiện là chuẩn hóa
kích thước và hoán đổi kênh màu. Để giảm nhiễu
cho ảnh do chiếu sáng cần chuyển ảnh sang dạng
ảnh blob thông qua hàm blobFromImage của
OpenCV.
Hình 5. Vận hành mô hình
2.5. Phát hiện khẩu trang trên ảnh
Với mỗi hình ảnh trong bộ kiểm tra, cần tìm chỉ
mục của nhãn với xác suất dự đoán lớn nhất tương
ứng, đánh giá và lưu mô hình. Sơ đồ phát hiện
khẩu trang trên ảnh như trên hình 6.
2.6. Phát hiện khẩu trang trên ảnh
Đối với vấn đề xác định người trong video/webcam
có đeo khẩu trang hay không cần xác định các
khuôn mặt trong webcam và phân loại khuôn mặt
đeo khẩu trang. Đầu tiên, lặp qua các frame từ
video và thay đổi kích thước để có chiều rộng tối đa
400 pixel, phát hiện khuôn mặt trong frame và xác
định xem họ có đang đeo khẩu trang hay không?
Quy trình chi tiết được thể hiện trên hình 7.
Hình 6. Sơ đồ phát hiện người đeo khẩu trang trên ảnh
Load ảnh/video cần kiểm tra
Phát hiện mặt từ ảnh/video
Áp dụng mô hình để dự đoán
Đưa ra kết quả dự đoán
Ảnh nguồn
Kết quả
MobileNetV2
Hàm kích hoạt
Softmax 2 kênh ra
Pooling theo
giá trị trung bình
Dropout
p = 0,5
Phẳng hóa ma trận
thành véc - tơ
Kích hoạt phi tuyến
Relu 128 kênh ra
9LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
Hình 7. Sơ đồ phát hiện người đeo khẩu trang trên video/webcam
3. KẾT QUẢ NGHIÊN CỨU VÀ THẢO LUẬN
Dữ liệu thực hiện huấn luyện được lấy tại Real
World Masked Face Dataset với nhiều ánh sáng,
tư thế, sự che khuất khác nhau, một số khuôn mặt
được che bằng tay hoặc các vật thể khác thay vì
khẩu trang thực. Dữ liệu bao gồm các mặt có khẩu
trang, mặt không có khẩu trang, mặt có và không
có khẩu trang trong một hình ảnh và hình ảnh nhầm
là khẩu trang nhưng thực tế thì không có.
Để đánh giá tập trọng số cần xác định lỗi cho cả
huấn luyện (loss) và kiểm tra (val_loss) ta sử dụng
hàm Cross Entropy là nhị phân chéo binary_cros-
sentropy. Cụ thể, tính toán loss của mỗi trường
hợp bằng cách tính giá trị trung bình như sau:
𝑙𝑙𝑜𝑜𝑜𝑜𝑜𝑜(𝑦𝑦, 𝑦𝑦 () = −,1𝑛𝑛 .0𝑦𝑦! . log(𝑦𝑦4!)"!#$ + (1 − 𝑦𝑦!). log (1 − 𝑦𝑦4!)6
Với n là số lượng giá trị vô hướng trong đầu ra
của mô hình, hàm loss trả về một số thực không
âm thể hiện sự chênh lệch giữa hai đại lượng yˆ là
xác suất nhãn được dự đoán và y là xác suất của
nhãn đúng. Sau đó sử dụng thuật toán gradient
descent “adam” (Adaptive Mô - ment Estimator)
để tối ưu [13].
Hơn nữa, để kiểm định hiệu nĕng của mô hình
phân loại, cần tính toán tỷ lệ chính xác trung bình
trên tất cả các dự đoán sử dụng thang đo ma trận
nhầm lẫn như sau:
Bảng 1. Ma trận nhầm lẫn
Dự đoán là
Positive
Dự đoán là
Negative
Thực tế là Positve TP FN
Thực tế là Negative FP TN
Trong đó:
Các hàng của ma trận là nhãn lớp thực tế, các cột
của ma trận là nhãn lớp dự đoán.
- TN: Số lượng khuôn mặt không đeo khẩu trang
được phân loại chính xác.
- FN: Số lượng khuôn mặt đeo khẩu trang bị phân
loại nhầm là khuôn mặt không đeo khẩu trang.
- TP: Số lượng khuôn mặt đeo khẩu trang được
phân loại chính xác.
- FP: Số lượng khuôn mặt không đeo khẩu trang bị
phân loại nhầm là khuôn mặt đeo khẩu trang.
Từ đó, độ chính xác của mô hình được tính theo
công thức sau:𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴𝐴 = 𝑇𝑇𝑇𝑇 + 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇 + 𝑇𝑇𝑇𝑇 + 𝐹𝐹𝑇𝑇 Đây là tỉ lệ của tất cả trường hợp phân loại đúng
(không phân biệt negative/positive) trên toàn bộ
trường hợp trong mẫu kiểm tra.
Một độ đo cũng thường được dùng để đánh giá mô
hình phân lớp đó là F-measure hay F-core được
tính dựa trên 2 độ đo khác là precision và recall, và
được tính như sau:
Bảng 2. Đánh giá huấn luyện mô hình
Thời
gian (s) loss acc val_loss val_acc
49 0,8343 0,6261 0,3932 0,8050
50 0,4339 0,7987 0,2218 0,9300
53 0,2503 0,9007 0,1433 0,9450
52 0,1726 0,9490 0,1104 0,9550
52 0,1405 0,9582 0,0907 0,9700
59 0,1336 0,9490 0,0770 0,9800
57 0,0957 0,9752 0,0674 0,9800
48 0,0802 0,9752 0,0595 0,9850
49 0,0718 0,0718 0,0548 0,9850
46 0,0843 0,9673 0,0481 0,9800
43 0,0728 0,9778 0,0428 0,9850
𝑙𝑙𝑜𝑜𝑜𝑜𝑜𝑜(𝑦𝑦, 𝑦𝑦 () = −,1𝑛𝑛 .0𝑦𝑦! . log(𝑦𝑦4!)"!#$ + (1 − 𝑦𝑦!). log (1 − 𝑦𝑦4!)6 (1)
(2)
𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 = 𝑇𝑇𝑃𝑃𝑇𝑇𝑃𝑃 + 𝐹𝐹𝑃𝑃 𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅𝑅 = 𝑇𝑇𝑇𝑇𝑇𝑇𝑇𝑇 + 𝐹𝐹𝐹𝐹 𝐹𝐹!"#$% = 21𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃𝑃 + 1𝑅𝑅𝑃𝑃𝑃𝑃𝑅𝑅𝑅𝑅𝑅𝑅 = 𝑇𝑇𝑃𝑃𝑇𝑇𝑃𝑃 + 𝐹𝐹𝐹𝐹 + 𝐹𝐹𝑃𝑃2
(3)
(4)
(5)
Khởi tạo
video
Hiện thị
kết quả
Trích xuất ảnh
từ các frame
Chuyển kết quả
vào frame
Load phát hiện
khuôn mặt
Load mô hình
MobileNetV2
Ảnh khuôn mặt
Tiền xử lý ảnh
10
NGHIÊN CỨU KHOA HỌC
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
Thời
gian (s) loss acc val_loss val_acc
48 0,0507 0,9817 0,0399 0,9950
60 0,0423 0,9869 0,0372 0,9900
74 0,0555 0,9843 0,0373 0,9900
77 0,0420 0,9883 0,0333 0,9950
71 0,0406 0,9869 0,0307 0,9950
57 0,0383 0,9895 0,0331 0,9900
57 0,0407 0,9869 0,0286 0,9950
55 0,0324 0,9900 0,0290 0,9922
42 0,0322 0,9900 0,0297 0,9922
Tiến hành huấn luyện với tốc độ học 0.0001, sau
20 lần lặp với số số lượng mẫu (Batch_size) sử
dụng cho mỗi lần cập nhật trọng số là 32 ta thu
được kết quả (bảng 3). Như bảng 3 có thể thấy,
sau 20 lần lặp, mô hình đạt được độ chính xác
khoảng 99% trên bộ thử nghiệm (bộ kiểm tra). Đây
là một giá trị tương đối cao.
Bảng 3. Đánh giá mô hình
Precision Recall Fscore
Có khẩu trang 0,97 1,00 0,98
Không khẩu trang 1,00 0,99 0,99
Trọng số trung bình 0,99 0,99 0,99
Hình 8. Đồ thị độ chính xác và giá trị lỗi
Kết quả cài đặt phát hiện khẩu trang trên ảnh:
Hình 9. Kết quả phát hiện người đeo khẩu trang trên ảnh
Hình 10. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối khoảng cách 3 m
11
LIÊN NGÀNH ĐIỆN - ĐIỆN TỬ - TỰ ĐỘNG HÓA
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
Hình 11. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng tối
Hình 12. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình
Hình 13. Kết quả phát hiện người đeo khẩu trang trên webcam điều kiện ánh sáng trung bình
Với những khuôn mặt không đeo khẩu trang, hệ
thống phát hiện và lưu dữ liệu ảnh là một trong
những cơ sở thống kê dự đoán sự bùng phát trong
tương lai.
Hình 14. Kết quả lưu người không đeo khẩu trang trên webcam
12
NGHIÊN CỨU KHOA HỌC
Tạp chí Nghiên cứu khoa học, Trường Đại học Sao Đỏ, ISSN 1859-4190, Số 3 (70) 2020
4. KẾT LUẬN
Kết quả nghiên cứu cho thấy: Phát hiện người đeo
khẩu trang sử dụng mô hình học sâu MobileNetV2
có độ chính xác khá cao, số lượng tham số ít, giảm
chi phí sản xuất các hệ thống phát hiện nếu triển
khai trên các thiết bị nhúng, có thể phát hiện nhiều
khuôn mặt trên ảnh và video với bộ dữ liệu đeo
khẩu trang thực tế. Hơn nữa, nghiên cứu cũng
thực hiện việc thu thập mặt không đeo khẩu trang
và lưu trữ vào thư mục máy chủ nhằm tạo dữ liệu
thống kê để dự đoán sự bùng phát của dịch bệnh
mà không cần xác định danh tính cá nhân của họ.
TÀI LIỆU THAM KHẢO
[1] N. H. Leung, D. K. Chu, E. Y. Shiu, K.-H. Chan,
J. J. Mc Devitt, B. J. Hau, H.-L. Yen, Y. Li, D. KM,
J. Ip et al.(2020), Respiratory virus shedding in
exhaled breath and efficacy of face masks.
[2] S. Feng, C. Shen, N. Xia, W. Song, M. Fan,
and B. J. Cowling (2020), Rational use of face
masks in the covid-19 pandemic, The Lancet
Respiratory Medicine.
[3] https://vietnamese.cdc.gov/coronavirus/2019-
ncov/prevent-getting-sick/cloth-face-cover-
guidance.html.
[4] Z. Wang, G. Wang, B. Huang, Z. Xiong, Q.
Hong, H. Wu, P. Yi, K. Jiang, N. Wang, Y.
Pei et al. (2020), Masked face recognition
dataset and application, arXiv preprint
arXiv:2003.09093.
[5] https://towardsdatascience.com/covid-19-
face-mask-detection-using-tensorflow-and-
opencv-702dd833515b.
[6] https://www.ideas2it.com/blogs/face-
mask-detector-using-deep- learning-
pytorch-and-computer-vision-opencv/
[7] https://towardsdatascience.com/how-i-
built-a-face-mask-detector-for-covid-19-
using-pytorch-lightning-67eb3752fd61
[8] h t t p s : / / w w w . p y i m a g e s e a r c h .
com/2020/05/04/covid-19-face-mask-
detector-with-opencv-keras-tensorflow-
and-deep-learning/
[9] https://vnexpress.net/dung-robot-de-phat-
hien-nguoi-khong-deo-khau-trang-4099618.
html, đăng ngày 15/5/2020.
[10] A. G. Howard, M. Zhu, B. Chen, D.
Kalenichenko, W. Wang, T. Weyand, M.
Andreetto, and H. Adam (2017), Mobilenets:
Efficient convolutional neural networks for
mobile vision applications, arXiv preprint
arXiv:1704.04861.
[11] https://github.com/X-zhangyang/Real-
World-Masked-Face-Dataset.
[12] h t t p s : // t o w a r d s d a t a s c i e n c e . c o m /
categorical-encoding-using-label-encoding-
and-one-hot-encoder-911ef77fb5bd.
[13] https://phantichdautu.com/2019/07/24/
cac-thuat-toan-toi-uu-trong-tensorflow-
voi-cong-thuc/
THÔNG TIN TÁC GIẢ
Phạm Thị Hường
- Tóm tắt quá trình đào tạo, nghiên cứu (thời điểm tốt nghiệp và chương trình đào
tạo, nghiên cứu):
+ Năm 2004: Tốt nghiệp Đại học chuyên ngành Tin học, Trường Đại học Sư Phạm
Quy Nhơn.
+ Năm 2017: Tốt nghiệp Thạc sĩ ngành Công nghệ thông tin, Trường Đại học sư
phạm Hà Nội.
- Tóm tắt công việc hiện tại: Giảng viên bộ môn Công nghệ thông tin, Trường Đại
học Sao Đỏ.
- Lĩnh vực quan tâm: Tin học, toán học.
- Email: phamthihuongdtth@gmail.com.
- Điện thoại: 0972306806.
Các file đính kèm theo tài liệu này:
- phat_hien_khau_trang_su_dung_mo_hinh_hoc_sau_mobilenetv2.pdf