Khác biệt so với camera cố định, các camera đeo sẽ ghi lại chính xác
những gì có trước mặt chủ thể, chuyển động của camera được định hướng bởi
hoạt động và sự chú ý của người mang cảm biến. Với dữ liệu thu từ cảm biến
đeo, tay và các đối tượng được tương tác có xu hướng xuất hiện ở trung tâm
của khung hình. Những đặc trưng này của egocentric gợi ý hướng tiếp cận để
nhận biết hoạt động dựa trên đặc trưng chuyển động tay, hướng nhìn, tương
tác với đồ vật và ngữ cảnh. Khác với nhận dạng hoạt động thông thường, với
các bài tập PHCN tay, quỹ đạo của tay thường tương tự nhau giữa một số bài
tập nên thường có sự nhầm lẫn khi nhận biết các bài tập này. Với mỗi bài tập
bệnh nhân thường thao tác trên một nhóm đồ vật đặc thù (khối gỗ, chai nước,
hình trụ, quả bóng). Do vậy, các bài tập của bệnh nhân PHCN được đặc trưng
không chỉ bởi tư thế của tay tập, các đồ vật tập cũng như vị trí của chúng
trong các khung hình cũng là thông tin quan trọng để nhận biết nhãn của hoạt
động.
Xuất phát từ nhận xét trên, luận án đã đề xuất một mô hình nhận dạng
hoạt động là sự kết hợp kết quả mạng học sâu R(2+1)D [72] nhận biết hoạt
động dựa trên video RGB và thuật toán phát hiện đối tượng tương tác chính
trong bài tập, từ đó cho ra kết quả nhận biết bài tập của bệnh nhân với độ
chính xác cao. Thuật toán phát hiện đối tượng tương tác được phát triển dựa
trên mô hình phát hiện đối tượng và kỹ thuật theo bám tay đã được đề xuất ở
chương 3 của Luận án.
138 trang |
Chia sẻ: trinhthuyen | Ngày: 29/11/2023 | Lượt xem: 246 | Lượt tải: 0
Bạn đang xem trước 20 trang tài liệu Luận án Nghiên cứu, phát triển các kỹ thuật phân tích hoạt động của bàn tay từ chuỗi hình ảnh thu thập bằng cảm biến đeo, ứng dụng trong hỗ trợ đánh giá bài tập phục hồi chức năng, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
a bước thứ nhất.
95
So sánh vị trí và xác định loại đối tượng tương tác
Đối tượng tương tác trong bài tập là đối tượng có khoảng cách tới tay tập
ít thay đổi nhất qua các khung hình và có tỉ lệ vùng giao nhau với vùng tay
tập là lớn nhất. Do đó luận án đề xuất thuật toán xác định đối tượng tương tác
như sau:
- Đối với mỗi khung hình thứ i trong chuỗi khung hình liên tiếp, tính
điểm đánh giá vị trí giữa tay và từng đối tượng trên khung hình theo công
thức:
, ,
,
_ , _
_ , ,
_
k j i i
k j
Inter OBJ bbox Hand bbox
Score A k j i
OBJ bbox
(4.1)
trong đó 𝑂𝐵𝐽_𝑏𝑏𝑜𝑥𝑘,𝑗: khung bao đối tượng thứ k thuộc lớp j là kết quả
đầu ra của mạng phát hiện đối tượng trên khung hình thứ i. 𝐻𝑎𝑛𝑑_𝑏𝑏𝑜𝑥𝑖 là
khung bao tay tập trên khung hình thứ i, là kết quả đầu ra của bộ theo bám
tay. Inter (O, H) là vùng giao nhau giữa 2 vùng O và H.
- Tính điểm đánh giá vị trí tay và lớp đối tượng thứ j trên khung hình thứ
i:
_
_ , max _ , ,
k Object j
Score C j i Score A k j i
(4.2)
Trong đó 𝑗 = 1 ÷ 4 là lớp đối tượng thứ j, k là đối thứ k thuộc lớp đối
tượng thứ j, trong trường hợp mạng Yolo không phát hiện được đối tượng nào
thuộc lớp đối tượng thứ j trong khung hình thì 𝑆𝑐𝑜𝑟𝑒[𝑗, 𝑖]=0
- Tính điểm đánh giá vị trí tay và lớp đối tượng thứ j trong chuỗi n
khung hình liên tiếp:
1
_ _ ,
n
i
Score F j Score C j i
(4.3)
- Chuẩn hóa điểm đánh giá vị trí về khoảng [0,1]:
4
1
_
_
_
j
Score F j
Score F j
Score F j
(4.4)
Đầu ra của thuật toán so sánh véc-tơ điểm đánh giá các lớp đối tượng
và tay tập {𝑆𝑐𝑜𝑟𝑒_𝐹[𝑗], 𝑗 = 1 ÷ 4 }. Trong đó điểm đánh giá càng cao thì khả
năng lớp đối tượng là loại đối tượng tương tác càng cao.
96
4.2.4. Kết hợp nhận biết hoạt động và loại đối tượng tương tác chính
Trong bộ dữ liệu RehabHand có một số các bài tập tương tự nhau, một
số các cử chỉ của tay là như nhau với các bài tập này, ví dụ như bài tập với
quả bóng (bài tập 1) và bài tập với khối lập phương (bài tập 3). Mạng nhận
biết hoạt động tay rất dễ dự đoán nhầm các bài tập này. Mặt khác, từ việc
nghiên cứu các dữ liệu video bài tập trong bộ RehabHand, luận án rút ra nhận
xét mỗi bài tập PHCN được đặc trưng bởi một loại đối tượng tương tác chính.
Bảng 4.1 là danh sách các bài tập và loại đối tượng tương tác tương ứng trong
bài tập. Do đó, luận án đề xuất kết hợp thông tin về loại đối tượng tương tác
trong bài tập để xác định chính xác loại bài tập bệnh nhân đã tập.
Bảng 4.1 Danh sách bài tập và đối tượng tập tương ứng
Thứ tự Bài tập Đối tượng tương tác
1 Bài tập 1 Quả bóng
2 Bài tập 2 Chai nước
3 Bài tập 3 Khối lập phương
4 Bài tập 4 Khối trụ tròn
-Đầu ra của mạng nhận biết hoạt động là một véc tơ xác xuất dự đoán
các bài tập thực hiện trong chuỗi khung hình:
{𝑃𝑟𝑜𝑏_𝑅𝑒𝑐𝑜𝑔𝑛𝑖𝑧𝑒[𝑗], 𝑗 = 1 ÷ 4}
- Đầu ra của mô hình xác định loại đối tượng tương tác là vec-tơ điểm
đánh giá khả năng lớp đối tượng tương tác:
{𝑆𝑐𝑜𝑟𝑒[𝑗], 𝑗 = 1 ÷ 4 }
- Luận án đề xuất sử dụng phép nhân để kết hợp hai kết quả cho nhận
dạng bài tập. Điểm đánh giá khả năng loại bài tập xác định theo công thức
sau:
𝑆𝑐𝑜𝑟𝑒_𝑒𝑥𝑒𝑟𝑐𝑖𝑠𝑒[𝑗] = 𝑃𝑟𝑜𝑏_𝑅𝑒𝑐𝑜𝑔𝑛𝑖𝑧𝑒[𝑗] × 𝑆𝑐𝑜𝑟𝑒[𝑗] (4.5)
- Bài tập thực hiện trong chuỗi khung hình là có điểm đánh giá khả
năng cao nhất:
𝑗0 = argmax𝑗=1÷4{𝑆𝑐𝑜𝑟𝑒_𝑒𝑥𝑒𝑟𝑐𝑖𝑠𝑒[𝑗]} (4.6)
97
4.3. Thử nghiệm và đánh giá các kết quả
4.3.1. Bộ dữ liệu thử nghiệm
Luận án sử dụng bộ dữ liệu RehabHand đã trình bày trong Chương 2
của luận án để thử nghiệm phương pháp đề xuất. Bệnh nhân tham gia thực
hiện 4 bài tập: Bài tập 1- luyện tập với quả bóng; Bài tập 2 – luyện tập với
chai nước; Bài tập 3 – luyện tập với khối gỗ lập phương; Bài tập 4 – luyện tập
với khối hình trụ tròn.
Các video thu được chia thành các video phân đoạn bài tập và được gán
nhãn. Tổng cộng có 431 video phân đoạn bài tập của 10 bệnh nhân. Thời
lượng mỗi video từ 2-5s. Bảng 4.2 là thống kê số lượng video bài tập của
tương ứng với 10 bệnh nhân
Bảng 4.2 Số lượng video bài tập của bộ RehabHand
TT Bệnh nhân Bài
tập
1
Bài
tập 2
Bài
tập
3
Bài
tập
4
Huấn
luyện
Kiểm
thử
1 Bệnh nhân số 1 10 32 11 12 X
2 Bệnh nhân số 2 26 8 17 9 X
3 Bệnh nhân số 3 23 6 9 X
4 Bệnh nhân số 4 9 4 X
5 Bệnh nhân số 5 15 7 13 X
6 Bệnh nhân số 6 6 X
7 Bệnh nhân số 7 8 4 9 X
8 Bệnh nhân số 8 7 6 8 X
9 Bệnh nhân số 9 16 23 47 30 X
10 Bệnh nhân số 10 10 6 22 18 X
Tổng cộng 124 96 97 114 7 3
Các video bài tập đã được phân đoạn của bộ dữ liệu “RehabHand” sẽ
được chia ra thành 2 tập là tập huấn luyện và tập kiểm tra. Tập kiểm tra gồm 3
98
bệnh nhân (Bệnh nhân số 1, Bệnh nhân số 5 và bệnh nhân số 9). Tập huấn
luyện gồm 7 bệnh nhân còn lại.
4.3.2. Môi trường cài đặt huấn luyện và các độ đo đánh giá mô hình
Các mô hình và thuật toán của luận án đều được lập trình và huấn luyện
sử dụng ngôn ngữ lập trình Python và thư viện PytorchTensorflow backend
trên máy tính với card GeForce GTX 1080 Ti GPU.
Luận án đã sử dụng độ chính xác phân loại (accuracy) và ma trận nhầm
lẫn (confusion matrix) để đánh giá các phương pháp nhận dạng bài tập.
4.3.3. Đánh giá độ chính xác của mạng R(2+1) D
- Độ chính xác trên tập huấn luyện
Luận án đã thử nghiệm cài đặt mạng R(2+1)D và huấn luyện mạng sử
dụng bộ dữ liệu “RehabHand” cho nhận dạng bài tập với dữ liệu huấn luyện
gồm các video thu bài tập của 7 bệnh nhân. Tập dữ liệu được chia thành theo
tỉ lệ 8:2 cho huấn luyện (training) và xác thực mô hình (validation)
Mô hình được huấn luyện với các tham số như sau:
-batch_size = 16 (số lượng mẫu dữ liệu trong một lần huấn luyện)
-input_size = 112 (kích thước chuẩn hóa của ảnh)
-epoch = 30 (1 epoch là một lần duyệt qua hết các dữ liệu trong tập huấn
luyện)
-Learning rate = 1e-3 = 0,001 (tỷ lệ của một bước dịch chuyển trọng số
mô hình được cập nhật theo các batch truyền vào)
Hình 4.13 là độ chính xác trung bình của mô hình trong quá trình huấn
luyện.
Hình 4.13 Độ chính xác của mô hình R(2+1)D trong quá trình huấn luyện
99
Bảng 4.3 là kết quả về độ chính xác lớn nhất của mô hình với từng bài
tập, và Hình 4.14 là ma trận nhầm lẫn của mô hình.
Bảng 4.3 Độ chính xác của mô hình huấn luyện
TT
Bài tập Độ chính xác (%)
1
Bài tập 1 94
2
Bài tập 2 94
3
Bài tập 3 69
4
Bài tập 4 93
Trung bình các bài tập 86.3
Hình 4.14 Ma trận nhầm lẫn của mạng R(2+1)D trên tập huấn luyện
Bảng số liệu và hình vẽ cho thấy giá trị độ chính xác trung bình của mô
hình đạt được khá cao là 86,3%. Bài tập số 3 bị nhận nhầm sang bài tập 1 khá
nhiều lên tới 31% có thể kết quả này do việc 2 bài tập này có không gian và
cách thức thực hiện khá giống nhau. Kết quả của các bài tập còn lại rất cao
với bài tập 1 và 2 là 94%, bài tập 4 là 93%.
- Độ chính xác trên tập dữ liệu thử nghiệm
Kết thúc huấn luyện mô hình R(2+1)D, tham số tốt nhất của mô hình
được lưu lại. Tiếp theo luận án thực hiện đánh giá độ chính xác của mô hình
100
thu được trên tập dữ liệu test là các video bài tập của 3 bệnh nhân độc lập với
dữ liệu huấn luyện. Kết quả đánh giá độ chính xác và ma trận nhầm lẫn với 4
lớp bài tập theo số lượng trong video test được thể hiện trong Bảng 4.4 và
Hình 4.15. Độ chính xác của nhận dạng bài tập trong những các video test là:
86,11%. Kết quả này khá tương đồng với kết quả huấn luyện. Các bài tập 2 và
4 có kết quả nhận dạng khá tốt trong khi đó bài tập 1 và 3 có thấp hơn và bị
nhầm lẫn với nhau nhiều.
Bảng 4.4 Độ chính xác nhận dạng trên tập thử nghiệm
TT Bài tập
Tổng số
video
Số video nhận
dạng đúng
Độ chính xác
(%)
1 Bài tập 1 41 27 65,85
2 Bài tập 2 62 62 100
3 Bài tập 3 58 45 77,59
4 Bài tập 4 55 52 94,54
Trung bình
các bài tập
86,11
Hình 4.15 Ma trận nhầm lẫn của mạng R(2+1)D trên tập thử nghiệm
4.3.4. Đánh giá phương pháp xác định loại đối tượng tương tác chính
Luận án đã thực hiện thử nghiệm để đánh giá độ chính xác của phương
pháp xác định loại đối tượng tương tác chính trong các video bài tập của 3
bệnh nhân trong bộ dữ liệu thử nghiệm. Phương pháp thử nghiệm như sau:
các khung hình liên tiếp trong video phân đoạn bài tập được đưa qua mạng
phát hiện đối tượng để xác định các đối tượng (loại đối tượng và vị trí đối
101
tượng) có trong mỗi khung hình. Đồng thời các khung hình liên tiếp này cũng
được đưa qua bộ theo bám tay để xác định được vị trí của tay tập trên mỗi
khung hình. Các đầu ra của bộ phát hiện đối tượng và bộ theo bám tay được
sử dụng để tính toán vec tơ điểm đánh giá các lớp đối tượng {𝑆𝑐𝑜𝑟𝑒[𝑗], 𝑗 =
1 ÷ 4 } như đã trình bày trong mục 4.2.3. Loại đối tượng tương tác chính
trong video là đối tượng thứ 𝑗0 có điểm cao nhất:
𝑗0 = argmax
𝑗=1÷4
{𝑆𝑐𝑜𝑟𝑒[𝑗] }
Kết quả đánh giá thể hiện trong Bảng 4.5 cho thấy độ chính xác của
phương pháp xác định loại đối tượng tương tác chính trong các bài tập khá
cao, trung bình trên tất cả các lớp là 80,09%. Cao nhất là loại đối tượng chai
nước với độ chính xác là 93,55%, thấp nhất là đối tượng khối trụ tròn với độ
chính xác là 76,36%. Điều này được giải thích là do đối tượng chai nước khá
lớn trong khung hình không bị che khuất nhiều nên bộ phát hiện đối tượng dễ
dàng phát hiện đúng, trong khi đó đối tượng khối trụ tròn khá bé và bị che
khuất bởi tay nên bộ phát hiện đối tượng rất khó để phát hiện được loại này.
Bảng 4.5 Độ chính xác phương pháp xác định loại đối tượng tương tác
TT
Đối tượng Tổng số
video
Xác định
đúng
Độ chính xác
(%)
1
Quả bóng 41 33 80,49
2
Chai nước 62 58 93,55
3
Khối lập phương 58 40 68,96
4
Khối trụ tròn 55 42 76,36
Trung bình 80,09
4.3.5. Đánh giá độ chính xác của phương pháp nhận dạng đã đề xuất
Luận án đã thực hiện cài đặt mô hình nhận biết bài tập PHCN đã đề xuất
và đánh giá mô hình trên tập dữ liệu thử nghiệm gồm các video bài tập của 3
bệnh nhân. Các bước dự đoán bài tập thực hiện trong mỗi video theo phương
pháp đề xuất như sau: chuỗi khung hình được lấy mẫu và đưa vào mạng
R(2+1)D để xác định vectơ dự đoán xác xuất bài tập, đồng thời chuỗi khung
hình được đưa qua thuật toán xác định loại bài tập tương tác để tính toán vec
102
tơ điểm đánh giá loại đối tượng. Sau đó kết hợp hai vec tơ đầu ra để xác định
bài tập trên video theo phương pháp đã được trình bày trong mục 4.2.4.
Bảng 4.6 là kết quả về độ chính xác với từng bài tập, và Hình 4.16 là ma
trận nhầm lẫn. Độ chính xác nhận dạng bài tập trong những đoạn video bài
tập trung bình là: 88.43%. Các bài tập 2 và 4 có kết quả nhận dạng khá tốt
trong khi đó bài tập 1 và 3 thấp hơn và vẫn bị nhầm lẫn với nhau, nhưng số
lượng không nhiều như trong kết quả nhận dạng của mạng R(2+1)D.
Bảng 4.6 Độ chính xác nhận dạng trên tập thử nghiệm
TT
Bài tập Tổng số
video
Số video nhận
dạng đúng
Độ chính xác
(%)
1
Bài tập 1 41 33 80,49
2
Bài tập 2 62 61 98,39
3
Bài tập 3 58 47 81,03
4
Bài tập 4 55 50 90,91
Trung bình 216 191 88,43
Hình 4.16 Ma trận nhầm lẫn của phương pháp đề xuất trên tập thử nghiệm
Hình 4.17 là biểu đồ so sánh độ chính xác nhận dạng bài tập của phương pháp
đề xuất và mạng R(2+1) D. Biểu đồ này cho thấy độ chính xác nhận dạng các
bài tập của phương pháp so sánh nhìn chung là lớn hơn độ chính xác của
mạng R(2+1)D.
103
Hình 4.17 So sánh mạng R(2+1)D và phương pháp đề xuất
Phương pháp đề xuất cải thiện được độ chính xác trung bình của mạng
R(2+1)D từ 86,11% lên 88,43%. Đặc biệt là phương pháp đề xuất có độ chính
xác nhận dạng bài tập 1 tăng vượt trội từ 65,85% lên 80,49%, tăng 14,64%.
Điều này có được là do thuật toán phát hiện loại đối tượng trong bài tập phát
hiện khá tốt đối tượng tương tác “Quả bóng” do đó bổ sung thông tin cho việc
nhận dạng “Bài tập 1” được chính xác hơn, giảm bớt nhầm lẫn với “Bài tập 3”
đối tượng tập là “khối lập phương”
4.3.6. Thử nghiệm trên video tổng hợp gồm nhiều bài tập
Luận án đã thực hiện đánh giá mô hình với video liên tục bao gồm
nhiều bài tập thu được ban đầu chưa tách bài tập của một bệnh nhân - “Bệnh
nhân số 9” trong bộ dữ liệu RehabHand để đánh giá được tính khả thi của
phương pháp đề xuất. Video liên tục được lấy mẫu để đưa vào mô hình dự
đoán theo phương pháp như sau:
• Sử dụng cửa sổ trượt 2 giây (60 frames) do các cử chỉ thực hiện trong
khoảng từ (1.5 giây -> 2.5 giây) bước nhảy 1 giây (30 frames).
• Tại mỗi vị trí frameId >= 60 và chia hết cho 30 tiến hành lấy 16 frames
ở trung tâm theo phương pháp lấy mẫu trên phân đoạn trong 60 frames trước
sau đó đưa vào mô hình R(2+1)D để tính toán xác suất dự đoán bài tập của
mô hình. Đồng thời toàn bộ 60 frames trước này được đưa vào bộ xác định
loại đối tượng tương tác để tính toán vec tơ điểm đánh giá. Sau đó áp dụng
thuật toán kết hợp để đưa ra nhãn dự đoán bài tập.
• Nhãn dự đoán bài tập thu được trong mỗi lần nhận dạng sẽ được gán
cho 1 giây kế tiếp (cho đến khi có nhãn mới)
6
5
.8
5
1
0
0
7
7
.5
9
9
4
.5
4
8
6
.1
1
8
0
.4
9
9
8
.3
9
8
1
.0
3
9
0
.9
1
8
8
.4
3
B À I T Ậ P 1 B À I T Ậ P 2 B À I T Ậ P 3 B À I T Ậ P 4 T R U N G B Ì N H
R(2+1)D Phương pháp đề xuất
104
Video sau khi thực hiện nhận dạng sẽ hiển thị nhãn dự đoán (label) và
nhãn đúng (Grouth_truth) nếu label và grouth_truth giống nhau thì dòng text
sẽ hiển thị với màu xanh tức là đã nhận dạng chính xác, ngược lại thì dòng
text sẽ hiển thị màu đỏ là nhận dạng sai như Hình 4.18.
Hình 4.18 Minh họa kết quả nhận biết hoạt động
Video kết quả nhận dạng trực quan cho thấy khả năng nhận dạng bài tập
của phương pháp đề xuất khá tốt, đặc biệt với “Bài tập số 2”- luyện tập với
chai nước kết quả nhận dạng rất tốt hầu như không có dự đoán sai. Tuy nhiên
“Bài tập số 1” – tập với quả bóng và “Bài tập số 3”- tập với khối lập phương
vẫn còn bị nhầm lẫn trên một số khung hình. Kết quả chạy thử nghiệm của
mô hình đề xuất được lưu dưới dạng video tại đường dẫn:
https://drive.google.com/drive/folders/1_uIGqIvVVm8K85zf5ggH89-
iTx7HY16x?usp=share_link
4.4. Kết luận Chương 4
Chương 4 của luận án đã đề xuất một phương pháp nhận biết hoạt động
của tay trong các bài tập PHCN từ video hướng tâm thu được từ camera bệnh
nhân đeo khi thực hiện bài tập. Phương pháp đề xuất là kết hợp kết quả mạng
học sâu R(2+1)D cho nhận biết hoạt động dựa trên video RGB và thuật toán
phát hiện loại đối tượng tương tác chính trong bài tập, từ đó cho ra kết quả
nhận biết bài tập của bệnh nhân với độ chính xác cao.
Phương pháp đề xuất được cài đặt, huấn luyện và thử nghiệm trên bộ dữ
liệu RehabHand. Kết quả thực nghiệm cho thấy độ chính xác trong nhận dạng
bài tập khá cao và vượt trội so với kết quả nhận dạng của mạng R(2+1)D và
làm giảm tỉ lệ nhầm lẫn giữa các bài tập có cử chỉ tay gần giống nhau. Điều
này có được là do thuật toán xác định loại đối tượng chính trong bài tập có kết
quả khá tốt.
Kết quả nghiên cứu trong chương này đã được công bố tại công trình [CT6]
105
KẾT LUẬN
1. Các kết quả nghiên cứu của luận án
Nhận biết hoạt động của tay từ cảm biến ảnh đeo trên người là một lĩnh
vực nghiên cứu đang rất được quan tâm nhờ vào sự phát triển của khoa học và
công nghệ cũng như khả năng áp dụng cho nhiều ứng dụng thực tiễn khác
nhau. Qua phân tích, tìm hiểu bài toán, luận án đã đề xuất các cải tiến kỹ thuật
cho bài toán nhận biết hoạt động của tay và ứng dụng trong lính vực PHCN
tay tại các bệnh viện. Các kết quả chính của luận án bao gồm:
- Đã khảo sát, phân tích, đánh giá các nghiên cứu liên quan đến bài toán
nhận biết hoạt động trong FPV, các thách thức về kỹ thuật thị giác máy cần
nghiên cứu tiếp theo về lĩnh vực này.
- Đã khảo sát, phân tích, đánh giá các bộ dữ liệu FPV, đặc biệt là các bộ
dữ liệu PHCN đã được công bố hiện nay. Từ đó đề xuất thu thập, xây dựng và
công bố bộ dữ liệu bài tập PHCN tại bệnh viện từ cảm biến đeo trên người.
- Đã thu thập, xử lý, gán nhãn và công bố bộ dữ liệu bài tập PHCN tại
bệnh viện từ cảm biến đeo trên người bệnh nhân.
- Đã triển khai một số mô hình thị giác máy tính tiên tiến và đưa ra điểm
chuẩn cho các nhiệm vụ: phát hiện, phân đoạn, theo bám tay bệnh nhân trên
bộ dữ liệu đã công bố.
- Đã nghiên cứu, đề xuất cải tiến các kỹ thuật thị giác máy tính cho bài
toán xác định tay (phân đoạn, xác định, theo bám, ước lượng tư thế tay) trong
ảnh egocentric trên bộ dữ liệu PHCN.
- Đã nghiên cứu, đề xuất mô hình thị giác máy tính nhận biết hoạt động
tay trong các bài tập PHCN đạt hiệu suất cao.
2. Những đóng góp mới của luận án
1. Phát triển kỹ thuật xác định tay trong các bài tập PHCN bao gồm:
phân đoạn, theo bám, ước lượng tư thế tay.
2. Đề xuất kỹ thuật nhận dạng hoạt động tay dựa trên việc kết hợp mô
hình R(2+1)D và thông tin loại đối tượng tương tác chính trong các bài tập
PHCN.
3. Xây dựng và công bố bộ dữ liệu bài tập PHCN tại bệnh viện từ các
cảm biến đeo trên người bệnh nhân và thực nghiệm đánh giá ban đầu cho các
nhiệm vụ liên quan.
106
3. Hướng nghiên cứu tiếp theo
Hướng nghiên cứu tiếp theo của luận án nhằm để phát triển công trình
để có thể đưa vào ứng dụng trong thực tiễn như sau:
1. Tiếp tục nghiên cứu các kỹ thuật thị giác máy tính tiên tiến cho bài
toán nhận biết hoạt động của tay nói riêng và của người nói chung áp dụng
cho các lĩnh vực khác nhau.
2. Kết hợp các nguồn dữ liệu khác nhau như ảnh RGB, RGB-D, gia tốc,
con quay hồi chuyển cho bài toán nhận biết hoạt động.
3. Dựa trên các kết quả nghiên cứu, xây dựng các ứng dụng của bài toán
trong lĩnh vực quân sự như nhận biết, đánh giá hoạt động của người lính trong
quá trình huấn luyện.
107
DANH MỤC CÁC CÔNG TRÌNH KHOA HỌC ĐÃ CÔNG BỐ
[CT1]. Sinh-Huy Nguyen and Van-Hung Le. "Standardized UCI-EGO
Dataset for Evaluating 3D Hand Pose Estimation on the Point Cloud."
ASTES Journal, Vol 6, Issue 1, pp. 1-9, 2021.
[CT2]. Sinh-Huy Nguyen, Thi-Thu-Hong Le, Thai-Hoc Lu, Trung-Thanh
Nguyen, Quang-Khai Tran, and Hai Vu. "Hand part segmentations in
hand mask of egocentric images using Distance Transformation Map
and SVM Classifier." In 2021 RIVF International Conference on
Computing and Communication Technologies (RIVF), pp. 1-6. IEEE,
2021.
[CT3]. Sinh-Huy Nguyen, Thi-Thu-Hong Le, Hoang-Bach Nguyen, Chi-
Thanh Nguyen, Thi-Quynh-Tho Chu, Thi-Thanh-Huyen Nguyen, Hai
Vu, “Hand Detection and Segmentation in First Person Image Using
Mask R-CNN”, Journal on Information Technologies &
Communications, pp. 1-11, 2022(1).
[CT4]. Sinh Huy Nguyen, Hoang Bach Nguyen, Thi Thu Hong Le, Chi
Thanh Nguyen, Van Loi Nguyen, Hai Vu, "Hand Tracking and
Identifying in the Egocentric Video Using a Graph-Based Algorithm,”
In Proceeding of the 2022 International Conference on
Communications and Electronics (ICCE 2022).
[CT5]. Sinh Huy Nguyen, Hoang Bach Nguyen, Thi Thu Hong Le, Chi
Thanh Nguyen, Thanh-Tung Phan, Hai Vu “Improving the Hand Pose
Estimation from Egocentric Vision via HOPE-Net and Mask R-
CNN”, In Proceeding of the 5th International Conference on
MultimediaAnalysis and Pattern Recognition (MAPR 2022).
[CT6]. Nguyen Sinh Huy, Le Thi Thu Hong, Nguyen Hoang Bach, Nguyen
Chi Thanh, Doan Quang Tu, Truong Van Minh, Vu Hai “Hand action
recognition in rehabilitation exercise method using action recognition
deep learning network and interactive object information”. Journal of
Military Science and Technology, Special issue No.6, pp. 77-91, 12-
2022.
108
TÀI LIỆU THAM KHẢO
Tiếng Anh:
1 . Bardia Doosti, et al. "HOPE-Net: A graph-based model for hand-object
pose estimation." Proceedings of the IEEE/CVF conference on
computer vision and pattern recognition. 2020.
2 . Badrinarayanan, Vijay, Alex Kendall, and Roberto Cipolla. "Segnet: A
deep convolutional encoder-decoder architecture for image
segmentation." IEEE transactions on pattern analysis and machine
intelligence 39.12 (2017): 2481-2495.
3 . Bambach, Sven, et al. "Lending a hand: Detecting hands and
recognizing activities in complex egocentric interactions." Proceedings
of the IEEE international conference on computer vision. 2015.
4 . Bandini, Andrea, and José Zariffa. "Analysis of the hands in egocentric
vision: A survey." IEEE transactions on pattern analysis and machine
intelligence (2020).
5 . Baraldi, Lorenzo, et al. "Gesture recognition in ego-centric videos using
dense trajectories and hand segmentation." Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition Workshops.
2014.
6 . Baydoun, Mohamad, et al. "Hand pose recognition in First Person
Vision through graph spectral analysis." 2017 IEEE International
Conference on Acoustics, Speech and Signal Processing (ICASSP).
IEEE, 2017.
7 . Betancourt, Alejandro, et al. "A sequential classifier for hand detection
in the framework of egocentric vision." Proceedings of the IEEE
conference on computer vision and pattern recognition workshops.
2014.
8 . Betancourt, Alejandro, et al. "GPU accelerated left/right hand-
segmentation in first person vision." European Conference on
Computer Vision. Springer, Cham, 2016.
9 . Bewley, Alex, et al. "Simple online and realtime tracking." 2016 IEEE
international conference on image processing (ICIP). IEEE, 2016.
10 . Bochkovskiy, Alexey, Chien-Yao Wang, and Hong-Yuan Mark Liao.
"Yolov4: Optimal speed and accuracy of object detection." arXiv
preprint arXiv:2004.10934 (2020).
109
11 . Cai, Minjie, Feng Lu, and Yue Gao. "Desktop action recognition from
first-person point-of-view." IEEE transactions on cybernetics 49.5
(2018): 1616-1628.
12 . Cai, Minjie, Kris M. Kitani, and Yoichi Sato. "A scalable approach for
understanding the visual structures of hand grasps." 2015 IEEE
International Conference on Robotics and Automation (ICRA). IEEE,
2015.
13 . Cai, Minjie, Kris M. Kitani, and Yoichi Sato. "Understanding Hand-
Object Manipulation with Grasp Types and Object
Attributes." Robotics: Science and Systems. Vol. 3. 2016.
14 . Cartas, Alejandro, Mariella Dimiccoli, and Petia Radeva. "Detecting
hands in egocentric videos: Towards action recognition." International
Conference on Computer Aided Systems Theory. Springer, Cham, 2017.
15 . Castro, Daniel, et al. "Predicting daily activities from egocentric images
using deep learning." proceedings of the 2015 ACM International
symposium on Wearable Computers. 2015.
16 . Coskun, Huseyin, et al. "Domain-specific priors and meta learning for
few-shot first-person action recognition." IEEE Transactions on Pattern
Analysis and Machine Intelligence (2021).
17 . Diep, Nguyen Ngoc, Cuong Pham, and Tu Minh Phuong. "An
orientation histogram based approach for fall detection using wearable
sensors." Pacific Rim International Conference on Artificial
Intelligence. Springer, Cham, 2016.
18 . Diep, Nguyen Ngoc, Cuong Pham, and Tu Minh Phuong. "Motion
primitive forests for human activity recognition using wearable
sensors." Pacific Rim International Conference on Artificial
Intelligence. Springer, Cham, 2016.
19 . Dimiccoli, Mariella, et al. "Sr-clustering: Semantic regularized
clustering for egocentric photo streams segmentation." Computer Vision
and Image Understanding 155 (2017): 55-69.
20 . Fathi, Alireza, Xiaofeng Ren, and James M. Rehg. "Learning to
recognize objects in egocentric activities." CVPR 2011. IEEE, 2011.
21 . Feix, Thomas, et al. "The grasp taxonomy of human grasp types." IEEE
Transactions on human-machine systems 46.1 (2015): 66-77.
22 . Gao, Shang-Hua, et al. "Res2net: A new multi-scale backbone
architecture." IEEE transactions on pattern analysis and machine
intelligence 43.2 (2019): 652-662.
110
23 . Hara, Kensho, Hirokatsu Kataoka, and Yutaka Satoh. "Can
spatiotemporal 3d cnns retrace the history of 2d cnns and
imagenet?." Proceedings of the IEEE conference on Computer Vision
and Pattern Recognition. 2018.
24 . He, K., et al. "Mask R‐CNN". Proceedings of the IEEE International
Conference on Computer Vision; 2017: 2961‐2969."
25 . He, Kaiming, et al. "Deep residual learning for image
recognition." Proceedings of the IEEE conference on computer vision
and pattern recognition. 2016.
26 . Tran, Son-Tung, et al. "A Local Structure-aware 3D Hand Pose
Estimation Method for Egocentric Videos." 2022 IEEE Ninth
International Conference on Communications and Electronics (ICCE).
IEEE, 2022.
27 . Huang, De-An, et al. "How do we use our hands? discovering a diverse
set of common grasps." Proceedings of the IEEE Conference on
Computer Vision and Pattern Recognition. 2015.
28 . Huang, Shao, et al. "Egocentric hand detection via dynamic region
growing." ACM Transactions on Multimedia Computing,
Communications, and Applications (TOMM) 14.1 (2017): 1-17.
29 . Huang, Shao, Weiqiang Wang, and Ke Lu. "Egocentric hand detection
via region growth." 2016 23rd International Conference on Pattern
Recognition (ICPR). IEEE, 2016.
30 . Huang, Yichao, et al. "Deepfinger: A cascade convolutional neuron
network approach to finger key point detection in egocentric vision with
mobile camera." 2015 IEEE international conference on systems, man,
and cybernetics. IEEE, 2015.
31 . Ishihara, Tatsuya, et al. "Recognizing hand-object interactions in
wearable camera videos." 2015 IEEE International Conference on
Image Processing (ICIP). IEEE, 2015.
32 . Jang, Youngkyoon, et al. "Metaphoric hand gestures for orientation-
aware VR object manipulation with an egocentric viewpoint." IEEE
Transactions on Human-Machine Systems 47.1 (2016): 113-127.
33 . Ji, Peng, et al. "Egocentric-vision based hand posture control system for
reconnaissance robots." Journal of Intelligent & Robotic Systems 87.3
(2017): 583-599.
111
34 . Kapidis, Georgios, et al. "Egocentric hand track and object-based
human action recognition." 2019 IEEE SmartWorld, Ubiquitous
Intelligence & Computing, Advanced & Trusted Computing, Scalable
Computing & Communications, Cloud & Big Data Computing, Internet
of People and Smart City Innovation
(SmartWorld/SCALCOM/UIC/ATC/CBDCom/IOP/SCI). IEEE, 2019.
35 . Le, Hoa M., Thi-Oanh Nguyen, and Dung Ngo-Tien. "Fully automated
multi-label image annotation by convolutional neural network and
adaptive thresholding." Proceedings of the Seventh Symposium on
Information and Communication Technology. 2016.
36 . Le, Van-Hung, et al. "3d object finding using geometrical constraints on
depth images." 2015 Seventh International Conference on Knowledge
and Systems Engineering (KSE). IEEE, 2015.
37 . Li, Cheng, and Kris M. Kitani. "Pixel-level hand detection in ego-
centric videos." Proceedings of the IEEE conference on computer vision
and pattern recognition. 2013.
38 . Li, Minglei, Lei Sun, and Qiang Huo. "Flow-guided feature propagation
with occlusion aware detail enhancement for hand segmentation in
egocentric videos." Computer Vision and Image Understanding 187
(2019): 102785.
39 . Li, Yin, Zhefan Ye, and James M. Rehg. "Delving into egocentric
actions." Proceedings of the IEEE Conference on Computer Vision and
Pattern Recognition. 2015.
40 . Li, Yinlin, et al. "Grasp type understanding—classification, localization
and clustering." 2016 12th World Congress on Intelligent Control and
Automation (WCICA). IEEE, 2016.
41 . Li, Yinlin, et al. "Un-supervised and semi-supervised hand
segmentation in egocentric images with noisy label
learning." Neurocomputing 334 (2019): 11-24.
42 . Liang, Hui, Junsong Yuan, and Daniel Thalman. "Egocentric hand pose
estimation and distance recovery in a single RGB image." 2015 IEEE
International Conference on Multimedia and Expo (ICME). IEEE,
2015.
43 . Likitlersuang, Jirapat, and Jose Zariffa. "Interaction detection in
egocentric video: Toward a novel outcome measure for upper extremity
function." IEEE journal of biomedical and health informatics 22.2
(2016): 561-569.
112
44 . Likitlersuang, Jirapat, et al. "Egocentric video: a new tool for capturing
hand use of individuals with spinal cord injury at home." Journal of
neuroengineering and rehabilitation 16.1 (2019): 1-11.
45 . Lin, T. Y., M. Maire, and S. Belongie. "Microsoft coco: Common
objects in context. European conference on computer vision. Springer,
Cham." (2014).
46 . Liu, Xiaorui, et al. "Fingertip in the eye: An attention-based method for
real-time hand tracking and fingertip detection in egocentric
videos." Chinese Conference on Pattern Recognition. Springer,
Singapore, 2016.
47 . Ma, Minghuang, Haoqi Fan, and Kris M. Kitani. "Going deeper into
first-person activity recognition." Proceedings of the IEEE Conference
on Computer Vision and Pattern Recognition. 2016.
48 . McCandless, Tomas, and Kristen Grauman. "Object-Centric Spatio-
Temporal Pyramids for Egocentric Activity Recognition." BMVC. Vol.
2. 2013.
49 . Michiel, Vlaminck, et al. "Real-Time Table Plane Detection Using
Accelerometer Information And Organized Point Cloud Data From
Kinect Sensor." Journal of Computer Science and Cybernetics 32.3
(2016): 243-258.
50 . Mueller, Franziska, et al. "Real-time hand tracking under occlusion
from an egocentric rgb-d sensor." Proceedings of the IEEE
International Conference on Computer Vision. 2017.
51 . Nguyen, Thi-Hoa-Cuc, Jean-Christophe Nebel, and Francisco Florez-
Revuelta. "Recognition of activities of daily living from egocentric
videos using hands detected by a deep convolutional
network." International Conference Image Analysis and Recognition.
Springer, Cham, 2018.
52 . Nguyen, Thi-Hoa-Cuc, Jean-Christophe Nebel, and Francisco Florez-
Revuelta. "Recognition of activities of daily living with egocentric
vision: A review." Sensors 16.1 (2016): 72.
53 . Nguyen, Vinh-Tiep, et al. "Searching a specific person in a specific
location using deep features." Proceedings of the Seventh Symposium
on Information and Communication Technology. 2016.
113
54 . Oliva, Aude, and Antonio Torralba. "Modeling the shape of the scene:
A holistic representation of the spatial envelope." International journal
of computer vision 42.3 (2001): 145-175.
55 . Pham, Chinh Huu, Quoc Khanh Le, and Thanh Ha Le. "Human action
recognition using dynamic time warping and voting algorithm." VNU
Journal of Science: Computer Science and Communication
Engineering 30.3 (2014).
56 . Pirsiavash, Hamed, and Deva Ramanan. "Detecting activities of daily
living in first-person camera views." 2012 IEEE conference on
computer vision and pattern recognition. IEEE, 2012.
57 . Radosavovic, Ilija, et al. "Designing network design
spaces." Proceedings of the IEEE/CVF conference on computer vision
and pattern recognition. 2020.
58 . Ren, Shaoqing, et al. "Faster r-cnn: Towards real-time object detection
with region proposal networks." Advances in neural information
processing systems 28 (2015).
59 . Ren, Xiaofeng, and Chunhui Gu. "Figure-ground segmentation
improves handled object recognition in egocentric video." 2010 IEEE
Computer Society Conference on Computer Vision and Pattern
Recognition. IEEE, 2010.
60 . Ren, Xiaofeng, and Matthai Philipose. "Egocentric recognition of
handled objects: Benchmark and analysis." 2009 IEEE Computer
Society Conference on Computer Vision and Pattern Recognition
Workshops. IEEE, 2009.
61 . Rogez, Grégory, et al. "3d hand pose detection in egocentric rgb-d
images." European Conference on Computer Vision. Springer, Cham,
2014.
62 . Rogez, Grégory, James S. Supancic, and Deva Ramanan. "First-person
pose recognition using egocentric workspaces." Proceedings of the
IEEE conference on computer vision and pattern recognition. 2015.
63 . Rogez, Grégory, James S. Supancic, and Deva Ramanan.
"Understanding everyday hands in action from RGB-D
images." Proceedings of the IEEE international conference on
computer vision. 2015.
114
64 . Ronneberger, Olaf, Philipp Fischer, and Thomas Brox. "U-net:
Convolutional networks for biomedical image
segmentation." International Conference on Medical image computing
and computer-assisted intervention. Springer, Cham, 2015.
65 . Serra, Giuseppe, et al. "Hand segmentation for gesture recognition in
ego-vision." Proceedings of the 3rd ACM international workshop on
Interactive multimedia on mobile & portable devices. 2013.
66 . Singh, Suriya, Chetan Arora, and C. V. Jawahar. "First person action
recognition using deep learned descriptors." Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition. 2016.
67 . Song, Hongyong, et al. "Towards robust ego-centric hand gesture
analysis for robot control." 2016 IEEE International Conference on
Signal and Image Processing (ICSIP). IEEE, 2016.
68 . Spriggs, Ekaterina H., Fernando De La Torre, and Martial Hebert.
"Temporal segmentation and activity classification from first-person
sensing." 2009 IEEE Computer Society Conference on Computer Vision
and Pattern Recognition Workshops. IEEE, 2009.
69 . Sunyoto, Andi, et al. "Wrist detection based on a minimum bounding
box and geometric features." Journal of King Saud University-
Computer and Information Sciences 32.2 (2020): 208-215.
70 . Tang, Yansong, et al. "Multi-stream deep neural networks for rgb-d
egocentric action recognition." IEEE Transactions on Circuits and
Systems for Video Technology 29.10 (2018): 3001-3015.
71 . Tekin, Bugra, Federica Bogo, and Marc Pollefeys. "H+ o: Unified
egocentric recognition of 3d hand-object poses and
interactions." Proceedings of the IEEE/CVF conference on computer
vision and pattern recognition. 2019.
72 . Tran, Du, et al. "A closer look at spatiotemporal convolutions for action
recognition." Proceedings of the IEEE conference on Computer Vision
and Pattern Recognition. 2018.
73 . Urabe, Shuichi, Katsufumi Inoue, and Michifumi Yoshioka. "Cooking
activities recognition in egocentric videos using combining 2DCNN and
3DCNN." Proceedings of the Joint Workshop on Multimedia for
Cooking and Eating Activities and Multimedia Assisted Dietary
Management. 2018.
115
74 . Viet, Vo Hoai, et al. "Multiple kernel learning and optical flow for
action recognition in RGB-D video." 2015 Seventh International
Conference on Knowledge and Systems Engineering (KSE). IEEE,
2015.
75 . Visee, Ryan J., Jirapat Likitlersuang, and Jose Zariffa. "An effective
and efficient method for detecting hands in egocentric videos for
rehabilitation applications." IEEE Transactions on Neural Systems and
Rehabilitation Engineering 28.3 (2020): 748-755.
76 . Le, Viet-Duc, et al. "A unified deep framework for hand pose
estimation and dynamic hand action recognition from first-person rgb
videos." 2021 International Conference on Multimedia Analysis and
Pattern Recognition (MAPR). IEEE, 2021.
77 . Wan, Shaohua, and J. K. Aggarwal. "Mining discriminative states of
hands and objects to recognize egocentric actions with a wearable rgbd
camera." Proceedings of the IEEE Conference on Computer Vision and
Pattern Recognition Workshops. 2015.
78 . Wang, Jingdong, et al. "Deep high-resolution representation learning
for visual recognition." IEEE transactions on pattern analysis and
machine intelligence 43.10 (2020): 3349-3364.
79 . Wang, Limin, et al. "Temporal segment networks for action recognition
in videos." IEEE transactions on pattern analysis and machine
intelligence 41.11 (2018): 2740-2755.
80 . Wang, Wei, et al. "Beyond One Glance: Gated Recurrent Architecture
for Hand Segmentation." arXiv preprint arXiv:1811.10914 (2018).
81 . Wang, Wei, et al. "Recurrent U-Net for resource-constrained
segmentation." Proceedings of the IEEE/CVF International Conference
on Computer Vision. 2019.
82 . Wojke, Nicolai, Alex Bewley, and Dietrich Paulus. "Simple online and
realtime tracking with a deep association metric." 2017 IEEE
international conference on image processing (ICIP). IEEE, 2017.
83 . Wu, Wenbin, et al. "Yolse: Egocentric fingertip detection from single
rgb images." Proceedings of the IEEE International Conference on
Computer Vision Workshops. 2017.
84 . Xie, Saining, et al. "Aggregated residual transformations for deep
neural networks." Proceedings of the IEEE conference on computer
vision and pattern recognition. 2017.
116
85 . Xu, Bingyuan, et al. "Arm removal for static hand gesture
recognition." Journal of Intelligent & Fuzzy Systems 35.6 (2018): 6489-
6500.
86 . Yamazaki, Wataru, et al. "Hand pose estimation and motion recognition
using egocentric RGB-D video." 2017 IEEE International Conference
on Robotics and Biomimetics (ROBIO). IEEE, 2017.
87 . Zariffa, José, and Milos R. Popovic. "Hand contour detection in
wearable camera video using an adaptive histogram region of interest."
Journal of neuroengineering and rehabilitation 10.1 (2013): 1-10.
88 . Zhang, Yifan, et al. "EgoGesture: A new dataset and benchmark for
egocentric hand gesture recognition." IEEE Transactions on
Multimedia 20.5 (2018): 1038-1050.
89 . Zhao, Hengshuang, et al. "Pyramid scene parsing
network." Proceedings of the IEEE conference on computer vision and
pattern recognition. 2017.
90 . Zhao, Ying, Zhiwei Luo, and Changqin Quan. "Coarse-to-fine online
learning for hand segmentation in egocentric video." EURASIP Journal
on Image and Video Processing 2018.1 (2018): 1-12.
91 . Zhao, Ying, Zhiwei Luo, and Changqin Quan. "Unsupervised online
learning for fine-grained hand segmentation in egocentric video." 2017
14th Conference on Computer and Robot Vision (CRV). IEEE, 2017.
92 . Zhou, Yang, et al. "Cascaded interactional targeting network for
egocentric video analysis." Proceedings of the IEEE Conference on
Computer Vision and Pattern Recognition. 2016.
93 . Zhu, Xiaolong, Xuhui Jia, and Kwan-Yee K. Wong. "Structured forests
for pixel-level hand detection and hand part labelling." Computer Vision
and Image Understanding 141 (2015): 95-107.
94 . Tran, Du, et al. "Learning spatiotemporal features with 3d convolutional
networks." Proceedings of the IEEE international conference on
computer vision. 2015.
95 . Howard, Andrew G., et al. "Mobilenets: Efficient convolutional neural
networks for mobile vision applications." arXiv preprint
arXiv:1704.04861 (2017).
96 . Gkioxari, Georgia, Ross Girshick, and Jitendra Malik. "Contextual
action recognition with r* cnn." Proceedings of the IEEE international
conference on computer vision. 2015.
117
PHỤ LỤC
P.1
XÂY DỰNG BỘ DỮ LIỆU REHABHAND
1. Thiết lập và thu thập dữ liệu
Bộ dữ liệu được thu nhận từ 10 bệnh nhân đang điều trị tại Khoa PHCN,
Bệnh viện Đại học Y Hà Nội. Những bệnh nhân này tham gia một cách tự
nguyện và không được hưởng quyền lợi tài chính. Người thu thập dữ liệu
cũng cam kết không để lộ danh tính và hình ảnh cá nhân của họ. Những người
tham gia nghiên cứu đã đồng ý bằng văn bản trước khi tham gia vào nghiên
cứu và được sự đồng ý của Ban Giám đốc Bệnh viện Đại học Y Hà Nội.
Những bệnh nhân này đều có bệnh lý trước đó như tai biến, thoái hóa cột
sống, tai nạn chấn thương cần phẫu thuật, họ tập các bài tập theo phác đồ để
PHCN tay. Bệnh nhân có thể thuận tay phải hoặc tay trái, nhưng họ luôn có
một tay yếu cần tập để phục hồi. Điều này rất tốt để so sánh khả năng phục
hồi tay của bệnh nhân. Nhóm thu thập dữ liệu đã sử dụng hai máy ảnh GoPro
Hero4, San Mateo, California, Hoa Kỳ gắn trên ngực và đầu và đồng hồ Gear
S3 Frontier, Samsung đeo trên tay bệnh nhân. Camera GoPro Hero4 có trọng
lượng 149.6 gam và kích thước (rộng x dài x sâu) là 70.8 x 71.1 x 38.8mm.
Đồng hồ Gear S3 Frontier có trọng lượng 63 gam, kích thước (rộng x dài x
sâu) là 70.8 x 71.1 x 38.8mm. Các thiết bị này đảm bảo gọn, nhẹ không ảnh
hưởng tới thao tác của bệnh nhân. Các video được quay ở định dạng MPEG-4
với độ phân giải 1080p và 30 khung hình/giây, ống kính mắt cá góc rộng cho
phép nhóm nghiên cứu ghi lại toàn bộ không gian làm việc của hai tay và các
đối tượng cầm trước cơ thể. Trong quá trình ghi, dữ liệu hình ảnh và gia tốc
kế được đồng bộ hóa theo cách thủ công. Hình PL.1 là hình ảnh thực tế của
bệnh nhân đeo thiết bị trong các bài tập.
Hình PL.1 Thiết lập thiết bị thu thập dữ liệu
P.2
a) Đồng hồ thông minh có cảm biến gia tốc và con quay hồi chuyển; b)
máy ảnh đeo ở đầu và ngực; c) hình ảnh thực tế của bệnh nhân đang thực hiện
các bài tập
Bệnh nhân tham gia 4 bài tập PHCN cơ bản nhất sau đây do bác sĩ quy
định, mỗi bài tập được lặp lại với một tần suất khác nhau:
Bài tập 1- luyện tập với quả bóng: dùng tay nhặt các quả bóng tròn cho
vào đúng lỗ.
Bài tập 2 – luyện tập với chai nước: cầm chai nước đổ nước vào cốc đặt
trên bàn.
Bài tập 3 – luyện tập với khối gỗ lập phương: dùng tay nhặt các khối gỗ
và cố gắng đặt chúng vào đúng lỗ.
Bài tập 4 – luyện tập với khối hình trụ tròn: dùng tay nhặt các khối hình
trụ cho vào đúng lỗ.
Hình PL.2 là hình ảnh ví dụ minh họa 4 bài tập PHCN này.
Trước khi ghi dữ liệu, thời lượng pin, chế độ xem camera và tín hiệu từ
đồng hồ thông minh được kiểm tra để đảm bảo khả năng tiếp nhận dữ liệu tốt.
Việc đánh dấu phần đầu và phần cuối của mỗi bài tập được thực hiện sử dụng
một bảng kẹp (clapperboard) để đánh dấu bằng cách giữ bảng kẹp trước máy
quay khi bắt đầu và kết thúc mỗi bài tập. Tín hiệu được truyền qua Bluetooth
đến máy tính và được phần mềm GoPro Capture ghi lại. Mỗi người tham gia
thực hiện tuần tự các bài tập, mỗi bài tập được lặp lại với tần suất khác nhau
tùy theo khả năng của họ.
Hình PL.2 Minh họa các bài tập PHCN
P.3
Tổng cộng, 10 tệp video ở định dạng MPEG- 4 với tổng thời lượng là 4h
và tổng dung lượng là 53 Gb được ghi lại. Tín hiệu gia tốc kế và con quay hồi
chuyển được ghi lại dưới dạng tệp văn bản, phân biệt giữa tay phải và tay trái.
Có ba kích thước x, y, z của gia tốc và con quay hồi chuyển tại các thời điểm
khác nhau trong mỗi tệp văn bản.
2. Xử lý và gán nhãn dữ liệu
Mỗi tệp video thô thu được chia thành các tệp thành các video nhỏ, mỗi
tệp có một bài tập. Điều này có thể thực hiện được bằng cách đánh dấu bằng
công cụ trực quan bảng kẹp ở phần đầu và phần cuối của một bài tập. Có 58
video bài tập được lưu trong các tệp định dạng ‘.avi’, bao gồm 20 video bài
tập 1, 16 video bài tập 2, 12 video bài tập 3 và 10 video bài tập 4. Trong mỗi
lần tập một bài tập, người bệnh thực hiện lặp đi lặp lại một động tác. Vì vậy,
từ các video bài tập tiếp tục được tách thành các phân đoạn nhỏ; mỗi phân
đoạn tương ứng với một lần thực hiện động tác. Tổng cộng có 431 phân đoạn
đã được tách ra. Việc phân tách dữ liệu như trên sẽ giúp các nghiên cứu nhận
ra các bài tập và đánh giá khả năng tập luyện của bệnh nhân.
Hình PL.3 Đồng bộ hình ảnh, gia tốc, con quay hồi chuyển trên ELAN
Để đồng bộ hóa dữ liệu hình ảnh và dữ liệu con quay hồi chuyển gia
tốc, cần phải đồng bộ hóa thời gian bắt đầu và kết thúc ghi các loại dữ liệu
này trong quá trình thu thập dữ liệu. Công cụ ELAN được sử dụng để đồng bộ
P.4
hóa các kiểu dữ liệu ở giai đoạn xử lý này. Thời gian bắt đầu trên tệp con
quay hồi chuyển gia tốc kế tương ứng với chỉ số khung hình bằng cách sử
dụng công cụ này. Hình PL.3 trực quan hóa dữ liệu hình ảnh đồng bộ với gia
tốc và dữ liệu con quay hồi chuyển trên ELAN.
Hai tác vụ gán nhãn đã được thực hiện cùng với video đã thu thập. Một
nhiệm vụ là gán nhãn phân đoạn tay và đối tượng mức pixel (Hand, object
segmentation). Nhiệm vụ thứ hai là gán nhãn theo bám tay (hand tracking).
Đối với gán nhãn phân đoạn, công cụ phân tách thủ công được sử dụng để gán
nhãn ảnh. Có tám đối tượng được dán nhãn, đó là: Quả bóng (1), Cái cốc (2),
Chai nước (3), Cái bát (4), Hình trụ (5), Khối (6), Tay trái (7), Tay phải (8).
Các đối tượng được gắn nhãn là đa giác. Kết quả gắn nhãn được lưu trữ trong
mỗi thư mục, trong đó chứa các ảnh và tệp ‘.json’ lưu trữ các kết quả gắn
nhãn. Việc lấy mẫu các khung hình liên tục trên các video thô được thực hiện
với tần suất trung bình là 4 khung hình/giây. Khoảng 4500 khung hình
(1920x1440) được lưu trong tệp định dạng .png đã được gắn nhãn đầy đủ
bằng tệp '.json', chứa thông tin chính: tên tệp của hình ảnh được gán nhãn,
kích thước hình ảnh, thông tin tọa độ của các vùng được gắn nhãn, tọa độ của
các cặp điểm (x, y) tương ứng với tất cả các cặp điểm (x, y) sẽ tạo thành vùng
đa giác xung quanh bàn tay và các đối tượng được dán nhãn. Hình PL.4 là
minh họa ảnh được gán nhãn phân đoạn tay và các đối tượng
Hình PL.4 Minh họa gán nhãn phân đoạn tay và đồ vật.
Một công cụ gán nhãn dữ liệu bán tự động được phát triển cho nhiệm vụ
gán nhãn theo bám tay. Ý tưởng chính là đầu tiên huấn luyện các mô hình trên
các tập dữ liệu có sẵn, sau đó đưa ra các đề xuất cho dữ liệu chưa được gắn
P.5
nhãn và cuối cùng là điều chỉnh ground truth nếu cần. Quy trình cho phép các
trình gán nhãn đánh dấu cả hộp giới hạn và quỹ đạo của tay và hỗ trợ nhiều
chế độ như nhập dữ liệu, chọn mô hình, xem ground truth, gỡ lỗi và xuất đầu
ra sang nhiều định dạng. Thông qua công cụ này, giảm thiểu tính chủ quan và
thời gian gán nhãn, đồng thời có thể thống nhất và phối hợp giữa các gán
nhãn của các cá nhân khác nhau.
3. Thống kê và xây dựng ứng dụng quản lý bộ dữ liệu
Trong bộ dữ liệu RehabHand cung cấp tất cả dữ liệu đã được thu thập,
bao gồm video gốc ở định dạng MPEG-4 và dữ liệu gia tốc kế và con quay
hồi chuyển dưới dạng tệp văn bản. Thông tin chia video gốc thành các video
phân đoạn bài tập và video trình tự và đồng bộ hóa với gia tốc kế, dữ liệu con
quay hồi chuyển được tổ chức và lưu trữ trong cơ sở dữ liệu quan hệ. Đối với
dữ liệu video phân đoạn chính xác, mỗi bản ghi chứa thông tin bao gồm bệnh
nhân, ID bài tập, FrameID bắt đầu và FrameID kết thúc của đoạn video bài
tập và mã thời gian bắt đầu và dừng của dữ liệu gia tốc kế và con quay hồi
chuyển, tương ứng. Phương pháp lưu trữ này cũng áp dụng cho video theo
trình tự nhưng sử dụng thời gian bắt đầu và kết thúc trình tự thay vì ID phân
đoạn bài tập.
Bộ dữ liệu RehabHand có chứa dữ liệu của có mười bệnh nhân tham gia
vào 4 bài tập. Mười tệp video thô ở định dạng MPEG- 4 với tổng thời lượng
4h và tổng dung lượng là 53 Gb đã được thu thập. Các video thô được chia
nhỏ thành các video tương ứng với từng bài tập. Tổng cộng có 56 video bài
tập, trong đó có 18 video bài tập với bóng, 16 video bài tập với chai nước, 14
video bài tập với khối gỗ và 10 video bài tập với khối trụ. Các video bài tập
được chia thành các video phân đoạn tương ứng với một bài tập tại một thời
điểm. Có 431 video phân đoạn trong bộ dữ liệu. Ngoài dữ liệu gốc, bộ dữ liệu
cũng cung cấp dữ liệu ghi nhãn cho cả tác vụ phân đoạn và theo bám bàn tay.
Đối với tác vụ phân đoạn tay, luận án đã chọn 4500 khung hình ảnh để gán
nhãn đa giác cho 8 đối tượng. Chiến lược để chọn các ảnh gán nhãn không
phải là lấy mẫu hoàn toàn ngẫu nhiên mà theo cách làm cho mỗi phần phân
chia đủ đại diện cho sự thay đổi của các bệnh nhân và các bài tập khác nhau.
Dữ liệu huấn luyện và thử nghiệm được chia theo tỷ lệ 4: 1, trong đó 921 ảnh
P.6
có nhãn của bộ dữ liệu thử nghiệm được lấy từ 2 bệnh nhân không có trong bộ
dữ liệu huấn luyện. Đối với nhiệm vụ theo bám bàn tay, chúng tôi có 32 video
với 10984 khung hình được gắn nhãn với hộp giới hạn tay. Bảng PL.1 là
thống kế số lượng của bộ RehabHand và so sánh với các bộ dữ liệu về PHCN
đã công bố. Hình PL.5 và hình PL.6 là biểu đồ thống kê số lượng dữ liệu thu
thập và gán nhãn.
Bảng PL.1 Thống kê các đặc điểm bộ dữ liệu
Bộ dữ
liệu
Thiết
bị
Số
lượng
video
Số
lượng
ảnh
Độ
phân
giải
Độ dài
video
Số
đối
tượng
Bối
cảnh
Số
hoạt
động
Nhãn
ANS
ablebod
ied
Looxc
ie2
- -
640x
480
44.16
minute
s
4
Phòng
thí
nghiệm
mô
phỏng
nhà
14 hoạt
động
hàng
ngày
Phân
đoạn
tay
ANS
SCI
GoPro
Hero4
- 33,256
1920
x108
0
- 17
Nhà
bếp,
phòng
khách
ngủ
38 hoạt
động
hàng
ngày
Phát
hiện
tay
Rehab
Hand
GoPro
Hero4
431
103,01
9
1920
x144
0
4
hours
10
Phòng
tập
PHCN
4 bài
tập
PHCN
1098
nhãn
theo
bám
tay
4500
phân
đoạn
tay và
các đối
tượng
P.7
Hình PL.5 Biểu đồ thống kê dữ liệu thu thập và gán nhãn
a) Số lượng frame mỗi bài tập và số lượng frame gán nhãn phân đoạn; b)
Số lượng phân đoạn video bài tập; c) Số bài tập gán nhãn theo bám tay
Hình PL.6 Thời gian trung bình thực hiện bài tập giữa tay yếu và tay khỏe
Số liệu thống kê cho thấy, cả 5 tiêu chí đặt ra ban đầu khi tiến hành thu
thập dữ liệu đều đã đạt được. Thứ nhất, bộ dữ liệu phải thu thập trong môi
trường thực tế bệnh viện: Khoa PHCN của Đại học Y Hà Nội. Thứ hai, bệnh
nhân đủ cả hai giới tính và độ tuổi đa dạng, bệnh lý có cả tai biến, thoái hóa
cột sống, tai nạn chấn thương cần phẫu thuật. Thứ ba, bốn bài tập PHCN là
bài tập cơ bản về tay (tập với khối lập phương, trụ tròn, chai nước, quả bóng)
đám bảo các tư thế cầm nắm từ đơn giản đến phức tạp. Thứ tư, đã gán nhãn
cho các nhiệm vụ phát hiện, phân đoạn, nhãn hoạt động và phân đoạn hoạt
động, nhãn tay yếu và tay bình thường. Thứ năm, dữ liệu thu thập gồm hình
ảnh, gia tốc, con quay hồi chuyển và được đồng bộ qua phần mềm ELAN.
P.8
Hình PL.7 Giao diện trang web quản lý bộ dữ liệu RehabHand.
NCS đã tiến hành xây dựng một website để quản lý bộ dữ liệu
RehabHand tại địa chỉ Hình PL.7 thể hiện giao diện
của trang web nhằm giới thiệu chung về bộ dữ liệu và kết quả của thực hiện
mô hình cơ sở làm điểm chuẩn trên bộ dữ liệu. Ngoài ra trang web cho phép
các nhà nghiên cứu tải bộ dữ liệu về để sử dụng