Như ta đã biết, giám sát bằng camera được ứng dụng rộng rãi trong nhiều
lĩnh vực của cuộc sống, việc nghiên cứu các vấn đề liên quan đến các hệ thống
giám sát này nhằm đưa ra các cảnh báo chính xác, kịp thời là một công việc
mang tính thực tiễn cao. Chúng ta cũng biết rằng kết quả thu nhận được từ các
camera giám sát là Video. Như vậy việc nghiên cứu chính ở đây là phát hiện
đối tượng chuyển động trong Video.
Video thu nhận được từ các camera sẽ được xử lý qua các công đoạn sau:
Phát hiện đối tượng chuyển động, đánh dấu các đối tượng vừa phát hiện, phân
loại chúng và sẽ tiến hành xử lý và cho ra kết quả là đối tượng đang cần theo
vết đang ở vị trí nào, ta tiến hành đánh dấu (tô màu, kẻ khung) và từ đó liên tục
bám sát đối tượng đó dựa trên một ngưỡng nhất định. Sau khi xác định vị trí
đối tượng, ứng dụng sẽ tiếp tục điều khiển thiết bị chuột tới vị trí mong muốn
(vị trí của đối tượng đang theo vết), đồng thời quyết định ra sự kiện gì (Click,
Double click, Drap & Drop, Zoom out, Zoom in )
81 trang |
Chia sẻ: builinh123 | Lượt xem: 1965 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Luận văn Nghiên cứu một số kỹ thuật phát hiện, bám sát đối tượng và ứng dụng, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
c theo các phương pháp sử dụng giải pháp của nó.
25
Chương 2
PHÁT HIỆN VÀ GIÁM SÁT ĐỐI TƯỢNG CHUYỂN
ĐỘNG TRONG VIDEO
2.1. Phát hiện đối tượng
Tổng quan về phát hiện, phân loại và đánh dấu đối tượng chuyển động
trong Video với thời gian thực được mô tả như sau:
Lược đồ 2.1: Lược đồ khối hệ thống
Thu nhận ảnh
Phát hiện nổi trội
Trích rút đặc trưng đối tượng
Đánh dấu đối tượng
Xử lý đối tượng
Mô hình nền
Phân loại đối tượng
Ảnh
hiện thời
Khởi tạo,
Cập nhật
Ảnh nền
Cập nhật
Bản đồ nổi trội, ảnh hiện thời
Các đối tượng cùng với các đặc trưng
Đường đi của
đối tượng
Kiểu của đối tượng
Cập nhật
26
Hệ thống này có thể phân biệt được các đối tượng thoáng qua hoặc đứng
yên từ các đối tượng nền tĩnh trong các cảnh động; phát hiện và phân biệt các
đối tượng di chuyển và biến mất; phân loại các đối tượng đã được phát hiện
vào trong các nhóm khác nhau, như người, nhóm người, xe cộ,; đánh dấu
các đối tượng và tạo ra thông tin về đường đi ngay cả các trường hợp bị che
khuất và phát hiện ánh sáng trong hình ảnh của Video. Trong phần này và
phần sau, sẽ mô tả các mô hình tính toán trong hướng tiếp cận này để tiến gần
tới các kết quả thực sự ở trên.
Hệ thống này được thừa nhận để làm việc với thời gian thực như là một
phần trong hệ thống giám sát Video cơ sở. Độ phức tạp tính toán và cả các
nhân tố bất biến của thuật toán mà chúng ta dùng ở đây là rất quan trọng cho
việc thực hiện trong thời gian thực. Do đó, cách giải quyết ở đây là chọn ra
thuật toán với thời gian chạy tối ưu nhất. Hơn nữa, việc sử dụng hệ thống này
bị hạn chế chỉ với các camera tĩnh và Video đầu vào từ các camera
Pan/Tilt/Zoom.
Hệ thống được khởi tạo bởi hình ảnh Video từ camera tĩnh giám sát một
vị trí. Hầu hết các phương thức có thể làm việc với cả hai loại ảnh Video màu
và ảnh Video đen trắng. Bước đầu tiên trong hướng tiếp cận này là phân biệt
các đối tượng nổi trội từ các nền tĩnh. Để đạt được điều này, ta sử dụng một
kết hợp giữa phương pháp trừ nền và phương pháp hậu xử lý ảnh ở mức thấp
để tạo ra một bản đồ điểm đặc trưng cho mọi frame. Ta nhóm các vùng liên
tục trong bản đồ đó để mở rộng các đặc trưng cho đối tượng riêng biệt như là
tạo các đường bao, các miền, điểm trung tâm của khối hoặc biểu đồ màu
(color histogram).
Điểm mới trong thuật toán phân loại đối tượng này là làm cho việc sử
dụng bản đồ các điểm đặc trưng thuộc về mỗi vùng đặc trưng để tạo ra một
hình chiếu cho đối tượng đó. Hình chiếu và điểm trung tâm của một khối của
27
một đối tượng được sử dụng để tạo ra một tín hiệu khoảng cách. Tín hiệu này
được co giãn, được làm trở lại bình thường và được so sánh với các nhãn tín
hiệu trước đó trong cơ sở dữ liệu mẫu để phân biệt kiểu của đối tượng. Đầu ra
của bước đánh dấu được dùng để đạt được sự thống nhất theo thời gian trong
bước phân loại.
Thuật toán đánh dấu đối tượng này tận dụng các đặc trưng của đối tượng
đã được trích rút cùng với sự phối hợp phù hợp được xây dựng trong bước
trước để làm cho phù hợp với các đối tượng sau khi xảy ra trường hợp bị che
khuất. Đầu ra của bước đánh dấu là thông tin về đường đi của đối tượng được
dùng để tính toán hướng và tốc độ của các đối tượng trong cảnh.
Sau khi chắt lọc thông tin của các đặc điểm trên các đối tượng như loại,
đường đi, kích cỡ và tốc độ với mức độ riêng biệt của các mức xử lý cao, có
thể được áp dụng trên các dữ liệu đó. Một khả năng sử dụng thời gian thực là
đặt cảnh báo bằng tiền điều kiện với các vị từ như: “Một người di chuyển
theo phương d với tốc độ lớn hơn s sinh ra cảnh báo a1.” hoặc “một cái xe
dừng lại ở một vị trí l trong khoảng thời gian hơn t phút sinh ra cảnh báo a2.”.
Một cách khác là ta có thể tạo ra một tham chiếu trên dữ liệu Video đã được
lưu trữ cho việc tìm kiếm thông minh và độc lập. Cả hai cách trên đều là các
điều kiện cần thiết của hệ thống giám sát để tăng thêm thời gian cần thiết để
giám định các sự kiện.
2.1.1. Phát hiện nổi trội
Ta sử dụng phối hợp các mô hình nền và các phương pháp hậu xử lý ảnh
mức thấp để tạo ra bản đồ điểm nổi bật và trích rút các đặc trưng của đối
tượng ở mỗi frame của Video. Các mô hình nền nói chung có 2 giai đoạn
phân biệt trong xử lý: khởi tạo và cập nhật.
28
2.1.1.1 Mô hình trừ nền có khả năng thích ứng
Sự thực thi của thuật toán trừ nền này làm việc trên mức xám của ảnh
Video từ một camera tĩnh [4]. Phương pháp trừ nền này khởi tạo một nền
tham khảo với một số frame đầu tiên của Video đầu vào. Sau đó, nó trừ giá trị
cường độ của mỗi điểm ảnh trong ảnh hiện thời cho giá trị tương ứng trong
ảnh nền tham khảo. Sự khác nhau này được lọc với một ngưỡng thích hợp cho
từng điểm ảnh để giải thích nguyên nhân sự thay đổi của các điểm ảnh nhiễu.
Gọi In(x) là biểu diễn của giá trị cường độ mức xám ở điểm ảnh có vị trí
(x) và ở trường hợp thứ n của dãy Video I thuộc trong đoạn [0,255]. Gọi Bn(x)
là giá trị cường độ nền tương ứng cho điểm ảnh ở vị trí (x) ước lượng theo
thời gian từ ảnh Video I0 đến In-1. Một điểm ảnh ở vị trí (x) trong ảnh hiện thời
thuộc thành phần nổi trội nếu nó thỏa mãn:
|In(x) – Bn(x)|>Tn(x) (2.1)
Trong đó Tn(x) là giá trị ngưỡng có khả năng thích hợp được khởi tạo
cùng với ảnh Video đầu tiên I0, B0 = I0, và ảnh ngưỡng được khởi tạo bởi giá
trị đã được xác định trước.
Vì hệ thống này sẽ được dùng cho cả trong và ngoài nhà nên mô hình
nền cần tự thích ứng với các thay đổi động như sự thay đổi toàn bộ ánh sáng
(chuyển giữa ngày và đêm) và cập nhật nền một thời gian dài (một cái xe đỗ
trước một tòa nhà). Vì thế nền cơ sở và các ảnh ngưỡng phải được cập nhật
liên tục từ các ảnh đầu vào. Sự phối hợp cập nhật này là khác nhau đối với các
vị trí điểm, chẳng hạn như một điểm x FG thì sẽ khác với x BG :
FGxxIxB
BGxxIxB
xB
nn
nn
n
),()1()(
),()1()(
)(1
(2.2)
29
FGxxT
BxxBxIxT
xT
n
nnn
n
),(
),()()(1()(
)(1
(2.3)
Trong đó 0.1,0.0, là các hằng số chỉ ra rằng có bao nhiêu thông tin
từ các ảnh vào được đẩy vào nền và các ảnh ngưỡng. Nói cách khác, nếu mỗi
điểm ảnh nền được coi như là chuỗi các lần, các ảnh nền là một giá trị trung
bình của trọng số vùng theo thời gian của chuỗi các ảnh đầu vào và ảnh
ngưỡng là giá trị trung bình của trọng số vùng của lần khác nhau của các
ảnh đầu vào và nền đó. Các giá trị α, và được định rõ qua thực nghiệm
bởi các Video clip ở cả bên trong và bên ngoài nhà.
Ta cập nhật nên cho tất cả các kiểu cũ các điểm ảnh (x FG, x BG).
Trong các phương pháp trừ nền, ảnh nền nguồn chỉ được cập nhật cho các
điểm ảnh thuộc nền (x BG)
Điểm tinh vi trong việc cập nhật này là chọn ra giá trị cho . Nếu nó quá
nhỏ, các đối tượng nổi bật sẽ dẫn đến sự phân đoạn sai lệch trong các frame
sau. Cũng từ đó mà việc sẽ ít có khả năng phát hiện các đối tượng đã dừng lại.
Nếu nó quá lớn, các đối tượng có thể không bao giờ được phổ biến đến ảnh
nền, mô hình nền như thế sẽ không thích hợp cho sự thay đổi thời hạn lâu dài
của cảnh vật.
30
Ví dụ :
(a)
(b)
(c)
31
Hình 2.1 : Ảnh (a) là ước lượng nền cơ sở, ảnh (b) thu được ở bước tiếp theo.
Ảnh (c) thể hiện bản đồ điểm ảnh nổi trội phát hiện được bằng cách sử dụng
phép trừ nền.
2.1.1.2. Mô hình hỗn hợp Gaussian tương thích
Stauffer và Grimson [17] đã trình bày mô hình hỗn hợp nền trực tuyến
tương thích có thể giải quyết đơn giản sự thay đổi của ánh sáng, các chuyển
động lặp đi lặp lại, sự hỗn loạn, các đối tượng dời đi từ các cảnh và các đối
tượng chuyển động chậm. Chuyển động của chúng ở mô hình nền đơn không
thể điều khiển nhiễu, sự thay đổi ánh sáng và sự đa dạng mặt ngoài nhận được
từ ảnh đối với mỗi phần của điểm ảnh ở cùng một thời điểm.
Trong mô hình này, các giá trị của một điểm ảnh riêng lẻ theo thời gian
được coi như là một ‘‘xử lý điểm’’ và sự kiện gần đây của các điểm ảnh,
{X1,,Xt}, được mô hình bởi hỗn hợp của phân phối Gaussian K. Khả năng
của việc quan sát giá trị của điểm ảnh hiện thời trở thành:
K
i
titittit XXP
1
,,, ,,* (2.4)
Trong đó, i,t là một ước lượng trọng số thứ i của Gaussian (Gi,t) trong
hỗn hợp ở thời điểm t, i,t là giá trị trung bình của Gi,t và i,t là ma trận hợp
của Gi,t và là một hàm mật độ khả năng Gaussian:
)()(
2
1
2
1
2
1
)2(
1
),,(
tt
T
tt XX
nt
eX
(2.5)
Việc giải quyết trên K được quyết định bởi sự sẵn sàng của bộ nhớ và
sức mạnh của tính toán. Ngoài ra, ma trận hợp nhất được thừa nhận là mẫu
sau với hiệu quả tính toán
2
, ktk I (2.6)
32
Nó thừa nhận ba màu thành phần red, green, blue là độc lập và có cùng
biến. Thủ tục cho việc phát hiện các điểm ảnh nổi trội cụ thể như sau. Bước
đầu của hệ thống, các phân bố Gaussian K cho một điểm ảnh được khởi tạo
với giá trị trung bình được định nghĩa trước, sự khác biệt cao và trọng số ban
đầu thấp. Khi một điểm ảnh mới được phát hiện trong dãy ảnh, xác định rõ
kiểu của nó, vector RGB của nó được đánh dấu tương phản với các Gaussian
K, cho đến khi một điểm tương ứng được tìm thấy. Một điểm tương ứng được
định nghĩa như là một giá trị điểm ảnh không vượt quá chuẩn (=2.5) của
một phân bố. tiếp theo, các trọng số chu kỳ của các phân bố K ở thời điểm t,
k,t được cập nhật như sau:
),1,, ()1( tktktk M (2.7)
Trong đó α là tỷ lệ và Mk,t bằng 1 tương ứng với phân bố Gaussian và
bằng 0 tương ứng với các phân bố còn lại. Sau bước này, các trọng số ban đầu
của các phân bố được bình thường hóa và các tham biến của Gaussian phù
hợp được cập nhật với sự theo dõi mới như sau :
)()1( 1 ttt X (2.8)
)()()1(
2
1
2
tt
T
tttt XX (2.9)
Trong đó :
),|( kktX (2.10)
Nếu không tìm thấy điểm ảnh tương tự cho điểm ảnh theo dõi mới, phân
bố Gaussian với khả năng thấp nhất được thay đổi với một phân bố mới với
giá trị điểm ảnh hiện thời như là giá trị trung bình của nó, một khởi tạo với sự
khác biệt cao và trọng số ban đầu thấp.
33
Để phát hiện ra kiểu của điểm ảnh mới, các phân bố Gaussian K được
sắp xếp theo giá trị của / . Danh sách đã sắp xếp của các phân bố này
tương ứng với hầu hết các nền có khả năng từ đỉnh tới đáy trong công thức
(2.7), các xử lý điểm ảnh nền thực hiện phân bố Gaussian tương ứn khi khởi
tạo với giá trị trọng số ban đầu lớn và sự cách biệt nhỏ
(a) (b)
Hình 2.2 : Hai cách nhìn khác nhau về một ví dụ xử lý điểm
Khi đó các phân bố B đầu tiên được chọn như là mô hình nền, trong đó :
B=argminb
b
k
k T
1
(2.11)
Và T là phần nhỏ nhất của dữ liệu pixel được cho là của nền. Nếu một
giá trị nhỏ được chọn cho T, nền thường được mô hình thống nhất.
34
2.1.1.3. Sự khác biệt theo thời gian
Sự khác biệt theo thời gian làm cho việc sử dụng các mức độ khác nhau
của điểm ảnh giữa hai hoặc ba frame liên tiếp trong Video để trích rút các
vùng chuyển động. Nó là một hướng tiếp cận phù hợp cho sự thay đổi các
cảnh động ; như vậy, nó sai khi trích rút tất cả các điểm ảnh liên quan của một
đối tượng nổi trội, nhất là khi đối tượng đó có kết cấu thống nhất hoặc chuyển
động chậm. Khi một đối tượng dừng chuyển động, phương pháp khác biệt
theo thời gian sai khi phát hiện sự thay đổi giữa các frame liên tiếp và để mất
đối tượng. Các thuật toán hỗ trợ đặc biệt được yêu cầu để phát hiện các đối
tượng dừng lại.
Ta bổ sung thêm phương pháp sự khác biệt theo thời gian thêm 2 frame
trong hệ thống này. Đặt In(x) là giá trị cường độ của mức xám của pixel ở vị
trí (x) và ở thời điểm n của dãy ảnh Video I thuộc vào đoạn [0, 255]. Sự phối
hợp khác biệt theo thời gian của 2 frame này đề nghị thừa nhận là một điểm
ảnh đang chuyển động nếu nó thỏa mãn như sau:
)()()( 1 xTxIxI nnn (2.12)
Từ đó, nếu một đối tượng có các vùng màu sắc thống nhất, công thức
2.12 sai khi phát hiện một trong số các điểm ảnh bên trong vùng đó nếu như
đối tượng chuyển động, Ngưỡng của mỗi điểm ảnh, T, khởi tạo thiết lập một
giá trị quyết định trước và sau đó cập nhật như sau :
FGxxT
BxxIxIxT
xT
n
nnn
n
),(
),()()(1()(
)( 11
(2.13)
Việc bổ sung thêm 2 frame khác nhau có thể được thực hiện bởi việc lợi
dụng mô hình các tham biến cập nhật của phương pháp trừ nền thể hiện trong
35
công thức 2.2. Nếu α và bằng 0, nền này chứa ảnh In-1 và sự phối hợp trừ
nền trở thành y hệt như cách bổ sung thêm 2 frame khác nhau.
2.1.2. Bước hậu xử lý điểm ảnh
Các nhân tố khác nhau là nguyên nhân gây nhiễu trong việc phát hiện
cận cảnh như là :
- Nhiễu camera : nhiễu này nguyên nhân do các thành phần thu
nhận được từ ảnh của camera. Cường độ của các điểm tương tự như
một gờ nằm giữa hai đối tượng khác nhau về màu sắc trong một cảnh
có thể bị nhập thành một thuộc về màu của một đối tượng trong một
frame và thành một màu khác trong một frame khác.
- Nhiễu do phản xạ : khi một nguồn sáng, chẳng hạn như mặt trời,
chuyển động, nó làm cho một số phần trong cảnh nền phản xạ ánh
sáng. Hiện tượng này làm cho các thuật toán phát hiện nổi trội sai và
phát hiện phần phản xạ như là các vùng nổi bật.
- Nhiễu đối tượng có cùng màu với nền : một số phần của các đối
tượng có thể có cùng màu sắc như nền cơ sở đằng sau chúng. Sự tương
đồng này là nguyên nhân làm cho một số các thuật toán phát hiện các
điểm ảnh đó như không phải là điểm nổi bật và các đối tượng bị phân
đoạn thiếu chính xác.
- Sự thay đổi ánh sáng đột ngột và bóng : bóng đổ từ các đối tượng
được phát hiện như điểm nổi bật bởi hầu hết các thuật toán phát hiện.
Ngoài ra, sự thay đổi ánh sáng đột ngột làm cho các thuật toán sai khi
phát hiện chính xác các đối tượng thực sự nổi bật.
36
(a) (b)
(c) (d)
Hình 2.3 : Ví dụ về bước khử nhiễu pixel
(a)Ảnh nền ước lượng ; (b) : Ảnh hiện thời ; (c) : Các vùng nổi bật phát
hiện trước khi khử nhiễu ; (d) : Các vùng nổi bật phát hiện sau khi khử nhiễu
2.1.2.1. Phát hiện bóng và sự thay đổi ánh sáng đột ngột
Hầu hết các thuật toán phát hiện nổi trội đều dễ bị ảnh hưởng bởi bóng
và các thay đổi đột ngột của ánh sáng, đó là nguyên nhân phân đoạn nổi trội
không đúng. Với các bước xử lý sau như phân loại đối tượng và đánh dấu yêu
cầu có sự chính xác trong việc phân đoạn đối tượng, Việc đối phó với bóng và
các thay đổi đột ngột của ánh sáng là rất quan trọng trong các hệ thống giám
sát thông minh.
37
Trong bài này, ta sử dụng phối hợp phát hiện bóng. Ta làm rõ rằng các
điểm ảnh trong các vùng vector màu RGB ở trong cùng một hướng với các
vector màu RGB của các điểm ảnh nền tương ứng với một số lượng chênh
lệch nhỏ và giá trị độ sáng của bóng điểm ảnh là nhỏ hơn độ sáng của các
điểm nền tương ứng. Để định nghĩa chính thức điều này, ta đặt Ix là màu RGB
của một điểm ảnh của ảnh hiện thời ở vị trí x, và Bx là màu RGB của điểm ảnh
nền tương ứng. Hơn nữa, đặt xIˆ là vector mà được bắt đầu ở gốc O(0,0,0)
trong không gian màu RGB và kết thúc ở điểm Ix, đặt xBˆ là vector của điểm
nền tương ứng với Bx và đặt dx là phép nhân (.) giữa xIˆ và xBˆ . Hình 2.6 thể
hiện các điểm và các vector trong không gian màu RGB. Sự phối hợp phát
hiện bóng ở đây phân loại một điểm ảnh là một phần của vùng nổi bật được
phát hiện như là bóng nếu thỏa mãn :
x
x
x
x
x
B
B
I
I
d
ˆ
ˆ
ˆ
ˆ
(2.14)
Và
xx BI ˆˆ (2.15)
Trong đó τ là ngưỡng định nghĩa trước gần với một. Phép nhân (.) được
dùng để kiểm tra xem xIˆ và xBˆ có cùng hướng hay không. Nếu phép nhân này
(dx) của xIˆ và xBˆ gần đến một, nó chỉ ra rằng chúng hầu hết ở cùng một hướng
với lượng khác biệt nhỏ. Lần kiểm tra thứ hai được thực hiện để bảo đảm rằng
giá trị ánh sáng của Ix là nhỏ hơn Bx. Hình 2.7 thể thể hiện một ví dụ các vùng
cận cảnh với các bóng trước và sau khi xóa bóng.
Bên cạnh việc xóa bóng, việc phát hiện sự thay đổi ánh sáng đột ngột
cũng là một yêu cầu cần thiết đáp ứng hệ thống giám sát thông minh để tiếp
tục phát hiện và phân tích đối tượng một cách chính xác. Một sự thay đổi tổng
38
thể có thể dẫn đến nhiều trường hợp do mặt trời bị hoặc không bị che khuất
bởi mây trong môi trường bên ngoài hoặc do bật đèn trong nhà. Cả hai sự thay
đổi đó làm cho ánh sáng thay đổi đột ngột trong cảnh mà mô hình nền tương
thích không thể điều khiển được. Hình 2.4 thể hiện một ví dụ các frame trước
và sau khi ánh sáng thay đổi đột ngột. Một thực tế cho thấy rằng sự thay đổi
ánh sáng tổng thể một cách đột ngột là nguyên nhân dẫn đến các mô hình nền
phân loại với tỷ lệ lớn (>50%) của các điểm ảnh trong cảnh như là điểm nổi
bật. Như vậy, trong một số tình huống, các đối tượng thông thường chuyển
động rất gần camera, giả định này quá đơn giản và sai lầm. Theo đó, mục đích
của sự phân biệt thay đổi ánh sáng tổng thể từ chuyển động của một đối tượng
lớn, ta làm một kiểm tra khác bằng cách dựa vào thực tế rằng trong trường
hợp thay đổi ánh sáng tổng thể, sự thay đổi về hình dáng và kích cỡ của các
biên đối tượng trong một cảnh không thay đổi quá nhiều và đường bao xung
quanh của các vùng cận cảnh được phát hiện không phù hợp với các biên thực
tế trong cảnh trong khi trong trường hợp chuyển động của một đối tượng lớn
thì đường bao các vùng nổi bật được phát hiện phù hợp với các đường biên
thực tế trong ảnh.
39
Hình 2.4 : Các vector RGB của pixel ảnh hiện thời xIˆ và pixel nền tương ứng
xBˆ
(a) (b)
(c ) (d)
Hình 2.5 : Ví dụ về xóa bóng. (a) : Nền ước lượng ; (b) : ảnh hiện thời ;
(c) : Các pixel nổi bật được phát hiện (thể hiện ở màu đỏ) và các pixel bóng
(Thể hiện màu xanh lá) ; (d) : Các pixel sau khi đã được xóa bóng
40
(a) (b)
Hình 2.6 : Ví dụ về sự thay đổi ánh sáng đột ngột
(a) Cảnh trước khi ánh sáng đột ngột thay đổi, (b) Cùng cảnh đó sau khi
ánh sáng đột ngột thay đổi.
Để kiểm tra xem các đường bao của các vùng phát hiện có phù hợp với
các đường biên thực sự trong ảnh hiện thời hay không, ta tận dụng các
gradient của ảnh hiện thời và của ảnh nền. Các gradient được tìm bằng cách
lấy ánh sáng khác nhau giữa các điểm ảnh liên tiếp trong các ảnh theo hai
hướng dọc và ngang. Sau khi các gradient được tìm kiếm ở cả nền và ảnh hiện
thời, một ngưỡng được áp dụng và đầu ra được biến đổi thành nhị phân. Khi
đó, các gradient của ảnh khác của nền và ảnh hiện thời được tính toán để tìm
được duy nhất các đường biên phù hợp với các vùng chuyển động. Hình 2.7
thể hiện các ảnh gradient cho nền và các ảnh hiện thời. Kết quả cuối cùng,
vùng nổi trội được phát hiện được co lại từ bề ngoài về bên trong cho đến khi
vấp phải một điểm biên trong gradient của ảnh khác. Nếu kết quả vùng nổi
trội này là rất nhỏ so với nguyên bản, thì đây là một dấu hiệu của sự thay đổi
ánh sáng tổng thể, vì thế mô hình nền được khởi tạo lại với các ảnh hiện thời
và một số các ảnh được cho phép. Các ảnh có sóng cũng có thể được sử dụng
thay cho các gradient để phân biệt sự thay đổi ánh sáng tổng thể một cách đột
ngột.
41
(a) (b)
( c) (d)
( e)
42
Hình 2.7 : Phát hiện sự thay đổi ánh sáng thực sự. (a) Nền cơ sở ước
lượng ; (b) gradient của nền ; (c) ảnh hiện thời ; (d) gradient của ảnh hiện
thời ; ( e) sự khác biệt gradient.
(a) (b)
( c)
Hình 2.8 : Ví dụ về đánh nhãn các thành phần liên tục. (a) Nền ước
lượng ; (b) ảnh hiện thời ; ( c) các điểm ảnh nổi bật được lọc và liên kết và
đánh nhãn các vùng với các hộp bao xung quanh.
2.1.3. Phát hiện các vùng liên tục
Sau khi phát hiện các vùng nổi bật và ứng dụng các phép toán hậu xử lý
để xóa các vùng nhiễu và bóng. Các điểm ảnh nổi bật đã được lọc được nhóm
vào các vùng liên tục (các khối) và được đánh nhãn bằng cách sử dụng thuật
43
toán đánh nhãn thành phần liên tục 2 bước. Sau khi tìm các khối màu độc lập
tương ứng với các đối tượng, các hộp bao xung quanh của các vùng đó được
tính toán.
2.1.4. Bước hậu xử lý vùng
Ngay sau bước loại bỏ nhiễu, một vài vùng tự tạo nhỏ còn lại làm cho
việc phân đoạn đối tượng không đúng. Để khử các vùng loại này, kích cỡ
vùng trung bình () trong giới hạn của các điểm ánh được tính toán cho mỗi
frame và các vùng có kích cỡ nhỏ hơn một số thập phân (α) của kích cỡ vùng
trung bình (Size(region)<α* ) bị xóa khỏi bản đồ điểm nổi bật.
Mặt khác, về các lỗi phân đoạn, một vài phần của các đối tượng được tìm
thấy không liên tục từ thân chính. Để hiệu chỉnh nhược điểm này, các hộp bao
xung quanh của một vùng là độc lập với các vùng khác mà chúng được trộn
lẫn cùng nhau và các nhãn vùng được điều chỉnh.
2.1.5. Trích rút các đặc trưng của đối tượng
Ngay khi ta phân đoạn các vùng, chúng ta trích rút các điểm đặc trưng
của các đối tượng tương ứng trong ảnh hiện thời. Các điểm đặc trưng đó là
kích thước (S), điểm trung tâm của khối (Cm), lược đồ màu (Hc) và đường
viền các đốm màu của đối tượng. Việc tính toán kích thước của đối tượng là
không quan trọng và ta chỉ đếm số các điểm ảnh nổi bật mà được chứa trong
hộp bao của đối tượng.
Để tính toán điểm chính giữa của khối điểm, Cm =(xCm,yCm), của một đối
tượng O, ta dùng công thức sau [16] :
n
y
yC
n
x
xC
n
i i
m
n
i i
m
, (2.16)
44
Trong đó n là số điểm ảnh trong O
Lược đồ màu, Hc được tính toán trên các giá trị cường độ đơn sắc của các
điểm ảnh của đối tượng trong ảnh hiện thời. Để giảm độ phức tạp tính toán
của các phép toán sử dụng cho Hc, các giá trị màu được lượng tử hóa. Đặt N
là số khoảng cách (bin) trong lược đồ, khi đó mọi khoảng cách bao gồm
N
255
giá trị màu.
Lược đồ màu được tính toán bởi sự lặp đi lặp lại trên các điểm ảnh của O
và tốc độ tăng lên của giá trị lưu trữ của khoảng cách màu tương ứng trong
lược đồ, Hc. Với mỗi đối tượng O, lược đồ màu đươc cập nhật như sau:
Oc
N
c
H
N
c
H i
i
c
i
c
,1 (2.17)
Trong đó ci mô tả giá trị màu sắc của điểm ảnh thứ i. Trong bước tiếp
theo, lược đồ màu sắc được chuẩn hóa cho phép thích hợp để so sánh với các
lược đồ khác trong các bước sau. Lược đồ chuẩn hóa cHˆ được tính như sau
N
i c
c
iH
iH
ciHˆ (2.18)
2.2. Giám sát đối tượng chuyển động
Mục đích của đánh dấu đối tượng là thiết lập sự tương ứng giữa các đối
tượng và các phần của đối tượng trong các frame liên tục và để trích rút thông
tin theo thời gian về các đối tượng như đường đi, tư thế, tốc độ và phương
hướng. Đánh dấu các đối tượng được phát hiện từ frame này đến frame khác
trong Video là nhiệm vụ khó khăn và mang nhiều ý nghĩa. Nó là phần chủ yếu
của các hệ thống giám sát thông minh, trong khi các đối tượng chưa được
đánh dấu, hệ thống không thể trích rút thông tin đi kèm theo thời gian về các
đối tượng và các bước phân tích điều khiển ở mức cao hơn sẽ không thể thực
hiện. Mặt khác, phân đoạn đối tượng nổi bật không đúng do các bóng, sự
45
phản xạ ánh sáng và các tình trạng bị chồng chéo làm cho việc đánh dấu là
một vấn đề nghiên cứu khó khăn.
Ta sử dụng một thuật toán đánh dấu mức đối tượng trong hệ thống này.
Tức là, ta không đánh dấu các phần đối tượng, như là các chi của người,
nhưng ta đánh dấu đối tượng nguyên vẹn từ frame đến frame. Các thông tin
trích rút được ở mức này đều đầy đủ cho hầu hết các ứng dụng giám sát thông
minh.
Hướng tiếp cận này sử dụng các đặc điểm của đối tượng như kích thước,
tâm của khối, hộp bao xung quanh và lược đồ màu sắc được trích rút từ các
bước trước để xác minh sự liên hệ giữa đối tượng trong các frame liên tiếp
[1]. Hơn nữa, thuật toán này phát hiện đối tượng bị bít kín và phân biệt các
đặc điểm của đối tượng sau khi chia nhỏ các đối tượng bị bít kín. Bằng cách
phân tích thông tin về đường đi của đối tượng, hệ thống phát hiện này có thể
phát hiện các đối tượng rời đi và biến mất rất tốt. Lược đồ của hệ thống theo
phương pháp đánh dấu này thể hiện trong lược đồ 2.2
46
Lược đồ 2.2: Lược đồ hệ thống đánh dấu đối tượng
2.2.1. Tham chiếu tương tự với các đối tượng cơ bản
Biểu đồ hoạt động của thuật toán tham chiếu đối tượng thích hợp cơ bản
được thể hiện trong lược đồ 2.3. Bước đầu tiên trong thuật toán đánh dấu đối
tượng này là tham chiếu đến các đối tượng (Op’s) trong ảnh trước (In-1) đến
các đối tượng mới (Oi’s) phát hiện được trong ảnh hiện thời (In).
Phát hiện đối tượng và rút trích
đặc trưng
Tham chiếu các đối tượng dựa
trên sự tương tự
Phát hiện và điều khiển sự chồng
chéo và tách đối tượng
Phát hiện các đối tượng dời đi
hoặc biến mất
Thông tin về đường
đi của đối tượng
Đồ thị tương ứng của đối
tượng đã được cập nhật
Đồ thị tương ứng của đối tượng
Các đối tượng
mới & đặc trưng
Cập nhật
Các đối
tượng trước
47
Lược đồ 2.3: Phương pháp tham chiếu đối tượng phù hợp cơ bản
Op có gần giống với Oi không? Đối tượng tiếp theo của In?
Op có tương tự với Oi không?
Kết
thúc
Có tương tự mới tốt hơn của Oi
không?
Cập nhật tất cả các tương tự
Có
Với tất cả các Op
trong In-1
Với tất cả các Oi trong In
Không
Có
Khai báo một khởi tạo
tương tự
Không
Có
Có
Không
Giữ lại tương tự cũ
Không
Có
Không
Với tất cả Op trong In-1
Với tất cả Oi trong In
Op có thực sự tương tự với Ok
không?
So sánh sự tương tự của Oi và Ok
với Op
48
Hình 2.9: Ví dụ về đồ thị tham chiếu đối tượng
Ta lưu tham chiếu của các đối tượng trong đồ thị chia làm hai phần gốc
(Bi – partite) G(m,n). Trong đồ thị này, các đỉnh biểu diễn các đối tượng (một
lớp đỉnh biểu diễn các đối tượng trước Op’s và phần còn lại biểu diễn các đối
tượng mới Oi’s) và các đường nối biểu diễn một tham chiếu giữa hai đối
tượng. Trong G(m,n), m là kích cỡ của các đối tượng trước và n là kích cỡ của
các đối tượng mới. Một đồ thị tham chiếu đơn giản thể hiện trong hình 3.13.
Để thực hiện việc tham chiếu đối tượng, ta lặp đi lặp lại trên một danh sách
của các đối tượng trước và các đối tượng mới để đánh giá sự tương tự của
chúng. Với mỗi đối tượng trước, Op, ta đánh giá với tất cả các đối tượng mới
và bắt đầu kiểm tra xem một đối tượng mới Oi trong danh sách các đối tượng
mới có thể thành một cặp với Op hay không. Ngưỡng để kiểm tra sự tương
thích được định nghĩa như là khoảng cách giữa điểm chính giữa của khối của
hai đối tượng (Op và Oi) là nhỏ hơn một hằng đã được định nghĩa trước. Việc
kiểm tra này được thúc đẩy bởi thực tế rằng sự thay đổi chỗ của một đối
tượng giữa các ảnh liên tiếp chỉ nên xẩy ra rất nhỏ. Nói một cách khác, hai đối
tượng với các điểm trọng tâm cp và ci được coi là gần nhau nếu thỏa mãn:
),( ip ccDist (2.19)
Trong đó hàm Dist() được định nghĩa như là khoảng cách Euclidean giữa
hai điểm:
Các đối tượng
trước , Op’s
Các đối tượng
mới , Oi’s
49
22 )()(),(
ipip ccccip
yyxxccD st (2.20)
Trong khi mỗi cặp đối tượng tạo thành một đôi thuộc về một ngưỡng
không đảm cần thiết là một sự tham chiếu thành công, trong bước tiếp theo, ta
kiểm tra sự tương tự của các cặp đó để cải thiện việc tham chiếu chính xác
hơn. Tiêu chuẩn để so sánh tượng tự là tỉ lệ kích cỡ của các đối tượng. Hai đối
tượng khác biệt được coi là tương tự nếu nó thỏa mãn:
i
p
s
s
hoặc
p
i
s
s
(2.21)
Trong đó si là kích cỡ của đối tượng Oi và μ là một ngưỡng được định
nghĩa trước. Việc kiểm tra các đối tượng theo kích thước là rất hữu ích nếu
một đối tượng trong frame trước tách ra thành một vùng lớn và một vùng rất
nhỏ thì phân đoạn không đúng. Việc kiểm tra này loại trừ khả năng tham
chiếu giữa một vùng lớn và một vùng nhỏ.
Nếu chúng ta chỉ thực hiện hai bước trên, ta sẽ tới gần với các trường
hợp mà ở đó đối tượng trước được tham chiếu đến nhiều hơn một đối tượng
mới.. Như vậy, sau bước thứ hai ta kiểm tra khả năng đối tượng Op có thực sự
tham chiếu/ tương tự thêm nữa hay không. Nếu đối tượng Op không có sự
tương ứng đầu tiên, ta kết nối đến đỉnh tương ứng trong đồ thị bi-partite
G(m,n) và tiếp tục với đối tượng mới tiếp theo là Oi, nhưng nếu Op có một
tương tự đầu tiên là Ok, ta thực hiện thêm một bước để giải quyết sự xung đột.
Trong việc giải quyết xung đột tham chiếu ta so sánh các sự tương tự của
các đối tượng Oi và Ok với Op, ta cố gắng lựa chọn một trong hai là Oi hoặc Ok
là tham chiếu đúng của đối tượng Op. Sự tương ứng này được so sánh bằng
cách sử dụng khoảng cách giữa điểm trọng tâm của các khối của Op và Oi
hoặc Ok. Đặt dpi là khoảng cách giữa trọng tâm của Op và Oi, dpk là khoảng
cách giữa điểm trọng tâm của Op và Ok. Sự tương ứng này được giải quyết với
50
sự thiên về Ok nếu dpk<dpi hoặc ngược lại sẽ chọn Oi. Chúng ta có thể sử dụng
các chuẩn mạnh hơn trong tham chiếu, như là so sánh lược đồ màu sắc,
Một trường hợp xung đột khác nảy sinh trong trường hợp nếu Oi có một
đối tượng tương ứng từ đầu đã được xác lập trong danh sách các đối tượng
trước đó. Chẳng hạn, Op-1 có thể là tham chiếu của Oi, và trong khi lặp lại việc
tìm kiếm tham chiếu lần tiếp theo cho Op, rất có thể rằng Oi sẽ trở thành tham
chiếu của Op. Nhưng ta biết Oi đã có đối tượng tương ứng là Op-1. Do đó,
nguyên nhân xung đột đối tượng tương ứng tương tự như trường hợp này đòi
hỏi ta phải đưa ra cách giải quyết bằng cách sử dụng phối hợp khoảng cách cơ
sở thể hiện trong đồ thị trước.
Trong khi xác lập tham chiếu giữa các đối tượng trước và các đối tượng
mới có 5 trường hợp tham chiếu khác nhau, ta có thể nêu ra như sau:
- One – to – one: Mỗi đối tượng trước Op được tham chiếu với một
đối tượng đơn Oi. Các đặc điểm của Op được cập nhật thêm thông tin từ
Oi
- One – to – many: Mỗi đối tượng trước Op được tham chiếu với
nhiều hơn một đối tượng mới. Trường hợp xung đột này sẽ được giải
quyết bởi việc so sánh khoảng cách cơ sở và nó quay về trường hợp thứ
nhất.
- One – to – none: Mỗi đối tượng trước Op không tham chiếu đến
bất kỳ đối tượng mới nào. Trường hợp này xảy ra nếu một đối tượng
biến mất từ cảnh hoặc nếu đối tượng này được bị che khuất bởi các đối
tượng khác. Trong trường hợp bị che khuất, đối tượng này sẽ được giữ
lại trong quá trình phát hiện của đối tượng tương ứng bị bít kín tách ra,
nếu không thì đối tượng này sẽ bị xóa khỏi danh sách trước.
51
- None – to – one: Trường hợp một đối tượng mới Oi không tham
chiếu đến bất kỳ một đối tượng nào trong các đối tượng đã tồn tại.
Trường hợp này xảy ra nếu một đối tượng mới được thêm vào trong
cảnh hoặc các đối tượng bị che khuất tách ra. Trong trường hợp một đối
tượng bị che khuất tách ra (sẽ được mô tả ở phần tiếp theo) nếu nó là
một đối tượng mới được thêm vào, đối tượng Oi được thêm vào danh
sách các đối tượng được đánh dấu.
- Many – to – one: Trường hợp một đối tượng mới Oi được tham
chiếu với nhiều hơn một đối tượng trước đó. Trường hợp xung đột này
được giải quyết bởi việc so sánh sự tương ứng về khoảng cách cơ bản
và trở thành trường hợp 1
(n-1)st frame ntn frame
Hình 2.10: Ví dụ về trường hợp phát hiện đối tượng bị che khuất
2.2.2. Điều khiển sự chồng chéo của các đối tượng
Hầu hết các phương pháp phát hiện đối tượng không thể phát hiện các
đối tượng bị che lấp. Vì thế, công nghệ đặc biệt này mong muốn đánh dấu các
đối tượng ngay cả trong các trường hợp bị che khuất. Hệ thống đánh dấu này
sử dụng phương pháp đánh giá dựa trên kinh nghiệm đơn giản để phát hiện và
tách các nhóm đối tượng bị che lấp và phân biệt các đối tượng đồng dạng.
52
2.2.2.1 Phát hiện các đối tượng bị che khuất
Ta sử dụng một giả định đơn giản trong việc phát hiện sự che khuất. Khi
một đối tượng Op được phát hiện biến mất bằng cách dùng thuật toán tham
chiếu đối tượng ban đầu (trường hợp 2, mục 2.2.1), ta kiểm tra xem có một
đối tượng mới Oi nào có đường bao xung quanh che lên Op và nó được tham
chiếu bởi đối tượng trước là Ot. Trong trường hợp thế này, có khả năng cao là
Op và Ot bị che khuất bởi một đối tượng khác có hình dạng mới là Oi. Sau khi
phát hiện ra trường hợp này, ta không xóa bỏ đối tượng Op ở trong danh sách
các đối tượng trước nhưng đánh dấu là nó bị che khuất. Ta tạo ra một nhóm
các đối tượng bị che khuất từ các đối bị che khuất này và chỉ định một nhóm
che khuất ID mới cho các đối tượng đó. Với trường hợp, nếu một trong các
đối tượng bị che khuất đã tồn tại trong nhóm ID, ta trộn các nhóm bị che
khuất lại thành một. Ta cũng lưu lại lược đồ màu trước khi bị che khuất của
các đối tượng để sử dụng trong xử lý nhận dạng sau khi tác ra.
2.2.2.2. Phát hiện các đối tượng tách ra
Ta cũng dựa theo kinh nghiệm để phát hiện các đối tượng tách ra sau khi
bị che khuất. Khi một đối tượng Oi được tìm thấy trong một cảnh bởi thuật
toán tham chiếu đối tượng, ta kiểm tra xem có đối tượng trước Ot có đường
bao che khuất Oi và có giá trị trong nhóm ID và được tham chiếu bởi một đối
tượng mới là Ok. Trong trường hợp này có thể coi như là một đối tượng vừa
tách ra. Ta kiểm tra danh sách đối tượng trước về các đối tượng có cùng nhóm
bị che khuất ID với Op xem liệu có phải Op và Ot cùng bị che lấp bởi một đối
tượng trước đó không. Khi đó ta có 2 đối tượng đánh dấu TO={Op, Ot} và hai
đối tượng mới NO={Oi,Ok}. Bây giờ, ta cần nhận dạng đối tượng trong TO
tương ứng với đối tượng trong NO.
53
2.2.2.3. Lược đồ cơ sở tham chiếu tương ứng
Để tham chiếu các đối tượng trong TO đến các đối tượng tương ứng
trong NO, ta sử dụng cách lưu lại lược đồ màu trước khi bị che khuất của việc
đánh dấu các đối tượng và lược đồ màu của các đối tượng mới. Dù ta không
thể tham chiếu các đối tượng cơ bản ở vị trí của chúng, sử dụng khoảng cách
là không khả thi trong trường hợp này. Như vậy, để so sánh sự tương tự của
các đối tượng, ta sử dụng khoảng cách lược đồ màu.
Khoảng cách dab giữa hai lược đồ màu thông thường Ha và Hb với N bin
được tính toán bằng cách sử dụng ma trận L1 như sau:
N
i
baab iHiHd (2.22)
Từ giờ ta giữ hai lược đồ của mỗi đối tượng, một cao hơn phần thân của
đối tượng và một thấp hơn, ta tính toán toàn bộ khoảng cách bằng cách tổng
kết các khoảng cách giữa các lược đồ màu tương ứng của các đối tượng. Đó
là:
dtotal = dupper histogram +dlower histogram (2.23)
Sau đây là một ví dụ về các đối tượng và các histogram trước và sau khi
che khuất và bảng khoảng cách của chúng
(a) (b)
54
( c) (d)
(e) (f)
Đối tượng A sau Đối tượng B sau
Đối tượng A trước 0.283156 0.467758
Đối tượng B trước 0.358641 0.241878
(g)
Hình 2.11: Nhận dạng đối tượng sau khi che khuất
(a) Ảnh trước khi che lấp
(b) Ảnh sau khi che lấp
(c) Histogram màu của đối tượng A trước khi che lấp
(d) Histogram màu của đối tượng B trước khi che lấp
(e) Histogram màu của đối tượng A sau khi che lấp
(f) Histogram màu của đối tượng B sau khi che lấp
(g) Bảng khoảng cách histogram màu của các đối tượng A, B
55
2.2.3. Phát hiện các đối tượng dời đi và các đối tượng bị loại bỏ
Khả năng phát hiện sự dời đi và loại bỏ của các đối tượng là vấn đề sống
còn của một số ứng dụng giám sát. Phát hiện các đối tượng dời đi như hành lý
không có chủ trong các sân bay hoặc một chiếc xe đỗ trước một tòa nhà an
ninh nhạy cảm là rất quan trọng. Những hoạt động đó có thể được thực hiện
bởi những kẻ khủng bố làm tổn hại mọi người. Mặt khác, bảo vệ các đối
tượng tránh xa khỏi những vật đổi chỗ mà không được phép có những ứng
dụng rất quan trọng như là các hệ thống giám sát ở các bảo tàng, triển lãm
nghệ thuật hoặc các tòa nhà lưu trữ cần tránh trộm cắp. Nhờ có các ứng dụng
đó, đối tượng dời đi và biến mất là một phần quan trọng của hệ thống giám
sát.
Hệ thống ta trình bày ở đây có thể phát hiện và phân biệt các đối tượng
dời đi và biến mất trong Video. Để đạt được điều này, ta sử dụng phối hợp trừ
nền tương ứng, phương pháp đánh dấu đối tượng và các kinh nghiệm thực tế
để phân biệt các đối tượng dời đi từ các đối tượng biến mất. Có ba bước để
phát hiện sự dời đi và sự biến mất của các đối tượng như sau:
1. Phát hiện một sự thay đổi giữa ảnh hiện thời với ảnh nền cơ sở bằng
cách sử dụng phối hợp trừ nền tương ứng.
2. Quyết định rằng vùng chuyển động được phát hiện có phù hợp với
một sự dời đi và biến mất của đối tượng bằng cách sử dụng phương
pháp đánh dấu đối tượng.
3. Phân biệt các đối tượng dời đi từ các đối tượng biến mất bằng cách
sử dụng thuộc tính màu thống kê của các vùng được phát hiện và
đường bao xung quanh của nó.
Không giống như một số thuật toán khác, chẳng hạn như sự khác biệt
theo thời gian, thuật toán trừ nền tương ứng này có thể phát hiện được các đối
56
tượng dời đi hoặc biến mất cho một giai đoạn thời gian dài. Với sự trợ giúp
của phương pháp đánh dấu, ta phát hiện đối tượng đứng yên bằng thông tin về
đường đi của nó. Nếu một phần hiện thời của thông tin về đường đi thể hiện
rằng đối tượng không chuyển động một thời gian đã lâu (ví dụ như chu kỳ
cảnh báo), ta quyết định vùng tương ứng là đứng yên và có khả năng nó sẽ
dời đi hoặc biến mất.
Để phân biệt kiểu của đối tượng (dời đi hay biến mất), ta sử dụng các đặc
tính tĩnh của các giá trị màu ở bên trong và ở viền của vùng được phát hiện.
Đặt R là vùng tương ứng với một sự thay đổi với thời hạn dài trong nền; S là
đường bao xung quanh của R và đặt AX là giá trị cường độ màu trung bình
trong vùng X. Kinh nghiệm cho thấy từ các cuộc thử nghiệm về đối tượng dời
đi/ biến mất là nếu các giá trị của AR và AS là gần nhau, khi đó cho biết rằng
vùng các đối tượng được phát hiện và vùng bao của nó hầu hết có cùng màu
cho nên vùng này tương ứng với đối tượng chuyển chỗ. Mặt khác, nếu AR và
AS không gần nhau cho thấy rằng vùng này tương ứng với đối tượng biến mất.
Việc xác định AR và AS có gần nhau hay không như sau:
,1
S
R
A
A
nếu AR ≤ AS
(2.24)
1
R
S
A
A
, nếu AS ≤ AR
Trong đó là một hằng được định nghĩa trước(≈0.85). Sau đây là miêu tả
hình vẽ thể hiện các vùng AR và AS và hai ảnh Video thể hiện hai trường hợp
dời đi và di chuyển của các đối tượng.
57
(a) (b)
(c) (d)
Hình 2.12: Phân biệt các đối tượng dời đi và biến mất
(a) Cảnh nền, (b) Vùng R và S, (c) Ví dụ về đối tượng dời đi, (d) vì dụ
về đối tượng biến mất.
58
Chương 3
ỨNG DỤNG
3.1. Giám sát tự động dưới sự trợ giúp của Camera
Ngày nay, công nghệ thông tin đã xâm nhập vào mọi ngõ ngách của cuộc
sống. Việc sử dụng các hệ thống giám sát bằng camera trở nên vô cùng quan
trọng. Trong giao thông, người ta lắp đặt các camera giám sát ở các ngã ba,
ngã tư, đường hầm, nhà ga và các vị trí nhạy cảm để giám sát tai nạn giao
thông, các vi phạm luật giao thông của các phương tiện, Trong các bảo
tàng, người ta sử dụng hệ thống camera để giám sát các vật trưng bày để tránh
trường hợp bị mất cắp. Các vùng nhạy cảm về an ninh, ta có các hệ thống
giám sát để có thể cảnh báo kịp thời những hành vi khả nghi liên quan đến
khủng bố, trộm cắp, hỏa hoạn Ở các siêu thị, người ta dùng hệ thống
camera giám sát để tránh các trường hợp trộm cắp hàng hóa,....
Như vậy, các hệ thống giám sát là rất cần thiết và hữu ích cho xã hội.
Hiện nay, các hệ thống giám sát hoạt động tốt dựa vào công nghệ phần cứng,
tuy nhiên, như đã nói ở trên, phần mềm nhúng ra đời để làm giảm chi phí cho
việc sản xuất các thiết bị phần cứng chuyên dụng vốn rất đắt đỏ. Việc cài đặt
các phần mềm giám sát vào các hệ thống giám sát là rất cần thiết.
Với các phương pháp về phát hiện, đánh dấu, phân loại đối tượng đã nêu
ở trên, ta có thể xây dựng một phần mềm giám sát để làm giảm thiếu chi phí
cho các thiết bị phần cứng đồng thời có tính bảo mật cao.
Nhờ camera và các phương pháp phát hiện đối tượng chuyển động trong
camera, ta có thể xây dựng các phần mềm điều khiển, các phần mềm hỗ trợ.
Chẳng hạn như phần sử dụng tia laze để điều khiển các chương trình ứng
dụng chạy trên máy tính. Phần mềm hỗ trợ giao tiếp giữa người khuyết tật với
máy tính,
59
3.2. Chương trình thử nghiệm phát hiện và bám sát đối tượng
Bài toán đặt ra là với ảnh thu nhận được từ camera, chương trình ứng
dụng sẽ tiến hành xử lý và cho ra kết quả là đối tượng đang cần theo vết đang
ở vị trí nào, ta tiến hành đánh dấu (tô màu, kẻ khung) và từ đó liên tục bám sát
đối tượng đó dựa trên một ngưỡng nhất định. Sau khi xác định vị trí đối
tượng, ứng dụng sẽ tiếp tục điều khiển thiết bị chuột tới vị trí mong muốn (vị
trí của đối tượng đang theo vết), đồng thời quyết định ra sự kiện gì (Click,
Double click, Drap & Drop).
Hình 3.1: Sơ đồ mô tả các tiến trình xử lý của hệ thống
Thuật toán phát hiện sự chuyển động
Có nhiều phương pháp tiếp cận để phát hiện chuyển động trong hình
ảnh Video liên tục. Có thể so sánh khung hình hiện tại với hình nền chúng ta
chụp từ ban đầu khi bật camera hoặc từ khung hình trước. Đối với phương
pháp thứ nhất thì đơn giản và giảm được việc xử lý. Tuy nhiên, cách tiếp cận
có một bất lợi lớn, ví dụ nếu có một đối tượng đang di chuyển ở frame đầu
tiên nhưng sau đó nó đã biến mất. Phương pháp thứ hai thì xử lý phức tạp
hơn, xử lý nhiều hơn nhưng lại thích nghi với mọi môi trường, kể cả môi
trường ít thay đổi hoặc thay đổi nhiều. Nhược điểm là nếu đối tượng di
chuyển một cách rất chậm thì hệ thống không phát hiện ra. Nhưng có thể giải
quyết bằng cách tăng số khung hình trên giây. Trong đề tài này giới thiệu theo
phương pháp Optical Flow.
60
Ngưỡng (Threshold)
Nguỡng (Threshold) là một khái niệm khá quen thuộc trong xử lý ảnh
cũng như rất nhiều giải thuật khác. Nó dùng để chỉ một giá trị mà người ta
dựa vào để phân hoạch một tập hợp thành các miền phân biệt.
Ví dụ thang điểm đánh giá học sinh là từ 1 đến 10. Trong một tập hợp gồm 40
học sinh của 1 lớp, người ta muốn phân lọai ra hai miền, miền thứ nhất bao
gồm các học sinh đạt yêu cầu và miền thứ hai gồm các học sinh không
đạt. Trong tình huống đó người ta dùng giá trị 5 (điểm) như là một ngưỡng
(threshold) để phân loại học sinh. Các học sinh có điểm dưới 5 sẽ xem như
không đạt, những học sinh có điểm từ 5 trở lên là đạt yêu cầu. Giá trị ngưỡng
thường được xác định dựa vào những điểm đặc biệt (ví dụ ở trung bình), dựa
vào kinh nghiệm khảo sát. Nếu dựa vào số lượng ngưỡng áp dụng cho cùng
một tập dữ liệu người ta sẽ phân ra các phương pháp ứng dụng ngưỡng đơn,
ngưỡng kép, hay đa ngưỡng. Nếu dựa vào sự biến thiên của giá trị
ngưỡng, trong cùng phạm vi ứng dụng người ta sẽ phân ra các phương pháp
dùng ngưỡng cố định (Constant|Fixed Threshold) và không cố định (Adaptive
Threshold). Ngưỡng không cố định nghĩa là giá trị của nó sẽ thay đổi tùy theo
sự biến thiên của tập dử liệu theo không gian và thời gian. Thông thường giá
trị này được xác định thông qua khảo sát bằng phương pháp thống kê. Để dễ
hình dung hơn về ứng dụng khái niệm Threshold, sau đây chúng ta sẻ xét một
ví dụ bộ lọc ngưỡng (Threshold Filter) đơn giản trong xử lý ảnh.
Với mỗi pixel trong hình đa mức xám (grayscale) ở trên giá trị sẽ trong
khoảng 0 - 255 vậy pixel nào lớn hơn ngưỡng là 120 ta gán giá trị cho nó
thành đen (0), ngược lại gán giá trị trắng (255). Kết quả thu được như sau:
61
Hình 3.2: Trước và sau khi xử lý dựa trên ngưỡng
62
Hình 3.3: Lưu đồ thuật toán phát hiện sự chuyển động
End
Pixel ảnh đầu ra
màu đen
Không có sự di
chuyển
Pixel ảnh đầu ra
màu trắng
Số điểm trắng >
Ngưỡng
Có sự di chuyển
Begin
Thu khung hình
hiện tại, và trước
Chuyển thành ảnh
xám
So sánh từng pixel
của 2 ảnh xám
Giá trị>ngưỡng cho
trước
N
N
Y
Y
63
3.2.1. Giao diện của chương trình:
Hình 3.4: Giao diện chương trình demo
3.2.2. Các chức năng của chương trình:
Hình 3.5: Phát hiện và bám sát các đối tượng chuyển động
Chức năng này cho phép mở các Video từ một file AVI, từ camera gắn trực
tiếp với máy tính.
64
Hình 3.6: Chức năng theo vết đối tượng được lựa chọn để theo vết
Chức năng này giám sát đối tượng mà mình muốn theo vết
Hình 3.7: Chức năng theo vết đối tượng được lựa chọn để theo vết (tiếp theo)
65
Hình 3.8: Chức năng chọn màu dãy màu của đối tượng cần theo vết
Hình 3.9: Chức năng chọn dãy màu từ ảnh chụp từ webcam của đối tượng
cần theo vết
66
Hình 3.10: Chức năng dùng đối tượng đang theo vết để điều khiển “Mouse”
Chức năng này theo màu của một đối tượng và xác định vị trí của đối tượng
để đưa con trỏ tới đúng vị trí đối tượng đang đứng, mục đích là muốn thông
qua đối tượng bên ngoài như bàn tay để qua camera có thể duyệt web, sử
dụng các thao tác căn bản như Click, Double click
67
KẾT LUẬN
Như ta đã biết, giám sát bằng camera được ứng dụng rộng rãi trong nhiều
lĩnh vực của cuộc sống, việc nghiên cứu các vấn đề liên quan đến các hệ thống
giám sát này nhằm đưa ra các cảnh báo chính xác, kịp thời là một công việc
mang tính thực tiễn cao. Chúng ta cũng biết rằng kết quả thu nhận được từ các
camera giám sát là Video. Như vậy việc nghiên cứu chính ở đây là phát hiện
đối tượng chuyển động trong Video.
Video thu nhận được từ các camera sẽ được xử lý qua các công đoạn sau:
Phát hiện đối tượng chuyển động, đánh dấu các đối tượng vừa phát hiện, phân
loại chúng và sẽ tiến hành xử lý và cho ra kết quả là đối tượng đang cần theo
vết đang ở vị trí nào, ta tiến hành đánh dấu (tô màu, kẻ khung) và từ đó liên tục
bám sát đối tượng đó dựa trên một ngưỡng nhất định. Sau khi xác định vị trí
đối tượng, ứng dụng sẽ tiếp tục điều khiển thiết bị chuột tới vị trí mong muốn
(vị trí của đối tượng đang theo vết), đồng thời quyết định ra sự kiện gì (Click,
Double click, Drap & Drop, Zoom out, Zoom in)
Sau khi nghiên cứu các phương pháp đó, sẽ tìm ra phần ưu, phần nhược
của từng phương pháp, từ đó có bước kết hợp giữa các phương pháp hoặc đưa
ra các giải pháp để khắc phục các nhược điểm nhằm xây dựng một hệ thống
giám sát tối ưu nhất có thể. Trong luận văn này tôi cũng đã cài đặt thành công
một số phương pháp phát hiện và đánh dấu đối tượng chuyển động. Hệ thống
đầu vào trong bản demo này là lấy hình ảnh trực tiếp từ webcam gắn vào máy
tính hoặc lấy một file Video có phần đặc trưng là AVI từ nguồn có sẵn hoặc
các Video lấy từ nguồn trực tuyến.
Hướng nghiên cứu sâu hơn của đề tài này mà tôi quan tâm đó là phát hiện
và phân loại từng phần chuyển động của đối tượng, từ đó xây dựng các ứng
68
dụng hỗ trợ cho con người. Một hướng khác nữa là tìm hiểu rõ về đặc điểm của
lửa, từ đó xây dựng các hệ thống cảnh báo hỏa hoạn.
TÀI LIỆU THAM KHẢO
[1] A. Amer. Voting-based simultaneous tracking of multiple Video objects. In
Proc. SPIE Int. Symposium on Electronic Imaging, Santa Clara, USA, January
2005.
[2] J. L. Barron, D. J. Fleet, and S. S. Beauchemin. Performance of optical flow
techniques. International Journal of Computer Vision, 12(1):43–77, 2004.
[3] R. Cutler and L.S. Davis. Robust real-time periodic motion detection, analysis
and applications. In IEEE Transactions on Pattern Analysis and Machine
Intelligence, 2003.
[4] R. T. Collins et al. A system for Video surveillance and monitoring: VSAM final
report. Technical report CMU-RI-TR-00-12, Robotics Institute, Carnegie Mellon
University, May 2006.
[5] T. Brodsky et al. Visual Surveillance in Retail Stores and in the Home,
Boston, 2002.
[6] I. Haritaoglu, D. Harwood, and L.S. Davis. W4: A real time system for detecting
and tracking people. In Computer Vision and Pattern Recognition, 2008.
[7] J. Heikkila and O. Silven. A real-time system for monitoring of cyclists and
pedestrians. In Proc. of Second IEEE Workshop on Visual Surveillance, Fort
Collins, Colorado, June 2009.
[8] A. J. Lipton. Local application of optic flow to analyse rigid versus non-rigid
motion. Technical Report CMU-RI-TR-99-13, Robotics Institute, Carnegie Mellon
University, Pittsburgh, PA, December 2009.
[9] A. J. Lipton, H. Fujiyoshi, and R.S. Patil. Moving target classification and
tracking from real-time Video. In Proc. of Workshop Applications of Computer
Vision, 2008.
[10] C. B. Liu and N. Ahuja. Vision based fire detection. In IEEE International
Conference on Pattern Recognition, Cambridge, UK, August 2004. to appear.
[11] B. D. Lucas and T. Kanade. An iterative image registration technique with an
application in stereo vision. In Seventh International Joint Conference on Artificial
Intelligence, pages 674–679, Vancouver, 2007.
[12] J. S. Marques, P. M. Jorge, A. J. Abrantes, and J. M. Lemos. Tracking groups
of pedestrians in Video sequences. In Proc. of IEEE Workshop on Multi-Object
Tracking, Madison, June 2003.
[13] A. M. McIvor. Background subtraction techniques. In Proc. of Image and
Vision Computing, New Zealand, 2008.
[14] C. Papageorgiou, T. Evgeniou, and T. Poggio. A trainable pedestrian detection
system. In Proc. of IEEE Int. Conf. on Intelligent Vehicles, Germany, October
2008.
[15] M. Saptharishi, J.B. Hampshire II, and P. Khosla. Agent-based moving object
correspondence using differential discriminative diagnosis. In Proc. Of Computer
Vision and Pattern Recognition, 2003.
[16] E. Saykol, U. Gudukbay, and O. Ulusoy. A histogram-based approach for
object-based query-by-shape-and-color in multimedia databases. Technical Report
BUCE-0201, Bilkent University, 2007.
[17] C. Stauffer and W. Grimson. Adaptive background mixture models for realtime
tracking. In Proc. of the IEEE Computer Society Conference on Computer Vision
and Pattern Recognition, 2005.
[18] B. U. Toreyin. Moving object detection and tracking in wavelet compressed
Video. Master’s thesis, Bilkent University, 2003.
[19] Fleet, D.J. and Weiss, Y., Optical flow estimation, Mathematical models for
Computer Vision: The Handbook. N. Paragios, Y. Chen, and O. Faugeras (eds.),
Springer, 2005.
[20] L. Wang, W. Hu, and T. Tan. Recent developments in human motion analysis,
March 2003.
[21] L. Wixson and A. Selinger. Classifying moving objects as rigid or non-rigid. In
Proc. of DARPA Image Understanding Workshop, 2008.
[22] M. Xu and T. Ellis. Colour-Invariant Motion Detection under Fast
Illumination Changes, Boston, 2002.
Các file đính kèm theo tài liệu này:
- nghien_cuu_mot_so_ky_thuat_phat_hien_bam_sat_doi_tuong_va_ung_dung_228.pdf