ĐH Công nghệ - ĐHQGHN, 2008
Sơ lược:
Phần 1: Lý thuyết xử lý ảnh
Chương 1: Lý thuyết xử lý ảnh
Chương 2: Thu nhận hình ảnh
Chương 3: Phân tích ảnh
Phần 2: Phần thực nghiệm
Chương 1: Ngôn ngữ lập trình
Chương 2: Điều khiển cổng LPT trên Win2000/NT/XP
Chương 3: Minh hoạ thuật toán và chương trình
Cán bộ hướng dẫn: Nguyễn Vinh Quang
TÓM TẮT NỘI DUNG KHÓA LUẬN:
Nội dung của khóa luận là ứng dụng lý thuyết của xử lý ảnh số qua thiết bị thu ảnh , ở
đây là web camera để điều khiển một hệ cơ tự động theo dõi đối tượng chuyển động.
Khóa luận được chia làm hai phần chính, phần lý thuyết và phần thực nghiệm :
-Trong phần lý thuyết , ta sẽ tìm hiểu các khái niệm cơ bản của xử lý ảnh số,
bao gồm lý thuyết về Xử lý ảnh,Thu nhận hình ảnh và Phân tích ảnh.
-Ở phần này, giới thiệu các khái niệm về xử lý ảnh và ứng dụng các thuật toán
về xử lý ảnh như là công cụ toán học tích chập, các phưong pháp tiền xử lý : lọc nhiễu,
phát hiện biên, phân ngưỡng ảnh .
-Phần thực hành gồm 3 phần:
Phần 1 tìm hiểu ngôn ngữ lập trình và thư viện AVICap của Microsoft.
Phần 2 sẽ giới thiệu về cách giao tiếp và điều khiển công LPT trên VC++.
Phần 3 là phần chính , bao gồm thuật toán và chương trình chính điều khiển
62 trang |
Chia sẻ: lvcdongnoi | Lượt xem: 2794 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Khóa luận Xử lý ảnh và ứng dụng theo dõi đối tượng chuyển động, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
Khai triển công thức trên ta được
v(k) = ( ∑−
=
1
0
1 M
nM
u(2n) W2M2nk + M
1 ∑ u(2n+1) W2M(2n+1)k)/2 (3.19)
vì W2M2nk =W2Mnk, do đó:
v(k) =
2
1 [uchẵn (n)+ulẻ (n)] (3.20)
v(k) với k=[0,M-1] là một DFT trên M =N/2. Thực chất của thuật toán FFT là dung
nguyên tắc chia đôi và tính chu kỳ để tính DFT. Với k=[0,M-1] dung công thức (3.19).
Với k=[M,M-1] dung phép trừ trong công thức (3.19) có thể dung thuật toán này để
tính DFT ngược.
-Trường hợp hai chiều:
Do DFT hai chiều là tách được nên từ công thức (3.14) ta có:
V(k,l) = ∑−
=
1
0
1 N
mN
WNkn u(m,n) W∑−
=
1
0
N
n
N
ln (3.21)
Từ công thức (3.21) , cách tính DFT hai chiều như sau:
-Tính DFT 1 chiều với mỗi giá trị của X (theo cột)
-Tính DFT 1 chiều theo hướng ngược lại (theo hàng) với giá trị thu được ở trên.
3.3 Tiền xử lý
Có hai phương pháp cơ bản được sử dụng trong tiền xử lý ảnh. Phương pháp thứ
nhất dựa vào các kỹ thuật tiền xử lý trong miền không gian và phương pháp thứ
hai sử dụng các khái niệm trong miền tần số thông qua biến đổi Fourier.
3.3.1 Phương pháp tiền xử lý trong miền không gian.
Thuật ngữ miền không gian ở đây muốn nói đến số lượng pixel tạo nên một hình
ảnh. Các phương pháp tiền xử lý trong miền không gian là các thủ tục tác động trực
tiếp lên các pixel tạo lên hình ảnh đó. Các hàm tiền xử lý trong miền không gian có
thể được viết như sau:
g(x,y) =h[f(x.y)] (3.22)
Ở đây f(x,y) là hàm điểm ảnh chưa được xử lý.
g(x,y) là hàm điểm ảnh đã được xử lý.
h là toán tử áp lên f. Dạng đơn giản nhất của h là lân cận có kúch tghước1x1, khi
đó g chỉ phụ thuộc vào giá trị của f tại (x,y) và h trở thành hàn ánh xạ cường độ
sáng điểm ảnh.
Một trong những kỹ thuật được sử dụng rộng rãi nhất là sử dụng mặt nạ nhân
chập. Trên hình 3.4 minh hoạ một mặt nạ là một mảng 2 chiều có kích thước 3x3,
các hệ số của mặt nạ được chọn để phát hiện một thuộc tính cho trước trong một
hình ảnh.
Hình 3.4. Một lân cận kích thước 3x3 quanh điểm (x,y)
y
(x,y)
x
•
Để hiểu rõ về mặt nạ nhân chập ta xét một ví dụ cụ thể sau. Giả sử chúng ta có
một hình ảnh có cường độ không đổi chứa một số điểm ảnh tách rời nhau, cường độ
của các điểm ảnh này khác với nền. Các điểm ảnh này có thể được phát hiện bằng một
mặt nạ nhân chập có kích thước 3x3 với các hệ số đã chọn trên hình 3.5
Hình 3.5. Mặt nạ dung để xác định các điểm ảnh
Tách biệt trên một nền không đổi
-1 -1 -1
-1 8 -1
-1 -1 -1
Thủ tục phát hiện điểm ảnh như sau: Cho tâm của mặt nạ chuyển động xung quanh
hình ảnh. Tại mỗi vị trí pixel trong hình ảnh, ta nhân mỗi pixel nằm trong vùng mặt
nạ tương ứng ; Nghĩa là pixel ở tâm của mặt nạ được nhân với 8, còn 8 pixel lân
cận được nhân với –1. Sau đó cộng kết quả của 9 phép nhân này lại. Nếu tất cả các
pixel trong mặt nạ có cùng giá trị (tức nền không đổi), thì tổng sẽ bằng 0. Ngược
lại nếu tâm của mặt nạ trùng với một trong các điểm ảnh cần xác định, thì tổng sẽ
khác 0. Nếu điểm ảnh cần xác định không nằm đúng tâm của mặt nạ, tổng cũng sẽ
khác 0, nhưng giá trị biên độ của đáp ứng sẽ yếu hơn. Những đáp ứng yếu hơn này
có thể loại bỏ bằng cách so sánh tổng với một ngưỡng.
Xét một mặt nạ có các hệ số w1, w2,….w9 và 8 điểm ảnh lân cận của điểm ảnh
(x,y) như hình 3.6. Ta có thể khái quát hoá một hàm tiền xử lý cho một mặt nạ 3x3
như sau:
h[f(x,y)]= w1f(x-1, y-1) +w3f(x-1, y+1) +w4f(x, y-1) +w5f(x,y)+w6f(x,y+1)
+w7f(x+1,y-1)+w8f(x+1,y) +w9f(x+1, y+1) (3.23)
Hình 3.6. Mặt nạ tổng quát kích thước
3x3 trình bày các hệ số và vị trí pixel hình
ảnh tương ứng.
W1
(x-1,y-1)
W2
(x-1,y)
W3
(x-1,y+1)
W4
(x, y-1)
W5
(x,y)
W6
(x,y+1)
W7
(x+1, y-1)
W8
(x+1, y)
W9
(x+1,
y+1)
3.3.2 Phương pháp tiền xử lý trong miền tần số.
Thuật ngữ miền tần số ở đây có nghĩa là tổng số pixel phức được tạo ra từ việc lấy
biến đổi Fourier hình ảnh . Khái niệm “tần số” thường được sử dụng trong giải
thích biến đổi Fourier và suy ra từ bản chất của biến đổi Fourier là tổ hợp của các
hàm sin phức. Phương pháp naỳ đóng vai trò rất quan trọng trong lĩnh các vực như
phân tích chuyển động của một vật và miêu tả vật.
Xét các hàm rời rạc của một biến, f(x), x=0, 1, …., N-1. Biến đổi Fourier thuận của
hàm f(x) là:
F(u) = ∑−
=
1
0
1 N
xN
f(x)e-2jπux / N (3.24)
với u = 0, 1, 2,…..N-1. Trong phương trình này j=√-1 và u gọi là biến tần số. Biến đỏi
Fourier ngược cho lại f(x) được định nghĩa như sau:
f(x) = e( )∑−
=
1
0
N
u
uF 2jπux / N (3.25)
Nếu tính trực tiếp từ các phương trình (3.24) và (3.25) với u=x=0,1, 2, ...N-1 thì
phải thực hiện khoảng N2 phép cộng và phép nhân. Sử dụng thuật toán biến đổi
Fourier nhanh cho phép giảm đáng kể số lượng phép tính xuống còn N.log2 N phép
tính, ở đây N được giả sử là một số nguyên mũ 2.
Cặp biến đổi Fourier hai chiều của hình ảnh NxN được định nghĩa như sau:
F(u,v) =
N
1 ∑−
=
1
0
N
x
∑−
=
1
0
N
y
f(x,y)e-j2π (ux+vy)/N (3.26)
với u,v=0,1,2..., N-1 và
f(x,y) =
N
1 ∑−
=
1
0
N
u
∑−
=
1
0
N
v
F(u,v)ej2π (ux+vy)/N (3.27)
với x,y=0, 1, 2,...N-1.
Bằng cách coi biên của vật như mảng một chiều các điểm, sau đó tính biến đổi
Fourier các phần tử của mảng đó, từ các giá trị F(u) thu được có thể biết được dạng
biên của vật. Biến đổi Fourier một chiều cũng là một công cụ rất mạnh trong việc
phát hiện chuyển động của vật. Tuy vẫn còn hạn chế về mặt tính toán nhưng biến
đổi Fourier rời rạc có rất nhiều ứng dụng trong các lĩnh vực tái tạo ảnh, cải thiện
ảnh và khôi phục ảnh. Đối với biến đổi Fourier liên tục, hai chiều, việc tính toán có
thể đạt tới tốc độ ánh sáng nhờ sử dụng các thiết bị quang học .
3.4 Làm trơn ảnh.
3.4.1 Lấy trung bình các điểm ảnh lân cận- Lọc tuyến tính.
Lấy trung bình các điểm ảnh lân cận là một kỹ thuật miền không gian đơn giản để
làm trơn ảnh. Cho một hình ành f(x,y) , thủ tục sẽ tạo ra một hình ảnh đã làm trơn
g(x,y), cường độ tại mỗi điểm (x,y) của ảnh này có được bằng cách lấy trung
bình các giá trị cường độ các điểm ảnh của f nằm trong một lân cận xác trước định
của (x,y). Nói cách khác, ảnh đã được làm nhẵn có được bằng cách sử dụng
phương trình:
G(x,y) =
( )∑∈Smnp ,
1 f(n,m) (3.28)
với mọi x,y nằm trong f(x,y) , S là tập hợp tọa độ các điểm trong lân cận (x,y) gồm cả
(x,y) và P là tổng số điểm trong lân cận.
3.4.2. Phương pháp lọc điểm giữa (lọc trung vị)_ Lọc phi tuyến.
Một trong những khó khăn chủ yếu của phương pháp lấy trung bình các điểm ảnh
lân cận là nó làm mờ biên của hình ảnh và các chi tiết sắc nét khác. Sự mờ này có
thể làm giảm đáng kể nhờ việc sử dụng bộ lọc điểm giữa ở đây chúng ta sẽ thay
cường độ của mỗi điểm ảnh bằng độ lớn cường độ của điểm giữa trong một lân cận
xác định trước của điểm ảnh đó thay vì lấy trung bình các điểm ảnh.
Để thực hiện lọc điểm giữa trong một lân cận của một điểm ảnh, trước tiên phải sắp
xếp các giá trị của pixel và các lân cận của nó, xác định điểm giữa và gán giá trị
này cho pixel. Ví dụ: trong lân cận 3x3 điểm giữa là giá trị lớn nhất thứ 5, trong
lân cận 5x5 điểm giữa là giá trị lớn nhất thứ 13v.v…Khi trong lân cận có nhiều giá
trị giống nhau, ta nhóm các giá trị bằng nhau như :giả sử một lân cận 3x3 có các
giá trị (10,20,20,20,15,20,20,25,100). Các giá trị này được sắp xếp như
sau(10,15,20,20,20,20,25,100) và các điểm giữa của lân cận này là 20 Như vậy
thực chất của việc lọc điểm giữa là ép các điểm có cường độ khác biệt giống các
lân cận của nó hơn, tức làm loại bỏ các điểm nhọn cường độ xuất hiện trong các
mặt nạ lọc.
3.4.3 Trung bình hoá hình ảnh
Xét một hình ảnh nhiễu g(x,y) tạo ra do cộng nhiễu n(x,y) vào hình ảnh f()x,y tức
là:
G(x,y) = f(x,y) +n(x,y) (3.29)
ở đây giả sử nhiễu là không tương quan và có giá trị trung bình bằng 0. Mục tiêu của
phương pháp trung bình hoá là tạo ra một hình ảnh tốt hơn bằng cách cộng các hình
ảnh nhiễu cho trước gi(x,y), i=1,2,…K .
Nếu nhiễu thoả mãn các ràng buộc nêu trên, bài toán sẽ là đơn giản và hình ảnh
g(x,y) được tạo ra bằng cách lấy trung bình K hình ảnh nhiễu khác nhau.
g (x,y) =
K
1 ∑
=
K
i 1
g(x,y) (3.30)
do đó ta có:
E { g (x,y)} = f(x,y) (3.31)
Và :
σ
g
2 (x,y) =
K
1 σ
n
2 (x,y) (3.32)
ở đây E { g (x,y)} là giá trị mong đợi của g , σ
g
2 (x,y), và σ
n
2 (x,y) là các biến của g và
n tại toạ độ (x,y). Độ lệch chuẩn tại bất kỳ điểm nào trong hình ảnh trung bình được
cho bởi:
σ
g
(x,y) =
K
1 σ
n
(x,y) (3.33)
3.4.4 Làm trơn hình ảnh nhị phân
Trong ảnh nhị phân điểm đen được quy định là 1 và điểm trắng được quy định là 0.
Vì hình ảnh nhị phân có hai giá trị nhiễu trong trường hợp này tạo ra các hiệu ứng
như biên mấp mô, các lỗ nhỏ, thiếu góc và các điểm bị tách ra.
Ý tưởng cơ bản là kiểm tra một hàm BOOL đối với lân cận tâm tại pixel p và gán p
là 1 hoặc 0 phụ thuộc vào sự sắp xếp về mặt không gian và giá trị của các pixel lân
cận. Do hạn chế về thời gian xử lý nên việc phân tích chỉ giới hạn trong 8 lân cận
của p, lân cận này cho một mặt nạ kích thước 3x3 như hình 3.7.
Hình 3.7. Các lân cận của p sử dụng để làm nhẵn ảnh
a b c
d p e
f g h
nhị phân điểm tối là một và điểm sang là 0
Làm nhẵn ảnh nhị phân được tiến hành theo các bước sau:
1. bổ xung các lỗ nhỏ
2. bổ xung các khấc trong các cạnh
3. Loại bỏ các điểm 1 biệt lập
4. loại bỏ các biếu nhỏ dọc các cạnh
5. bổ xung các góc thiếu
Hai quá trình làm nhẵn đầu tiên được thực hiện bằng cách dung biểu thức Bool sau:
Bi =p+b.g.(d+e) +d.e(b+g) (3.34)
ở đây “.” Và “+” lần lượt là ký hiệu của AND và OR. Theo qui ước, pixel trong mặt
nạ được gán là 1 và pixel trắng được gán là 0. Do đó nếu Bi =1, p được gán là 1, ngược
lại p được gán là 0. Phương trình (3.34) được áp dụng đồng thời cho tất cả các pixel,
trong đó giá trị tiếp theo của mỗi vị trí pixel được xác định trước khi các pixel khác đã
bị thay đổi.
Bước 3,4 được thực hiện tương tự bằng cách đánh giá biểu thức Bool sau:
B2 =p{(a+b+c). (e+g+h)+(b+c+e).(d+f+g)} (3.35)
đồng thời cho tất cả các pixel . Và p=1 nếu B2 =0.
Các điểm thiếu ở góc phải trên được bổ xung bằng biểu thức sau:
B= p (d.f.g) . )( hecba ++++ +p (3.36)
ở đây dấu gạch trên cho biết phần bù logic. Tương tự, các điểm thiếu góc phải dưới
trái trên, và trái dưới được bố sung bằng các biểu thức:
B= p (a.b.d) . )( hecgf ++++ +p (3.37)
B= p (e.g.h) . )( fdcab ++++ +p (3.38)
Và
B= p (b.c.e) . )( fdhag ++++ +p (3.39)
Bốn biểu thức này thực hiện bước 5 của thủ tục làm trơn ảnh:
Ví dụ
1
1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1
1 1
1
1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1
1
1
3.9(a) Hình ảnh gốc 3.9(b) Ảnh sau khi áp dụng B1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
3.9 (c) Ảnh sau khi áp dụng B2 3.9 (d) Ảnh cuối cùng sau bước 5
x
1
1 1 1 1 1 1 x
x 1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1
x x
3.5 Phát hiện biên
Phát hiện biên đóng vai trò quan trọng trong nhìn thấy máy, được coi là
bước xử lý khởi đầu cho rất nhiều bài toán phát hiện vật.
3.5.1 Nguyên tắc.
Về cơ bản ý tưởng phát hiện biên của vật là tính đạo hàm cục bộ được minh
hoạ trên hình 1.10.
ảnh
Tiết diện
của đường
nằm ngang
Đạo hàm
bậc nhất
Đạo hàm
bậc hai
( a ) ( b )
Hình 3.10. Quá trình phát hiện biên bằng phương pháp lấy đạo hàm
a) Vật sang trên nền đen
b) Vật sang trên nền sang
Toán tử độ dốc: Độ dốc của một hình ảnh f(x,y) tại vị trí (x,y) được định nghĩa
như vectơ hai chiều :
G{f(x,y)} = = ⎥⎦
⎤⎢⎣
⎡
Gy
Gx
⎥⎥
⎥⎥
⎥⎥
⎥
⎦
⎤
⎢⎢
⎢⎢
⎢⎢
⎢
⎣
⎡
y
f
x
f
δ
δ
δ
δ (3.40)
G cho biết hướng tốc độ thay đổi cực đại của f tại vị trí (x,y). Tuy nhiên, trong phát
hiện biên chỉ quan tâm đến giá trị biên độ của véctơ và được gọi là độ dốc và được
ký hiệu là :
G[f(x,y)], ở đây:
G[f(x,y)] = [Gx2 +Gy2]⅟2 = ⎢⎣
⎡ ⎟⎠
⎞⎜⎝
⎛
x
f
δ
δ ⎥⎦
⎤
⎟⎟⎠
⎞
⎜⎜⎝
⎛
y
f
δ
δ (3.41)
Lấy xấp xỉ, ta có:
G[f(x,y)] = |Gx| + |Gy| (3.42)
Việc lấy xấp xỉ dễ thực hiện với phần cứng:
Từ phương trình (3.41) việc tính toán độ dốc dựa vào các đạo hàm bậc nhất
xf δδ và yf δδ . Có một số cách để tính các đạo hàm bậc nhất này trong hình ảnh số.
Một trong các phương pháp đó là sử dụng các vi phân bậc nhất giữa các pixel liền kề
nhau, nghiã là:
Gx = x
f
δ
δ = f(x,y) –f(x-1, y) (3.43)
và:
Gx = x
f
δ
δ = f(x,y) –f(x,y-1) (3.44)
Đối với lân cận kích thước 3x3 tâm tại (x,y), Gx, Gy được tính như sau:
Gx= x
f
δ
δ =
( ) ( ) ( )[ ] ( ) ( ) ( )[ ]
( ) ( )cbaihg
yxfyxfyxfyxfyxfyxf
++−++=
−++−+−−−+++++−+
22
1,1,121,11,1,121,1
(3.45)
Và : Gx= x
f
δ
δ = ( ) ( ) ( )[ ]1,11,21,1 ++++++− yxfyxfyxf
- ( ) ( ) ( )1,11,21,1 −++−+−− yxfyxfyxf
(3.46) ( ) ( gdaec ++−++= 212 )
ở đây các lân cận của (x,y) được biểu diễn bởi các chữ cái từ a đến i. Một lân cận 3x3
cảu (x,y) dung các chữ cái này được trình bày trên hình 3.11a
-1 0 1
-2 0 2
-1 0 1
-1 -2 -1
0 0 0
1 2 1
a b c
d (x,y) e
g h i
3.11(a) Lân cận 3x3 của (x,y) 3.11(b) Mặt nạ để tính Gx 3.11 (c) Mặt nạ để tính
Gy
Việc tính toán độ dốc trên vùng 3x3 có ưu điểm hơn so với dung các phương
trình (3.39) và (3.40) là tăng giá trị trung bình, do đó làm giảm độ dốc giảm nhạy đối
với nhiễu. Dựa {vào phương pháp mặt nạ ta có thể tính Gx theo mặt nạ hình 3.11b và
Gy được tính theo mặt nạ hình 3.11 c. Hai mặt nạ này thường được gọi là các toán tử
Sobel. Các đáp ứng cảu hai mặt nạ này tại điểm (x,y bất kỳ được kết hợp nhờ hai
phương trình (3.37 và (3.38) để có được sự xấp xỉ độ dốc tại điểm đó. Bằng cách di
chuyển các mặt nạ này khắp hình ảnh f(x,y sẽ thu được độ dốc của tất cả các điểm
trong ảnh.
Có nhiều phương pháp tạo ra ảnh lối ra g(x,y ) dựa vào tính toán độ dốc. Phương pháp
đơn giản nhất cho giá trị g tại (x,y) bằng độ dốc của ảnh lối vào tại điểm đó nghĩa là:
G(x,y) = G ( )[ ]yxf , (3.47)
Phương pháp khác tạo ảnh nhị phân bằng cách dùng quan hệ sau:
G(x,y) = (3.48)
⎪⎩
⎪⎨
⎧
0
1
ở đây T là ngưỡng không âm. Trong trường hợp này chỉ các pixel mép mà độ dốc của
chúng lớn hơn T mới được coi là quan trọng . Do đó sử dụng phương trình (3.44) có
thể được xem như là một thủ tục lấy ra những pixel được đặc trưng bởi sự chuyển
dịch đáng kể về cường độ sáng.
Toán tử Laplacian.: Laplacian là một toán tử đạo hàm bậc hai được định nghĩa như
sau:
L = ([ ]yxf , )
2
2
x
f
δ
δ +
2
2
y
f
δ
δ (3.49)
Với các ảnh số, Laplacian được định nghĩa như sau:
L = ([ ]yxf , ) ( ) ( ) ( ) ( )[ ]1,1,,1,1 −+++−++ yxfyxfyxfyxf -4f (x,y) (3.46)
Laplician sẽ bằng 0 trong các vùng không đổi và trên phần dốc của mép. Thực hiện
phương trình (3.46) có thể dựa vào mặt nạ như trong hình 3.10
Hình 3.12. Mặt nạ để tính Laplician
Laplician phản ứng với những sự dịch chuyển về cường độ, toán tử này ít khi được sử
dụng một mình để phát hiện biên. Vì là đạo hàm bậc hai nên nó không nhạy với nhiễu.
Do đó toán tử này thường được coi như bộ phát hiện việc thiết lập pixel cho trước là ở
trên mặt nạ đen hay trắng của mép.
0 1 0
1 4 1
0 1 0
3.6 Lập ngưỡng
Phân ngưỡng là một trong những kỹ thuật chủ yếu được sử dụng tỷong các hệ
thống nhìn trong công nghiệp để phát hiện vật, nhất là trong các ứng dụng đòi hỏi năng
suất dữ liệu cao.
Giả sử biểu đồ cường độ được trình bày trong hình 3.13a tương ứng với một
hình ảnh f(x,y) tạo thành các vật sáng trên nền đen, các pixel nền và vật này có các
cường độ được nhóm thành hai mode trội chủ yếu. Cách để phân chia các vật thành hai
mode là chọn một ngưỡng T và so sánh cường độ của vật với ngưỡng đó. Do đó, một
điểm (x,y) bất kỳ có f(x,y) >T được gọi là một điểm của vật: ngược lại nó là một điểm
của nền. Trong hợp tổng quát hơn được trình bày trong hình 3.13b. Trong trường hợp
này biểu đồ hình ảnh được đặc trưng bởi 3 mode trội (ví dụ hai vật sang trên một nền
tối). Ở đây, ta cũng dung phương pháp cơ bản trên, phân các điểm có T1 < f(x,y) [ 2T <
T1 vào một lớp đối tượng, các điểm có f(x,y) > T2 cho một lớp đối tượng khác và
thuộc nền nếu f(x,y) [ . Loại ngưỡng đa mức này nói chung là độ tin cậy kém hơn 1T
loại ngưỡng đơn mức do sự khó khăn trong việc thiết lập ngưỡng đa mức để tách hiệu
quả các vùng mong muốn, nhất là khi số mode biểu đồ tương ứng là lớn.
T
T1 T2
Hình 3.13. Lược đồ cường độ (a). Một ngưỡng (b) Nhiều ngưỡng
Dựa vào các khái niệm ở trên ta có thể xem lập ngưỡng như là một phép toán như
sau:
T= T ( ) ( )[ ]yxfyxpyx ,,,,
ở đây f(x,y) là cường độ của điểm (x,y)
p(x,y) biểu thị một vài thuộc tính cục bộ của điểm này. Ví dụ như cường độ trung
bình của lân cận có tâm tại (x,y)
Một ảnh g(x,y) đã lấy ngưỡng được định nghĩa như sau:
1 if f(x,y) > T (3.50)
G(x,y) =
0 if f(x,y) T ≤
Do đó bằng cách kiểm tra g(x,y) ta thấy các pixel có giá trị 1 (hoặc mức cường độ
quy ước khác) tương ứng với vật, còn pixel có giá trị không ứng với nền.
Khi T chỉ phụ thuộc vào f(x,y), ngưỡng được gọi là toàn cục hay ngưỡng đơn (hình
3.10a). Nếu T phụ thuộc cả f(x,y) và p(x,y), ngưỡng cục bộ hay đa ngưỡng (hình
3.10b). Ngoài ra nếu T phụ thuộc vào các tọa độ x và y, nó được gọi là ngưỡng .
PHẦN 2:PHẦN THỰC NGHIỆM
Hình P2.1: Mô hình thực nghiệm : camera và mạch đk motơ bước.
• TÓM TẮT MÔ HÌNH SẢN PHẨM WEBCAM TỰ ĐỘNG THEO
DÕI ĐỐI TƯỢNG DI CHUYỂN:
Như là một phần của đề tài, tôi đã cho thực hành cho camera theo dõi vật dựa
trên phần cứng đơn giản.Với mục tiêu minh hoạ cho đề tài nên các phần cứng và
chương trình đã được đơn giản hoá …như là camera chỉ bám vật theo hai chiều trái và
phải, chương trình cũng chỉ cho phép điều khiển camera bám theo một vật chuyển
động duy nhất.Tuy nhiên ở phần lý thuyết sau đây tôi sẽ cố gắng trình bày những gì tốt
nhất của đề tài thực sự có thể làm được.Nền tảng cho chương trình ở đây là thư viện
mã mở của Microsoft: AVICap và được triển khai trên nền của ngôn ngữ lập trình
Visual C++ vesion 6.0.
webcam
USB camera
LPT port
Môtơ
Bước
PC
Hình P2.2: Sơ đồ khối mô hình thưc nghiệm
CHƯƠNG 1: NGÔN NGỮ LẬP TRÌNH
1.1 Giới thiệu
Hiện nay có rất nhiều ngôn ngữ lập trình mới và mạnh. Các ngôn ngữ lập trình trên
Window vừa có khả năng như các ngôn ngữ chạy trong DOS vừa có khả năng
cung cấp một giao diện trực quan giúp người sử dụng giao tiếp với ứng dụng một
cách
dễ dàng. Ngôn ngữ lập trình Visual C++ là một trong những ngôn ngữ như vậy. Trong
luận văn sẽ sử dụng ngôn ngữ này.
1.2 Một số hàm và thủ tục xử lý ảnh
1.2.1 Tạo một số cửa sổ hiện ảnh.
Để tạo một cửa sổ ta dùng hàm “capCreateCaptureWindow”
Ví dụ:
HWndc = capCreateCaptureWindow (
(LPSTR) “My Capture Window”, // tên cửa sổ
WS_CHILD | WS_VISIBLE, // tên cửa sổ
0, 0, 160, 120, // vị trí và kích thước của cửa sổ
(HWND) hwndParent,
(int) nID/ * child ID */);
1.2.2 Kết nối với thiết bị thu ảnh.
Để kết nối và dừng kết nối cửa sổ hiện ảnh với thiết bị thu ảnh dùng macro
“capDriverDisconnect”.
Ví dụ:
fOK = SendMessage (hWndc, WM_CAP_DRIVER_CONNECT, 0, 0L);
CapDriverDisconnect(hWndC);
1.2.3. Thiết lập trạng thái của cửa sổ hiện ảnh.
Để thiết lập kích thước của cửa sổ hiện ảnh cho tất cả các chiều hình ảnh nhận
được từ macro “capGetStatus” trong cấu trúc CAPSTATUS ta sử dụng hàm
“SetWindowPos”.
Ví dụ:
CAPSTATUS CapStatus;
CapGetStatus (hWndC, &CapStatus, sizeof (CAPSTATUS) );
SetWindowPos (hWndC, NULL, 0, 0, CapStatus.uiImageWidth,
CapStatus.uiImageHeight, SWP_NOZORDER |SWP_NOMOVE);
1.2.4. Hiển thị các hộp thoại để thiết lập các thông số của hình ảnh.
Mỗi cửa sổ hiện ảnh có thể cung cấp 3 hộp thoại khác nhau dùng để điều khiển
các khía cạnh của quá trình số hóa hình ảnh và hiện ảnh. Trước khi hiển thị mỗi hộp
thoại cần gọi macro “capDriverGetCaps” và kiểm tra cấu trúc CAPDRIVERCAPS
khai báo xem cửa sổ hiện ảnh có hiện thị hộp thoại hay không.
Ví dụ:
CAPDRIVERCAPS CapDriverCaps;
CapDriverGetCaps (hWndC, & CapDrvCaps, sizeof (CAPDRIVERCAPS) );
// hiện thị hộp thoại nguồn hình ảnh.
If (CapDriverCaps.fHasDlgVideoSource)
CapĐlgVideoSource (hWndC);
// hiện thị hộp thoại khuôn dạng hình ảnh.
If (CapDriverCaps.fHasDlgVideoFormat)
{
CapĐlgVideoFormat (hWndC);
// Có các kích thước hình ảnh mới không?
CapGetStatus (hWndC, &CapStatus, sizeof (CAPSTATUS));
// nếu có báo cho cửa sổ tra về sự thay đổi kích thước.
}
// hiển thị hộp thoại hiển thị hình ảnh.
If (CapDriverCaps.fHasDlgVideoDisplay)
CapDgVideoDisplay (hWndC);
1.2.5. Lấy và thiết lập khuôn dạng hình ảnh.
Cấu trúc BITMAPINFO có chiều dài thay đổi để cung cấp các khuôn dạng dữ
liệu nén chuẩn. Vì chiều dài của cấu trúc là thay đổi, nên trong các ứng dụng luôn luôn
cần phải xác định kích cỡ và cấp phát bộ nhớ cho cấu trúc trước khi tìm kiếm khuôn
dạng hình ảnh. Marco “capGetVideoFormatSize” để xác định kích cỡ bộ đệm và hàm
“capGetVideoFormat” để xác định khuôn dạng hình ảnh hiện tại .
Ví dụ:
LPBITMAPINFO lpbi;
DWORD dwSize;
DwSize =capGetVideoFormatSize (hwndC);
lpbi= GlobalAllocPtr (GHND, dwSize);
capGetVideoFormat (hwndC, lpbi, dwSize);
Các ứng dụng có sử dụng marco “capSetVideoFormat” (hoặc thông báo WM
CAP SET VIDEOFORMAT) để gửi cấu trúc tiêu đề BITMAPINFO tới các cửa sổ bắt
ảnh. Vì các khuôn dạng hình ảnh ứng với thiết bị riêng nên trong ứng dụng cần kiểm
tra giá trị trả về để xác định khuôn dạng có được chấp nhận hay không.
1.2.6. Duyệt trước hình ảnh
Để thiết lập tốc độ hiển thị khung cho mode duyệt trước ta sử dụng macro
“capPreviewRate” và sử dụng macro “capPreview” để thay thế cửa sổ hiện ảnh
trong mode duyệt trước.
Ví dụ:
CapPreviewRate (hWndC, 66); // tốc độ hiển thị tính bằng ms
CapPreview (hWndC, TRUE); // bắt đầu duyệt
// Duyệt
capPreview (hWndC, FALSE); // Ngừng duyệt
1.2.7. Thay đổi thiết lập cho hình ảnh hiện.
Để thay đổi tốc độ hiện hình ảnh từ giá trị mặc định ta sử dụng các macro
“capPreviewGetSetup” và “capCaptureSetSetup”
Ví dụ:
CAPTUREPARMS CaptureParms;
Float FramesPerSec = 10,0;
CapCaptureGetSetup (hwndC, &CaptureParms, sizeof (CAPTUREPARMS));
CaptureParms.dwRequestMicroSecPerDFrame = (DWORD) (1.0e6/ FramesPerSec);
CapCaptureSetup (hWndC, & CaptureParms, sizeof (CAPTUREPARMS));
1.2.8. Thêm các hàm Callback cho một ứng dụng.
Một ứng dụng có thể đăng ký hàm gọi lại với cửa sổ hiện ảnh để nó thông báo ứng
dụng trong các tình huống sau:
• Thay đổi trạng thái
• Có lỗi xảy ra
• Các bộ đệm âm thanh và khung hình ảnh có thể sử dụng
• ứng dụng đang thực thi
Ví dụ tạo một cửa sổ hình ảnh và đăng ký các hàm Callback khung, chuỗi hình ảnh,
lỗi và trạng thái. Ví dụ cũng đưa vào một câu lệnh đơn giản để ngăn chặn hàm
Callback.
Ví dụ:
Case WM_CREATE:
{
char achDeviceName [80];
char achDeviceVersion [100];
char achBuffer [100];
WORD wDriverCount = 0;
WORD wIndex;
WORD wError;
HMENU hMenu;
// taọ cửa sổ hiện hình ảnh sử dụng macro “capCreateCaptureWIndow”.
GhWndCap = capCreateCaptureWindow ((LPSTR) “CaptureWindow”,
WS_CHILD | WS_VISIBLE, 0, 0,160, 120, (HWND) hWnd, (int) 0),
Đăng ký hàm callback lỗi sử dụng macro “capSetCallbackOnError”.
CapSetCallbackOnError (ghWndCap, fpErrorCallback);
// Đăng ký hàm Callback trạng thái sử dụng macro “capSetCallbackOnStatus”.
CapSetCallbackOnStatus (ghWndCap, fpStatusCallback);
// Đăng ký hàm Callback trạng thái sử dụng macro “ capSerCallbackOnStatus”.
CapSetCallbackOnFrame (ghWndCap, fpFrameCallback);
//Kết nối vưói thiết bị thu ảnh.
Break;
}
case WM_CLOSE
{
// Để ngừng callback khung sử dụng macro “capSetCallbackOnFrame”. Tương tự với
các hàm callback khác.
CapSetCallbackOnFrame (hWndC, NULL);
Break;}
CHƯƠNG 2: ĐIỀU KHIỂN CỔNG LPT TRÊN
WINDOWS NT/2000/XP
2.1 Đặt vấn đề
Viết chương trình giao tiếp với cổng song song của máy tính thật đơn giản với
Dos và cả với Win95/98.Chúng ta có thể sử dụng các hàm Inportb() và Outportb() hay
là _inp() và _outp() một cách trực tiếp và không mắc phải bất cứ vấn đề gì.Nhưng khi
làm việc với các hệ điều hành mới hơn như là WinNT4, Win2000 hay là WinXP, mọi
điểu tưởng như đơn giản đó không còn nữa. Khi chúng ta cố gắng chạy một chương
trình sử dụng các hàm thông thường như là inportb() , outportb() hay là _inport() và
_outp() trên hệ điều hành như Win2000, lập tức sẽ xuất hiện thông báo lỗi như sau :
"The exception privileged instruction occurred in the application at location ...."
Khi bắt đầu nhìn thấy thông báo trên, ta có thể nghĩ rằng “Mình đã mắc lỗi
ở đâu đó trong chương trinh ?” nhưng rõ ràng chương trình chạy tốt trên Win98
…vậy thì lỗi là do đâu ?Câu trả lời sẽ được giải đáp ở ngay sau đây.
Là một biện pháp bảo mật hệ thống , Windows NT hạn chế một số đặc
quyền của các loại ngôn ngữ lập trình khác chạy trên nó. Windows sắp xếp tất cả các
chương trình thành hai loại , đó là mode người dùng (user mode) và mode nhân(kenel
mode); chạy trên mode ring3() (với mode người dùng) và mode ring() với mode nhân.
Mode người dùng bị hạn chế sử dụng các hàm liên quan đến IN, OUT …Nên khi mà
hệ điều hành phát hiện chương trình ở mode người dùng đang cố gắng chạy các hàm
đó, Hệ điều hành sẽ lập tức dừng chương trình đó lại và đưa ra thông báo lỗi như ta
thấy.
Cuối cùng là các giao tiếp sẽ bị chặn đứng bởi hệ điều hành khi ta cố gắng
thực thi các lệnh đọc và viết thông qua cổng song song.Nhưng trong khi đó , đối với
các chương trình thực hiện ở mức nhân thì hệ điều hành không có cách nào để ngăn
chặn được.Các driver thiết bị có thể chạy ở mức nhân của hệ thống, Như vậy cách giải
quyết ở đây là chúng ta bắt đầu vấn đề với việc viết một chương trình dưới kernel
mode để đọc và viết dữ liệu qua cổng song song còn chương trình truyền dữ liệu tới đó
sẽ là ở mode người sử dụng.Điều này không hẳn là dễ dàng nhưng chúng ta đã có sự
hỗ trợ bởi các driver đã được cài đặt và tùy chỉnh.
2.2.Lời giải đáp cho bài toán trên:
Ở đây sẽ giới thiệu về inpout32.dll cho Win98/2000/NT/XP , dll này có những đặc
điểm sau:
1.Nó làm việc như nhau đối với tất cả các hệ điều hành Win98/2000/NT và XP.
2.Nó có thể điều khiển thiết bị ở mức nhân.
3.Không yêu cầu các phần mềm khác hay là thiết bị khác phải được cài đặt
4.Không cần các hàm đặc biệt API , chỉ cần hai hàm đó là Inp32 và Out32.
5.Driver sẽ được tự động cài đặt và tùy chỉnh khi mà dll này được load tới.
6.Có thể dễ dàng sử dụng với VC++ và VB.
7.Tài liệu sử dụng và mã nguồn miễn phí được cung cấp và hướng dẫn tại
2.3.Cách làm việc với inport32.dll:
Inpout32.dll có thể làm việc dưới tất cả các hệ điều hành mà không cần sửa đổi mã
chương trình cần soạn thảo. Khi bắt đầu làm việc, DLL này sẽ kiểm tra hệ điều hành
đang được sử dụng , nếu là 9X thì Dll se sử dụng các hàm _inp() và _outp() để đọc
cổng song song, còn nếu là WINNT hay 2000/XP , nó sẽ cài đặt driver ở mức nhân và
thông báo cho cổng song song biết driver đã được cài đặt.Thực tế thì mã sử dụng
không thể hiểu được đang chạy trên hệ điều hành gì? Dll này có thể sử dụng trên tất cả
các phiên bản Windows như nhau .Có thể minh họa các ý trên như sau:
Người dùng gọi các
hàm inp32() hoặc
out32()
Kiểm tra phiên bản hệ điều hành
Win9X WinNT
Y N
Y
N
Driver đọc hoặc ghi dữ liệu
từ cổng Song Song sử dụng
các hàm HAL
Kiểm tra hwinterface.sys
driver kernel mode đã
được load tới?
Cài đặt
driver
Cố gắng load tới driver
này thành công ?
Cho phép dữ liệu
được truyền nhờ
driver, sử dụng thư
viện API
Sử dụng thư viện các hàm
_inp() và _out() để truyền
dữ liệu
Kết thúc
Có hai khối quan trọng của chương trình là:
1. Driver dành cho thiết bị ở kernel mode dựa trên DLL trong mã nhị phân
2. DLL Inpout32 mà ta đang xét.
Kernel mode driver Hwinterface.sys
Mã nguồn của Hwinterface.sys được định vị bởi thư mục
“kernel_mode_drever_source”,tại đó thì “hwinterfacedrv.c” là file nguồn chính.Bao
gồm các chức năng sau :
1) ‘Driver Entry’: được gọi khi mà driver đã được load tới, nó tạo tới thiết bị một
liên kết tượng trưng.
2)’hwinterfaceUnload’,được gọi khi driver không còn được tham chiếu tới nữa.
3)’hwinterfaceDeviceControl’, điều khiển thông qua DeviceIOControl API, cho
phép đọc và viết qua cổng song song nhờ các mã thông thường.
DLL Inpout32
Các hàm trong thư viện DLL được độc lập cung cấp bởi hai file , đó là
“inpout32drv.cpp” và “osversion.cpp”.Oversion.cpp kiểm tra phiên bản hệ điều
hành.Còn “inpout32drv.cpp” có nhiệm vụ cài đặt driver cho mode kernel , dẫn tới đó,
viết/đọc cổng song song, …Hai chức năng được inpout32.dll support là:
1)’Inp32’, đọc dữ liệu từ cổng song song.
2)’Out32’, ghi dữ liệu ra cổng song song.
Các chức năng được cung cấp bởi Inpout32.dll là :
1)’DllMain’,được gọi khi dll được load tới hay không load tới.Khi dll này được load
tới,nó sẽ kiểm tra phiên bản của hệ điều hành và load tới hwinterface.sys nếu cần.
2)’Closedriver’,điều khiển driver đóng hay mở, được gọi trước khi gỡ bỏ driver ra.
3)’Opendriver’,mở một driver trong hwinterface.
4)’inst’,giải nén ‘hwinterface.sys’ từ mã nhị phân tới thư mục ‘systemroot\driver’ để
phục vụ, hàm này được gọi khi mà hàm ‘Opendriver ’ không thể thực thi trong
‘hwinterface’.
5)’Start’,khởi động dịch vụ hwinterface sử dụng Service Control Manager API.
6)’System Version’ kiểm tra phiên bản hệ điều hành, trả lại giá trị tương ứng.
* ngoài ra, còn có thể sử dụng hwinterface.ocx ActiveX control (cho cả VB và
VC++, nhưng tốt hơn là nên sử dụng với VB) giống như là hwinterface.dll
CHƯƠNG 3: MINH HỌA THUẬT TOÁN VÀ CHƯƠNG TRÌNH
Hình P2.3.1: Minh họa sản phẩm
Hình P2.3.2: Ảnh camera bắt được khi xử lý với một vật thể .
Trong ứng dụng thử nghiệm này, tôi chọn một lớp ứng dụng của window đó là
AVICap để thực hành bám đối tượng.AVICap là một lớp ứng dụng của Window cung
cấp các ứng dụng vô cùng thuận lợi cho việc viết các chưng trình giao tiếp đặc biệt là
truy nhập các thiết bị video như là camera đã được sử dụng trong chưng trình demo
này.
Kết hợp với lớp “inpout32drv.cpp” để có thể điều khiển cổng song song cho
chức năng điều khiển chuyển động của đế camera.
#include
Để có thể bám theo đối tượng từ dữ liệu nhận vào của một camera động, chúng
ta hiển nhiên cần thu thập và phân tích các khung ảnh (frame) riêng rẽ đang được thu
thập và xủ lý .Và để thu thập các frame này trước khi duyệt, ta sử dụng
capSetCallbackOnFrame macro.
BOOL capSetCallbackOnFrame(HWND hwnd, FrameCallback fpProc);
HWND hwnd: (Handle to the capture window )Điều khiển các cửa sổ ảnh .
FrameCallback fpProc: Con trỏ chỉ tới hàm duyệt được gọi lại sau mỗi frame
.Các giá trị NULL dành cho các tham số bên trong nếu như vô hiệu hoá các giá trị
được cài đặt tại hàm duyệt lại ngay trước đó.
typedef LRESULT (*FrameCallback)(HWND hWnd, LPVIDEOHDR lpVideoHdr);
Lớp LPVIDEOHDR được minh hoạ bởi:
typedef struct videohdr_tag {
LPBYTE lpData; /* Con trỏ đệm Pointer to buffer. */
DWORD dwBufferLength; /* Độ dài của bộ đệm Length of buffer. */
DWORD dwBytesUsed; /* Số byte thực tế đã sử dụng Bytes actually used. */
DWORD dwTimeCaptured; /* Thời gian bắt đầu nhận luồng frame nh Timefrom
start of stream. */
DWORD dwUser;
DWORD dwFlags; /*Các Cờ Flags. */
DWORD dwReserved[4];
}
#define VHDR_DONE 0x00000001
#define VHDR_PREPARED 0x00000002
#define VHDR_INQUEUE 0x00000004
#define VHDR_KEYFRAME 0x00000008
Mỗi một khung tiến trình gọi lại được kết hợp với cửa sổ chụp ảnh, Chúng ta sẽ
xét tất cả các khung để bắt đầu bám theo đối tượng.
Color Space
Trước khi bắt đầu tiến trình với các frame ảnh, quan trọng là chúng ta phải hiểu
được sự khác nhau giữa các không gian màu được video số hoá .Có nhiều không gian
màu có thể được sử dụng, mỗi một loại có cường độ và giới hạn khác nhau.Việc chọn
chính xác bảng màu sẽ làm đơn giản hoá những tính toán quan trọng và phức tạp.
Đặc trưng màu mà chúng ta sẽ tìm hiểu ở chưng trình demo này là độ sáng, và
chúng ta sẽ bám theo đối tượng dựa trên sự đánh giá về độ sáng .Một cách tiếp cận rất
đơn giản và chắc chắn đó là chia ra các thành phần của độ sáng .YUV là một không
gian màu rất cần thiết mà chúng ta cần tìm hiểu, tuy nhiên , YUV không phi là định
dạng có thể thu được từ một webcam.Vậy nên, có một sự thay thế khác đó là sự phụ
thuộc vào RGB24 là định dạng vào của một webcam tới YUV.
Mối quan hệ giữa RGB và YUV có thể minh hoạ bởi một mối quan hệ tuyến
tính sau:
[ Y ] [ 0.257 0.504 0.098 0.063 ][ R ]
[ U ] = [ -0.148 -0.291 0.439 0.500 ][ G ]
[ V ] [ 0.439 -0.368 -0.072 0.500 ][ B ]
[ 1 ] [ 0.000 0.000 0.000 1.000 ][ 1 ]
Ma trận kết qu này là c sở cho các phép biến đổi số học tuyến tính, mà ở trong
trường hợp này, giống như là phép biến đổi với hệ cơ sở bậc ba mới với các cơ sở
thành phần là R = G = B
Đặc trưng bám vật:
Bây giờ chúng ta sẽ truy nhập trực tiếp đến độ sáng của mỗi điểm ảnh.Có một
thuật toán đơn giản có thể làm được điều là bám theo vật và xem vật như là đn giản chỉ
là một đối tượng sáng .Thuật toán đó sẽ được giới thiệu ngay sau đây và xin tạm gọi
đó là “Thuật toán hình chữ nhật”.Thuật toán hình chữ nhật giữ và bám theo luôn luôn
tại bốn điểm tương đối của vật tại mỗi khung ảnh nhận được(frame), một điểm cao
nhất , một điểm thấp nhất , điểm trái nhất và điểm phải nhất nơi mà độ sáng vượt quá
một giá trị ngưỡng xác định nào đó.
Phải chắc chắn là đã sử dụng định dạng RGB24 cho lối vào của Webcam với
đoạn mã sau đây:
LRESULT CChildView::FrameCallbackProc(HWND hWnd, LPVIDEOHDR
lpVideoHdr)
{
...
...
for (int i=0; i<nHeight; ++i)
{
for (int j=0; j<nWidth; ++j)
{
/*Lấy. chỉ số bộ đệm thích hợp */
index = 3*(i*nWidth+j);
/* Tính toán các thành phần màu */
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
/* Nếu độ sáng vượt quá giá trị ngưỡng cho phép*//
if (Y > bThreshold)
{
/*Khởi tạo con trỏ */
if (init)
{
if (pLeft.x > j) {
pLeft.x = j;
pLeft.y = i;
}
if (pRight.x < j) {
pRight.x = j;
pRight.y = i;
}
pBottom.x = j;
pBottom.y = i;
}
/* Luôn luôn bám theo bốn góc của đối tượng. */
else {
pTop.x = pBottom.x = pLeft.x = pRight.x = j;
pTop.y = pBottom.y = pLeft.y = pRight.y = i;
init = true;
}
}
}
}
...
...
}
Hình chữ nhật có thể được xây dung lên tử các điểm trên, cái đó cho ta biết đâu
là vị trí của vật sáng , Khung của hình chữ nhật sau đó được dễ dàng thay thế bởi một
màu được định nghĩa tử trước.
if (init) {
/*Thay thế khung với các điểm màu được xác định trước. */
for (int i=pLeft.x; i<=pRight.x; ++i) {
index = 3*((pTop.y)*nWidth + i); /* Trên */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
index = 3*((pBottom.y)*nWidth + i); /* Dưới */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
}
for (int i=pTop.y; i<=pBottom.y; ++i) {
index = 3*((i)*nWidth + pLeft.x); /* Trái */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
index = 3*((i)*nWidth + pRight.x); /* Phải */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
}
}
Thuật toán này rõ ràng còn chứa nhiều khuyết điểm:
i> Nó chỉ cho biết vị trí của vật trên màn hình.
ii> Nó không cho ta biết một chút thông tin gì về hình dạng của vật.
iii> Nó không cho ta biết đâu là trọng tâm của vật.
iv> Và quan trọng nhất, nó không bao giờ có thể bám nếu có nhiều đối tượng
chuyển động(Tuy nhiên , do tính thử nghiệm nên đề tài này sẽ sử dụng ngay thuật toán
này để áp dụng)
Một thuật toán cải tiến hơn:
Hình P3.2.3 :Ảnh camera bắt được nhiều vật
Thuật toán này phát hiện theo đối tượng bằng cách nhận dạng các đoạn phần
tử tạo nên đối tượng trên màn hình. Mỗi đoạn được tạo nên bởi tiêu đề và độ dài của
mỗi đoạn đó.Đối tượng được cấu trúc nên bởi các nhóm đoạn đó với nhau.
BYTE Y; int index;
/* --Biến sử dụng bởi thuật toán mới này. -- */
QSEG segment;
std::list object;
for (int i=0; i<nHeight; ++i) {
segment.length = 0;
for (int j=0; j<nWidth; ++j) {
index = 3*(i*nWidth+j);
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
if (Y > bThreshold) {
if (segment.length == 0) {
segment.head.x = j;
segment.head.y = i;
}
++segment.length;
}
}
if (segment.length) {
object.push_back(segment);
}
}
/* --Vẽ nên hình dáng của đối tượng với màu được định trước. -- */
for (std::list::iterator i=object.begin(); i!=object.end(); ++i) {
index = 3*((*i).head.y*nWidth + (*i).head.x);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((*i).head.y*nWidth + (*i).head.x + (*i).length);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
}
Thuật toán mới này đã có những cải tiến tốt hơn sau:
i> Nó có thể theo dõi nhiều đối tượng.
ii> Nó có thể theo dõi được hình dáng của các đối tượng
iii> Số lượng các điểm ảnh tạo nên đối tượng có thể dễ dàng tính toán được.Với các
mẫu thông tin và cách tính toán khong cách thích hợp, toạ độ của đối tượng trong ba
chiều cũng có thể được xác định
• Phần Chương Trình :
// ChildView.cpp : implementation of the CChildView class
#include "stdafx.h"
#include "Tracker.h"
#include "MainFrm.h"
#include "ChildFrm.h"
#include "ChildView.h"
#include "TrackDlg.h"
#include
#include
#ifdef _DEBUG
#define new DEBUG_NEW
#endif
typedef struct QSEG_ {
POINT head;
UINT length;
} QSEG, *LPQSEG;
// CChildView
BYTE CChildView::bThreshold = 250;
DWORD CChildView::dwRectangle = 0;
DWORD CChildView::dwSegment = 0;
CChildView::CChildView()
{
}
CChildView::~CChildView()
{
}
BEGIN_MESSAGE_MAP(CChildView, CWnd)
ON_WM_PAINT()
ON_COMMAND(ID_DEVICE_REFRESH, OnDeviceRefresh)
ON_COMMAND_RANGE(ID_DEVICE_NAME,
ID_DEVICE_NAME+CVideoCapWnd::m_dwDeviceMax, OnDeviceName)
ON_COMMAND(ID_CAPTURE_SOURCE, OnCaptureSource)
ON_COMMAND(ID_CAPTURE_FORMAT, OnCaptureFormat)
ON_COMMAND(ID_CAPTURE_DISPLAY, OnCaptureDisplay)
ON_WM_SIZE()
ON_COMMAND_RANGE(ID_CAPTURE_100, ID_CAPTURE_200,
OnCaptureZoom)
ON_COMMAND(ID_TRACK_BRIGHTNESS, OnTrackBrightness)
ON_COMMAND(ID_TRACK_STOP, OnTrackStop)
ON_COMMAND(ID_CAPTURE_STOP, OnCaptureStop)
END_MESSAGE_MAP()
// CChildView message handlers
BOOL CChildView::PreCreateWindow(CREATESTRUCT& cs)
{
if (!CWnd::PreCreateWindow(cs))
return FALSE;
cs.dwExStyle |= WS_EX_CLIENTEDGE;
cs.style &= ~WS_BORDER;
cs.lpszClass =
AfxRegisterWndClass(CS_HREDRAW|CS_VREDRAW|CS_DBLCLKS,
::LoadCursor(NULL, IDC_ARROW),
reinterpret_cast(COLOR_WINDOW+1), NULL);
return TRUE;
}
void CChildView::OnPaint()
{
CPaintDC dc(this); // device context for painting
// TODO: Add your message handler code here
// Do not call CWnd::OnPaint() for painting messages
}
void CChildView::OnDeviceRefresh()
{
/* -- Get device menu. --*/
CMenu *mDev = AfxGetMainWnd()->GetMenu()->GetSubMenu(3);
MENUITEMINFO miInfo;
do
{
/* -- Find position of separator. -- */
miInfo.cbSize = sizeof(MENUITEMINFO);
miInfo.fMask = MIIM_TYPE;
mDev->GetMenuItemInfo(0, &miInfo, TRUE);
/* -- Delete all entries before separator. -- */
if (miInfo.fType != MFT_SEPARATOR) {
mDev->DeleteMenu(0, MF_BYPOSITION);
}
} while (miInfo.fType != MFT_SEPARATOR);
/* -- Put device names before separator. -- */
CString strDevName, strDevVer;
for (DWORD i=0; i<m_theVideoCapWnd.m_dwDeviceMax; ++i) {
m_theVideoCapWnd.GetDriverDescription(i, strDevName, strDevVer);
if (strDevName.GetLength()) {
mDev->InsertMenu(0, MF_BYPOSITION, ID_DEVICE_NAME+i,
strDevName);
}
}
}
void CChildView::OnDeviceName(UINT nID)
{
/* -- Get device index by subtracting the offset. -- */
nID = nID - ID_DEVICE_NAME;
CString strErr;
/* -- Create the capture window if we haven't done do. -- */
if (m_theVideoCapWnd.m_hWnd == NULL) {
m_theVideoCapWnd.CreateCaptureWindow(CString(""), WS_CHILD |
WS_VISIBLE, CRect(0,0,0,0), this, 0);
if (m_theVideoCapWnd.m_hWnd == NULL) {
strErr.LoadString(IDS_ERR_CAPWND);
MessageBox(strErr);
return;
}
}
/* -- Attempt to connect to driver. -- */
if (m_theVideoCapWnd.DriverConnect(nID) == FALSE) {
strErr.LoadString(IDS_ERR_CONNECT);
MessageBox(strErr);
return;
}
/* -- Retrieve device parameters. -- */
CAPTUREPARMS capParms;
if (m_theVideoCapWnd.CaptureGetSetup(&capParms, sizeof(CAPTUREPARMS))
== FALSE) {
strErr.LoadString(IDS_ERR_GETSETUP);
MessageBox(strErr);
return;
}
/* -- Want separate thread. -- */
capParms.fYield = TRUE;
/* -- Do not abort when left mouse button is clicked. -- */
capParms.fAbortLeftMouse = FALSE;
/* -- Do not abort when right mouse button is clicked. -- */
capParms.fAbortRightMouse = FALSE;
/* -- Update device parameters. -- */
if (m_theVideoCapWnd.CaptureSetSetup(&capParms, sizeof(CAPTUREPARMS))
== FALSE) {
strErr.LoadString(IDS_ERR_SETSETUP);
MessageBox(strErr);
return;
}
/* -- Get current state of capture window. -- */
CAPSTATUS capStat;
if (m_theVideoCapWnd.GetStatus(&capStat, sizeof(CAPSTATUS)) == FALSE) {
strErr.LoadString(IDS_ERR_GETSTAT);
MessageBox(strErr);
return;
}
m_theVideoCapWnd.SetWindowPos(NULL, 0, 0, capStat.uiImageWidth,
capStat.uiImageHeight, SWP_NOMOVE | SWP_NOZORDER);
GetParentFrame()->SetWindowPos(NULL, 0, 0, capStat.uiImageWidth,
capStat.uiImageHeight, SWP_NOMOVE);
/* -- Set preview rate. -- */
if (m_theVideoCapWnd.PreviewRate(33) == FALSE) {
strErr.LoadString(IDS_ERR_PREVRATE);
MessageBox(strErr);
return;
}
/* -- Turn on scaling. -- */
if (m_theVideoCapWnd.PreviewScale(TRUE) == FALSE) {
strErr.LoadString(IDS_ERR_PREVSCALE);
MessageBox(strErr);
return;
}
/* -- Start preview. -- */
if (m_theVideoCapWnd.Preview(TRUE) == FALSE) {
strErr.LoadString(IDS_ERR_PREV);
MessageBox(strErr);
return;
}
}
void CChildView::OnCaptureSource()
{
CString strErr;
/* -- Retrieve device capabilities. -- */
CAPDRIVERCAPS capCap;
if (m_theVideoCapWnd.DriverGetCaps(&capCap, sizeof(CAPDRIVERCAPS)) ==
FALSE) {
strErr.LoadString(IDS_ERR_GETCAPS);
MessageBox(strErr);
return;
}
/* -- Check if device supports video source dialog. -- */
if (capCap.fHasDlgVideoSource) {
if (m_theVideoCapWnd.DlgVideoSource() == FALSE) {
strErr.LoadString(IDS_ERR_SOURCE);
MessageBox(strErr);
}
}
else {
strErr = "Device does not support video source dialog.";
MessageBox(strErr);
}
}
void CChildView::OnCaptureFormat()
{
CString strErr;
/* -- Retrieve device capabilities. -- */
CAPDRIVERCAPS capCap;
if (m_theVideoCapWnd.DriverGetCaps(&capCap, sizeof(CAPDRIVERCAPS)) ==
FALSE) {
strErr.LoadString(IDS_ERR_GETCAPS);
MessageBox(strErr);
return;
}
/* -- Check if device supports video format dialog. -- */
if (capCap.fHasDlgVideoFormat) {
if (m_theVideoCapWnd.DlgVideoFormat() == FALSE) {
strErr.LoadString(IDS_ERR_FORMAT);
MessageBox(strErr);
}
}
else {
strErr = "Device does not support video format dialog.";
MessageBox(strErr);
}
}
void CChildView::OnCaptureDisplay()
{
CString strErr;
/* -- Retrieve device capabilities. -- */
CAPDRIVERCAPS capCap;
if (m_theVideoCapWnd.DriverGetCaps(&capCap, sizeof(CAPDRIVERCAPS)) ==
FALSE) {
strErr.LoadString(IDS_ERR_GETCAPS);
MessageBox(strErr);
return;
}
/* -- Check if device supports video display dialog. -- */
if (capCap.fHasDlgVideoDisplay) {
if (m_theVideoCapWnd.DlgVideoDisplay() == FALSE) {
strErr.LoadString(IDS_ERR_DISPLAY);
MessageBox(strErr);
}
}
else {
strErr = "Device does not support video display dialog.";
MessageBox(strErr);
}
}
void CChildView::OnSize(UINT nType, int cx, int cy)
{
CWnd::OnSize(nType, cx, cy);
// TODO: Add your message handler code here
/* -- Centralize the video capture window. -- */
if (m_theVideoCapWnd.m_hWnd != NULL) {
CRect paRect, cpRect;
GetClientRect(&paRect);
m_theVideoCapWnd.GetClientRect(&cpRect);
m_theVideoCapWnd.SetWindowPos(NULL, 0, 0, paRect.Width(),
paRect.Height(), SWP_NOMOVE | SWP_NOZORDER);
}
else {
/* -- Resize the child window. -- */
GetParentFrame()->SetWindowPos(NULL, 0, 0, 200, 200, SWP_NOMOVE);
}
}
void CChildView::OnCaptureZoom(UINT nID)
{
if (m_theVideoCapWnd.m_hWnd != NULL) {
/* -- Get current state of capture window. -- */
CAPSTATUS capStat;
if (m_theVideoCapWnd.GetStatus(&capStat, sizeof(CAPSTATUS))) {
UINT nZoom = nID - ID_CAPTURE_100 + 1;
UINT nWidth = capStat.uiImageWidth * nZoom;
UINT nHeight = capStat.uiImageHeight * nZoom;
m_theVideoCapWnd.SetWindowPos(NULL, 0, 0, nWidth, nHeight,
SWP_NOMOVE | SWP_NOZORDER);
CMDIChildWnd *pChild = DYNAMIC_DOWNCAST(CMDIChildWnd,
GetParentFrame());
pChild->MDIRestore();
GetParentFrame()->SetWindowPos(NULL, 0, 0, nWidth, nHeight,
SWP_NOMOVE);
}
else {
CString strErr;
strErr.LoadString(IDS_ERR_GETSTAT);
MessageBox(strErr);
}
}
}
LRESULT CChildView::FrameCallbackProc(HWND hWnd, LPVIDEOHDR
lpVideoHdr)
{
CVideoCapWnd theVideoCapWnd;
CAPSTATUS capStat;
theVideoCapWnd.Attach(hWnd);
if (theVideoCapWnd.GetStatus(&capStat, sizeof(CAPSTATUS))) {
UINT nWidth = capStat.uiImageWidth;
UINT nHeight = capStat.uiImageHeight;
LPBYTE lpData = lpVideoHdr->lpData;
ASSERT(lpVideoHdr->dwBytesUsed == nWidth * nHeight * 3);
if (dwRectangle)
{
BYTE Y; int index; bool init = false;
/* -- Variables used by simple tracking algorithm. -- */
POINT pTop, pBottom, pLeft, pRight;
for (int i=0; i<nHeight; ++i) {
for (int j=0; j<nWidth; ++j) {
index = 3*(i*nWidth+j);
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
if (Y > bThreshold) {
if (init) {
if (pLeft.x > j) {
pLeft.x = j;
pLeft.y = i;
}
if (pRight.x < j) {
pRight.x = j;
pRight.y = i;
}
pBottom.x = j;
pBottom.y = i;
}
else {
pTop.x = pBottom.x = pLeft.x = pRight.x = j;
pTop.y = pBottom.y = pLeft.y = pRight.y = i;
init = true;
}
}
}
}
/* -- Data regarding object being tracked stored, do something simple about it.
-- */
if (init) {
for (int i=pLeft.x; i<=pRight.x; ++i) {
// -- For pTop.y and pBottom.y --
index = 3*((pTop.y)*nWidth + i);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((pBottom.y)*nWidth + i);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
` }
for (int i=pTop.y; i<=pBottom.y; ++i) {
// -- For pLeft.x and pRight.x --
index = 3*((i)*nWidth + pLeft.x);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((i)*nWidth + pRight.x);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
}
}
/***********************************/
//control tracking object using motorstepper
//calculate center object(capture size = 352 X 288(default))
pCenter.x = (pRight.x + pLeft.x)/2;
pCenter.y = (pTop.y + pBottom.y)/2;
if((pcenter.x - 176)>0)
{TurnLeft();delay(200);} else {TurnRight();delay(200);}
}
else if (dwSegment)
{
BYTE Y; int index;
/* -- Variables used by the new tracking algorithm. -- */
QSEG segment;
std::list object;
for (int i=0; i<nHeight; ++i) {
segment.length = 0;
for (int j=0; j<nWidth; ++j) {
index = 3*(i*nWidth+j);
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
if (Y > bThreshold) {
if (segment.length == 0) {
segment.head.x = j;
segment.head.y = i;
}
++segment.length;
}
}
if (segment.length) {
object.push_back(segment);
}
}
/* -- Data regarding object being tracked stored, do something simple about it.
-- */
for (std::list::iterator i=object.begin(); i!=object.end(); ++i) {
index = 3*((*i).head.y*nWidth + (*i).head.x);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((*i).head.y*nWidth + (*i).head.x + (*i).length);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
}
}
}
theVideoCapWnd.Detach();
return 0;
}
void CChildView::OnTrackBrightness()
{
// TODO: Add your command handler code here
CTrackDlg dlg;
if (dlg.DoModal()) {
bThreshold = atoi(dlg.m_strBrightness);
if (dlg.m_blRectangle == BST_CHECKED) {
dwRectangle = 1;
dwSegment = 0;
}
else if (dlg.m_blSegment == BST_CHECKED) {
dwRectangle = 0;
dwSegment = 1;
}
else {
dwRectangle = 0;
dwSegment = 0;
}
m_theVideoCapWnd.SetCallbackOnFrame(FrameCallbackProc);
}
}
void CChildView::OnTrackStop()
{
// TODO: Add your command handler code here
m_theVideoCapWnd.SetCallbackOnFrame((FrameCallback)(NULL));
}
void CChildView::OnCaptureStop()
{
// TODO: Add your command handler code here
m_theVideoCapWnd.DriverDisconnect();
}
• Phần Tài liệu tham khảo.
1. D. Ballard and C. Brown, Computer Vision, previously published by Prentice-
Halldaidb, 1982.
2. D. Phillips, Image Processing in C: Analyzing and Enhancing Digital Images,
previously published by RandD Publications, 1994.
3. D. Vernon; Machine Vision : Automated Visual Inspection and Robot Vision,
Prentice Hall, 1991, ISBN 0-13-543398-3.
4. Ngô Tiến Thành,Xác Định Tọa Độ Của Vật Chuyển Động Qua Cảm Biến Ảnh,
Khóa Luận Tốt Nghiệp Đại Học Công Nghệ , 2003.
Các file đính kèm theo tài liệu này:
- Xử lý ảnh và ứng dụng theo dõi đối tượng chuyển động.pdf