KIẾN NGHỊ
Từ kết quả nghiên cứu lý thuyết và thực nghiệm đạt được trên thiết bị nghiên cứu
thực nghiệm STL – 1, để tiếp tục nâng cao chất lượng làm việc về độ chính xác, tốc độ đo
cần thiết tiếp tục nghiên cứu sâu hơn về các mặt:
Tăng tốc độ đo của thiết bị: Với phương pháp áp dụng chỉ có thể đo được các chi
tiết tĩnh do cần nhiều mẫu ảnh chiếu do đó việc đo quét theo thời gian thực không tiến hành được.
Tối ưu hóa các chương trình: Xây dựng các chương trình xử lý dữ liệu ảnh nhằm
tăng tốc độ và độ chính xác khi xử lý dữ liệu đo. Nghiên cứu tìm hiểu các thuật toán nhằm
nâng cao độ chính xác khi đo.
162 trang |
Chia sẻ: builinh123 | Lượt xem: 1303 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Luận án Nghiên cứu đo biên dạng 3D của chi tiết bằng phương pháp sử dụng ánh sáng cấu trúc, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
từ 0 ÷ 255 (theo ngưỡng cường độ xám). Do các đối tượng đo có
0
50
100
150
200
250
300
0 5 10 15 20 25 30
C
ư
ờ
n
g
đ
ộ
s
án
g
I
C
Số ảnh mẫu chiếu
Cường độ mẫu chiếu
Cường độ ảnh RED
Cường độ ảnh
GRAY
Cưởng độ ảnh
GREEN
Cường độ ảnh BLUE
122
đặc tính quang bề mặt khác nhau làm ảnh hưởng đến chất lượng ảnh thu được, ảnh bị lóa
khi bề mặt có độ phản xạ cao hoặc khó xử lý dữ liệu với các bề mặt có độ phản xạ thấp. Do
đó cần phải hiệu chuẩn ngưỡng cường độ xám của cụm cảm biến.
Để tiến hành hiệu chuẩn cường độ sáng của cụm cảm biến, sử dụng bộ mẫu ảnh thiết
kế có cường độ sáng ảnh xám tăng dần từ 0 đến 250. Chiếu các mẫu chiếu lên một mặt
phẳng có nền màu trắng. Phân tích cường độ xám tại điểm trung tâm của các ảnh thu được
từ camera cho kết quả như hình 4.12 (bảng 3.1 phụ lục) thể hiện mối quan hệ giữa cường
độ sáng ảnh thu được và cường độ sáng ảnh xám được mã hóa trên máy chiếu. Như vậy,
khi mã hóa ảnh chiếu nếu cường độ mã hóa nhỏ hơn 70 hoặc lớn hơn 200 sẽ gây ra hiện
tượng ngoài ngưỡng cảm biến, do đó thông tin mã hóa trong các trường hợp này sẽ không
thu được. Đây là cơ sở để xác định khoảng cường độ sáng tối ưu cho máy chiếu đảm bảo
dữ liệu mã hóa chính xác.
Hình 4.12 Đồ thị quan hệ cường độ sáng mẫu chiếu và cường độ sáng ảnh thu được của cảm biến
Việc hiệu chuẩn cường độ sáng ảnh xám cho cụm cảm biến là quá trình dựa vào đặc
tính tương quan phát thu của máy chiếu và camera, xác định khoảng cường độ sáng phù
hợp để mã hóa ảnh chiếu. Mục đích nhằm thu được các ảnh trên camera không bị các hiện
tượng ngoài ngưỡng cảm biến. Xác định ngưỡng cường độ sáng mẫu chiếu được mã hóa
trong khoảng 70 đến 200 như bảng 3.2 Phụ lục và được thể hiện như hình 4.13.
0
50
100
150
200
250
300
0 50 100 150 200 250 300
C
ư
ờ
n
g
đ
ộ
s
án
g
ả
n
h
I
c
Cường độ sáng mẫu chiếu IP
123
Hình 4.13 Đồ thị xác định khoảng cường độ chiếu sáng tối ưu
Có nhiều phương pháp để có thể điều chỉnh cường độ sáng cho cụm cảm biến như:
thay đổi cường độ mã hóa ảnh chiếu, thay đổi thời gian phơi sáng của camera, thay đổi
vòng chắn trường của ống kính camera. Khi sử dụng phương pháp điều chỉnh vòng chắn
trường của ống kính và thực hiện lại quá trình xây dựng đặc tuyến tương tác giữa máy
chiếu và camera thu được kết quả như bảng 3.3 phụ lục.
Hình 4.14 Đồ thị quan hệ cường độ chiếu sáng sau hiệu chuẩn
Đồ thị thể hiện quan hệ giữa cường độ chiếu sáng và cường độ sáng ảnh sau hiệu
chuẩn như hình 4.14. Cường độ sáng trên ảnh thu được từ camera không còn hiện tượng
ngoài ngưỡng cảm biến khắc phục được các điểm dưới ngưỡng và tràn ngưỡng.
0
50
100
150
200
250
300
0 50 100 150 200 250
C
ư
ờ
n
g
đ
ộ
s
án
g
ả
n
h
I
C
Cường độ sáng mẫu chiếu IP
0
50
100
150
200
250
300
0 50 100 150 200 250 300
C
ư
ờ
n
g
đ
ộ
s
án
g
ả
n
h
I
C
Cường độ sáng mẫu chiếu IP
124
4.3.4. Hiệu chuẩn thiết bị thực nghiệm STL – 1 sử dụng ô vuông bàn cờ
Để đảm bảo chính xác khi đo cần hiệu chuẩn xác định các thông số kỹ thuật và vị trí
làm việc thực của camera và máy chiếu. Sử dụng kết quả nghiên cứu trên mục 2.4.2 và giải
thuật trên mục 3.3.3.2 để tiến hành hiệu chuẩn. Việc hiệu chuẩn thiết bị thực nghiệm STL –
1 sử dụng bảng mẫu in ô vuông bàn cờ có kích thước các ô là 15x15 mm. Các bước hiệu
chuẩn được tiến hành như sau:
Chiếu ảnh mẫu lên bảng ô vuông bàn cờ tại 4 vị trí khác nhau của bảng trong
không gian đo của thiết bị. Các ảnh mẫu được chiếu là các ảnh trong phương pháp đo kết
hợp dịch pha và mã hóa Gray.
Sử dụng chương trình hiệu chuẩn đã xây dựng để xử lý dữ liệu ảnh thu được.
Kết quả hiệu chuẩn được dùng để cung cấp thông tin cho quá trình xác định tọa độ
điểm đo.
(a) (b)
Hình 4.15 Xác định các góc ô vuông và ảnh pha cho bảng in ô vuông bàn cờ
Quy ước camera và máy chiếu là mô hình camera lỗ nhỏ có kể đến quang sai do đó
có thể coi tương đương máy chiếu như một camera khi hiệu chuẩn. Hình 4.15 thể hiện kết
quả xác định các góc ô vuông bàn cờ trên ảnh camera (hình 4.15b) và ảnh pha tuyệt đối
được xây dựng trên vùng chiếu của máy chiếu (hình 4.15a). Việc hiệu chuẩn cần xác định
các góc ô vuông bàn cờ trên bảng in đồng thời gán các góc đó lên trên vùng chiếu của máy
chiếu. Khi đó đối tượng dùng để hiệu chuẩn cho camera là bảng in ô vuông bàn cờ, cho
máy chiếu là ảnh pha tuyệt đối đã được gán các góc ô vuông bàn cờ. Kết quả của quá trình
hiệu chuẩn xác định được các thông số kỹ thuật và thông số vị trí của camera và máy chiếu
như trong bảng 6.
125
Bảng 6: Kết quả hiệu chuẩn thiết bị
(Các đơn vị đo được tính theo đơn vị điểm ảnh; R ,T có đơn vị rad và mm)
Thông số Camera Máy chiếu Ma trận thể hiện vị trí tương quan
fx 2720.60316 1422.96469
𝑓𝑦 2749.07924 1428.19115
𝛼 0 0
𝑢0 719. 00974 250. 59730
𝑣0 518. 47491 406. 04838
k1 −0. 87183 −0. 079062
k2 1. 50598 0. 02153
k3 0. 00283 0. 00342
k4 −0. 02990 −0. 00148
k5 0 0
R 0. 95499 0. 04846 0. 29267
−0. 02334 0. 99578 −0. 08871
−0. 29573 0. 07789 0. 952099
T −188. 20481 −55. 08283 155. 72313
Lỗi 0. 29562 0. 11817 0. 52994
Hình 4.16 Giao diện mô tả kết quả hiệu chuẩn của 1 vị trí đặt ô vuông bàn cờ
126
Trên hình 4.16 thể hiện mô phỏng vị trí tương quan giữa camera, máy chiếu và vị trí
bảng in ô vuông bàn cờ khi biết giá trị của ma trận chuyển vị T và ma trận quay R từ kết
quả hiệu chuẩn.
4.4. Xác định độ chính xác thiết bị đo
4.4.1. Khảo sát độ phân giải cơ sở
Độ phân giải cơ sở của thiết bị là khoảng cách tương ứng với một điểm ảnh thu được
trên cảm biến ảnh. Sử dụng thiết bị đo sau khi hiệu chuẩn đo mặt phẳng của tấm chuẩn có
kích thước 200x250 mm.
Tiến hành đo xác định độ phân giải cơ sở sử dụng mã hóa Gray với số bit mã hóa là
8, 9, 10 tương ứng độ phân giải máy chiếu đối với một vạch đo là 4, 2, 1 điểm ảnh. Kết quả
thu được thể hiện trên hình 17, hình ảnh thể hiện phân bố các điểm đo trên mặt phẳng đo
được tương ứng:
Hình 4.17a thể hiện điểm đo trên mặt phẳng tương ứng với khoảng cách các điểm đo
là 4 điểm ảnh.
Hình 4.17b thể hiện tương quan vị trí các điểm đo của hình 4.17a khi phóng to.
Hình 4.17c thể hiện phân bố điểm đo trên bề mặt phẳng với khoảng cách các điểm đo
là 2 điểm ảnh.
Hình 4.17d thể hiện vị trí tương quan của hình 4.17c khi phóng to.
Hình 4.17e thể hiện phân bố điểm đo trên bề mặt phẳng với khoảng cách các điểm đo
là 1 điểm ảnh.
Hình 4.17f thể hiện vị trí tương quan của hình 4.17e khi phóng to.
(a)
127
(b)
(c)
128
(d)
(e)
129
(f)
Hình 4.17 Hình ảnh thể hiện sự phân bố điểm đo khi đo mặt phẳng
Dựa vào các hình ảnh phóng to 4.17(b); 4.17(d); 4.17(f) có thể nhận thấy lưới tọa độ
được tạo ra khi khoảng cách các điểm là 4 điểm ảnh có sự phân bố đồng đều nhất 4.17(b)
với độ phân giải theo hai phương là (1,084x1,110 mm)/ 4 điểm ảnh. Độ phân giải cơ sở tại
vùng có sự phân bố đồng đều nhất khi sử dụng mẫu chiếu Gray 10 bit là (0,27x0,278 mm)/
điểm ảnh, tuy nhiên đối với tọa độ các điểm đo xuất hiện nhiều vùng có sự phân bố không
đồng đều, điều này cũng tương tự xảy ra với các mẫu chiếu 9 bit. Như vậy, việc sử dụng
mã hóa Gray cho phép đo độc lập có độ phân giải không cao, khó đạt độ phân giải của một
điểm ảnh (xuất hiện các vùng mất dữ liệu như hình 4.16f). Với mẫu chiếu 8 bit cho thấy sự
phân bố đồng đều giữa các điểm đo, đó là cơ sở để luận án lựa chọn số mã hóa Gray 8 bit
khi kết hợp với phương pháp dịch pha.
4.4.2. Đo mẫu trụ chuẩn
Để kiểm tra độ chính xác thiết bị đo, tiến hành đo chi tiết trụ chuẩn với một số kích
thước đường kính khác nhau. Mục đích nhằm thông qua kết quả đo kiểm chi tiết trụ chuẩn
đánh giá độ chính xác của thiết bị đo, đồng thời có thể đánh giá được sự ảnh hưởng của vị
trí đặt vật trong phạm vi đo của thiết bị.
Mẫu trụ chuẩn được chế tạo bằng phương pháp tiện CNC và đo kiểm kích thước bán
kính trụ trên thiết bị CMM tại Viện đo lường Việt Nam (Biên bản đo kiểm định đính kèm
trong phụ lục 4). Thông số trụ chuẩn được xác định trên thiết bị CMM có kích thước thể
hiện trên hình vẽ 4.18.
130
Hình 4.18 Kết quả các kích thước đo mẫu trục chuẩn trên máy CMM
Hình 4.19 Hình ảnh mô phỏng chi tiết trụ đo được
Quá trình đo được tiến hành như sau:
Chi tiết trụ được đặt tại tâm bàn gá chi tiết đo.
Tiến hành dịch chuyển cụm cảm biến theo phương thẳng đứng (phương z của bàn
máy). Mỗi bước dịch chuyển h = 20 mm. Đo trụ chuẩn tại từng vị trí.
Xử lý dữ liệu xác định bán kính trụ cho chi tiết đo.
Trên hình 4.19 thể hiện kết quả mô phỏng chi tiết trụ được đo tại vị trí h =0. Vị trí
bắt đầu quá trình khảo sát. Các thông số hiệu chuẩn hệ thống được xác định trên phụ lục 3.
Các giá trị đo bán kính được thống kê trên bảng 7:
131
Bảng 7: Kết quả đo chi tiết trụ chuẩn
Khoảng
dịch chuyển
h (mm)
Độ phân giải theo
1 điểm ảnh xxy
(mmxmm)
R1(mm) R2(mm) R3(mm) R4(mm) R5(mm)
0 0,279x0,260 15,06 24,078 21,073 15,051 14,001
20 0,289x0,268 14,975 24,085 21,064 14,971 13,999
40 0,299x0,275 15,145 24,046 21,05 15,018 14,041
60 0,309x0,283 15,21 24,061 21,039 15,029 14,052
80 0,319x0.291 14,945 24,047 21,051 15,032 13,986
100 0,329x0,299 15,016 24,046 21,052 15,009 13,994
120 0,340x0,307 15,112 24,049 21,057 15,177 14,105
140 0,351x0,315 15,083 24,031 21,047 15,243 14,183
160 0,361x0,324 15,097 24,072 21,021 14,915 14,142
Hình 4.20 Đồ thị thể hiện quan hệ giữa độ phân giải cơ sở và khoảng dịch chuyển h
Trên đồ thị thể hiện quan hệ giữa độ phân giải cơ sở và khoảng dịch chuyển h (hình
4.20) có thể nhận thấy độ phân giải biến đổi tuyến tính theo chiều cao cụm cảm biến tới
bàn đo. Khoảng cách càng xa độ phân giải cơ sở càng thấp.
0.25
0.27
0.29
0.31
0.33
0.35
0.37
0 50 100 150 200
Đ
ộ
p
h
ân
g
iả
i
cơ
s
ở
(
m
m
)
Khoảng dịch chuyển h (mm)
Độ phân giải
theo phương
X
Độ phân giải
theo phương
Y
132
Hình 4.21 Đồ thị thể hiện các kết quả đo trụ chuẩn
Kết quả đo bán kính trụ chuẩn cho thấy ít sụ phụ thuộc vào vị trí đặt vật trong không
gian đo của thiết bị hình 4.21. Xử lý kết quả đo theo phân phối Student với độ tin cậy 95 %
ta có kết quả đo bán kính trụ chuẩn là:
Giá trị đo được R1 là: 15.071 ± 0,065 mm; Giá trị đo trên CMM là 15.008 ± 0,008
mm. Kết quả đo trung bình sai lệch 0,063 mm.
Giá trị đo được R2 là: 24.059 ± 0,011 mm; Giá trị đo trên CMM là 23.983 ± 0,008
mm. Kết quả đo trung bình sai lệch 0,076 mm.
Giá trị đo được R3 là: 21,050 ± 0,011 mm; Giá trị đo trên CMM là 20.997 ± 0,008
mm. Kết quả đo trung bình sai lệch 0,053 mm.
Giá trị đo được R4 là: 15.161 ± 0,228 mm; Giá trị đo trên CMM là 15.009 ± 0,007
mm. Kết quả đo trung bình sai lệch 0,152mm.
Giá trị đo được R5 là: 14.167 ± 0,261 mm; Giá trị đo trên CMM là 13.980 ± 0,008
mm. Kết quả đo trung bình sai lệch 0,187 mm.
4.4.3. Đo mẫu khối cầu chuẩn
Để đánh giá độ chính xác thiết bị đo biên dạng 3D sử dụng chi tiết đo là khối cầu
chuẩn. Kích thước cầu chuẩn (Biên bản đo thử nghiệm đính kèm trong phụ lục 4) đo trên
thiết bị V01 TB316 tại viện đo lường Việt Nam VMI là: R = 25,039 ± 0.007 mm.
Hình ảnh mô phỏng kết quả đo quả cầu chuẩn được thể hiện trên hình 4.22.
12
13
14
15
16
17
18
19
20
21
22
23
24
25
0 20 40 60 80 100 120 140 160 180
B
án
k
ín
h
t
rụ
(
m
m
)
Khoảng dịch chuyển h (mm)
R1
R2
R3
R4
R5
133
Hình 4.22 Hình ảnh mô phỏng kết quả đo quả cầu chuẩn.
Tiến hành đo quả cầu chuẩn được kết quả đo được như bảng 8.
Bảng 8: Kết quả đo chi tiết cầu chuẩn
Số thứ tự Giá trị đo được (mm) Số thứ tự Giá trị đo được
(mm)
1 25,010 15 25,012
2 25,005 16 25,132
3 25,004 17 25,093
4 25,024 18 24,974
5 25,006 19 24,996
6 25,020 20 25,088
7 25,017 21 25,055
8 24,997 22 25,138
9 25,012 23 25,083
10 24,980 24 25,024
11 25,095 25 24,977
12 24,981 26 24,989
13 25,113 27 25,003
14 24,981 28 25,074
Xử lý kết quả đo theo phân phối Student với độ tin cậy 95 % ta có kết quả đo bán
kính cầu chuẩn là: 25.032 ± 0,017 (mm). Kết quả đo trên máy CMM R = 25,039 ± 0.007
mm. Như vậy, kết quả đo trung bình sai khác 0,007 mm. Kết quả đo quả cầu cho thấy độ
ổn định và độ chính xác của thiết bị đo. Các phép đo trên một vị trí được lặp lại và cho kết
quả đo trung bình đạt độ chính xác cao so với các kết quả đo trên máy CMM.
134
4.5. Một số kết quả thử nghiệm trên thiết bị STL - 1
Để đánh giá khả năng ứng dụng của thiết bị thực nghiệm, tiến hành đo quét trên một
số mẫu chi tiết cơ khí được gia công trên thiết bị CNC.
Khi thực hiện một phép đo do trường quan sát của camera và máy chiếu có giới hạn
nên chỉ đo được một phần vật thể. Để tiến hành đo toàn bộ vật cần tiến hành đo tại các
vùng khác nhau theo các phương đồng thời kết quả mô phỏng được dựng lại với các dữ
liệu được ghép lại. Có nhiều phương pháp ghép tọa độ điểm đo như: dùng hệ tọa độ chuẩn
khi gắn đầu đo trong hệ tọa độ máy có thể xác định thông qua các hệ cảm biến dịch chuyển,
sử dụng phương pháp xử lý ghép điểm đo khi có các điểm đánh dấu.... Các phương pháp
ghép và mô phỏng dữ liệu vẫn đang được nghiên cứu phát triển nhằm tăng độ chính xác
ghép và tăng tốc độ xử lý.
4.5.1. Kết quả đo tại một phương chiếu
Sau khi hiệu chuẩn hệ thống tiến hành đo một số mẫu biên dạng 3D của một số chi tiết:
(a)
(b)
(c)
135
(e)
Hình 4.23 Kết quả mô phỏng một số mẫu chi tiết sử dụng một phương chiếu
Trên hình 4.23 thể hiện biên dạng một số chi tiết được gia công bằng phương pháp
tiện, phay CNC và đúc. Biên dạng đo thu được thể hiện ở các ảnh phía bên phải khi dựng
hình trong phần mô phỏng phản ánh đúng biên dạng thực tế của chi tiết quét các ảnh phía
bên trái khi chụp, tuy nhiên tại một phương chiếu các kết quả chỉ cho biên dạng một phần.
4.5.2. Ảnh mô phỏng dữ liệu quét khi quét toàn bộ vật thể sử dụng 6 phương chiếu
Tiến hành thực nghiệm đo một số chi tiết theo 6 phương chiếu trên các chi tiết sau đó
sử dụng công cụ ghép dữ liệu đo thu được một số kết quả đo như hình 4.24.
Hình 4.24a thể hiện mô phỏng biên dạng chi tiết vỏ loa được gia công theo phương
pháp dập.
Hình 4.24b thể hiện mô phỏng biên dạng chi tiết đúc dạng nắp.
Hình 4.24c thể hiện mô phỏng biên dạng chi tiết tiện.
Hình 4.24d thể hiện mô phỏng biên dạng chi tiết thân ổ cứng trong máy tính để
bàn.
(a)
136
(b)
(c)
(d)
Hình 4.24 Kết quả mô phỏng một số mẫu chi tiết sử dụng 6 phương chiếu
137
Khi tiến hành ghép dữ liệu của các phương chiếu kết quả cho biên dạng toàn bộ của
vật thể đo. Độ chính xác ghép dữ liệu phụ thuộc vào độ chính xác của điểm chuẩn ghép và
thuật toán xử lý dữ liệu trùng lặp của các điểm trên các phương đo riêng biệt. Các kết quả
cho thấy thiết bị STL – 1 có thể đo được các chi tiết với độ chính xác cao và có khả năng
đo được toàn bộ vật cần đo.
Thời gian thực hiện một phép đo của thiết bị sau khi được hiệu chuẩn bao gồm: thời
gian chiếu chụp 38 ảnh (lấy thời gian trễ cho từng ảnh 0,5 giây) là 19 giây, thuật toán xử lý
dữ liệu điểm đo khoảng 10 giây. Như vậy, để có được dữ liệu đo của 6 phương chiếu của
một chi tiết chỉ khoảng 3 phút. Qua đó có thể thấy phương pháp đo sử dụng phương pháp
kết hợp mã hóa Gray và dịch pha khá nhanh, tốc độ đo hoàn toàn có thể cải thiện khi sử
dụng các thiết bị máy chiếu và camera có tốc độ cao hơn.
4.5.3. Ứng dụng thiết bị trong lĩnh vực an ninh
Trong lĩnh vực an ninh thiết bị đo biên dạng 3D được nghiên cứu ứng dụng dần thay
thế các công tác nghiệp vụ đạt hiệu quả cao như:
Chụp lại hình ảnh 3D hiện trường vụ án: thay thế cho việc chụp ảnh, lập hồ sơ đây
là công việc cần mô tả tỉ mỉ không gian xung quanh sự việc với các cách truyền thống mất
rất nhiều thời gian và khó có thể mô tả trực quan lại bằng các bản vẽ, đánh dấu.
Chụp ảnh biên dạng 3D khuôn mặt, dấu vân tay.... giúp cho việc quan sát theo dõi ,
nhận dạng đối tượng trong các trường hợp bị hạn chế phương quan sát, dữ liệu 3D cung
cấp thông tin chính xác hơn.
Dựng lại các mẫu vật hữu cơ, các vết lốp xe, dấu giày, vết thương....dữ liệu thu
được cung cấp nhiều thông tin hơn các phương pháp truyền thống khác, có thể truy cập vào
các hồ sơ lưu tình tiết hoặc thông tin hiện trường trực quan và không bị hạn chế bởi thời
gian tồn tại của các dấu vết đó....
Hình 4.25 Kết quả dữ liệu 3D phục vụ công tác an ninh.
138
Trên hình 4.25 thể hiện ví dụ dựng lại hình ảnh dấu chân, từ các thông tin do hình
ảnh 3D cung cấp có thể xây dựng hồ sơ vụ án, lưu trữ, phân tích giúp cho quá trình điều tra
chính xác hơn và giảm thời gian công sức của cán bộ thực hiện công tác khám nghiệm hiện
trường.
4.6. Kết luận chương 4
Thiết bị thực nghiệm STL-1 được chế tạo theo phương pháp đo dịch pha sử dụng mã
hóa Gray làm cơ sở gỡ pha. Đã xây dựng quy trình và tiến hành thực nghiệm hiệu chuẩn
đặc tính quang của cảm biến, xây dựng được đặc tuyến cường độ sáng ảnh tương tác giữa
máy chiếu và camera từ đó tiến hành hiệu chỉnh nâng cao độ chính xác ảnh chiếu. Hiệu
chuẩn xác định được các thông số kỹ thuật và thông số vị trí của camera và máy chiếu để
đảm bảo độ chính xác đo.
Thực nghiệm xác định độ chính xác thiết bị thông qua việc đo kiểm trụ chuẩn mẫu và
quả cầu chuẩn. Kết quả thực nghiệm cho thấy: kết quả đo ít phụ thuộc vào vị trí đặt vật
trong trường đo, độ chính xác khi đo các quả cầu chuẩn đạt: 0,05 mm , trụ chuẩn có thể đạt
0,01mm.
Thiết bị thực nghiệm STL -1 hoạt động ổn định, có thể đo được toàn bộ chi tiết trong
phạm vi 200x200x200 mm với thời gian đo khoảng 3 phút. Ứng dụng thiết bị đo một số
mẫu chi tiết cơ khí được gia công trên các thiết bị CNC, đúc, rèn dập cho kết quả đạt yêu
cầu về mô phỏng biên dạng thực của chi tiết đo. Có thể ứng dụng thiết bị trong các ngành
khác như đo hình dáng kích thước cơ thể người, đo dựng hiện trường an ninh....
139
KẾT LUẬN
Với mục tiêu nghiên cứu, tìm hiểu, nắm được và xây dựng cơ sở lý thuyết, kỹ thuật
để tính toán thiết kế chế tạo thiết bị đo biên dạng 3D bằng ánh sáng cấu trúc có thể đo
lường biên dạng bề mặt các chi tiết cơ khí trong công nghệ gia công CNC. Các nội dung
chính mà luận án đã thực hiện nghiên cứu và đạt được các kết quả sau:
Nghiên cứu khảo sát phương pháp đo biên dạng 3D sử dụng ánh sáng cấu trúc.
Phân tích các kết quả nghiên cứu của các tác giả trong nước và trên thế giới, đánh giá các
ưu nhược điểm của từng phương pháp, khảo sát các dạng ánh sáng cấu trúc từ đó xác định
dạng ánh sáng cấu trúc trong phương pháp dịch pha kết hợp mã hóa Gray để gỡ pha là
hướng nghiên cứu chính của luận án. Phương pháp này kết hợp ưu điểm độ phân giải cao
của phương pháp dịch pha với độ chống nhiễu tốt của phương pháp Gray làm cơ sở đảm
bảo và nâng cao độ chính xác gỡ pha và đảm bảo độ chính xác đo của thiết bị, phù hợp cho
việc đo biên dạng các chi tiết cơ khí gia công bằng công nghệ CNC.
Xây dựng mô hình toán học và các giải thuật xử lý dữ liệu đo để xác định được
đám mây điểm đo trên chi tiết đo. Sử dụng mô hình toán học cho hệ camera và máy chiếu
là mô hình camera lỗ nhỏ có kể đến quang sai. Tọa độ điểm đo được xác định theo phương
pháp đường giao đường.
Xây dựng phương pháp hiệu chuẩn thiết bị đo biên dạng 3D sử dụng ánh sáng cấu
trúc, kết quả hiệu chuẩn xác định được các thông số kỹ thuật bao gồm các nội tham số, các
hệ số đặc trưng ảnh hưởng bởi quang sai, ma trận ngoại tham số đặc trưng vị trí tương
quan của camera và máy chiếu, giúp đảm bảo độ chính xác khi đo.
Xây dựng, xác lập cơ sở, giải thuật, cho việc tính toán thiết kế thiết bị từ đó có thể
xác định được các tiêu chí thiết kế, cách xác định độ phân giải, tính toán lựa chọn cấu hình
cho cụm cảm biến.
Phân tích xác định các yếu tố ảnh hưởng đến độ chính xác phép đo, xây dựng được
đặc tuyến quang thể hiện tương quan quan hệ thu phát cường độ sáng ảnh của máy chiếu
và camera, từ đó có thể hiệu chỉnh nâng cao độ chính xác tạo mẫu vân chiếu, góp phần
đảm bảo độ chính xác đo.
Đã xây dựng thiết bị đo biên dạng 3D sử dụng phương pháp dịch pha và mã hóa
Gray đầu tiên tại Việt Nam đạt độ chính xác 0,05mm, phạm vi đo 200x200x200 mm. Thiết
bị đã hoạt động đáp ứng đo quét một số chi tiết cơ khí được gia công trên thiết bị CNC,
đúc, rèn dập và các ứng dụng khác trong lĩnh vực thời trang và an ninh. Thiết bị có thể sử
dụng đo quét các bề mặt như một thiết bị công nghiệp, cho thấy khả năng tự chế tạo loại
thiết bị đo này tại Việt Nam.
140
KIẾN NGHỊ
Từ kết quả nghiên cứu lý thuyết và thực nghiệm đạt được trên thiết bị nghiên cứu
thực nghiệm STL – 1, để tiếp tục nâng cao chất lượng làm việc về độ chính xác, tốc độ đo
cần thiết tiếp tục nghiên cứu sâu hơn về các mặt:
Tăng tốc độ đo của thiết bị: Với phương pháp áp dụng chỉ có thể đo được các chi
tiết tĩnh do cần nhiều mẫu ảnh chiếu do đó việc đo quét theo thời gian thực không tiến
hành được.
Tối ưu hóa các chương trình: Xây dựng các chương trình xử lý dữ liệu ảnh nhằm
tăng tốc độ và độ chính xác khi xử lý dữ liệu đo. Nghiên cứu tìm hiểu các thuật toán nhằm
nâng cao độ chính xác khi đo.
141
TÀI LIỆU THAM KHẢO
[1] A. Treuille, A. Hertzmann, and S. M. Seitz (Springer, 2004) Example-based stereo with
general BRDFs, in Computer Vision—ECCV 2004: 8th European Conference on
Computer Vision, Part II, pp. 457–469.
[2] A. Osman Ulusoy, F. Calakli, and G. Taubin (IEEE Computer Society, 2010) Robust
one-shot 3D scanning using loopy belief propagation, in 2010 IEEE Computer Society
Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) pp. 15–22.
[3] A. Dursun, S. Ozder, F. N. Ecevit (2004) Continuous wavelet transform analysis of
projected fringe patterns, Meas. Sci. Techn. 15 (9) 1768– 1772.
[4] A. Baldi (2003) Phase unwrapping by region growing, Appl. Opt. 42 (14) 2498–2505.
[5] ATOS Triple Scan - Revolutionary scanning technique,
metrology-systems/ atos/atos-triple-scan.html.
[6] A Better Fingerprint ID (2009), /2009 / 10/3d-digit-
image-capture-better.html.
[7] B. Denkena, W. Acker (2007) Three-dimensional optical measurement with locally
adapted projection, Advanced Materials Research 22 83– 90.
[8] Carre ´ P (1966) ‘‘ Installation et utilisation du comparateur photoe ´lectrigue et
Interferentiel du Bureau International des Poids ek Measures,’’ Metrologia, 1, 13-23.
[9] C. R. Coggrave, J. M. Huntley (1999) High-speed surface profilometer based on a
spatial light modulator and pipeline image processor, Opt. Eng. 38 (9) 1573–1581.
[10] C. Yu, Q. Peng (2007) A correlation-based phase unwrapping method for Fourier-
transform profilometry, Opt. Laser Eng. 45 (6) 730–736.
[11] C. Yu, Q. Peng (2007) A unified-calibration method in FTP-based 3D data acquisition
for reverse engineering, Opt. Laser Eng. 45 (3) 396– 404.
[12] C. Zhang, P. S. Huang, F. Chiang (2002) Microscopic phase-shifting profilometry
based on digital micromirror device technology, Appl. Opt. 41 (28)5896–5904.
[13] C. Quan, X. Y. He, C. F. Wang, C. J. Tay, H. M. Shang (2001) Shape measurement of
small objects using LCD fringe projection with phase shifting, Opt. Commun. 189 (1-3)
21–29.
[14] Camera Calibration (2010), https://eyebug.wordpress.com/2010/10/13/camera-
calibration/.
[15] D. Ganotra, J. Joseph, K. Singh (2003) Second- and first-order phase-locked loops in
fringe profilometry and application of neural networks forphase-to-depth conversion, Opt.
Commun. 217 (1-6) 85–96.
[16] D. Feipeng, G. Shaoyan (2008) Flexible three-dimensional measurement technique
based on a digital light processing projector, Appl. Opt. 47 (3) 377–385.
[17] Daniel malacara (2007) Optical Shop Testing, A John Wiley & Sons, Inc., Publication.
142
[18] DAVID Structured Light 3D Scanner SLS-1, product/
detail/ P363199/ DAVID-Structured-Light-3D-Scanner-SLS-1.html.
[19] DAVID 3.x User Manual Pages (2014)
/structured _light_scanning.
[20] E. M. Petriu, Z. Sakr, H. J. W. Spoelder, and A. Moica (IEEE, 2000) Object
recognition using pseudo-random color encoded structured light, in Proceedings of the
17th IEEE Instrumentation and Measurement Technology Conference, 2000. IMTC 2000
Vol. 3, pp. 1237–1241.
[21] E. B. Li, X. Peng, J. Xi, J. F. Chicharo, J. Q. Yao, D. W. Zhang (2005)
Multifrequency and multiple phase-shift sinusoidal fringe projection for 3D profilometry,
Opt. Express 13 (5) 1561–1569.
[22] E. Zappa, G. Busca (2009) Fourier-transform profilometry calibration based on an
exhaustive geometric model of the system Opt. Laser Eng. 47 (7-8) 754–767.
[23] E. Hu, Y. He (2009) Surface profile measurement of moving objects by using an
improved pi phase-shifting Fourier transform profilometry, Opt. LaserEng. 47 (1) 57–61.
[24] Explore Store Scans, Scan Store, and more, https://www.pinterest.com/pin/
541135711447979931/.
[25] F. Wu, H. Zhang, M. J. Lalor, D. R. Burton (2001) Novel design for fiber optic
interferometric fringe projection phase-shifting 3-D profilometry, Opt. Commun. 187 (4-6)
347–357.
[26] F. Berryman, P. Pynsent, J. Cubillo (2004) The efect of windowing in Fourier
transform profilometry applied to noisy images, Opt. Laser Eng. 41 (6) 815–825
[27] F. J. MacWilliams and N. J. A. Sloane (1976). Pseudorandom sequences and arrays,
Proc. IEEE 64(12), 1715–1729.
[28] Frankowski, G. , Hainich, R. , GFMesstechnik GmbH (2011) DLP-Based Optical 3D
Sensors for the Mass Market, Proc. SPIE Photonics West
[29] G. Sansoni, S. Corini, S. Lazzari, R. Rodella, F. Docchio (1997) Threedimensional
imaging based on Gray-code light projection: Characterization of the measuring algorithm
and development of a measuring system for industrial applications, Appl. Opt. 36 (19)
4463–4472.
[30] G. S. Spagnolo, D. Ambrosini (2001) Diractive optical element-based profilometer for
surface inspection, Opt. Eng. 40 (1) 44–52.
[31] Giovanna Sansoni, Matteo Carocci, Roberto Rodella (1999). Three dimensional vision
based on a combination of gray- code and phase-shift projection: analysis and
compensation of the systematic errors. Applied Optics. Vol.38(31) ,pp.6565-6573.
[32] H. Fredricksen (1982). A survey of full length nonlinear shift register cycleAlgorithms,
Soc. Industr. Appl. Math. Rev. 24(2), 195–221
[33] H. H ¨ ugli and G. Ma¨ (1989) ıtre, Generation and use of color pseudo-random
sequences for coding structured light in active ranging, Proc. SPIE 1010, 75–82
143
[34] H. Fan, H. Zhao, Y. Tan (1997) Automated three-dimensional surface profilometry
using dual-frequency optic fiber phase-shifting method, Opt. Eng. 36 (11) 3167–3171.
[35] H. Guo, H. He, M. Chen (2004) Gamma correction for digital fringe projection
profilometry, Appl. Opt. 43 (14) 2906–2914.
[36] H. O. Saldner, J. M. Huntley (1997) Temporal phase unwrapping: Applicationto
surface profiling of discontinuous objects, Appl. Opt. 36 (13) 2770–2775.
[37] H. Liu, W. Su, K. Reichard, S. Yin (2003) Calibration-based phase-shiftingProjected
fringe profilometry for accurate absolute 3D surface profile measurement, Opt. Commun.
216 (1-3) 65–80.
[38] H. G¨artner, P. Lehle, and H. J. Tiziani (1996) New, highly efficient, binary codes for
structured light methods. In Proceedings of SPIE 2599, pages 4–13,
[39] H. Du, Z. Wang (2007) Three-dimensional shape measurement with an arbitrarily
arranged fringe projection profilometry system, Opt. Lett. 32 (16) 2438–2440.
[40] H. O. Saldner and J. M. Huntley (1997) Profilometry using temporal phase
unwrapping and a spatial[ light modulator-based fringe projector. Optical Engineering,
36(2):610–615.
[41] H. O. Saldner and J. M. Huntley (1997) Temporal phase unwrapping: application
to surface profiling of discontinuous objects. Applied Optics, 36(13):2770–2775.
[42] H. Zhao, W. Chen, and Y. Tan (1994) Phase-unwrapping algorithm for the
measurement of three-dimensional object shapes. Applied Optics, 33(20):4497–4500.
[43] H. Guo, H. He, Y. Yu, M. Chen (2005) Least-squares calibration method forfringe
projection profilometry, Opt. Eng. 44 (3) 1–9.
[44] High Resolution Structured Light Scanning / Blue and White Light Scanning,
[45] I. Ishii, K. Yamamoto, K. Doi, and T. Tsuji (IEEE,2007) High-speed 3D image
acquisition using coded structured light projection, in IEEE/RSJ International Conference
on Intelligent Robots and Systems, 2007. IROS 2007 pp. 925–930.
[46] J. L. Posdamer and M. D. Altschuler (1982) Surface measurement by space-encoded
projected beam systems, Comput. Graph. Image Processing 18(1), 1–17.
[47] J. Geng (March 2, 2004) Method and apparatus for 3D imaging using light pattern
having multiple sub-patterns, U. S. patent 6,700,669).
[48] J. Le Moigne and A. M. Waxman (1988) Structured light patterns for robotMobility,
IEEE J. Robot. Automat. 4(5), 541–548.
[49] J. Salvi, J. Pages, J. Batlle (2004) Pattern codification strategies in structuredlight
systems, Pattern Recognition 37 (4) 827–849.
[50] J. I. Harizanova, E. V. Stoykova, V. C. Sainov (2007), Phase retrieval techniques in
coordinates measurement, in: AIP Conference Proceedings, vol. 899,321–322.
[51] J. Zhang, C. Zhou, X. Wang (2009) Three-dimensional profilometry using aDammann
grating, Appl. Opt. 48 (19) 3709–3715.
144
[52] J. Vanherzeele, P. Guillaume, S. Vanlanduit (2005) Fourier fringe processingusing a
regressive Fourier-transform technique, Opt. Laser Eng. 43 (6) 645–658.
[53] J. Zhong, H. Zeng (2007) Multiscale windowed Fourier transform for phaseextraction
of fringe patterns, Appl. Opt. 46 (14) 2670–2675.
[54] J. Villa, M. Servin (1999) Robust profilometer for the measurement of 3-D object
shapes based on a regularized phase tracker, Opt. Laser Eng. 31 (4) 279–288.
[55] J. -F. Lin, X. -Y. Su (1995) Two-dimensional Fourier transform profilometry forthe
automatic measurement of three-dimensional object shapes, Opt. Eng. 34 (11) 3297–3302.
[56] J. Zhong, J. Weng (2004) Spatial carrier-fringe pattern analysis by means of wavelet
transform: Wavelet transform profilometry, Appl. Opt. 43 (26) 4993–4998.
[57] J. Kozlowski, G. Serra (1997) New modified phase locked loop method forfringe
pattern demodulation, Opt. Eng. 36 (7) 2025–2030.
[58] J. Meneses, T. Gharbi, P. Humbert (2005) Phase-unwrapping algorithm for images
with high noise content based on a local histogram, Appl. Opt. 44 (7) 1207–1215.
[59] J. M. Huntley and H. O. Saldner (1993) Temporal phase-unwrapping algorithm for
automated interferogram analysis. Applied Optics, 32(17):3047–3052.
[60] J. Zhong, J. Weng (2004) Dilating Gabor transform for the fringe analysis of 3-D
shape measurement, Opt. Eng. 43 (4) 895–899.
[61] J. Geng (2011) Structured-light 3D surface imaging: a tutorial”, IEEE Intelligent
Transportation System Society, Advances in Optics and Photonics, vol. 3.
[62] K. L. Boyer and A. C. Kak (1987) Color-encoded structured light for rapid active
ranging, IEEE Trans. Pattern Anal. Mach. Intell. 9(1), 14–28.
[63] K. Iwata, F. Kusunoki, K. Moriwaki, H. Fukuda, T. Tomii (2008) Threedimensional
profiling using the fourier transform method with a hexagonal grating projection, Appl.
Opt. 47 (12) 2103–2108.
[64] K. Okada, E. Yokoyama, H. Miike (2007) Interference fringe pattern analysis using
inverse cosine function, Electronics and Communications in Japan, Part II: Electronics 90
(1) 61–73.
[65] L. Zhang, B. Curless, and S. M. Seitz Rapid shape acquisition using colorstructured
light and multi-pass dynamic programming, in First International Symposium on 3D Data
Processing Visualization and Transmission,
[66] L. Chen, C. Quan, C. J. Tay, Y. Fu (2005) Shape measurement using one frame
projected sawtooth fringe pattern, Opt. Commun. 246 (4-6) 275– 284.
[67] L. Yuan, J. Yang, C. Guan, Q. Dai, F. Tian (2008) Three-core fiber-based
shapesensing application, Opt. Lett. 33 (6) 578–580.
[68] L. Zhongwei, S. Yusheng, W. Congjun, W. Yuanyuan (2008) Accurate calibration
method for a structured light system, Opt. Eng. 47 (5)
[69] M. Maruyama and S. Abe (1993) Range sensing by projecting multiple slitswith
random cuts, IEEE Trans. Pattern Anal. Mach. Intell. 15(6), 647–651.
145
[70] M. K. Kalms, W. P. Jueptner, W. Osten (1997) Automatic adaption of projected fringe
patterns using a programmable LCD-projector, Proc. SPIE 3100156–165.
[71] M. Yokota, A. Asaka, T. Yoshino (2003) Stabilization improvements of laserdiode
closed-loop heterodyne phase-shifting interferometer for surface profile measurement,
Appl. Opt. 42 (10) 1805–1807.
[72]M. Takeda, K. Mutoh (1983) Fourier transform profilometry for the automatic
measurement of 3-D object shapes, Appl. Opt. 22 (24) 3977– 3982.
[73] M. A. Sutton, W. Zhao, S. R. McNeill, H. W. Schreier, Y. J. Chao (2001)
Development and assessment of a single-image fringe projection method fordynamic
applications, Experimental Mechanics 41 (3) 205–217.
[74] M. A. Gdeisat, D. R. Burton, M. J. Lalor (2006) Eliminating the zero spectrumin
Fourier transform profilometry using a two-dimensional continuous wavelet transform,
Opt. Commun. 266 (2) 482–489.
[75] M. Dai, Y. Wang (2009) Fringe extrapolation technique based on Fourier transform
for interferogram analysis with the definition, Opt. Lett. 34 (7)956–958.
[76] M. A. Gdeisat, D. R. Burton, M. J. Lalor (2006) Spatial carrier fringe pattern
demodulation by use of a two-dimensional continuous wavelet transform, Appl. Opt. 45
(34) 8722–8732.
[77] M. A. Gdeisat, D. R. Burton, M. J. Lalor (2005) Fringe-pattern demodulationusing an
iterative linear digital phase locked loop algorithm, Opt. Laser Eng. 43 (7) 31–39.
[78] M. R. Sajan, C. J. Tay, H. M. Shang, A. Asundi (1998) Improved spatial phase
detection for profilometry using a TDI imager, Opt. Commun. 150 (1-6) 66–70.
[79] M. Chang, D. Wan (1991) On-line automated phase-measuring profilometry,Opt.
Laser Eng. 15 (2) 127–139.
[80] M. Servin, F. J. Cuevas, D. Malacara, J. L. Marroquin, R. RodriguezVera (1999)
Phase unwrapping through demodulation by use of the regularizedphase-tracking
technique, Appl. Opt. 38 (10) 1934–1941.
[81] M. Heredia-Ortiz, E. A. Patterson (2003) On the industrial applications of Moir´ e and
fringe projection techniques, Strain 39 (3) 95–100.
[82] N. G. Durdle, J. Thayyoor, and V. J. Raso (IEEE, 1998) An improved structured light
technique for surface reconstruction of the human trunk, in IEEE Canadian Conference on
Electrical and Computer Engineering, 1998 Vol. 2, pp. 874–877 .
[83] P. S. Huang and S. Zhang (2006) A fast three-step phase shifting algorithm Appl. Opt.
45(21), 5086–5091
[84] P. M. Grin, L. S. Narasimhan, and S. R. Yee (1992) Generation of uniquely encoded
light patterns for range data acquisition, Pattern Recog. 25(6), 609–616 .
[85] P. Payeur and D. Desjardins (Springer, 2009) Structured light stereoscopic imaging
with dynamic pseudo-random patterns, in Image Analysis and Recognition, Lecture Notes
in Computer Science, Vol. 5627/2009, 687–696.
146
[86] P. J. Tavares, M. A. Vaz (2006) Orthogonal projection technique for resolution
enhancement of the Fourier transform fringe analysis method, Opt. Commun. 266 (2) 465–
468.
[87] P. S. Huang, Q. Hu, F. Chiang (2003) Error compensation for a threedimensional
shape measurement system, Opt. Express 42 (2) 482–486.
[88] P. Brakhage, G. Notni, R. Kowarschik (2004) Image aberrations in opticalthree-
dimensional measurement systems with fringe projection, Appl. Opt. 43 (16) 3217–3223.
[89] P. Jia, J. Kofman, C. English (2008) Error compensation in two-step triangularpattern
phase-shifting profilometry, Opt. Laser Eng. 46 (4) 311.
[90] Q. Hu, P. S. Huang, Q. Fu, and F. Chiang (2003) Calibration of a three-dimensional
shape measurement system. Optical Engineering, 42(2):487–493.
[91] Q. Kemao (2004) Windowed Fourier transform for fringe pattern analysis, Appl. Opt.
43 (13) 2695–2702.
[92] Qican Zhang, Xianyu Su, Liqun Xiang, Xuezhen Sun (2012). 3D shape measurement
base on complementary Gray- Code light. Optics and Lasers in Engineering 50,pp 574-579
[93] R. Rodr´ ıguez-Vera, M. Serv´ ın (1994) Phase locked loop profilometry, Opt. Laser
Techn. 26 (6) 393–398.
[94] R. Cusack, J. M. Huntley, H. T. Goldrein (1995) Improved noise-immunephase-
unwrapping algorithm, Appl. Opt. 34 (5) 781–789.
[95] R. Anchini, G. Di Leo, C. Liguori, A. Paolillo (2009) A new calibration procedure for
3-D shape measurement system based on phase-shifting projected fringe profilometry,
IEEE Trans. Instrumentation and Measurement 58 (5) 1291–1298.
[96] R. Y. Tsai (1987) A versatile camera calibration technique for high accuracy 3D
machine vision metrology using off-the-shelf TV cameras and lenses, IEEE J. Robotics
Automat. 3(4), 323–344.
[97] S. Vanlanduit, J. Vanherzeele, P. Guillaume, B. Cauberghe, P. Verboven (2004)
Fourier fringe processing by use of an interpolated Fourier-transform technique, Appl.
Opt. 43 (27) 5206–5213.
[98] S. Zheng, W. Chen, X. Su (2006) Adaptive windowed Fourier transform in 3-D shape
measurement, Opt. Eng. 45 (6) 063601.
[99] S. Ozder, O. Kocahan, E. Coskun, H. Goktas (2007), Optical phase distribution
evaluation by using an S-transform, Opt. Lett. 32 (6) 591–593.
[100] S. Li, X. Su, W. Chen, L. Xiang (2009) Eliminating the zero spectrum inFourier
transform profilometry using Empirical mode decomposition, J. Opt. Soc. Am. A 26 (5)
1195–1201.
[101] S. Su, X. Lian (2001) Phase unwrapping algorithm based on fringe frequency
analysis in Fourier-transform profilometry, Opt. Eng. 40 (4) 637– 643.
[102] S. Zhang, X. Li, S. Yau (2007) Multilevel quality-guided phase unwrapping
algorithm for real-time three-dimensional shape reconstruction, Appl. Opt. 46 (1) 50–57.
147
[103] S. Pavageau, R. Dallier, N. Servagent, T. Bosch (2004) A new algorithm for large
surfaces profiling by fringe projection, Sensors and Actuators A:Physical 115 (2-3) 178–
184.
[104] S. Inokuchi, K. Sato, F. Matsuda (1984) Range imaging system for3-D object
recognition, in: Proceedings of the International Conference on Pattern Recognition, , pp.
806 –808.
[105] S. Zhang and P. S. Huang (2006) Novel method for structured light system
calibration, Optical Engineering, vol. 45, no. 8, pp. 083 601–083 601–8.
[106] S. Toyooka and Y. Iwaasa (1986) Automatic profilometry of 3-D diffuse objects by
spatial phase detection. Applied Optics, 25(10):1630–1633.
[107] Shuang Yu, Jing Zhang, Xiaoyang Yu, Xiaoming Sun, Haibin Wu (2016). Unequal-
period combination approach of gray code and phase-shifting for 3-D visual measurement.
Optics Communications 374,pp.97-106.
[108] Structured light, https://en.wikipedia.org/wiki/Structured_light.
[109] T. Monks and J. Carter (Springer,1993) Improved stripe matching for colour encoded
structured light, in Computer Analysis of Images and Patterns , pp. 476–485.
[110] T. Pajdla (1995) Bcrf—binary-coded illumination range finder reimplementation, in
Technical Report KUL/ESAT/MI2/9502.
[111] T. L. Pennington, H. Xiao, R. May, A. Wang (2001) Miniaturized 3-D surface prof
ilometer using a fiber optic coupler, Opt. Laser Technol. 33 (5) 313–320.
[112] T. Anna, S. K. Dubey, C. Shakher, A. Roy, D. S. Mehta (2009) Sinusoidal fringe
projection system based on compact and non-mechanical scanning low-coherence
Michelson interferometer for three-dimensional shape measurement, Opt. Commun. 282
(7) 1237–1242.
[113] V. Srinivasan, H. C. Liu, and M. Halioua (1984) Automated phase-measuring
profilometry of 3-D diffuse objects. Applied Optics, 23(18):3105–3108.
[114] W. Krattenthaler, K. J. Mayer, and H. P. Duwe (1993) 3D-surface measurement with
coded light approach, in Proceedings of the 17th Meeting of the Austrian Association for
Pattern Recognition on Image Analysis and Synthesis Vol. 12, pp. 103–114.
[115] W. Su, K. Reichard, S. Yin, F. T. S. Yu (2003) Fabrication of digital sinusoidal
gratings and precisely controlled diusive flats and their application tohighly accurate
projected fringe profilometry, Opt. Eng. 42 (6) 1730–1740.
[116] W. Schreiber, G. Notni (2000) Theory and arrangements of self-calibrating whole-
body three-dimensional measurement systems using fringe projection technique, Opt. Eng.
39 (1) 159–169.
[117] W. H. Wang, Y. S. Wong, G. S. Hong (2006) 3D measurement of crater wearby
phase shifting method, Wear 261 (2) 164–171.
[118] W. Jia, H. Qiu (2001) A novel optical method in micro drop deformation
measurements, Opt. Laser Eng. 35 (3) 187–198.
148
[119] W. Li, X. Su, Z. Liu (2001), Large-scale three-dimensional object measurement: A
practical coordinate mapping and image data-patching method, Appl. Opt. 40 (20) 3326–
3333.
[120] W. Van Paepegem, A. Shulev, A. Moentjens, J. Harizanova, J. Degrieck,V. Sainov
(2008) Use of projection moir´ e for measuring the instantaneous outof-plane deflections of
composite plates subject to bird strike, Opt. Laser Eng. 46 (7) 527–534.
[121] X. Su, W. Chen (2001) Fourier transform profilometry: A review, Opt. LaserEng. 35
(5) 263–284.
[122] X. Su, W. Zhou, G. von Bally, D. Vukicevic (1992) Automated phasemeasuring
profilometry using defocused projection of a Ronchi grating, Opt. Commun. 94 (6) 561–
573.
[123] X. Su, G. von Bally, D. Vukicevic (1993) Phase-stepping grating profilometry:
utilization of intensity modulation analysis in complex objects evaluation, Opt. Commun.
98 (1-3) 141–150.
[124] X. F. Meng, X. Peng, L. Z. Cai, A. M. Li, J. P. Guo, Y. R. Wang (2009)Wavefront
reconstruction and three-dimensional shape measurement by two-step dc-term-suppressed
phase-shifted intensities, Opt. Lett. 34 (8) 1210–1212.
[125] X. Zhang, Y. Lin, M. Zhao, X. Niu, Y. Huang (2005) Calibration of a fringe
projection profilometry system using virtual phase calibrating model planes, J. Opt. A:
Pure Appl. Opt. 7 (4) 192–197.
[126] X. Chen, J. Xi, Y. Jin, J. Sun (2009) Accurate calibration for a camera-projector
measurement system based on structured light projection, Opt. LaserEng. 47 (3-4) 310–
319.
[127] X. Su, W. Chen, Q. Zhang, Y. Chao (2001) Dynamic 3-D shape measurement
method based on FTP, Opt. Laser Eng. 36 (1) 49–64.
[128] Y. Hu, J. Xi, J. F. Chicharo, W. Cheng, Z. Yang, Inverse Function Analysis Method
for Fringe Pattern Profilometry, IEEE Trans. Instrumentation and Measurement Article in
Press.
[129] Y. Hu, J. Xi, J. Chicharo, E. Li, Z. Yang (2006) Discrete cosine transformbased shift
estimation for fringe pattern profilometry using a generalizedanalysis model, Appl. Opt. 45
(25) 6560–6567.
[130] Y. Tangy, W. Chen, X. Su, L. Xiang (2007) Neural network applied to
reconstruction of complex objects based on fringe projection, Opt. Commun. 278 (2) 274–
278.
[131] Y. Li, J. A. Nemes, A. Derdouri (2000) Optical 3-D dynamic measurement system
and its application to polymer membrane inflation tests, Opt. Laser Eng. 33 (4) 261–276.
[132] Z. J. Geng (1996). Rainbow three-dimensional camera: new concept of high-speed
three-dimensional vision systems, Opt. Eng. 35(2), 376–383.
[133] Z. Zhang, D. Zhang, X. Peng (2004) Performance analysis of a 3D full-fieldsensor
149
based on fringe projection, Opt. Laser Eng. 42 (3) 341– 353.
[134] Z. Zhang (2000) A flexible new technique for camera calibration. IEEE
Transactionson Pattern Analysis and Machine Intelligence, 22(11):1330–1334,.
[135] Z. Huang, J. Xi, Y. Yu, Q. Guo & L. Song (2014) Improved geometrical model of
fringe projection profilometry, Optics Express, vol. 22,(26) pp. 32220-32232.
150
DANH MỤC CÁC CÔNG TRÌNH ĐÃ CÔNG BỐ CỦA LUẬN ÁN
1. Lê Quang Trà, Nguyễn Văn Vinh (2013) Nghiên cứu ứng dụng phương
pháp ánh sáng cấu trúc để đo biên dạng 3D chi tiết cơ khí, Hội nghị
khoa học và công nghệ toàn quốc về cơ khí lần thứ III, trang 829-834.
2. Le Quang Tra, Nguyen Van Vinh, Nguyen Duc Duong (2014)
Calibration of camera for 3D scanner using structured light, ISEPD
2014 International Symposium on Eco- materials Processing ang
Design, pp .399-403.
3. Le Quang Tra, Nguyen Van Vinh (2014) Improve accuracy fringe
projection model in structured light measurement devices using a
digital projecto, RCMME 2014 proceedings the 7th AUN/SEED-Net
Regional Conference in Mechanical and Manufacturing Engineering
2014, pp. 220-224.
4. Lê Quang Trà, Nguyễn Văn Vinh (2015) Nghiên cứu thiết kế, chế tạo
thiết bị đo biên dạng 3D sử dụng ánh sáng cấu trúc, Hội nghi khoa học
kĩ thuật đo lường toàn quốc lần thứ VI, trang 233-238.
5. Lê Quang Trà, Nguyễn Văn Vinh (2015) Nghiên cứu hiệu chuẩn thiết
bị đo biên dạng 3D bằng ánh sáng cấu trúc sử dụng mẫu ô vuông bàn
cờ, Tạp chí Cơ khí Việt Nam, số 8, trang 71-75.
6. Lê Quang Trà, Nguyễn Văn Vinh (2015) Đo biên dạng 3D chi tiết bằng
ánh sáng cấu trúc dạng mã hóa Gray, Tạp chí Cơ khí Việt Nam, số 10,
trang 68-73.
151
PHỤ LỤC
Bảng 1. Thông số kĩ thuật máy chiếu sử dụng trong thiết bị
Thông số Model InFocus IN114A
Độ phân giải cơ bản XGA 1024x768
Độ phân giải lớn nhất WUXGA 1290x1200
Công nghệ hiển thị Chip DLP 0,55”
Độ sáng 3000 -3200 lumens
Tuổi thọ bóng đèn 5000- 6000 h
Công suất bóng đèn 190 W
Độ tương phản 15000 : 1
Ống kính Điều chỉnh tiêu cự và lấy nét
Khoảng cách chiếu 1,2 đến 11,9 m
Cỡ ảnh 78 đến 762 cm
Số màu 1,07 tỷ màu
Nguồn tín hiệu vào HDMI 1. 4, VGA x 2, Composite Video, S-Video, 3. 5 mm
stereo input x 2, RS232C, USB Type B (control & firmware)
Kích thước 292 x220 x108 mm
Khối lượng 3,22 kg
Khoảng nhiệt làm việc 0 – 40 oC
152
Bảng 2 Thông số kĩ thuật camera sử dụng trong thiết bị
Thông số CAMERA DFK 41 BU02
Định dạng video @ khung
hình trên giây
1280x960UYVY @ 7. 5, 3. 75 fps
1280x960 BY8 @ 15, 7. 5, 3. 75 fps
Độ nhạy sáng 0. 15 lx
Độ rộng màu 8 bit
Lọc hồng ngoại Có
Màn trập Có
Kích thước cảm biến 1/2 "
Độ phân giải H: 1360, V: 1024
Kích thước pixel H: 4. 65 µm, V: 4. 65 µm
Dạng nối ống kính C/CS
Điện áp 4. 5 đến 5. 5 VDC
Dòng tiêu thụ Khoảng 500 mA tại 5 VDC
Kích thước bao H: 50. 6 mm, W: 50. 6 mm, L: 56 mm
Khối lượng 265 g
Tốc độ màn trập 1/10000 đến 30 s
Khuếch đại 0 đến 36 dB
Offset 0 đến 511
Độ bão hòa màu 0 đến 200 %
Cân bằng trắng -2 dB đến +6 dB
Nhiệt độ làm việc -5 °C đến 45 °C
Nhiệt độ bảo quản -20 °C đến 60 °C
Độ ẩm làm việc 20 % đến 80 %
Độ ẩm bảo quản 20 % đến 95 %
153
Bảng 3 Thông số kĩ thuật định dạng cảm biến hình ảnh
Định dạng CCD Chiều cao CCD (mm) Chiều rộng CCD (mm)
1/4” 2,4 3,2
1/3” 3,6 4,8
1/2” 4,8 6,4
2/3” 6,6 8,8
1” 9,6 12,8
Bảng 4 Thông số kĩ thuật một số ống kính
Mã ống kính Định dạng Tiêu cự (mm) MOD (m)
H0514-MP 1/2” 5 0,1
M0914- MP 2/3” 8 0,1
H1214- M(KP) 1/2” 12 0,25
C1614- KPM() 2/3” 16 0,25
C2514- M(KP) 2/3” 25 0,25
C3516-M(KP) 2/3” 35 0,35
C5028 – M(KP) 2/3” 50 0,90
Bảng 5: Tiêu chuẩn chọn vòng đệm cho ông kính camera
Tiêu cự 12mm 16mm 25mm 50mm 75mm
Vòng
đệm
0,5 12 ÷ 31cm 22÷54cm 41÷129cm
1 8 ÷ 15cm 17÷28cm 32÷66cm
1. 5 6 ÷ 10cm 14÷20cm 27÷45cm 75÷175cm
5 2 ÷ 3cm 7 ÷ 8cm 14÷16cm 43÷59cm 69÷125cm
10 9÷10cm 29÷34cm 50÷69cm
15 23÷25cm 41÷50cm
20 35÷41cm
25 30÷35cm
154
Đặc tính ống kính camera H1214 - M
Phụ lục 2. Kết quả hiệu chuẩn hệ thống khi đo trụ chuẩn
%YAML:1. 0
- cam_K: !!opencv-matrix
data: [ 2. 6003103385477757e+003, 0. , 5. 8942103309707136e+002, 0. ,
2. 6077090528588687e+003, 4. 7498752176714896e+002, 0. , 0. , 1. ]
- cam_kc: !!opencv-matrix
data: [ -7. 4857785396192578e-001, -3. 6721758092811599e-002,
-2. 3132718914316559e-003, -2. 1256545885085785e-003, 0. ]
- proj_K: !!opencv-matrix
data: [ 2. 2189964160896229e+003, 0. , 4. 8664810790040929e+002, 0. ,
2. 2263105534837455e+003, 8. 2521250648704893e+002, 0. , 0. , 1. ]
155
- proj_kc: !!opencv-matrix
data: [ -5. 7008672687585117e-002, -1. 1072535763255268e-002,
-2. 2494423703204093e-003, -2. 0377171979763346e-003, 0. ]
- R: !!opencv-matrix
data: [ -9. 2179458672631975e-001, -4. 5661718720065012e-002,
3. 8498019082231116e-001, 6. 0808646302625002e-004,
-9. 9320850528577287e-001, -1. 1634644497729361e-001,
3. 8767817853589193e-001, -1. 0701342192234857e-001,
9. 1556198993599747e-001 ]
- T: !!opencv-matrix
data: [ -2. 4943894861854156e+002, -3. 7647027129186874e+001,
4. 5800629340674065e-001 ]
cam_error: 3. 4230355191221057e-001
proj_error: 2. 9064206238286255e-001
stereo_error: 3. 4241011560016987e-001
Phụ lục 3
Bảng3.1 Giá trị đo cường độ điểm ảnh xám trung tâm trên ảnh chụp bằng camera
Cường độ sáng
mẫu ảnh chiếu
Cường độ sáng
ảnh Gray thu được
Cường độ sáng
ảnh Green
Cường độ sáng
ảnh RED
Cường độ sáng
ảnh Blue
0 0 0 0 4
10 0 102 126 4
20 0 129 152 4
30 0 153 193 5
40 0 154 199 4
50 0 164 213 5
60 0 165 222 6
70 2 176 233 7
80 8 195 233 10
90 18 190 254 13
100 28 176 250 16
110 41 202 247 25
156
120 55 197 249 29
130 71 210 246 38
140 95 208 251 47
150 117 202 248 55
160 147 201 249 57
170 168 220 250 64
180 192 202 249 72
190 228 208 253 82
200 254 205 250 89
210 255 208 251 96
220 255 225 253 109
230 255 215 254 127
240 255 217 252 140
250 255 217 250 145
Bảng 3.2 Giá trị cường độ sáng ảnh xám tối ưu
Cường độ sáng mẫu
ảnh chiếu
Cường độ sáng ảnh
thu được
70 2
80 8
90 18
100 28
110 41
120 55
130 71
140 95
150 117
160 147
170 168
157
180 192
190 228
200 254
Bảng 3.3 Giá trị cường độ sáng ảnh xám sau khi hiệu chuẩn
Cường độ mẫu ảnh chiếu Cường độ ảnh thu được
0 0
10 5
20 6
30 8
40 10
50 14
60 19
70 25
80 32
90 40
100 49
110 60
120 71
130 83
140 105
150 115
160 130
170 150
180 166
190 211
200 226
210 230
220 246
230 247
240 250
250 255
158
Phụ lục 5. Bản vẽ thiết kế
Các file đính kèm theo tài liệu này:
- nghien_cuu_do_bien_dang_3d_cua_chi_tiet_bang_phuong_phap_su_dung_anh_sang_cau_truc_tv_974.pdf