.................................................................................................... 23 
2.2.3 Các bước xây dựng bộ cảm biến mềm. .......................................................... 24 
2.2.3.1 Chọn dữ liệu và lọc. ......................................................................................... 24 
2.2.3.2 Chọn kiểu hồi quy và cấu trúc mô hình. .......................................................... 25 
2.2.3.3 Thành lập mô hình.(ước lượng mô hình và chuẩn hóa mô hình) .................... 26 
CHƯƠNG 3: XÂY DỰNG ĐỀ TÀI. .......................................................................... 27 
3.1 Thu thập dữ liệu. ............................................................................................... 27 
3.2 Tiền xử lý dữ liệu. .............................................................................................. 27 
3.3 Xây dựng mạng nơ ron. .................................................................................... 27 
3.3.1 Chọn số lớp cho mạng nơ ron. ....................................................................... 27 
3.3.2 Chọn số nơ ron lớp ẩn mạng 2 lớp. ................................................................ 28 
CHƯƠNG 4: TỔNG KẾT. ......................................................................................... 29 
4.1 Kết quả của đề tài. ............................................................................................. 29 
4.2 Hạn chế của đề tài. ............................................................................................ 29 
4.3 Hướng phát triển. .............................................................................................. 29 
TÀI LIỆU THAM KHẢO ........................................................................................... 30 
v 
DANH MỤC HÌNH ẢNH 
Hình 2.1: Tế bào nơ ron nhân tạo. ................................................................................... 6 
Hình 2.2: Hàm nấc. .......................................................................................................... 7 
Hình 2.3: Hàm dấu. ......................................................................................................... 7 
Hình 2.4: Hàm tuyến tính. ............................................................................................... 7 
Hình 2.5: Hàm dốc bảo hòa. ............................................................................................ 8 
Hình 2.6: Hàm tuyến tính bảo hòa. .................................................................................. 8 
Hình 2.7: Hàm dạng S đơn cực ....................................................................................... 9 
Hình 2.8: Hàm dạng S lưỡng cực. ................................................................................... 9 
Hình 2.9: Mạng Perceptron. .......................................................................................... 10 
Hình 2.10: Mạng tuyến tính (a) và Adaline (b) ............................................................. 11 
Hình 2.11: Học có giám sát. .......................................................................................... 16 
Hình 2.12: Học cũng cố. ................................................................................................ 16 
Hình 2.13: Học không có giám sát. ............................................................................... 17 
Hình 2.14: Mô tả thuật toán Gradient Descent .............................................................. 17 
Hình 2.15: Mô tả hình học của phương pháp Newton .................................................. 18 
Hình 2.16: Cấu tạo của thermocouple. .......................................................................... 21 
Hình 2.17: Cách ly bằng Opto. ...................................................................................... 23 
Hình 2.18: Cách ly bằng biến áp. .................................................................................. 23 
Hình 2.19: Tổng quan các bước thiết kế bộ cảm biến mềm. ......................................... 24 
Hình 3.1: Cấu trúc mạng 2 lớp. ..................................................................................... 28 
Hình 3.2: Cấu trúc mạng 3 lớp. ..................................................................................... 28 
Hình 3.3: Chọn số lớp ẩn. .............................................................................................. 28 
vi 
DANH MỤC BẢNG BIỂU. 
Bảng thay đổi giá trị điện áp của thermocouple. ...................................................... 32 
DANH MỤC NHỮNG TỪ VIẾT TẮT. 
ADC: Analog – to Digital – Converter. 
DAQ: Data Acquisition. 
LMS: Least Mean Squares. 
PC: Personal Computer. 
SNR: Signal – to Noise Ratio. 
vii 
TRƯỜNG ĐẠI HỌC GTVT 
THÔNG TIN KẾT QUẢ NGHIÊN CỨU CỦA ĐỀ TÀI 
1. Thông tin chung: 
- Tên đề tài: Thiết kế cảm biến mềm dùng mạng nơ ron nhân tạo dùng cho 
cảm biến cặp nhiệt. 
- Sinh viên thực hiện: Nguyễn Văn Tuấn 
Phạm Minh Đức 
Nguyễn Huy Hiệu 
Nguyễn Ngọc Hải 
Trần Vũ 
- Lớp: TĐH & ĐK K54 Khoa Điện – Điện Tử Năm thứ 3 / 4,5 
2. Mục tiêu đề tài: Thiết kế bộ cảm biến mềm(cảm biến kết hợp với bộ xử lý tín 
hiệu) dùng mạng nơ ron nhân tạo ứng dụng trong điều khiển và giám sát quá trình 
công nghiệp. 
3. Tính mới và tính khoa học: 
- Tính mới: Ứng dụng mạng nơ ron nhân tạo trong thiết kế cảm biến mềm cho 
cặp nhiệt. 
- Tính khoa học: Ứng dụng mạng nơ ron nhân tạo trong nhận dạng hệ phi tuyến 
như NMA, NARX 
4. Kết quả nghiên cứu: Phần mềm mô phỏng cảm biến mềm. 
5. Đóng góp về mặt kinh tế - xã hội, giáo dục và đào tạo, an ninh, quốc phòng 
và khả năng áp dụng của đề tài: ứng dụng trong công nghiệp nhằm thay thế 
các phương pháp tuyến tính hóa cảm biến trước đây, giúp giảm chi phí thiết kế 
cũng như tăng độ tin cậy của cảm biến, đảm bảo cho quá trình vận hành các thiết 
bị trong công nghiệp ổn định. 
6. Công bố khoa học của sinh viên từ kết quả nghiên cứu của đề tài: 
viii 
 Ngày 09 tháng 05 năm 2016 
Sinh viên chịu trách nhiệm chính thực 
hiện đề tài. 
(ký, họ và tên) 
Nguyễn Văn Tuấn 
Nhận xét của người hướng dẫn về những đóng góp khoa học của sinh viên thực 
hiện đề tài: 
 Ngày tháng năm 2016 
 Người hướng dẫn 
(ký, họ và tên) 
Ks. Lê Mạnh Tuấn 
ix 
TRƯỜNG ĐẠI HỌC GTVT 
THÔNG TIN VỀ SINH VIÊN 
CHỊU TRÁCH NHIỆM CHÍNH THỰC HIỆN ĐỀ TÀI 
I. SƠ LƯỢC VỀ SINH VIÊN: 
Họ và tên: Nguyễn Văn Tuấn. 
Sinh ngày: 20 tháng 09 năm 1994 
Nơi sinh: Quảng Lộc – Quảng Trạch – Quảng Bình 
Lớp: Tự Động Hóa và Điều Khiển Khóa: 54 
Bộ môn: Điều Khiển Học 
Khoa : Điện – điện tử 
Địa chỉ liên hệ: C11/8 Đường Lê Văn Việt, Quận 9, TP. Hồ Chí Minh 
Điện thoại: 0969562272 Email: 
[email protected] 
II. QUÁ TRÌNH HỌC TẬP 
 Năm thứ 1: 
 Ngành học: Tự Động Hóa và Điều Khiển Khoa: Điện – Điện Tử 
 Kết quả xếp loại học tập: Trung Bình 
 Sơ lược thành tích: 
 Năm thứ 2: 
 Ngành học: Tự Động Hóa và Điều Khiển Khoa: Điện – Điện Tử 
 Kết quả xếp loại học tập: Khá 
 Sơ lược thành tích: 
 Giải ba hội thi mô hình chuyên nghành lần 1 
 Tham gia NCKHSV năm 2014 – 2015 
x 
Ngày 09 tháng 05 năm 2016 
Sinh viên chịu trách nhiệm chính 
thực hiện đề tài 
(ký, họ và tên ) 
Nguyễn Văn Tuấn 
 Trang | 1 
LỜI GIỚI THIỆU 
Trong thời đại ngày nay, khoa học kỹ thuật phát triển đòi hỏi sinh viên – học sinh 
học phải đi đôi với hành, bên cạnh những lý thuyết cơ bản ở trường lớp, phải biết ứng 
dụng những gì đã học vào thực tiễn, có vậy mới giúp chúng ta nắm vững những kiến 
thức mình đã có, bổ sung thêm kiến thức mới và góp phần phát huy khả năng năng động, 
sáng tạo. 
Cùng với sự phát triển không ngừng của các ngành khoa học kỹ thuật, các ngành 
công nghiệp cũng phát triển nhanh chóng. Việc áp dụng các máy móc hiện đại vào sản 
xuất là một yêu cầu không thể thiếu trong các nhà máy nhằm tăng năng suất, tăng chất 
lượng và giảm giá thành sản phẩm. Nghành công nghiệp phát triển ngày càng mạnh mẽ 
và nhu cầu tự động hóa trong các nghành công nghiệp ngày càng tăng cao. Nhưng để tự 
động hóa các quy trình sản xuất được thì đòi hỏi chúng ta phải cung cấp cho các máy 
móc những giác quan cần thiết và cảm biến chính là giác quan của máy móc. Các cảm 
biến hoạt động với độ tin cậy cao thì máy móc làm việc càng tốt, chất lượng sản phẩm 
càng tăng. Do vậy, nhu cầu tự động hóa trong công nghiệp thì không thể thiếu cảm biến 
được. 
Xuất phát từ thực tế, nhóm đã chọn đề tài: Thiết kế cảm biến mềm dùng mạng 
nơ ron nhân tạo dùng cho cảm biến cặp nhiệt. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 1 
CHƯƠNG 1: TỔNG QUAN VỀ ĐỀ TÀI. 
1.1 Giới thiệu về đề tài. 
1.1.1 Tính cấp thiết. 
Hiện nay trong công nghiệp thì việc sử dụng các cảm biến trong các dây chuyền 
sản xuất đã trở nên rất phổ biến và rất cần thiết nhất là đối với các hệ thống sản xuất tự 
động ví dụ như các băng chuyền phân loại sản phẩm, hệ thống đóng gói sản phẩmvv 
hay các hệ thống hoạt động trong các môi trường khắc nghiệt như là các lò nung, lò 
luyện thépvv. 
Trong môi trường công nghiệp thì đòi hỏi thời gian đáp ứng phải nhanh và chính 
xác, không cho phép sai số vượt quá một ngưỡng nào đó. 
Tuy nhiên trên thị trường hiện nay có rất nhiều loại cảm biến và hầu hết các cảm 
biến trên thị trường thì ngõ ra của cảm biến thường là không tuyến tính nên gây khó 
khăn trong việc xử lý kết quả của bộ xử lý. 
Trên thực tế đó, sau một thời gian tìm hiểu và nghiên cứu nhóm đã đưa ra giải 
pháp là thiết kế một bộ cảm biến mềm nhằm xử lý các kết quả của ngõ ra cảm biến trước 
khi đưa vào bộ xử lý với mục đích giảm khối lượng tính toán cho bộ xử lý và nâng cao 
hiệu suất hoạt động của bộ xử lý. 
1.1.2 Mục tiêu nghiên cứu của đề tài. 
Mục tiêu của nhóm là xây dựng một bộ cảm biến kết hợp với một bộ xử lý tín 
hiệu gọi là bộ cảm biến mềm trước khi đưa kết quả đo vào bộ xử lý ứng dụng trong quá 
điều khiển và giám sát quá trình công nghiệp. 
1.2 Giới thiệu về cảm biến. 
1.2.1 Cảm biến mềm. 
Cảm biến mềm hay còn được gọi là cảm biến thông minh là một loại cảm biến 
có kết hợp với bộ xử lý tín hiệu trước khi đưa các giá trị ngõ ra của cảm biến vào các bộ 
vi xử lý, vi điều khiển để thực hiện tính toán. 
Cảm biến mềm là 1 công cụ có giá trị trong nhiều lĩnh vực công nghiệp khác 
nhau với nhiều ứng dụng như nhà máy lọc dầu, nhà máy hóa chất, nhà máy điện, trong 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 2 
ngành công nghiệp. Giải quyết 1 số vấn đề khác nhau như hệ thống đo back - up, phân 
tích thời gian thực. 
Trong các mô hình thiết kế, cảm biến mềm giúp làm giảm tài nguyên phần cứng, 
cải thiện hệ thống, cải thiện độ tin cậy và kiểm soát chặt chẽ hệ thống. 
Cảm biến mềm hay cảm biến thông minh (tiếng Anh là soft sensor hay intelligent 
sensor) là tên thường dùng cho những thiết bị có chức năng nhận biết những đại lượng 
vật lý như âm thanh, nhiệt độ, giọng nói, hình ảnhvv, ngõ ra của cảm biến có thể được 
tuyến tính hóa hoặc dùng phần mềm để thay đổi cho thích hợp, được dùng trong các hệ 
thống đo lường nhằm cải thiện tính thích ứng, tính ổn định, tính chính xác và giá thành 
của hệ thống. Đặc biệt là cảm biến thông minh có thể kết nối với các phần mềm trong 
hệ thống đo lường để xử lý dữ liệu, điều này làm cho tính tối ưu của hệ thống được nâng 
cao lên nhiều. 
Có rất nhiều loại cảm biến thông minh khác nhau. Mỗi loại cảm biến thông minh 
lại được dùng trong từng hệ thống tương ứng với chức năng của chúng. Cảm biến thông 
minh đặc biệt dùng nhiều trong lĩnh lực thu thập dữ liệu. 
Sử dụng vi xử lý có khả năng phát hiện những vị trí hỏng hóc trong thiết bị đo và 
đưa ra thông tin, chuẩn đoán kĩ thuật về sự làm việc của thiết bị đo. 
Các cảm biến thông minh, với sự kết hợp giữa vi xử lý và các bộ cảm biến thông 
thường thực sự đã tạo ra một tiến bộ vượt bậc trong kỹ thuật đo. 
1.2.2 So sánh giửa cảm biến thô và cảm biến mềm. 
Chúng ta biết rằng cảm biến mềm thì với ngõ ra có thể tuyến tính hóa hoặc dùng 
phần mềm để thay đổi theo yêu cầu. Đây cũng chính là sự khác biệt lớn giữa cảm biến 
thô và cảm biến mềm. 
Cảm biến mềm cung cấp 1 vài tiện ích như sau: 
- Thay thế các thiết bị phần cứng có chi phí cao, thực hiện mạng lưới giám sát toàn 
diện hơn. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 3 
- Cho phép làm việc song song với cảm biến phần cứng, nhận biết các lỗi, do đó 
đáng tin cậy hơn. 
- Dể dàng thực hiện trên phần cứng(như vi điều khiển) và trở về khi các thông số 
thay đổi. 
- Cho phép ước lượng thời gian thực của dữ liệu, phục hồi sự chậm trễ về thời gian. 
1.3 Ứng dụng của bộ cảm biến mềm. 
Trên thế giới hiện nay thì cảm biến thông minh được sử dụng rộng rãi trong hầu 
hết mọi lĩnh vực. Mỗi loại cảm biến thông minh lại mang một chức năng, nhiệm vụ khác 
nhau. 
Công nghiệp là một lĩnh vực mà cảm biến thông minh được sử dụng rất nhiều. 
Trong công nghiệp thì tín hiệu chủ yếu để cho cảm biến thông minh hoạt động đó là tín 
hiệu cơ học, tín hiệu điện, tín hiệu quang học thì cảm biến thông minh có nhiệm vụ 
đếm, phân loại, đọc và hướng dẫn có tính robot. 
Trong kỹ thuật sinh học thì cảm biến thông minh là công cụ phát hiện sự có mặt 
của vật chất, chất hóa học và sinh học, đưa ra phương thức đo lường và lưu giữ các thông 
tin về dấu hiệu đó. 
Chúng ta có thể nêu một vài loại cảm biến thông minh điển hình như: 
- Cảm biến gia tốc kế: Cảm biến gia tốc kế bao gồm phần tử cảm biến và phần tử 
thiết bị điện. 
- Cảm biến quang học: Cảm biến quang học là 1 trong những ví dụ cơ bản của cảm 
biến thông minh dùng để phát hiện vật. 
Trên đây là một vài loại cảm biến thông minh mà chúng ta thường hay sử dụng. 
Còn rất nhiều loại cảm biến thông minh khác mà chúng ta không thể đề cập đến. 
1.4 Đối tượng nghiên cứu. 
Hiện nay trên thị trường có rất nhiều loại cảm biến với ngõ ra tuyến tính, ví dụ 
như LM35, RTD đầu ra đã tuyến tính sẵn, do đề tài này nghiên cứu việc tuyến tính hóa 
ngõ ra của các cảm biến phi tuyến. Nên đối tượng để nghiên cứu ở đây là những loại 
cảm biến có ngõ ra là phi tuyến. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 4 
Việc lựa chọn đối tượng để nghiên cứu là bước đầu tiên và cũng là bước quan 
trọng nhất trong việc thiết kế một bộ cảm biến mềm. 
Qua quá trình tìm hiểu thì nhóm đi tới quyết định sử dụng Thermocouple vì nó 
có nhiều ưu điểm vượt trội hơn so với nhiều loại cảm biến khác. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 5 
CHƯƠNG 2: CƠ SỞ LÝ THUYẾT. 
2.1 Mạng nơ ron nhân tạo. 
2.1.1 Giới thiệu về mạng nơ ron nhân tạo. 
Bộ não con người là hệ thống xử lý thông tin phức tạp phi tuyến và song song, 
có khả năng học và ghi nhớ, tổng quá hóa và xử lý lỗi. 
Bộ não con người gồm khoảng 1011 tế bào thần kinh liên kết với nhau thành 
mạng. 
Mỗi tế bào thần kinh sinh học gồm 3 thành phần chính là thân tế bào, một hệ 
thống hình cây các đầu dây thần kinh vào và một trục dẫn đến đầu dây thần kinh ra. 
Tại đầu của các dây thần kinh có các khớp thần kinh để kết nối với các tế bào 
thần kinh khác. Mỗi tế bào thần kinh có khoảng 104 khớp thần kinh. 
Mạng thần kinh nhân tạo(mạng nơ ron nhân tạo) là mô hình toán học đơn giản 
của bộ não người, bản chất của mạng thần kinh là mạng tính toán song song. 
Hầu hết các mạng thần kinh nhân tạo phải được huấn luyện trước khi đưa vào sử 
dụng. 
Các nghiên cứu về mạng thần kinh nhân tạo đã bắt đầu từ thập niên 1940. Năm 
1944, McCulloch và Pitts công bố công trình nghiên cứu về liên kết của các tế bào thần 
kinh. Năm 1949, Hebb công bố nghiên cứu về tính thích nghi của mạng thần kinh. Cuối 
những năm 1950, Rosenblatt đưa ra mạng Perceptron. Nghiên cứu về mạng thần kinh 
nhân tạo chỉ phát triển mạnh từ sau những năm 1980. 
2.1.2 Tế bào nơ ron và mạng nơ ron nhân tạo. 
2.1.2.1 Tế bào nơ ron. 
Tế bào nơ ron kết nối với nhau bởi các liên kết. Mỗi liên kết kèm theo một trọng 
số, đặc trưng cho tính kích thích hay ức chế giữa các tế bào nơ ron. 
Các tế bào thần kinh được kết nối với nhau và nhận truyền các tính hiệu xj cùng 
các trọng số wj với nhau. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 6 
Hình 2.1: Tế bào nơ ron nhân tạo. 
Trong đó: 
- 𝑋𝑗 là các tín hiệu vào. 
- 𝑊𝑗 là các vecter trọng số. 
Quá trình xử lý thông tin có thể chia làm hai phần: 
- Xử lý ngõ vào và xử lý ngõ ra. 
- Hàm xử lý ngõ vào là hàm tổng có các dạng sau: 
Hàm tuyến tính: 
f = net = (∑ 𝑤𝑗𝑥𝑗
𝑚
𝑗=1 ) – 𝜃 = w
T.x – 𝜃 
Hàm toàn phương: 
f = net = ((∑ 𝑤𝑗
𝑚
𝑗=1 𝑥
2) – 𝜃 
Hàm cầu: 
f = net = (𝜌2 ∑ (𝑤𝑗 − 𝑥𝑗)
𝑚
𝑗=1
2) – 𝜃 = 𝜌2(x – w)T(x – w) – 𝜃 
Trong đó: 𝜃 là mức ngưỡng của tế bào thần kinh. 
- Ngõ ra của mỗi tế bào thần kinh được cho bởi biểu thức: 
y = a(f) 
Trong đó a(f) là hàm tác động. 
- Các dạng hàm tác động thường dùng: 
Hàm nấc: 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 7 
 a(f) = {
1 𝑛ế𝑢 𝑓 ≥ 0 
0 𝑛ế𝑢 𝑓 < 0 
Hình 2.2: Hàm nấc. 
Hàm dấu: 
a(f) = {
1 𝑛ế𝑢 𝑓 ≥ 0 
−1 𝑛ế𝑢 𝑓 < 0 
Hình 2.3: Hàm dấu. 
Hàm tuyến tính: 
a(f) = f 
Hình 2.4: Hàm tuyến tính. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 8 
Hàm dốc bảo hòa: 
 a(f) = {
1 𝑛ế𝑢 𝑓 > 1
𝑓 𝑛ế𝑢 0 ≤ 𝑓 ≤ 1
0 𝑛ế𝑢 𝑓 < 0
Hình 2.5: Hàm dốc bảo hòa. 
Hàm tuyến tính bảo hòa: 
 a(f) = {
1 𝑛ế𝑢 𝑓 > 1
𝑓 𝑛ế𝑢 − 1 ≤ 𝑓 ≤ 1
−1 𝑛ế𝑢 𝑓 < −1
Hình 2.6: Hàm tuyến tính bảo hòa. 
Hàm dạng S đơn cực: 
 a(f) = 
1
1+ 𝑒−𝛾𝑓
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 9 
Hình 2.7: Hàm dạng S đơn cực 
Hàm dạng S lưỡng cực: 
 a(f) = 
2
1+ 𝑒−𝛾𝑓
 - 1 
Hình 2.8: Hàm dạng S lưỡng cực. 
2.1.2.2 Mạng nơ ron nhân tạo. 
Là mạng gồm nhiều tế bào thần kinh liên kết chặt chẻ với nhau, tùy theo cấu trúc 
người ta chia thành cá loại mạng sau: 
- Mạng 1 lớp: chỉ có 1 lớp tế bào nơ ron xử lý. 
- Mạng nhiều lớp: có nhiều lớp tế bào thần kinh xử lý. 
- Mạng truyền thẳng: là mạng mà trong đó tín hiệu chỉ truyền theo một chiều từ 
ngõ vào đến ngõ ra. 
- Mạng hồi quy: là mạng mà trong đó có tín hiệu hồi tiếp từ ngõ ra trở về ngõ vào. 
2.1.3 Mạng truyền thẳng 1 lớp. 
2.1.3.1 Thuật toán học Perceptron. 
Mạng truyền thẳng một lớp hay còn gọi là mạng Perceptron đơn giản. Hàm tổng 
ngõ vào là hàm tuyến tính, hàm tác động ngõ ra có thể là hàm dấu, hàm tuyến tính hay 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 10 
hàm dạng S. Tùy theo từng loại ngõ vào tác động mà ta có nhiều thuật toán khác nhau 
để huấn luyện Perceptron. 
Hình 2.9: Mạng Perceptron. 
Thuật toán Perceptron: 
Bước 1: chọn tốc độ học η > 0. 
Bước 2: khởi động. 
- Gán sai số E = 0. 
- Gán biến chạy k = 1. 
- Gán các trọng số 𝑤𝑖(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅) bằng các giá trị nhỏ ngẫu nhiên bất kỳ. 
Bước 3: quá trình huấn luyện bắt đầu, tính: 
 yi(k) = step(𝑤𝑖
𝑇(k)x(k)) = step{∑ 𝑤𝑖𝑗(𝑘)𝑥𝑗(𝑘)
𝑚
𝑗=1 } (i = 1, 𝑛̅̅ ̅̅ ̅) 
Bước 4: Cập nhật các vector trọng số: 
 Wi(k + 1) = wi(k) + η{di(k) – yi(k)}x(k) (i = 1, 𝑛̅̅ ̅̅ ̅) 
Bước 5: Tính sai số tích lũy. 
 E = E + 
1
2
‖𝑑𝑖(𝑘) − 𝑦𝑖(𝑘)‖
2 
Bước 6: 
Nếu k < K thì gán k = k + 1 và trở lại bước 3. 
 Nếu k = K thì tiếp tục bước 7. 
Bước 7: Kết thúc một chu kỳ huấn luyện. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 11 
 Nếu E = 0 thì kết thúc quá trình học. 
Nếu E ≠ 0 thì gán E = 0, k = 1 và trở lại bước 3 bắt đầu một chu trình huấn 
luyện mới. 
Perceptron cho phép phân loại chính xác trong trường hợp dữ liệu có thể phân chia 
tuyến tính. Nó cũng phân loại đúng đầu ra các hàm AND, OR và các hàm có dạng đúng 
khi n trong m đầu vào của nó đúng(n ≤ m). Nó không thể phân loại được đầu ra của hàm 
XOR. 
2.1.3.2 Adaline và mạng tuyến tính. 
Mạng tuyến tính là mạng truyền thẳng một lớp gồm các phần tử thích nghi tuyến 
tính. 
Adaline (Adaptive Linear Element). Adaline khác với Perceptron ở chỗ hàm tác 
động của Adaline là hàm tuyến tính chứ không phải hàm giới hạn cứng. Điều này giúp 
cho ngõ ra của Adaline có thể nhận giá trị bất kỳ. Về phần thuật toán của Adaline thì 
hiệu quả hơn của Perceptron, làm cho giới hạn phân loại được rộng hơn. 
Hình 2.10: Mạng tuyến tính (a) và Adaline (b) 
Thuật toán học Widrow – Hoff: 
Bước 1: Chọn tốc độ học ƞ > 0, chọn sai số cực đại 𝐸𝑚𝑎𝑥. 
Bước 2: Khởi động: 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 12 
- Gán sai số E = 0. 
- Gán biến chạy k = 1. 
- Gán các trọng số wij(k) (i = 1, 𝑛̅̅ ̅̅ ̅), (j = 1,𝑚̅̅ ̅̅ ̅̅ ) bằng giá trị bất kỳ. 
Bước 3: Quá trình huấn luyện bắt đầu, tính: 
𝑦𝑖(𝑘) = ∑ 𝑤𝑖𝑗
𝑚
𝑗=1 (𝑘)𝑥𝑗(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅) 
Bước 4: Cập nhật các trọng số theo biểu thức: 
wij(k+1) = wij(k) + η[𝑑𝑖(𝑘) − 𝑦𝑖(𝑘)]𝑥𝑗(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅), (j = 1,𝑚̅̅ ̅̅ ̅̅ ) 
Bước 5: Tính sai số tích lũy: 
E = E + 
1
2
∑ [𝑑𝑖(𝑘) − 𝑦𝑖(𝑘)]
𝑛
𝑖=1
2 
Bước 6: 
Nếu k < K thì gán k = k + 1 và trở lại bước 3. 
Nếu k = K thì tiếp tục bước 7. 
Bước 7: 
Nếu E < Emax thì kết thúc quá trình học. 
Nếu E ≥ Emax thì gán E = 0, k = 1 và trở lại bước 3 bắt đầu một chu kỳ 
huấn luyện mới. 
2.1.3.3 Perceptron với hàm tác động bán tuyến tính. 
Perceptron thường sử dụng hàm tác động là hàm giới hạn cứng (hàm nấc hay hàm 
dấu), mà giới hạn cứng không khả vi tại mọi điểm nên không tối ưu. Để khắc phục nhược 
điểm trên, ta thay giới hạn cứng bằng giới hạn mềm. 
Thuật toán học Delta: 
Bước 1: Chọn tốc độ học ƞ > 0, chọn sai số cực đại Emax. 
Bước 2: Khởi động: 
- Gán sai số E = 0. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 13 
- Gán biến chạy k = 1. 
- Gán các trọng số wij(k) (i = 1, 𝑛̅̅ ̅̅ ̅), (j = 1,𝑚̅̅ ̅̅ ̅̅ ) bằng giá ngẫu nhiên nhỏ bất 
kỳ. 
Bước 3: Quá trình huấn luyện bắt đầu, tính: 
𝑛𝑒𝑡𝑖(𝑘) = ∑ 𝑤𝑖𝑗
𝑚
𝑗=1 (𝑘)𝑥𝑗(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅) 
𝑦𝑖(𝑘) = a(neti(k)) (i = 1, 𝑛̅̅ ̅̅ ̅) 
Bước 4: cập nhập các trong số theo biểu thức: 
𝛿𝑖(𝑘) = [𝑑𝑖(𝑘) − 𝑦𝑖(𝑘)] a’(neti(k)) 
wij(k+1) = wij(k) + ƞ𝛿𝑖(𝑘)𝑥𝑖(𝑘) 
Bước 5: tính sai số tích lũy: 
E = E + 
1
2
∑ [𝑑𝑖(𝑘) − 𝑦𝑖(𝑘)]
𝑛
𝑖=1
2 
Bước 6: 
 Nếu k < K thì gán k = k + 1 và trở lại bước 3. 
 Nếu k = K thì tiếp tục bước 7. 
Bước 7: 
Nếu E < Emax thì kết thúc quá trình học. 
Nếu E ≥ Emax thì gán E = 0, k = 1 và trở lại bước 3 bắt đầu một chu kỳ 
huấn luyện mới. 
2.1.3.4 So sánh perceptron với Adaline. 
Giống nhau: 
 Perceptron và Adaline đều là thuật toán để huấn luyện mạng thần kinh nhân tạo, 
đều sử dụng để huấn luyện mạng truyền thẳng 1 lớp. 
Khác nhau: 
Pererceptron: 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 14 
- Có khả năng tổng quát hóa những vector mẫu huấn luyện và khả năng học từ các 
trọng số và mức ngưỡng ngẫu nhiên bất kỳ. 
- Perceptron đặc biệt thích nghi với những loại mẫu đơn giản, nhanh và tin cậy. 
Adaline: 
- Bản chất của thuật toán huấn luyện Adaline là thuật toán trung bình bình phương 
tối thiểu(LMS- Least Mean Squares) nên hiệu quả hơn thuật toán học Perceptron 
và di chuyển giới hạn phân loại xa nhất có thể có được so với mẫu phân loại. 
- Ngõ ra của mạng Adaline là một giá trị bất kỳ nên thường được sử dụng Adaline 
trong bài toán điều khiển. 
2.1.4 Mạng truyền thẳng nhiều lớp. 
Cấu trúc mạng. 
Mạng truyền thẳng nhiều lớp là mạng có từ 2 lớp trở lên. 
Lớp tế bào thần kinh nối với ngõ vào gọi là lớp vào. 
Lớp tế bào thần kinh nối với ngõ ra gọi là lớp ra. 
Lớp tế bào thần kinh không nối trực tiếp ngõ ra và ngõ vào gọi là lớp ẩn. 
Kết nối giữa các tế bào thần kinh có thể đầy đủ hoặc không đầy đủ. 
Mạng truyền thẳng nhiều lớp có thể giải bài toán không khả phân tuyến tính. 
Thuật toán để giải quyết mạng truyền thẳng nhiều lớp được gọi là thuật toán lan 
truyền ngược. Thuật toán lan truyền ngược thực hiện 2 bước truyền thông tin. 
Do thuật toán huấn luyện mạng truyền thẳng là thuật toán lan truyền ngược nên 
còn được gọi là mạng lan truyền ngược. 
Thuật toán lan truyền ngược. 
Bước 1: Chọn tốc độ học ƞ > 0, chọn sai số cực đại 𝐸𝑚𝑎𝑥. 
Bước 2: Khởi động: 
Gán sai số E = 0. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 15 
Gán biến chạy k = 1. 
Gán các trọng số 𝜔𝑖𝑞(𝑘), 𝜐𝑞𝑗(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅; j = 1,𝑚̅̅ ̅̅ ̅̅ ; q = 1, 𝑙̅̅ ̅̅ ) 
Bước 3: (Truyền thuận dữ liệu) Tính ngõ ra của mạng với tín hiệu vào là x(k): 
Lớp ẩn: 𝑛𝑒𝑡𝑞(𝑘) = ∑ 𝜐𝑞𝑗(𝑘)𝑥𝑗(𝑘)
𝑚
𝑗=1 (q = 1, 𝑙̅̅ ̅̅ ) 
𝑍𝑞(𝑘) = 𝑎ℎ(𝑛𝑒𝑡𝑞(𝑘)) (q = 1, 𝑙̅̅ ̅̅ ) 
Lớp ra: 𝑛𝑒𝑡𝑖(𝑘) = ∑ 𝜔𝑖𝑞(𝑘)
𝑙
𝑞=1 𝑧𝑞(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅) 
 𝑦𝑖(𝑘) = 𝑎0(𝑛𝑒𝑡𝑖(𝑘)) (i = 1, 𝑛̅̅ ̅̅ ̅) 
Bước 4: (Lan truyền ngược sai số) Cập nhật trọng số của mạng: 
Lớp ra: 𝛿𝑜𝑖(𝑘) = [d(k) – yi(k)][𝑎𝑜
′ (𝑛𝑒𝑡𝑖(𝑘))] (i = 1, 𝑛̅̅ ̅̅ ̅) 
 𝜔𝑖𝑞(𝑘 + 1) = 𝜔𝑖𝑞(𝑘) + 𝜂𝛿𝑜𝑖(𝑘) 𝑧𝑞(𝑘) (i = 1, 𝑛̅̅ ̅̅ ̅;q = 1, 𝑙̅̅ ̅̅ ) 
Lớp ẩn: 𝛿ℎ𝑞(𝑘) = [∑ 𝛿𝑜𝑖(𝑘)𝜔𝑖𝑞(𝑘) 
𝑛
𝑖=1 ] 𝑎ℎ
′ (𝑛𝑒𝑡𝑞(𝑘)) (q = 1, 𝑙̅̅ ̅̅ ) 
 𝜐𝑞𝑗(𝑘 + 1) = 𝜐𝑞𝑗(𝑘) + 𝜂𝛿ℎ𝑞(𝑘) 𝑥𝑗(𝑘) (j=1,𝑚̅̅ ̅̅ ̅̅ ;q = 1, 𝑙̅̅ ̅̅ ) 
Bước 5: Tính sai số tích lũy: E = E + 
1
2
∑ (𝑑𝑖(𝑘) − 𝑦𝑖(𝑘))
2𝑛
𝑖=1 
Bước 6: 
 Nếu k < K thì gán k = k + 1 và trở lại bước 3. 
 Nếu k = K thì tiếp tục bước 7. 
Bước 7: 
Nếu E < 𝐸𝑚𝑎𝑥 thì kết thúc quá trình học. 
Nếu E ≥ 𝐸𝑚𝑎𝑥 thì gán E = 0, k = 1 và trở lại bước 3 bắt đầu một chu kỳ huấn luyện 
mới. 
2.1.5 Các phương pháp huấn luyện mạng. 
2.1.5.1 Học có giám sát. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 16 
Trong phương pháp học có giám sát, dữ liệu huấn luyện mạng thần kinh là tập hợp 
các mẫu(dữ liệu vào - dữ liệu ra) mong muốn. Ban đầu các trọng số của mạng được khởi 
động giá trị bất kì. Sai số e(k) = d(k) - y(k) được sử dụng để cập nhật trọng số của mạng. 
Hình 2.11: Học có giám sát. 
2.1.5.2 Học cũng cố. 
Phương pháp này học dựa trên thông tin đánh giá, chỉ biết ngõ ra thực của mạng là 
đúng hay sai. 
Hình 2.12: Học cũng cố. 
2.1.5.3 Học không có giám sát. 
Trong phương pháp học không có giám sát không có thông tin phản hồi cho biết 
ngõ ra của mạng là đúng hay sai. Mạng thần kinh phải tự phát hiện các đặc điểm, các 
mối tương quan, hay các nhóm của tập mẩu dữ liệu vào và mã hóa chúng thành dữ liệu 
ra của mạng. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 17 
Hình 2.13: Học không có giám sát. 
2.1.6 Thuật toán huấn luyện. 
2.1.6.1 Thuật toán Gradient Descent. 
Thuật toán Gradient Descent còn gọi là thuật toán suy giảm độ dốc. Thuật toán này 
cập nhập giá trị của nó tại “điểm dốc”. Phương pháp Gradient Descent hội tụ tốt cho 
những hàm toán đơn giản. 
Độ dốc của hàm được mô tả bởi các thông số và phương trình sau: 
xn+1 = xn - αgn 
Hình 2.14: Mô tả thuật toán Gradient Descent 
Ưu điểm: 
- Giảm nhanh ở các đoạn thẳng. 
Nhược điểm: 
- Tiếp cận điểm tối ưu chậm ở đoạn cong(hội tụ chậm) 
- Phụ thuộc vào việc chọn thông số α 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 18 
2.1.6.2 Thuật toán Newton. 
Phương pháp Newton là phương pháp dùng để tìm điểm cực tiểu của một hàm số 
thực. 
Hình 2.15: Mô tả hình học của phương pháp Newton 
Phương pháp Newton có thể bắt nguồn từ một điểm từ hình trên. 
Đạo hàm tại điểm 𝑥0 được tính như sau: 
0 0
0
0 1 0 1
( ) 0 ( )
'( )
f x f x
f x
x x x x
 
 
Từ đó có được 
0
1 0
0
( )
'( )
f x
x x
f x
  
Đặt 
0
0
( )
'( )
f x
x
f x
   
Chúng ta có được biểu thức sau: 
1 0x x x   . 
Bằng cách sử dụng 𝑥1 để tìm 𝑥2 và tiếp tục như vậy thì chúng ta có được công thức 
tổng quát như sau: 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 19 
1i ix x x    
Như vậy chúng ta có được các bước thực hiện phương pháp Newton như sau: 
Bước 1: Chọn điểm bắt đầu 𝑥0. 
Bước 2: Tăng chỉ số i cho đến khi đạt đến điểm hội tụ. 
Bước 3: Thực hiện bước lặp Newton 
0
0
( )
'( )
f x
x
f x
   
Bước 4: Cập nhật giá trị 
1i ix x x    . 
Ưu điểm : 
- Thuật toán đơn giản. 
- Tốc độ hội tụ nhanh. 
Nhược điểm: 
- Đối với những hàm phức tạp thì việc tìm đạo hàm trở nên khó hơn. 
- Phụ thuộc nhiều vào việc chọn giá trị 𝑥0 ban đầu. Nếu việc chọn giá trị 𝑥0 không 
hợp lý thì có thể làm cho quá trình hội tụ lâu hơn và kéo dài. 
Phương pháp Newton chỉ thực hiện tốt đối với những hàm đơn giản, hàm một biến. 
Đối với những hàm nhiều biến hoặc những hàm phức tạp thì phương pháp Newton 
không thể giải quyết được. Chính vì vậy, cần có phương pháp mới khắc phục được 
những nhược điểm của phương pháp Newton. Phương pháp Gauss - Newton dùng để 
tìm tổng bình phương của hàm nhiều biến hoặc những hàm phức tạp, khắc phục được 
nhược điểm của phương pháp Newton. 
2.1.6.3 Thuật toán Gauss – Newton. 
Thuật toán Gauss-Newton dùng để tối thiểu tổng bình phương của một hàm gốc. 
Đối với những vấn đề ở mức trung bình thì phương pháp Gauss-Newton hội tụ nhanh 
hơn nhiều so với phương pháp Gradient Descent. Giá trị điểm cập nhật: 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 20 
𝑥𝑛+1 = 𝑥𝑛 − 𝛼𝑛𝐻𝑛
−1𝑔𝑛 
Trong đó: 𝐻 = ∇2𝑓 ≈ 𝐽𝑇𝐽 
Bình phương tối thiểu phi tuyến: 𝑓(𝑥) = ∑ 𝑟𝑖
2𝑀
𝑖=1 
Hay tương đương với: 
𝜕
𝜕𝑥𝑘
∑ 𝑟𝑖
2
𝑖 = ∑ 2𝑟𝑖
𝜕𝑟𝑖
𝜕𝑥𝑘
𝑖 
𝜕2
𝜕𝑥𝑙𝜕𝑥𝑘
∑𝑟𝑖
2
𝑖
= 2
𝜕
𝜕𝑥𝑙
∑𝑟𝑖
𝑖
𝜕𝑟𝑖
𝜕𝑥𝑘
 = 2∑
𝜕𝑟𝑖
𝜕𝑥𝑘
𝑖
𝜕𝑟𝑖
𝜕𝑥𝑙
+ 2∑ 𝑟𝑖
𝜕2𝑟𝑖
𝜕𝑥𝑘𝜕𝑥𝑙
𝑖 
Chúng ta có thể viết lại như sau: 
𝐻(𝑥) = 2𝐽𝑇𝐽 + 2∑𝑟𝑖𝑅𝑖
𝑀
𝑖=1
𝐽(𝑥) = 
(
𝜕𝑟1
𝜕𝑥1
⋯
𝜕𝑟1
𝜕𝑥𝑁
⋮ ⋱ ⋮
𝜕𝑟𝑀
𝜕𝑥1
⋯
𝜕𝑟𝑀
𝜕𝑥𝑁)
∇𝑓(𝑥) = 2𝐽𝑇𝑟 
Ưu điểm: 
- Hội tụ nhanh(khi tiếp điểm gần min). 
- Không phụ thuộc vào lựa chọn thông số. 
- Không phải tính đạo hàm bậc 2. 
Nhược điểm: 
- Nhạy cảm với điểm bắt đầu. 
2.1.6.4 Thuật toán Levenberg Marquardt. 
Kết hợp Gradient Descent và Gauss-Newton, chúng ta có được hàm mới: 
𝐻(𝑥, λ) = 2𝐽𝑇𝐽 + λI 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 21 
𝑥𝑖+1 = 𝑥𝑖 − (𝐻 + λdiag[H])
−1. ∇𝑓(𝑥𝑖) 
- Khi λ nhỏ, H xấp xỉ ma trận Hessian Gauss-Newton. 
- Khi λ lớn, H xấp xỉ vector Gradient-descent. 
- Khi sai số giảm, giảm λ. 
- Khi sai số tăng, tăng λ. 
Thuật toán Levenberg - Marquardt kết hợp ưu điểm Gradient descent và Gauss 
Newton, hội tụ nhanh không phụ thuộc nhiều vào chọn λ. 
Thuật toán: 𝐻(𝑥, λ) = 2𝐽𝑇𝐽 + λI 
Bước 1: khởi động: λ = 0.001 
Bước 2: Tính: 𝛿𝑥 = −𝐻(𝑥, λ)−1𝑔 
Bước 3: Nếu 𝑓(𝑥𝑛 + 𝛿𝑥) > 𝑓(𝑥𝑛) thì tăng λ lên(gấp khoảng 10 lần) và quay lại 
bước 2. 
Bước 4: Ngược lại, nếu điều kiện ở bước 3 không thỏa thì giảm giá trị λ xuống(giảm 
khoảng 0.1 lần so với giá trị ban đầu), đặt 𝑥𝑛+1 = 𝑥𝑛 + 𝛿𝑥và quay lại bước 2. 
2.2 Cảm biến. 
2.2.1 Cấu tạo và nguyên lý hoạt động của thermocouple. 
Một cảm biến Thermocouple bao gồm 2 miếng kim loại khác nhau được nối lại với 
nhau tại một điểm, điểm đó được gọi là điểm làm việc. Đầu còn lại thì để hở và được 
kết nối với mạch tín hiệu điều hòa, thường thì mạch điện mày được làm bằng đồng, và 
mối nối giữa 2 thanh kim loại của Thermocouple với mạch tín hiệu điều hòa được gọi 
là điểm tham khảo. 
Hình 2.16: Cấu tạo của thermocouple. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 22 
Điện áp ra tại điểm tham khảo phụ thuộc vào nhiệt độ ở cả tại điểm làm việc và 
điểm tham khảo. Khi có sự tác động tại điểm làm việc thì sẽ xuất hiện sức điện động 
trên 2 bản kim loại A và B. Vì bản chất, tính chất của 2 bản kim loại là khác nhau nên 
sinh ra sự chênh lệch và chính sự chênh lệch này tạo nên 1 điện áp ngõ ra tại điểm tham 
khảo 
2.2.2 Phân tích khâu điều hòa tín hiệu. 
2.2.2.1 Khuếch đại. 
Là nhiệm cụ chính của khâu xử lý tín hiệu nhằm: tăng độ phân giải cho phép đo, 
tăng tỷ số tín hiệu/nhiễu (SNR). 
Tăng độ phân giải tối đa. VD: tín hiệu ngõ ra sensor là 0 - 10mV nếu đưa trực tiếp 
vào ADC 12bit với full scale 10V(độ phân giải 2.44mV) thì chỉ phân biệt được 4 mức. 
Tăng SNR: tín hiệu nhỏ ở ngõ ra của sensor cách xa phần cứng DAQ(hệ thu thập 
và xử lý dữ liệu) nếu được truyền trong môi trường nhiễu sẽ bị ảnh hưởng lớn của nhiễu. 
Nếu tín hiệu nhỏ(bị nhiễu) này được khuếch đại tại phần cứng DAQ sau khi được truyền 
qua môi trường nhiễu thì nhiễu trong tín hiệu sẽ tăng. Nếu nhiễu so sánh được tới tín 
hiệu cần đo(SNR thấp) sẽ dẫn đến sai số lớn cho phép đo và phép đo là vô nghĩa. Tăng 
SNR bằng cách khuếch đại tín hiệu nhỏ ở đầu ra sensor trước khi truyền. 
2.2.2.2 Tuyến tính hóa. 
Quan hệ giữa ngõ ra của sensor và tín hiệu đầu vào cần đo thường là phi tuyến. 
Phần mềm của hệ DAQ thường thực hiện chức năng tuyến tính hóa. 
Nếu mối quan hệ phi tuyến là dự đoán được và có tính lặp lại thì có thể tuyến tính 
hóa bằng phần cứng. 
Thông thường cần một bộ chuyển đổi riêng biệt, tuy nhiên sau khi đã được xử lý 
thì các tín hiệu đo lường này có quan hệ trực tiếp với đại lượng đo. 
2.2.2.3 Cách ly. 
Đối với tín hiệu số thì thường dùng Opto 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 23 
Hình 2.17: Cách ly bằng Opto. 
Đối với tín hiệu tương tự thì thường dùng phương pháp từ trường/điện trường. Điều 
chế tín hiệu điện áp thành tần số, sau đó truyền tín hiệu tần số bằng biến áp/tụ và biến 
đổi tần số thành điện áp ở đầu ra. 
Hình 2.18: Cách ly bằng biến áp. 
Cách ly giúp bảo vệ thiết bị phần cứng DAQ, PC cũng như quá trình quá độ, sét 
hay tĩnh điện cũng như hỏng hóc của các thiết bị cao áp. 
Các bộ bảo vệ quá áp được đặt ở đầu vào của khâu xử lý tín hiệu để bảo vệ khâu 
này. 
Cách ly còn đảm bảo vòng nối đất, điện áp cách chung không ảnh hưởng đến tín 
hiệu đo. 
2.2.2.4 Mạch lọc. 
Mạch lọc nhằm loại bỏ nhiễu ra khỏi tín hiệu cần đo trước khi tín hiệu này được 
khuếch đại và đưa và ADC. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 24 
Có thể lọc bằng phần cứng hoặc phần mềm. 
- Phần cứng: dùng các mạch lọc analog là rẻ nhất, với các thông số: tần số cắt, 
roll-off(độ dốc của đường cong biên độ theo tần số tại tần số cắt), Q-factor(quyết 
định độ lợi của mạch lọc tại tần số cộng hưởng và roll-off), cách tính toán mạch 
lọc. 
- Phần mềm: đọc tín hiệu nhiều lần hơn cần thiết và lấy trung bình. Phương pháp 
này loại bỏ được nhiễu hoàn toàn nếu các mẫu được trung bình hóa trong một 
chu kỳ của nhiễu. 
2.2.3 Các bước xây dựng bộ cảm biến mềm. 
Tổng quan các bước xây dựng nên một cảm biến mềm. 
Hình 2.19: Tổng quan các bước thiết kế bộ cảm biến mềm. 
2.2.3.1 Chọn dữ liệu và lọc. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 25 
Bước này là bước cơ bản để thiết kế nên 1 cảm biến thông minh. Vì cần có tập dữ 
liệu mẫu hoặc thông tin của đối tượng cần hướng đến thì chúng ta mới có thể định hướng 
được chức năng, mục đích sử dụng của cảm biến thông minh. 
Việc chọn dữ liệu phải là công việc cơ bản và người thiết kế mô hình cũng phải 
biết chọn dữ liệu sao cho dữ liệu được chọn phản ánh được tất cả hệ thống. 
Ví dụ như Sử dụng mạng nơ ron nhân tạo để tuyến tính hóa ngõ ra của cảm biến 
Thermocouple trong hệ thống thu thập dữ liệu thì yêu cầu dữ liệu cơ bản ở đây là chúng 
ta phải biết về cách thức hoạt động, môi trường hoạt động, giới hạn sử dụng, ngõ vào, 
ngõ ravv của Thermocouple. 
Trong thực tế, để thiết kế nên 1 cảm biến thông minh thì luôn nảy sinh ra những 
vấn đề như chi phí, tính an toàn, mức độ phổ biến trong công nghiệp. Giá thành của cảm 
biến thông minh được tạo ra có phù hợp với yêu cầu của bên sử dụng không? Nó có an 
toàn không? Tuổi thọ nó cao không? Mức độ biết đến bởi người sử dụng thì như thế 
nào?...vv. 
 Tất cả những phát sinh này lại đưa ra những khó khăn cho người thiết kế cảm biến 
thông minh. Người thiết kế phải đối diện với các vấn đề như dữ liệu bị cũ, ảnh hưởng 
nhiễu, ngõ ra tuyến tính của cảm biếnvv. 
 Vậy để có thể giúp những người thiết kế thì phải có những người am hiểu những 
vấn đề này, có thể gọi họ là những người có kinh nghiệm hay chuyên gia và vai trò của 
họ trong những vấn đề này là hết sức cần thiết. Những chuyên gia này sẽ cung cấp thông 
tin liên quan như thứ tự, cấu trúc của hệ thống, thời gian trì hoãn, thời gian lấy mẫu, dãy 
hoạt động, tính phi tuyến của hệ thống vv. Nếu có sự trợ giúp của những chuyên gia 
này thì công việc thiết kế cảm biến thông minh không thể thực hiện được và những tập 
dữ liệu mẫu sẽ chỉ được khai thác một phần. 
2.2.3.2 Chọn kiểu hồi quy và cấu trúc mô hình. 
Cấu trúc mẫu cũng là 1 phần được để ý đến trong các bước thiết kế. Có nhiều lý do 
thiết kế cảm biến ảnh hưởng đến cấu trúc mẫu này. Ví dụ đối với cấu trúc thô, đơn giản 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 26 
thì yêu cầu chỉ là đạt đến được trạng thái ổn định thì kiểu tuyến tính có thể là sự lựa 
chọn tốt nhất vì tính đơn giản của nó. 
Khi sử dụng mô hình trên thì có nhiều vấn đề mà chúng ta cần phải bàn tới, tùy 
thuộc vào đối tượng yêu cầu của cảm biến thông minh. Chẳng hạn, chúng ta lấy ví dụ 
như việc thiết kế cảm biến để kiểm tra sao lưu phần cứng của thiết bị nào đó thì chúng 
ta không thể dùng tập mẫu dữ liệu cũ được. Đơn giản là vì dữ liệu trên một thiết bị nào 
đó như máy tính bảng hoặc điện thoại thì luôn được thay đổi và cập nhật. Do đó chúng 
ta có thể sử dụng khối thứ 3 trong cấu hình thiết kế, tức là “Chọn kiều hồi quy và cấu 
trúc mô hình” nhằm có thể cập nhật được giá trị hiện tại của dữ liệu để lưu cho thích 
hợp. 
Trong thực tế thì những tập mẫu dữ liệu cũ có thể được sử dụng hoặc đề xuất trong 
quá trình thiết kế. Ở đây tính hồi tiếp là trong mỗi lần kết quả của dữ liệu ở ngõ ra thì 
phần dữ liệu được chọn phân tích. Việc phân tích này nhằm để có thể thay đổi thông số 
của hệ thống sao cho phù hợp với yêu cầu. 
2.2.3.3 Thành lập mô hình.(ước lượng mô hình và chuẩn hóa mô hình) 
Bước cuối cùng trong mô hình thiết kế cảm biến thông minh là thành lập mô hình. 
Thành lập mô hình là một giai đoạn được yêu cầu để kiểm tra liệu cảm biến có tương 
thích hoặc phù hợp với môi trường hoạt động của nó hay không. 
 Trong giai đoạn kiểm tra mô hình của cảm biến thông minh thì có 1 nguyên tắc 
mà chúng ta phải luôn chú ý đến đó là dữ liệu dùng cho tính giới hạn phải với dữ liệu 
dùng cho tính nhận dạng. Trong thực tế thì 1 kiểu mô hình phải có những đặc tính có 
thể thỏa mãn trong việc học dữ liệu, những đặc tính này có thể giúp mô hình hoạt động 
hiệu quả hơn tránh được các lỗi làm giảm hiệu quả của mô hình. Những lỗi này có thể 
được kiểm tra và đếm trong quá trình hoạt động. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 27 
CHƯƠNG 3: XÂY DỰNG ĐỀ TÀI. 
3.1 Thu thập dữ liệu. 
Dữ liệu để huấn luyện cho mạng lấy từ datasheet của thermocouple type K, cứ cách 
5 độ thì ta lấy một mẫu. Tổng cộng ta có 329 mẫu với dải nhiệt độ từ 270℃ đến 1370℃. 
 Toàn bộ tập mẫu để huấn luyện được trình bày ở phụ lục của báo cáo. 
3.2 Tiền xử lý dữ liệu. 
Tiền xử lý dữ liệu liên quan đến việc phân tích và chuyển đổi giá trị các tham số 
đầu vào, đầu ra mạng để tối thiểu hóa nhiễu, nhấn mạnh các đặc trưng quan trọng, phát 
hiện các xu hướng và cân bằng phân bố của dữ liệu. Bởi vì, mạng neural dùng để học 
mẫu từ tập dữ liệu, sự biểu diễn dữ liệu có vai trò quyết định trong việc học các mẫu 
thích hợp. Các dữ liệu dùng cho đầu vào, đầu ra của mạng nơron hiếm khi được đưa trực 
tiếp vào mạng dưới dạng dữ liệu thô. Chúng thường được chuẩn hóa vào khoảng giữa 
cận trên và cận dưới của hàm chuyển (thường là giữa đoạn [0;1] hoặc [-1;1]). 
Trong việc chuyển đổi dữ liệu, dữ liệu được chuyển đổi hoặc hợp nhất thành những 
dạng phù hợp cho việc huấn luyện. Chuyển đồi dữ liệu gồm những việc sau: 
- Làm mịn: khử nhiễu cho dữ liệu. Có thể dùng các kỹ thuật như binning, 
regression, clustering. 
- Tập hợp dữ liệu: tóm tắt, xây dựng các khối dữ liệu (data cube). 
- Tổng quát hóa dữ liệu: các dữ liệu thô hoặc ở cấp thấp sẽ được thay thế bằng 
những khái niệm cao hơn thông qua việc sử dụng 1 hệ thống phân cấp khái niệm. 
- Chuẩn hóa dữ liệu: các dữ liệu thuộc tính sẽ được đưa về 1 khoảng nhỏ, như -1 
đến 1, hoặc 0 đến 1. 
- Xây dựng thuộc tính mới: xây dựng thuộc tính mới và đưa vào tập thuộc tính 
nhằm phục vụ quá trình huấn luyện. 
3.3 Xây dựng mạng nơ ron. 
3.3.1 Chọn số lớp cho mạng nơ ron. 
Số lớp của mạng nơ-ron phụ thuộc vào số lượng tập dữ liệu đầu vào. Do đó phải 
thực nghiệm (tăng hoặc giảm số lớp, chọn số lớp ẩn cho phù hợp) để có thể xác định 
được số lớp, số nơ-ron lớp ẩn bao nhiêu là tối ưu nhất. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 28 
Cấu trúc mạng 2 lớp: gồm một lớp ẩn và một lớp ra. 
Hình 3.1: Cấu trúc mạng 2 lớp. 
Cấu trúc mạng 3 lớp: gồm 2 lớp ẩn và 1 lớp ra. 
Hình 3.2: Cấu trúc mạng 3 lớp. 
3.3.2 Chọn số nơ ron lớp ẩn mạng 2 lớp. 
Số nơ ron trong một lớp cũng ảnh hưởng không nhỏ tới quá trình huấn luyện, trong 
trường hợp quá nhiều nơ ron trong một lớp có thể dẫn đến hiện tượng quá 
khớp(overfitting). 
Hình 3.3: Chọn số lớp ẩn. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 29 
CHƯƠNG 4: TỔNG KẾT. 
4.1 Kết quả của đề tài. 
Kết quả của bài báo cáo này là tìm được trọng số W và xây dựng phần mềm để 
huấn luyện cho mạng nơ-ron. 
Giá trị W được xem là kết quả đạt được của việc huấn luyện bởi vì từ giá trị W này 
thì chúng ta có thể huấn luyện được theo yêu cầu của ngõ ra mong muốn 
4.2 Hạn chế của đề tài. 
Do thời gian và kinh phí không đủ nên chưa đóng gói được thiết bị thực tế. 
4.3 Hướng phát triển. 
Tiếp tục hoàn thiện 1 cảm biến thông minh hoàn chỉnh và mở rộng mạng huấn 
luyện cho nhiều cảm biến có ngõ ra phi tuyến như vậy. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 30 
TÀI LIỆU THAM KHẢO 
[1] – Huỳnh Thái Hoàng, “Hệ Thống Điều Khiển Thông Minh”, NXB 
ĐHQGTPHCM, năm 2006 
[2] – Jon Wilson, SenSor Technology HandBook 
[3] – Luigi Fortura, Salvatore Graziani, Alessandro Rizzo and M.Gabriella Xibilia, 
Soft Sensor for Monitoring and Control of Industrial Processes 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 31 
PHỤ LỤC 
Code huấn luyện. 
Huấn luyện mạng 3 lớp 
close all, clear all clc, format compact 
inputs = xlsread('input')'/50 % input vector (6-
dimensional pattern) 
outputs = xlsread('output')'/50 % corresponding target 
output vector 
% create network 
net = network( ... 
1, ... % numInputs, number of inputs, 
3, ... % numLayers, number of layers 
[1; 0; 0], ... % biasConnect, numLayers-by-1 Boolean 
vector, 
[1; 0; 0], ... % inputConnect, numLayers-by-numInputs 
Boolean matrix, 
[0 0 0 ; 1 0 0; 0 1 0], ... % layerConnect, numLayers-
by-numLayers Boolean matrix 
[0 0 1] ... % outputConnect, 1-by-numLayers Boolean 
vector 
); 
% View network structure 
%view(net); 
% number of hidden layer neurons 
net.layers{1}.size =5; 
% number of hidden layer neurons 
net.layers{2}.size = 5; 
% hidden layer transfer function 
net.layers{1}.transferFcn = 'logsig'; 
net.layers{2}.transferFcn = 'logsig'; 
%view(net); 
net = configure(net,inputs,outputs); 
view(net); 
% initial network response without training 
initial_output = net(inputs) 
% network training 
net.trainFcn = 'trainlm'; 
net.performFcn = 'mse'; 
net = train(net,inputs,outputs); 
% network response after training 
final_output = net(inputs) 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 32 
plot(inputs,outputs,'r',final_output,outputs) 
Huấn luyện mạng 2 lớp 
close all, clear all clc, format compact 
inputs = xlsread('input')'/50 % input vector (6-
dimensional pattern) 
outputs = xlsread('output')'/50 % corresponding target 
output vector 
% create network 
net = network( ... 
1, ... % numInputs, number of inputs, 
2, ... % numLayers, number of layers 
[1; 0], ... % biasConnect, numLayers-by-1 Boolean 
vector, 
[1; 0], ... % inputConnect, numLayers-by-numInputs 
Boolean matrix, 
[0 0 ; 1 0], ... % layerConnect, numLayers-by-
numLayers Boolean matrix 
[0 1] ... % outputConnect, 1-by-numLayers Boolean 
vector 
); 
% View network structure 
%view(net); 
% number of hidden layer neurons 
net.layers{1}.size =5; 
% number of hidden layer neurons 
net.layers{2}.size = 5; 
% hidden layer transfer function 
net.layers{1}.transferFcn = 'logsig'; 
net.layers{2}.transferFcn = 'logsig'; 
%view(net); 
net = configure(net,inputs,outputs); 
view(net); 
% initial network response without training 
initial_output = net(inputs) 
% network training 
net.trainFcn = 'trainlm'; 
net.performFcn = 'mse'; 
net = train(net,inputs,outputs); 
% network response after training 
final_output = net(inputs) 
plot(inputs,outputs,'r',final_output,outputs) 
Bảng thay đổi giá trị điện áp của thermocouple. 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 33 
STT Nhiệt độ Giá trị điện áp ra của thermocouple 
1 -270 -6.458 
2 -265 -6.452 
3 -260 -6.441 
4 -255 -6.425 
5 -250 -6.404 
6 -245 -6.377 
7 -240 -6.344 
8 -235 -6.306 
9 -230 -6.262 
10 -225 -6.213 
11 -220 -6.158 
12 -215 -6.099 
13 -210 -6.035 
14 -205 -5.965 
15 -200 -5.891 
16 -195 -5.813 
17 -190 -5.73 
18 -185 -5.642 
19 -180 -5.55 
20 -175 -5.454 
21 -170 -5.354 
22 -165 -5.25 
23 -160 -5.141 
24 -155 -5.029 
25 -150 -4.913 
26 -145 -4.793 
27 -140 -4.669 
28 -135 -4.542 
29 -130 -4.411 
30 -125 -4.276 
31 -120 -4.138 
32 -115 -3.997 
33 -110 -3.852 
34 -105 -3.705 
35 -100 -3.554 
36 -95 -3.4 
37 -90 -3.243 
38 -85 -3.083 
39 -80 -2.92 
40 -75 -2.755 
41 -70 -2.587 
42 -65 -2.416 
43 -60 -2.243 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 34 
44 -55 -2.067 
45 -50 -1.889 
46 -45 -1.709 
47 -40 -1.527 
48 -35 -1.343 
49 -30 -1.156 
50 -25 -0.968 
51 -20 -0.778 
52 -15 -0.586 
53 -10 -0.392 
54 -5 -0.197 
55 0 0 
56 5 0.198 
57 10 0.397 
58 15 0.597 
59 20 0.798 
60 25 1 
61 30 1.203 
62 35 1.407 
63 40 1.612 
64 45 1.817 
65 50 2.023 
66 55 2.23 
67 60 2.436 
68 65 2.644 
69 70 2.851 
70 75 3.059 
71 80 3.267 
72 85 3.474 
73 90 3.682 
74 95 3.889 
75 100 4.096 
76 105 4.303 
77 110 4.509 
78 115 4.715 
79 120 4.92 
80 125 5.124 
81 130 5.328 
82 135 5.532 
83 140 5.735 
84 145 5.937 
85 150 6.138 
86 155 6.339 
87 160 6.54 
88 165 6.741 
89 170 6.941 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 35 
90 175 7.14 
91 180 7.34 
92 185 7.54 
93 190 7.739 
94 195 7.939 
95 200 8.138 
96 205 8.338 
97 210 8.53 
98 215 8.739 
99 220 8.94 
100 225 9.141 
101 230 9.343 
102 235 9.545 
103 240 9.747 
104 245 9.95 
105 250 10.153 
106 255 10.357 
107 260 10.561 
108 265 10.766 
109 270 10.971 
110 275 11.176 
111 280 11.382 
112 285 11.588 
113 290 11.795 
114 295 12.001 
115 300 12.209 
116 305 12.416 
117 310 12.624 
118 315 12.831 
119 320 13.04 
120 325 13.248 
121 330 13.457 
122 335 13.665 
123 340 13.874 
124 345 14.084 
125 350 14.293 
126 355 14.503 
127 360 14.713 
128 365 14.923 
129 370 15.133 
130 375 15.343 
131 380 15.554 
132 385 15.764 
133 390 15.975 
134 395 16.186 
135 400 16.397 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 36 
136 405 16.608 
137 410 16.82 
138 415 17.031 
139 420 17.243 
140 425 17.455 
141 430 17.667 
142 435 17.87 
143 440 18.091 
144 445 18.303 
145 450 18.516 
146 455 18.728 
147 460 18.941 
148 465 19.154 
149 470 19.366 
150 475 19.579 
151 480 19.792 
152 485 20.005 
153 490 20.218 
154 495 20.431 
155 500 20.644 
156 505 20.857 
157 510 21.071 
158 515 21.284 
159 520 21.497 
160 525 21.71 
161 530 21.924 
162 535 22.137 
163 540 22.35 
164 545 22.563 
165 550 22.776 
166 555 22.99 
167 560 23.203 
168 565 23.416 
169 570 23.629 
170 575 23.842 
171 580 24.055 
172 585 24.267 
173 590 24.48 
174 595 24.693 
175 600 24.905 
176 605 25.118 
177 610 25.33 
178 615 25.543 
179 620 25.755 
180 625 25.967 
181 630 26.179 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 37 
182 635 26.39 
183 640 26.602 
184 645 26.814 
185 650 27.025 
186 655 27.236 
187 660 27.447 
188 665 27.658 
189 670 27.869 
190 675 28.079 
191 680 28.289 
192 685 28.5 
193 690 28.71 
194 695 28.919 
195 700 29.129 
196 705 29.338 
197 710 29.548 
198 715 29.757 
199 720 29.965 
200 725 30.174 
201 730 30.382 
202 735 30.59 
203 740 30.798 
204 745 31.006 
205 750 31.213 
206 755 31.421 
207 760 31.628 
208 765 31.834 
209 770 32.041 
210 775 32.247 
211 780 32.453 
212 785 32.659 
213 790 32.865 
214 795 33.07 
215 800 33.275 
216 805 33.48 
217 810 33.685 
218 815 33.889 
219 820 34.093 
220 825 34.297 
221 830 34.501 
222 835 34.704 
223 840 34.908 
224 845 35.11 
225 850 35.313 
226 855 35.516 
227 860 35.718 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 38 
228 865 35.92 
229 870 36.121 
230 875 36.323 
231 880 36.524 
232 885 36.725 
233 890 36.925 
234 895 37.126 
235 900 37.326 
236 905 37.526 
237 910 37.725 
238 915 37.925 
239 920 38.124 
240 925 38.323 
241 930 38.522 
242 935 38.72 
243 940 38.918 
244 945 39.116 
245 950 39.314 
246 955 39.511 
247 960 39.708 
248 965 39.905 
249 970 40.101 
250 975 40.298 
251 980 40.494 
252 985 40.69 
253 990 40.885 
254 995 41.081 
255 1000 41.276 
256 1005 41.47 
257 1010 41.665 
258 1015 41.859 
259 1020 42.053 
260 1025 42.247 
261 1030 42.44 
262 1035 42.633 
263 1040 42.826 
264 1045 43.019 
265 1050 43.211 
266 1055 43.403 
267 1060 43.595 
268 1065 43.787 
269 1070 43.987 
270 1075 44.169 
271 1080 44.359 
272 1085 44.45 
273 1090 44.74 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 39 
274 1095 44.929 
275 1100 45.119 
276 1105 45.308 
277 1110 45.497 
278 1115 45.685 
279 1120 45.873 
280 1125 46.061 
281 1130 46.249 
282 1135 46.436 
283 1140 46.623 
284 1145 46.809 
285 1150 46.995 
286 1155 47.181 
287 1160 47.367 
288 1165 47.552 
289 1170 47.737 
290 1175 47.921 
291 1180 48.105 
292 1185 48.289 
293 1190 48.473 
294 1195 48.656 
295 1200 48.838 
296 1205 49.021 
297 1210 49.202 
298 1215 49.384 
299 1220 49.565 
300 1225 49.746 
301 1230 49.926 
302 1235 50.106 
303 1240 50.286 
304 1245 50.465 
305 1250 50.644 
306 1255 50.822 
307 1260 51 
308 1265 51.178 
309 1270 51.355 
310 1275 51.532 
311 1280 51.708 
312 1285 51.885 
313 1290 52.06 
314 1295 52.235 
315 1300 52.41 
316 1305 52.585 
317 1310 52.759 
318 1315 52.932 
319 1320 53.106 
Báo cáo NCKH GVHD: Ks. Lê Mạnh Tuấn 
Trang | 40 
320 1325 53.279 
321 1330 53.451 
322 1335 53.623 
323 1340 53.795 
324 1345 53.967 
325 1350 54.138 
326 1355 54.308 
327 1360 54.479 
328 1365 54.649 
329 1370 54.819