So với các phương pháp khác, phương pháp thống kê Bayes lập luận theo kinh
nghiệm được tích lũy áp dụng vào mô hình phân loại đối tượng linh hoạt hơn, phù hợp
với đặc trưng của bài toán hơn. Các cơ chế ước lượng cũng gần gũi với cách suy luận
thông thường chính vì vậy mà các kết quả phân loại tương đối giống với cách phân
loại thông thường.
50 trang |
Chia sẻ: lylyngoc | Lượt xem: 13926 | Lượt tải: 5
Bạn đang xem trước 20 trang tài liệu Luận văn -Thuật toán Bayes và ứng dụng, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
tơ đặc trưng của 2 lớp. Sau đó ta tính các xác
suất p(x|wi) , là xác suất để đối tượng thuộc lớp wi có đặc trưng là x gọi là
likelihood of x tạm dịch là khả năng xảy ra x hay là hợp lý của x. Thực tế ta dùng
công thức Bayes:
(1-3)
Với:
Lưu ý rằng P(wi) và P(wi|x) là các xác suất rời rạc, trái lại p(x|wi) và p(x) là
các giá trị của hàm mật độ xác suất. Để ý rằng khi so sánh (1-2a) ta có giá trị chung là
p(x) do đó ta viết lại:
if p(x|w1) P(w1) > p(x|w2)P(w2) then x w1 else x w2. (1-4)
Hay là:
then x w1 else x w2. (1-4a)
Trong công thức (1-4a) thì v(x) gọi là tỷ số hợp lý (likelihood ratio)
1
( ) ( | w ) (w )
c
i i
i
p x p x P
( | w ) (w )(w | )
( )
i i
i
p x Pp x
p x
1 2
2 1
( | w ) (w )( )
( | w ) (w )
p x pv x
p x p
Thuật toán Bayes và ứng dụng
7
Hình 1: Biểu đồ của đặc trưng N cho hai lớp học của các nút chai. Giá trị
ngưỡng N = 65 được đánh dấu bằng một đường thẳng đứng
Giả sử rằng mỗi nút chai chỉ có một đặc trưng là N, tức là vec tơ đặc trưng là x = [N],
giả sử có một nút chai có x = [65].
Từ đồ thị ta tính được các xác suất likelihood:
p(x|w1) = 20/24 = 0.833 → P(w1) p(x|w1) = 0.333 (1-5a)
p(x|w2) = 16/23 = 0.696 → P(w2) p(x|w1) = 0.418 (1-5b)
Ta sẽ phân x = [65] vào lớp w2 mặc dù hợp lý(likelihood) của w1 lớn hơn
của w2
Hình 2 minh họa ảnh hưởng của việc điều chỉnh ngưỡng xác suất tiên nghiệm
đến các hàm mật độ xác suất.
Xác suất tiên nghiệm đồng nhất (equal prevalences). Với các hàm mật độ
xác suất đồng nhất, ngưỡng quy định là một nửa khoảng cách đến phần tử
trung bình. Số lượng các trường hợp phân lớp sai tương ứng với vùng được
tô đậm. Đây là vùng mà khoảng cách phân lớp là nhỏ nhất.
Xác suất tiên nghiệm của w1 lớn hơn của w2. Ngưỡng quyết định thay thế
các lớp có xác suất tiên nghiệm nhỏ hơn. Vì vậy giảm số trường hợp của lớp
có xác suất tiên nghiệm cao dường như có vẻ thuận tiện.
Thuật toán Bayes và ứng dụng
8
Hình 2: Xác suất tiên nghiệm đồng nhất (a), không đồng nhất (b).
Chúng ta thấy rằng thật sự độ lệch ngưỡng quyết định đã dẫn đến lớp w2 tốt
hơn lớp w1. Điều này nghe có vẻ hợp lý kể từ khi mà bây giờ lớp w2 xuất hiện thường
xuyên hơn. Khi độ sai toàn phần tăng lên điều kỳ lạ là sự ảnh hưởng của xác suất tiên
nghiệm là có lợi. Câu trả lời cho câu hỏi này là liên quan đến chủ đề phân lớp mạo
hiểm, mà sẽ được trình bày ngay bây giờ.
Chúng ta giả định rằng giá của một nút chai (cork stopper) thuộc lớp w1 là
0.025£, lớp w2 là 0.015£. Giả sử là các nút chai lớp w1 được dùng cho các chai đặc
biệt, còn các nút chai lớp w2 thì dùng cho các chai bình thường.
Nếu ta phân lớp sai một nút chai lớp w1 thì sẽ bị mất 0.025-0.015=0.01£.
Nếu phân lớp sai một nút chai lớp w2 thì dẫn đến nó sẽ bị loại bỏ và sẽ bị mất 0.015£.
Ta ký hiệu:
SB - Hành động của việc sử dụng một nút chai(cork stopper) để phân
cho loại chai đặc biệt.
NB - Hành động của việc sử dụng một nút chai(cork stopper) để phân
cho loại chai bình thường.
w1 = S (siêu lớp); w2 = A (lớp trung bình)
Thuật toán Bayes và ứng dụng
9
Hình 3: Kết quả phân lớp của cork stoppers với xác suất tiên nghiệm không đồng
nhất: 0.4 cho lớp w1 và 0.6 cho lớp w2
Định nghĩa:
λij = λ(αi | wj ) là độ mất mát với hành động αi khi mà lớp đúng là wj, với
αi{SB, NB}.
λ11 = λ(α1 | w1 ) = λ(SB | S) = 0,
λ12 = λ(α1 | w2 ) = λ(SB | A) = 0.015,
λ21 = λ(α2 | w1 ) = λ(NB | S) = 0.01,
λ22 = λ(α2 | w2 ) = λ(NB | A) = 0.
Thuật toán Bayes và ứng dụng
10
Chúng ta có thể sắp xếp λij thành ma trận hao phí Λ.
Λ = (1-6)
Vì thế độ mất mát với hành động sử dụng một nút chai (mô tả bởi vectơ đặc
trưng x) và phân vào cho những chai đặc biệt có thể được biểu thị như sau:
R(α1 | x) = R(SB | x) = λ(SB | S)P(S | x) + λ(SB | A)P(A | x) (1-6a)
R(α1 | x) = 0.015 P(A | x)
Tương tự cho trường hợp nếu phân cho những chai thông thường:
R(α2 | x) = R(NB | x) = λ(NB | S)P(S | x) + λ(NB | A)P(A | x) (1-6b)
R(α2 | x) = 0.01P(S | x)
Chúng ta giả định rằng đánh giá rủi ro chỉ chịu ảnh hưởng từ quyết định sai.
Do vậy một quyết định chính xác sẽ không gây ra thiệt hại λii=0, như trong (1-6).
Nếu thay vì 2 lớp chúng ta có c lớp thì sự mất mát ứng với một hành động αi sẽ là:
(1-6c)
Chúng ta quan tâm đến việc giảm thiểu mức rủi ro trung bình tính cho một
lượng lớn nút chai bất kỳ. Công thức Bayes cho rủi ro nhỏ nhất làm được điều này
bằng cách cực tiểu hóa các rủi ro có điều kiện R(αi | x).
Giả sử ban đầu rằng các quyết định sai lầm có cùng một mất mát, chúng có tỉ lệ
với một đơn vị mất mát:
(1-7a)
Trong trường hợp này từ tất cả các xác suất hậu nghiệm đều tăng lên một,
chúng ta cần phải cực tiểu hóa:
(1-7b)
0 0.015
0.01 0
i
1
( | ) ( | ) ( | )
c
i j j
j
R x P x
i
0
( | )
1ij j
if i j
if j j
( | ) ( | ) 1 ( | )i j j
i j
R x P x P x
Thuật toán Bayes và ứng dụng
11
Điều này tương đương với việc chúng ta cực đại P(wi | x), luật quyết định
Bayes cho rủi ro cực tiểu tương ứng với việc tổng quát hóa vấn đề:
Phân lớp wi nếu P(wi | x) > P(wj | x), ij (1-7c)
Tóm lại: luật quyết định Bayes cho rủi ro cực tiểu, khi sự phân lớp đúng thì không bị
mất mát và nếu như phân lớp sai thì có mất mát, ta cần phải chọn được lớp có xác
suất hậu nghiệm là cức đại.
Hàm quyết định cho lớp wi là:
gi(x) = P(wi | x) (4-18d)
Bây giờ hãy xem xét các tình huống khác nhau của các thiệt hại xảy ra cho
những quyết định sai lầm, để cho đơn giản giả sử c = 2. Dựa vào các biểu thức (1-6a)
và (1-6b) thật dễ nhận thấy rằng một nút chai sẽ thuộc lớp w1 nếu:
<
Hay là (1-8)
Vì thế ngưỡng quyết định so với tỷ số hợp lý(likelihood) thì nó nghiêng về sự
mất mát. Ta có thể cài đặt luật quyết định Bayes như hình 5.
Tương tự chúng ta có thể điều chỉnh xác suất tiên nghiệm như sau:
; (1-8a)
12 2 1
21 1 2
( ) ( | )
( ) ( | )
P w P x w
P w P x w
12 2( | )P x 21 1( | )P x
* 21 1
1
21 1 12 2
( )( )
( ) ( )
P wP w
P w P w
* 12 22
21 1 12 2
( )( )
( ) ( )
P wP w
P w P w
Thuật toán Bayes và ứng dụng
12
Với sự mất mát λ12 = 0.015 và λ21 = 0.01, sử dụng xác suất tiên nghiệm ở
trên ta được P*(w1) = 0.308 và P*(w2) = 0.692. Sự thiệt hại sẽ là lớn hơn nếu như
phân lớp sai lớp w2 do đó cần tăng P*(w2) lên so với P*(w1). Kết quả của việc điều
chỉnh là giảm số lượng các phần tử thuộc lớp w2 bị phân lớp sai thành w1. Xem kết
quả phân lớp ở hình ở hình 6.
Ta có thể tính giá trị rủi ro trung bình trường hợp có 2 lớp:
(1-9)
1 2
12 2 21 1 12 12 21 21( | ) ( ) ( | ) ( )
R R
R P w x p x dx P w x p x dx Pe Pe
Thuật toán Bayes và ứng dụng
13
R2 và R2 là miền quyết định của lớp 1 và lớp 2 , còn Peij là xác suất sai
số của sự quyết định lớp là i khi mà lớp đúng là j
Chúng ta hãy sử dụng tập dữ liệu huấn luyện để đánh giá những sai số này,
Pe12=0.1 và Pe21=0.46 (xem hình 6). Rủi ro trung bình đối với mỗi nút chai bây giờ
là:
R = 0.015Pe12 + 0.01Pe21 = 0.0061Є.
Với Ω là tập các lớp ta có công thức (1-9) tổng quát:
(1-9a)
Luật quyết định Bayes không phải là lựa chọn duy nhất trong thống kê phân
lớp. Cũng lưu ý rằng, trong thực tế một trong những cố gắng để giảm thiểu rủi ro trung
bình là sử dụng ước lượng của hàm mật độ xác suất tính được từ một tập dữ liệu huấn
luyện, như chúng ta đã làm ở trên cho cork Stoppers. Nếu chúng ta có những căn cứ để
tin rằng các hàm phân phối xác suất thỏa mãn tham số mẫu, thì ta thay thế việc tính
các tham biến thích hợp từ tập huấn luyện. Hoặc là chúng ta cũng có thể sử dụng
phương pháp cực tiểu hóa rủi ro theo kinh nghiệm (empirical risk minimization
(ERM)), nguyên tắc là cực tiểu hóa rủi ro theo kinh nghiệm thay vì rủi ro thực tế.
2.3 Phân lớp Bayes chuẩn tắc
Cho đến giờ chúng ta vẫn chưa giả định đặc trưng của phân phối mẫu cho
likelihoods. Tuy nhiên, mô hình chuẩn tắc là một giả định hợp lý. Mô hình chuẩn tắc
có liên quan đến định lý giới hạn trung tâm nổi tiếng, theo định lý này thì tổng của một
lượng lớn các biến ngẫu nhiên độc lập và phân phối đồng nhất sẽ có phân phối hội tụ
về luật chuẩn. Thực tế ta có được một xấp xỉ đến luật chuẩn tắc, thậm chí với cả một
số lượng tương đối nhỏ được thêm vào các biến ngẫu nhiên. Đối với các đặc trưng có
thể được coi là kết quả của việc bổ sung các biến độc lập, thường thì giả định là có thể
chấp nhận.
Likelihood chuẩn tắc của lớp ωi được biểu diễn bởi hàm mật độ xác suất:
( ( ) | ) ( , ) ( ( ) | ) ( , ) ( )
i i
i i i i
X X
R x P x dx x P x p x dx
Thuật toán Bayes và ứng dụng
14
µi và ∑i là các tham số phân phối, đến giờ thì ta đã sử dụng các ước lượng
mẫu mi và Ci.
Hình 7 minh họa phân phối chuẩn trong trường hợp có hai chiều.
Cho một tập huấn luyện có n mẫu T={x1, x2, … xn} được mô tả bởi một phân
phối với hàm mật độ xác suất là p(T | θ), θ là một vec tơ tham số của phân phối
(chẳng hạn như vec tơ trung bình của phân phối chuẩn). Một cách đáng chú ý tính
được ước lượng mẫu của vectơ tham biến là cực đại hóa hàm mật độ xác suất p(T | θ),
có thể coi dây là một hàm của θ gọi là likelihood of θ cho tập huấn luyện. Giả sử rằng
mỗi mẫu là đưa vào độc lập từ một tập vô hạn, chúng ta có thể biểu thị likelihood như
sau:
Khi sử dụng ước lượng hợp lý cực đại (maximum likelihood estimation) của
các biến phân phối thì nó thường dễ dàng hơn là tính cưc đại của ln[p(T|θ)], điều này
là tương đương nhau. Với phân phối Gauss ước lượng mẫu được cho bởi các công
thức (1-10a) và (1-10b) chính là ước lượng hợp lý cực đại và nó sẽ hội tụ về một giá trị
thực.
1
( | ) ( | )
n
i
i
p T p x
Thuật toán Bayes và ứng dụng
15
Như có thể nhìn thấy từ (1-10), các bề mặt của mật độ xác suất đồng nhất với
hợp lý chuẩn (normal likelihood) thỏa mãn Mahalanobis metric:
Bây giờ chúng ta tiếp tục tính hàm quyết định cho các đặc trưng của phân phối
chuẩn:
gi(x) = P(ωi | x) = P(ωi) p(x | ωi) (1-11)
biến đổi logarit ta được:
Bằng cách sử dụng những hàm quyết định, rõ ràng phụ thuộc Mahalanobis
metric, ta có thể xây dựng phân lớp Bayes với rủi ro nhỏ nhất, đây là phân lớp tối ưu.
Chú ý rằng công thức (1-11b) sử dụng giá trị thật của khoảng cách Mahalanobis, trong
khi mà trước đó chúng ta sử dụng ước lượng của khoảng cách này.
Với trường hợp covariance đồng nhất cho tất cả các lớp (∑i=∑) và bỏ qua các
hằng số ta được:
(1-11c) 11( ) ( ) ( ) ln ( )
2i i i i
h x x x P
Thuật toán Bayes và ứng dụng
16
Với bài toán 2 lớp, biệt số d(x) =h1(x)-h2(x) là dễ đàng tính toán:
Qua đó ta có được hàm quyết định tuyến tính
Hai lớp phân biệt với phân phối chuẩn, xác suất tiên nghiệm đồng nhất và
covariance và vẫn còn có một công thức rất đơn giản cho xác suất của lỗi của phân
lớp:
Thuật toán Bayes và ứng dụng
17
bình phương của khoảng cách Bhattacharyya, một khoảng cách Mahalanobis
của sai phân trung bình, thể hiện tính dễ tách lớp.
Hình 8 thể hiện dáng điệu của Pe với sự tăng dần của bình phương khảng cách
Bhattacharyya. Hàm này giảm dần theo cấp số mũ và nó hội tụ tiệm cận tới 0. Vì vậy
thật khó để giảm sai số phân lớp khi giá trị này là nhỏ.
Lưu ý rằng ngay cả khi các phân phối mẫu không phải là phân phối chuẩn, miễn
là chúng đối xứng và phải tuân theo Mahalanobis metric, thì chúng ta sẽ thu được mặt
phân lớp quyết định tương tự như phân lớp chuẩn, cho dù có sự khác biệt về đánh giá
sai số và xác suất hậu nghiệm. Để minh họa ta hãy xét hai lớp có xác suất tiên nghiệm
đồng nhất và có ba loại phân phối đối xứng, với cùng độ lệch tiêu chuẩn và trung bình
0 và 2.3 như hình 9.
Thuật toán Bayes và ứng dụng
18
Phân lớp tối ưu cho 3 trường hợp sử dụng cùng một ngưỡng quyết định có giá
trị 1.15, tuy nhiên các sai số phân lớp là khác nhau:
Nomal: Pe = 1 – erf(2.3/2) = 12.5%
Cauchy: Pe = 22.7%
Logistic: Pe = 24.0%
Kết quả thực nghiệm cho thấy, khi ma trận covariance đưa ra độ lệch giới hạn,
thì sự phân lớp có thể thực hiện một cách tương tự với phương pháp tối ưu với điều
kiện các covariance là đồng nhất. điều này là hợp lý vì khi các covariance không khác
biệt nhau nhiều thì sự khác biệt giữa các giải pháp bậc hai và tuyến tính chỉ đáng kể
khi các mẫu cách xa nguyên mẫu như ở hình 10.
Chúng ta sẽ minh họa bằng cách sử dụng bộ dữ liệu Norm2c2d. Sai số lý
thuyết đối với trường hợp hai lớp, hai chiều và bộ dữ liệu trên là:
δ2 =
Ước lượng sai số của bộ dữ liệu huấn luyện cho tập dữ liệu này là 5%. Bằng
cách đưa vào sai số ±0.1 vào các giá trị của ma trận ánh xạ A cho bộ dữ liệu, với độ
lệch nằm giữa 15% và 42% giá rị của covariance, ta được sai số tập huấn luyện là
6%.
0.8 0.8 2
2 3 8 1 ( 2) 7.9%
0.8 1.6 3
Pe erf
Thuật toán Bayes và ứng dụng
19
Trở lại với dữ liệu các nút chai, ta có bài toán phân lớp sử dụng 2 đặc trưng N
và PRT với xác suất tiên nghiệm đồng nhất. Lưu ý phân lớp thống kê ngoài tính toán
số nó không làm thay đổi các phép toán, vì thế mà các kết quả đạt được là giống nhau
nếu như sử dụng PRT hay PRT10.
Một danh sách riêng các xác suất hậu nghiệm hữu ích trong tính toán các sai số
phân lớp, xem hình 11.
Cho các ma trận covariances ở trong bảng 1. Độ lệch của các phần tử trong ma
trận covariance so với giá trị trung tâm nằm trong khoảng từ 5% đến 30%. Hình dáng
của các cụm là tương tự nhau, đây là bằng chứng để tin rằng việc phân lớp là gần với
tối ưu.
Bằng cách sử dụng hàm quyết định dựa trên các ma trận covariance riêng lẻ,
thay vì chỉ một ma trận tổng covariance, ta sẽ xây dựng được đường biên quyết định
bâc hai. Tuy nhiên phân lớp bằng đường bậc hai khó tính độ lệch hơn so với phân lớp
tuyến tính, đặc biệt là trong không gian nhiều chiều, và ta cần phải có một lượng lớn
tập dữ liệu huấn luyện (xem ví dụ của Fukunaga and Hayes, 1989).
Thuật toán Bayes và ứng dụng
20
2.4 Miền quyết định
Trong thực tế của các ứng dụng nhân dạng mẫu, đơn giản ta chỉ cần sử dụng
một luật quyết định như các công thức (1-2a) và (1-7c) khi đó sẽ tạo ra nhiều biên
quyết định, và rất dễ xuất hiện nhiễu ở trong dữ liệu, ảnh hưởng đến độ chính xác của
các tính toán phân lớp. Nhiễu mẫu nằm gần biên quyết định có thể thay đổi lớp được
gán chỉ với một điều chỉnh nhỏ. Nghĩa là thực tế, phần lớn các mẫu mang đặc điểm
của cả 2 lớp. Đối với các mẫu như vậy, thích hợp cho vệc đặt chúng trong một lớp đặc
biệt để có thể xem xét kỹ hơn. Điều này chắc chắn phải trong một số ứng dụng, ví dụ
như, trong lĩnh vực y tế, nơi ranh giới giữa bình thường và khác thường là cần phải
phân tích thêm. Một cách giải quyết là gắn một sự định tính(qualifications) trong việc
tính toán xác suất hậu nghiệm P(ωi|x) cho lớp ωi. Chẳng hạn chúng ta gắn định tính
"definite" nếu xác suất lớn hơn 0.9, "probable" nếu xác suất giữa 0.9 và 0.8, và
"possible" nếu xác suất bé hơn 0.8. Theo cách này thì với nút chai có case 55 (xem
hình 11) sẽ được phân lớp là một "possible" cork của lớp "super", và case 54 là một
"probable" cork của lớp "average".
Thay vì gắn mô tả định tính vào lớp nhận được, một phương pháp khác được sử
dụng trong một số trường hợp nhất định đó là quy định cho sự tồn tại của một lớp đặc
biệt gọi là lớp từ chối hay là miền quyết định (reject region).
Ký hiêu:
ω*: lớp được phân;
ωi: lớp với xác suất hậu nghiệm cực đại, chẳng hạn P(ωi|x) = max P(wj|x)
với mọi lớp ωij # ωi.
Luật Bayes có thể viết như sau ω*= ωi
Bây giờ ta quy định xác suất hậu nghiệm của một nút chai phải cao hơn nhiều
so với một ngưỡng từ chối (reject threshold) nhất định λr, nếu không nó sẽ được phân
vào reject class wr. Công thức Bayes được viết lại như sau:
(1-14)
Khi tính toán tỉ số hợp lý (likelihood ratio) với tỷ số xác suất tiên nghiệm
(prevalence ratio), thì ta phải nhân tỉ số này với (1-λr)/λr. Một lớp c không bao giờ có
một rejection nếu λr < (c-1)/c, do đó λr Є [(c-1)/c, 1].
* ( | )
( | )
i i r
r i r
if P x
if P x
Thuật toán Bayes và ứng dụng
21
Chúng ta sẽ minh họa khái niệm reject class sử dụng dữ liệu cork stoppers. Giả
sử rằng một reject threshold λr = 0.7 là ngưỡng được quy định. Tính biên quyết định
cho reject class là đủ để xác định hàm phân lớp với các xác suất tiên nghiệm P(ω1) =
1-λr = 0.3, P(ω2) = 1-λr = 0.7. Các đường thẳng quyết định là các đường nghiêng
và giao với trục tung tại PRT10=15.5 và PRT10=20.1. Chú ý rằng hai đường này
có xu hướng đối xứng nhau qua đường thẳng quyết định đã được xác định. Hình 12 là
biểu đồ phân tán với các đường quyết định mới. vùng ở giữa hai đường thẳng là reject
region.
Chúng ta hãy xem các ma trận phân lớp hiển thị trong Hình 13. Nhớ lại một
chút ta sẽ thấy rằng có 4 mẫu của lớp 1 và 5 mẫu của lớp 2 bị phân lớp sai, là nằm
trong reject region chiếm 9% số mẫu. Số lượng phân lớp sai bây giờ cho lớp 1 là 1mẫu
và cho lớp 2 là 5 mẫu, tổng số lỗi là 6%.
Thuật toán Bayes và ứng dụng
22
Chương 3 Phân lớp Naive Bayes
3.1 Định nghĩa
Naive Bayes classifier là một thuật ngữ trong xử lý số liệu thống kê Bayesian
với một phân lớp xác suất dựa trên các ứng dụng định lý Bayes với giả định độc lập
bền vững. Một thuật ngữ mô tả chi tiết cho những mô hình xác suất sẽ là “mô hình đặc
trưng không phụ thuộc”.
Trong thuật ngữ đơn giản, một naive Bayes classifier giả định rằng sự có mặt
(hay không có mặt) của một đặc trưng của một lớp học là không liên quan đến sự hiện
diện (hay thiếu vắng) của bất kỳ các đặc trưng. Ví dụ, một trái cây có thể được coi là
một quả táo nếu nó có màu đỏ chung quanh, và đường kính khoảng 4 inch. Mặc dù các
đặc trưng này phụ thuộc vào sự tồn tại của các đặc trưng khác, naive Bayes classifier
xem xét tất cả các đặc tính độc lập góp phần vào khả năng trái cây này là quả táo.
Tùy thuộc vào tính chính xác bản chất của mô hình xác suất, naive Bayes
classifiers có thể được đào tạo rất hiệu quả trong một thiết lập học có giám sát. Trong
nhiều ứng dụng thực tế, tham số ước lượng cho các mô hình naive Bayes sử dụng các
phương pháp maximum likehood; nói cách khác, có thể làm việc với các mô hình
naive Bayes mà không tin ở xác suất Bayesian hoặc bằng cách sử dụng bất cứ phương
pháp Bayesian.
Mặc dù thiết kế ngây thơ và hình như giả định đơn giản hơn, naive Bayes
classifiers thường làm việc trong nhiều tình huống thế giới thực phức tạp tốt hơn có
thể mong đợi. Mới đây, xem xét vấn đề phân lớp Bayesian đã có thể thấy có một số lý
thuyết giải thích cho tính hiệu quả của naive Bayes classifiers. Một lợi thế của naive
Bayes classifier là nó đòi hỏi một số lượng nhỏ dữ liệu đào tạo để ước lượng các tham
số (các nghĩa và sự khác nhau của các biến) cần thiết cho việc phân loại. Bởi vì các
biến được giả định độc lập, chỉ những khác biệt của các biến cho mỗi lớp học cần phải
được xác định và không phải toàn bộ ma trận thống kê.
Thuật toán Bayes và ứng dụng
23
3.2 Các mô hình xác suất Naive Bayes
Tóm lại, các mô hình xác suất cho một classifier là một mô hình có điều kiện
đối với một biến lớp phụ thuộc C với một số lượng nhỏ của các kết quả hay các lớp
học, phụ thuộc vài biến đặc trưng F 1 cho tới F n.
Vấn đề là nếu số các đặc trưng n là lớn hay khi một đặc trưng có thể chiếm một
số lượng lớn các giá trị, sau đó dựa vào một mô hình trên các bảng xác suất là không
thể làm được. Do vậy, chúng ta công thức hóa lại các mô hình để dễ xử lý.
Bằng cách sử dụng định lý Bayes, có được:
Trong thực hành, chỉ cần quan tâm tới tử số của phân số, khi mà mẫu số không
phụ thuộc vào C và các giá trị của các đặc trưng của F i đã cho, nên mẫu số là hằng
thực sự.
Tử số tương đương với mô hình xác suất có thể được viết lại như sau, sử dụng
định nghĩa của xác suất có điều kiện:
Thuật toán Bayes và ứng dụng
24
Bây giờ giả định "naive" giả định có điều kiện độc lập đưa vào: giả định rằng
mỗi đặc trưng Fi có điều kiện độc lập với tất cả các đặc trưng Fj cho j # i. Điều này
có nghĩa là
do đó có thể được thể hiện như:
Điều này có nghĩa là dưới sự độc lập giả định ở trên, các điều kiện phân phối
trên các lớp học biến C có thể được thể hiện:
ở đây Z là một nhân tố xác định tỷ xích phụ thuộc vào F1, F2, .., Fn, chẳng hạn một
hằng số nếu các giá trị của các biến đặc trưng đều được biết.
Nếu có k lớp học và nếu một mô hình cho p(Fi) có thể được thể hiện trong
các thuật ngữ của r tham số, sau đó các mô hình naive Bayes tương ứng có (k - 1) +
nrk tham số. Trong thực tế, thường k = 2 (phân loại nhị phân) và r = 1 (các biến
Bernoulli như là các đặc trưng) được phổ biến, và như vậy tổng số lượng các tham số
của mô hình naive Bayes là 2n + 1, ở đây n là số các đặc trưng nhị phân sử dụng cho
các dự đoán.
3.3 Ước lượng tham số
Tất cả các tham số mô hình (tức là, lớp học ưu tiên và các đặc trưng phân phối
xác suất) có thể được gần đúng với các tần số liên quan từ việc thiết lập đào tạo. Đây
là các đánh giá maximum likehood khả năng có thể xảy ra. Các đặc trưng không riêng
biệt cần phải được rời rạc đầu tiên. Sự rời rạc có thể không giám sát (các ràng buộc lựa
chọn đặc biệt) hoặc giám sát (ràng buộc hướng dẫn bởi thông tin trong dữ liệu đào
tạo).
Thuật toán Bayes và ứng dụng
25
Nếu một lớp học và giá trị đặc trưng không bao giờ xảy ra cùng với nhau trong
thiết lập đào tạo sau đó ước tính xác suất dựa tần số sẽ được 0. Đây là vấn đề vì nó sẽ
phá hủy tất cả các thông tin trong các xác suất khi chúng được nhân rộng. Vì vậy,
mong muốn kết hợp một mẫu nhỏ chỉnh sửa trong tất cả các xác suất ước tính rằng
như vậy không bao giờ được thiết lập chính xác 0.
3.4 Xây dựng một classifier từ mô hình xác suất
Các thảo luận cho đến nay đã bắt nguồn những mô hình đặc trưng độc lập, có
nghĩa là, mô hình xác suất naive Bayes. Naive Bayes classifier kết hợp mô hình này
với một luật quyết định. Là một luật chung để chọn nhiều nhất các giả thuyết có khả
năng xảy ra, điều này được biết đến như là maximum a posteriori hay luật quyết định
MAP. Classifier tương ứng là chức năng phân lớp được xác định như sau:
Một chú ý rằng giả định độc lập có thể dẫn đến một số kết quả không mong
muốn trong tính toán sau xác suất. Trong một số trường hợp khi có một phụ thuộc giữa
sự quan sát, xác suất kể trên có thể mâu thuẫn với xác suất tiền đề thứ hai do mọi xác
suất luôn nhỏ hơn hoặc bằng một.
Mặc dù rằng sự thật có thể áp dụng rộng rãi, giả định độc lập thường không
chính xác, các naive Bayes classifier có vài thuộc tính làm cho nó hữu ích trong thực
hành. Đặc biệt thực hành, sự tách riêng của lớp có điều kiện phân loại đặc trưng có
nghĩa là mỗi phân loại có thể được ước tính độc lập như là một phân phối một chiều.
Toàn bộ classifier là mạnh đủ để bỏ qua các thiếu sót nghiêm trọng của nó trong
những mô hình xác suất naive.
3.5 Thuật toán phân loại văn bản Naive Bayes
Kĩ thuật phân hoạch của Naive Bayes dựa trên cơ sở định lí Bayes và đặc biệt
phù hợp cho các trường hợp phân loại có kích thước đầu vào là lớn. Mặc dù Naive
Bayes khá đơn giản nhưng nó có khả năng phân loại tốt hơn rất nhiều phương pháp
phân hoạch phức tạp khác. Với mỗi loại văn bản, thuật toán Naive Bayes tính cho mỗi
Thuật toán Bayes và ứng dụng
26
lớp văn bản một xác suất mà tài liệu cần phân hoạch có thể thuộc loại đó. Tài liệu đó
sẽ được gán cho lớp văn bản nào có xác suất cao nhất.
Xác suất P(ck| di) gọi là xác suất mà tài liệu di có khả năng thuộc vào lớp văn
bản ck được tính toán như sau:
tài liệu di sẽ được gán cho loại văn bản nào có xác suất hậu nghiệm cao nhất
nên được biểu diễn bằng công thức:
trong đó N là tổng số tài liệu.
Tóm lại phân loại văn bản sử dụng thuật toán Naive Bayes có thể diễn đạt
một cách ngắn gọn như sau:
Với mỗi văn bản D (document), người ta sẽ tính cho mỗi loại một xác
suất mà tài liệu D có thể thuộc vào lớp tài liệu đó bằng việc sử dụng luật Bayes:
(1)
Trong đó: D là tài liệu cần phân loại, Ci là một tài liệu bất kì. Theo giả định
của Naive Bayes xác suất của mỗi từ trong tài liệu D là độc lập với ngữ cảnh xuất hiện
các từ đồng thời cũng độc lập với vị trí của các từ trong tài liệu. Xác suất P(D|Ci)
được tính toán từ tần suất xuất hiện của các từ đơn wj (word) trong tài liệu D
(2)
l là tổng số từ w trong tài liệu D:
( )* ( | )( | )
( )
i i
i
P C P D CP C D
P D
( )* ( | )( | )
( )
k i k
k i
i
P c P d cP c d
P d
Class of di arg arg
1 1
( )* ( | )( | )max max ( )
k i k
k i
k N k N i
P c P d cP c d
P d
i j
1 j l
P(D|C ) P(w | )iC
Thuật toán Bayes và ứng dụng
27
Như vậy biểu thức (1) có thể được viết lại như sau:
)|P(w)(
)(
)|(
lj1
j i
i
i CDP
CPDCP
Giá trị lớn nhất của xác suất P(Ci | D) được đưa ra bởi nguời làm công tác
phân loại. Giá trị này được gọi là ngưỡng hay ranh rới giữa các lớp văn bản mà chúng
có thể chứa tài liệu D.
Ví dụ: Phân loại thư điện tử bằng Naive Bayes classifier
Đây là một ví dụ về làm việc naive Bayesian để phân loại các tài liệu phân loại
vấn đề. Xem xét các vấn đề của phân loại các tài liệu theo nội dung của họ, ví dụ vào
thư rác và không phải là thư rác trong các thư điện tử. Hãy tưởng tượng rằng các tài
liệu được lấy ra từ một số lớp học của các tài liệu có thể làm mô hình như là bộ các từ
mà ở đây xác suất từ thứ i của một tài liệu xảy ra trong một tài liệu từ lớp C có thể
được viết như:
Xử lý như vậy đã đơn giản các ý tưởng, hơn nữa bằng cách giả sử rằng xác suất
của một từ trong một tài liệu là độc lập với chiều dài của một tài liệu hoặc tất cả các tài
liệu cùng một chiều dài.
Sau đó, xác suất của một tài liệu D, cho một lớp học C, là
Câu hỏi mà mong muốn có câu trả lời là: "xác suất nào để một tài liệu D thuộc
về một lớp học C?" Nói cách khác, ?
Bây giờ, theo định nghĩa:
Thuật toán Bayes và ứng dụng
28
và
Nên có:
Giả định rằng thời điểm chỉ có hai lớp học, S và ¬ S (ví dụ như thư rác và
không phải là thư rác).
Bằng cách sử dụng các kết
quả Bayesian trên, có thể viết:
Do đó:
Vì vậy có thể viết:
Thuật toán Bayes và ứng dụng
29
Trên thực tế xác suất p(S | D) có thể được tính dễ dàng từ log (p (S | D) / p
(¬ S | D)) dựa trên nhận định (S | D) + p (¬ S | D) = 1.
Và như vậy:
Cuối cùng, các tài liệu có thể được phân loại như sau:
Nếu nó là thư rác
,ngược lại nó không phải là thư rác.
Thuật toán Bayes và ứng dụng
30
Chương 4 Giải quyết bài toán lọc thư rác
4.1 Đặt vấn đề
Thư rác bắt đầu được gọi là "spam" sau chương trình truyền hình có tên
"Monty Python’s Flying Circus". Trong show truyền hình này, một nhóm cướp biển
Vikings đã vào ăn trong một nhà hàng chuyên phục vụ đồ hộp (spam), rồi hát toáng
lên một ca khúc lặp đi lặp lại 2 chữ "quảng cáo". Ý nghĩa ban đầu của thư rác rất rõ
ràng: Một thứ lặp đi lặp lại và gây ra sự bực tức, khó chịu cho những người xung
quanh. Đó chỉ là trong một phạm vi hẹp còn trong môi trường internet khi không còn
khoảng cách về địa lý nữa thì sẽ có rất nhiều người phải chịu sự bực tức, cảnh nhàm
chán gây ức chế tâm lý và cực kỳ mất thời gian vào nó.
Phần lớn các thư không mời mà đến, các thư chào hàng quảng cáo bị cho là
thư rác theo nhận xét của số đông người dùng thư điện tử. Đây là vấn đề nan giải mà
các hệ thống, hòm mail, các nhà quản trị mạng đang phải đối mặt trong thời điểm hiện
nay khi mà xã hội thông tin ngày càng phát triển với tốc độ chóng mặt. Để lọc và phát
hiện thư rác, cần có giải pháp lâu dài như các biện pháp kĩ thuật, quy ước xã hội và có
thể dùng đến pháp luật. Nhưng khi các giải pháp này được thi hành thì chỉ trong một
khoảng thời gian ngắn chúng đã bị phá vỡ bởi các spammer, nguyên nhân chính là họ
luôn nghĩ ra những cái bẫy đánh lừa người dùng hay lách luật mà các tổ chức chống
thư rác quy ước.
Như vậy giải pháp ngăn chặn thư rác nào hiệu quả và dùng được lâu dài? Một
phương pháp tốt nhất đó là để chính người dùng thư điện tử ngăn chặn thư rác, bởi họ
hiểu vấn đề một cách tường minh nhất. Chúng ta sẽ dùng cảm nhận về thư rác của mỗi
người để huấn luyện cho các bộ lọc thư rác của chính họ. Mỗi bộ lọc sẽ xử lý thư rác
tùy theo phong cách của từng người dùng thư điện tử. Và mô hình thống kê Bayes
được áp dụng để thực thi ý tưởng này.
Từ những đặc điểm trên, ta thấy rằng việc xây dựng được một bộ lọc thư rác
thông minh có thể loại bỏ một cách chính xác hiện nay là một nhiệm vụ còn nhiều
thách thức.
Thuật toán Bayes và ứng dụng
31
4.2 Bài toán
Thư điện tử là một trong những phương tiện để giao tiếp đáng tin cậy và hầu
như không tốn kém chi phí sử dụng. Phạm vi sử dụng của nó rộng khắp trên toàn thế
giới và có thể dễ dàng truy cập bằng hầu hết các phương tiện truyền thông đã biến nó
thành nạn nhân của những kẻ spam. Hậu quả đơn giản nhất là làm tốn băng thông
mạng và nghiêm trọng hơn là làm mất thời gian của người dùng thư điện tử, làm lan
truyền vi rút máy tính. Có thời điểm người ta thống kê được rằng có đến 60% thư điện
tử là thư rác và mỗi ngày một người dung thư điện tử phải nhận ít nhất là 6 cú spam.
Chúng ta không thể đổi địa chỉ hòm thư mỗi lần bị spam bởi điều này không
những không hạn chế được thư rác mà có khi còn làm cho nó gia tăng. Vậy cần phải
tìm ra một giải pháp chống thư rác sử dụng bộ lọc được gắn thuật toán phân loại với
tính năng hiệu quả và kĩ thuật đơn giản dễ cài đặt. Và một yêu cầu không thể thiếu là
có làm sao với thuật toán đó những kẻ spam hiểu rằng việc chúng cố tình spam là vô
dụng.
4.3 Tiền xử lý mỗi lá thư điện tử
Bộ lọc cá nhân được tích hợp vào mỗi địa chỉ hòm thư của người dùng. Nó
luôn luôn ở trạng thái chờ thư đến để xử lý. Một khi thư được gửi đến địa chỉ người
dùng thì thư đó phải được phân loại có là thư rác hay không. Nếu là thư rác thì nó bị
ném ngay vào thư mục ‘sọt rác’ ngược lại sẽ được cho vào thư mục ‘thư đến’ chờ
người dùng duyệt. Để có được kết quả đó là quả một quá trình kiểm duyệt nghiêm ngặt
kết hợp nhiều công đoạn như đánh giá địa chỉ người gửi, thư được gửi đến từ IP, DNS
nào có nằm trong blacklist của tổ chức chống thư rác quốc tế hay không, hay đơn giản
hơn là xem thư đó có sai với định dạng của một lá thư thông thường hay không (ví dụ
tiêu đề thư quá nhiều dấu than, dấu hỏi, hay viết hoa toàn bộ, màu sắc nhòe nhoẹt,….
Qua bước sàng lọc ở trên chúng ta bắt đầu tiền xử lý cho bộ lọc Bayes. . Với
mỗi thư chúng ta quét toàn bộ văn bản bao gồm header và mã nhúng HTML kể cả
javascript của mỗi thông điệp. Hiện tại chúng ta đánh giá các kí tự gồm chữ và số, nét
gạch, dấu than và dấu $ vào các thẻ, và những cái còn lại cho vào các thẻ riêng biệt.
Bỏ qua các thẻ mà chỉ chứa các chữ số. và cũng bỏ qua các đoạn comment HTML,
tách các thẻ đó ra và không cần đánh giá. Như vậy sau bước này một lá thư sẽ ứng với
một tập hợp chứa các thẻ riêng biệt.
Thuật toán Bayes và ứng dụng
32
4.4 Dùng luật Bayes tính xác suất
Tính xác suất cho mỗi thẻ ta dùng luật Bayes để tính. Giả sử ta cần tính xác
suất cho thẻ chứa từ ‘promotion’. Từ này chúng ta thường xuyên gặp trong thư điện tử
mời chào dịch vụ maketing. Công thức tính theo luật Bayes:
Trong đó:
Pr(S|W) là xác suất mà thư mà chứa từ ‘promotion’ là thư rác
Pr(S) là xác suất mà thư bất kì là thư rác
P(W|S) là xác suất mà từ "promotion" xuất hiện trong thư rác
Pr(H) là xác suất mà một bản tin bất kì không là thư rác
P(W|H) là xác suất mà từ "promotion" xuất hiện trong thư rác
Như đã nói ở trên, những thống kê gần đây cho thấy 80% thư điện tử là thư rác
nên ta sẽ có:
Tuy nhiên để cho đơn giản và đã qua thực tế nên người ta chọn các xác suất
trước là giống nhau và đều có giá trị bằng 0.5. Tức là:
Bộ lọc mà dùng giả thiết này được gọi là "không đối xứng", có nghĩa rằng
chúng không có sự đối xử phân biệt các thư đến. Giả thiết này cho phép rút gọn công
thức ở trên thành:
Bộ lọc thư rác Bayesspam vận dụng chính xác công thức trên để tính xác suất
cho mỗi từ đơn.
Sau khi đã tính được xác suất thư chứa từ đơn là thư rác ta cần kết hợp các xác
suất đơn đó lại thành một xác suất cuối cùng. Xác suất này dùng để đánh giá thư mà
Thuật toán Bayes và ứng dụng
33
chứa tất cả các từ đơn đó có xác suất là thư rác là bao nhiêu. Công thức tính xác suất
kết hợp là:
f
Trong đó:
p là xác suất thư đang xét là thư rác
p1là xác suất p(S|W1), ứng với từ đầu tiên (ví dụ từ "promotion")
p2 là xác suất p(S|W2) , ứng với từ thứ hai (ví dụ từ "offer")
....
pN là xác suất p(S|WN) , ứng với từ thứ N (ví dụ từ "home")
Kết quả p thường được dùng so sánh với một ngưỡng nào đó để quyết định
thư đang xét có xác suất p đó có là thư rác hay không. Nếu p lớn hơn giá trị ngưỡng,
thư đó sẽ bị đánh dấu là thư rác, ngược lại sẽ không bị đánh dấu là thư rác.
4.5 Huấn luyện cho bộ lọc Bayes
Sử dụng hai tập thư điện tử huấn luyện, một tập là thư rác và tập còn lại không
phải là thư rác. Mỗi tập chứa khoảng 4000 thư. Đếm số lần xuất hiện của mỗi thẻ
trong mỗi tập thư điện tử. Mỗi lần đếm kết thúc với hai bảng băm. Mỗi bảng băm
tương ứng với mỗi tập thư điện tử, bảng này là ánh xạ các thẻ đến số lần xuất hiện của
thẻ đó.
Tiếp theo chúng ta tạo ra bảng băm thứ 3, bảng băm này ánh xạ mỗi thẻ tới
xác suất mà một email chứa nó là email spam. Ta tính theo công thức sau đây:
Thuật toán Bayes và ứng dụng
34
Trong đó:
Ngood ứng với số thư không phải là thư rác.
Nbad ứng với số thư là thư rác.
Công thức trên được diễn tả theo các biểu thức của ngôn ngữ Arc. Mỗi biểu
thức là một cặp dấu ngoặc đơn. Trong ngoặc là một danh sách với biểu thức đứng ở vị
trí đầu tiên theo sau là các tham số. Thực hiện biểu thức từ trái qua phải.
Ví dụ:
(< (+ g b) 5) tương đương với (g + b) < 5.
Công thức này sẽ tính xác suất cho một từ hay thẻ (word) như sau: Thẻ được
lấy từ trong bảng good, là bảng băm các thẻ của tập thư không phải là thư rác và nhân
đôi lên. Nhân đôi lên để giảm độ chênh lệch xác suất giữa thư rác và không phải thư
rác, tăng độ chính xác trong việc phân loại. Tiếp theo cũng thẻ đó ta lấy từ bảng bad,
là bảng băm các thẻ tập thư rác. Như vậy ta có chỉ số g ứng với 2 lần suất hiện của thẻ
trong tập thư không phải thư rác và b ứng với số lần xuất hiện của thẻ trong trong tập
thư rác. Nếu như tổng g và b nhỏ hơn 5 thì thẻ sẽ bị loại bỏ. Xác suất tính được sẽ
nằm trong khoảng giá trị từ .01 đến .99. Xét cho cùng thì việc tính toán ở trên tương
ứng với công thức tính xác suất ở dạng luật Bayes đơn giản như sau:
Như vậy kết quả của quá trình huấn luyện là một bảng băm hay nói khác hơn là
một cơ sở dữ liệu rút ra từ tập thư huấn luyện. Bảng băm này là ánh xạ của các thẻ đến
các giá trị xác xuất của chúng. Bảng băm này là cơ sở quyết định cho việc tính toán
xác suất của một lá thư điện tử là thư rác.
4.6 Lọc thư đến, có là thư rác không?
Khi một thư mới đến, nó phải trải qua vài công đoạn xử lý phân loại trước khi
đi vào hộp thư người dùng. Tại sao lại thế? Nó cần phải được đánh giá có là thư rác
hay không. Lọt qua được bước tiền xử lý lọc thô, người ta lọc đến nội dung của nó có
phải là thư rác không bằng cách nội dung text của nó được quét vào các thẻ, thường là
mười lăm thẻ sẽ được quan tâm nhất, các thẻ được quan tâm là các thẻ mà xác suất
của chúng đạt mức trung bình 0.5, sẽ được dùng để tính toán xác suất mà thư đó có là
spam hay không. Cách đây vài năm khi phần cứng máy tính còn nhiều hạn chế, để tiết
Thuật toán Bayes và ứng dụng
35
kiệm tài nguyên và tốc độ xử lý thông tin người ta chỉ đặt số thẻ tối đa là mười lăm để
tính xác suất thư là thư rác. Ngày nay vấn đề phần cứng dư sức đáp ứng cho ứng dụng
lọc thư nên số thẻ không còn bị giới hạn nữa. Khi mà số thẻ không còn bị hạn chế nữa
tức là ta phải tính xác suất kết hợp của tất cả chúng. Sẽ có trường hợp thẻ chưa xuất
hiện trong bảng băm xác suất. Như vậy phải gán giá trị xác suất nào cho thẻ đó? Kinh
nghiệm cho thấy gán giá trị 0.4 là hợp lý. Nói khác hơn thì đây là xác suất ngây thơ.
Ta sẽ tính ra xác suất kết hợp của các giá trị xác suất đơn theo công thức sau đây:
Đoạn mã trên vận dụng chính xác theo công thức tính xác suất kết hợp xác suất
đã trình bày ở mục trên:
Kết quả p sau đó sẽ so sánh với ngưỡng để phân loại chính xác thư rác như đã
nói ở trên. Như vậy mỗi lần có một thư đến ta sẽ xác định thêm được một thư thuộc
loại gì để bổ xung vào tập huấn luyện của bộ lọc. Người ta sắp xếp time để chạy lại
quá trình huấn luyện để cập nhật lại hay nói khác hơn là nâng cao tri thức, khả năng
phân loại cho bộ lọc. Vì thế mà bộ lọc qua thời gian sử dụng sẽ phân loại càng chính
xác khiến người dùng phải bất ngờ vì khả năng phân loại của nó gần như là giống với
việc chính người dùng tự phân loại.
4.7 Bộ lọc BayesSpam
Bộ lọc BayesSpam thực hiện việc lọc thư điện tử theo quy trình cách thức
trình bày ở trên. Ngôn ngữ lập trình được dùng để xây dựng bộ lọc viết bằng ngôn ngữ
lập trình Web PHP dưới dạng một plugin rất tiện cho việc tích hợp vào hệ thống thư
điện tử. Bộ lọc chạy độc lập với mỗi người dùng. Tức là mỗi người dùng có một bộ lọc
cho riêng họ. Bộ lọc BayesSpam cho phép mỗi người dùng thư điện tử tự cấu hình bộ
lọc hoặc từ chối dùng bộ lọc. Người dùng gần như làm chủ được bộ lọc trong việc điều
chỉnh các thông tin cấu hình. Có thể tham khảo các tính năng cung cấp cho người dùng
ở bảng điều khiển trong hình dưới đây.
Thuật toán Bayes và ứng dụng
36
Hình 16: Bảng điều khiển bộ lọc dành cho mỗi người dùng thư điện tử
Một khi thư bị đánh dấu là thư rác ngay lập tức nó sẽ bị di chuyển vào sọt rác.
Và tiêu đề thư sẽ bị đánh dấu thành thư rác [**SPAM/Thư rác**]. Ở hình dưới đây thư
rác được cấu hình cho riêng vào thư mục ‘test’. Sau một khoảng thời gian ngắn bộ lọc
tự động xây dựng lại cơ sở dữ liệu nó sẽ dùng chính những thư mà nó đã phân loại để
cập nhật lại bảng xác suất như đã nói ở trên. Bộ lọc làm việc khá ổn định, tốc độ xử lý
thông tin nhanh bởi thuật toán khá ngắn gọn. Mỗi khi có sự kiện mới bộ lọc ngay lập
tức tự cập nhật lại cơ sở dữ liệu nhằm gia tăng khả năng lọc thư. Việc huấn luyện cho
bộ lọc song song với quá trình sử dụng và phụ thuộc vào cách nhìn nhận thư rác của
mỗi người. Nói khác hơn là dần dần theo thời gian sử dụng bộ lọc sẽ mang tính cách
duyệt thư điện tử của chính người dùng, người mà cấu hình và huấn luyện nó.
Sau bước cấu hình chúng ta có thể dùng bộ lọc ngay chỉ cần thao tác dưới
dạng report cho bộ lọc biết đâu là thư rác và có thể đánh giá lại thành không phải thư
rác. Thông thường người ta hay dùng nút đánh dấu thư rác, ít khi phải dùng đến nút
không phải thư rác. Lúc ban đầu cơ sở dữ liệu của bộ lọc còn nhỏ bé khả năng phân
loại sẽ chưa được tốt. Người dùng phải tự nhận dạng thư đến có là thư rác không.
Thuật toán Bayes và ứng dụng
37
Nhưng hầu như các thư sau này có nội dung tương tự thư rác mà đánh dấu bởi người
dùng sẽ được bộ lọc bắt rất chính xác. Như vậy rõ ràng thời gian sử dụng và cách nhìn
nhận về thư rác của người dùng có yếu tố quyết định đối với khả năng phân loại của bộ
lọc. Dưới đây là hình ảnh thư rác thử nghiệm để chạy bộ lọc được lấy ra từ thư mục
chứa thư rác:
Hình 17: Thư rác đã bị lọc và đưa vào thư mục Test, 943 thư rác.
Làm thế nào để các Spammer tránh khỏi bộ lọc thư rác? Câu trả lời cho câu
hỏi này sẽ là minh chứng cho thấy việc cố gắng ‘spam’ là vô ích khi dùng bộ lọc. Để
không bị phát hiện là thư rác các spammer phải cố gắng soạn thư điện tử có nội dung
khác với thư mà người bình thường cũng nghĩ được nó là thư rác đến 80% về mặt nội
dung thư hay nói chính xác hơn là khác về từ ngữ dùng để viết lên nội dung thư. Sẽ có
hai trường hợp xảy ra đó là nếu cứ cố gắng né tránh nội dung, từ ngữ thì bức thư sẽ
không thể truyền đạt được nội dung spam. Tức là một lá thư quảng cáo thì không thể
thiếu các từ ngữ như ‘mua sắm’, ‘trực tuyến’, ‘miễn phí’, ‘nhân dịp’, ‘mua hàng’,
‘khuyến mại’,… Không dùng các từ ngữ đó spammer không thể soạn được thư rác
quảng cáo. Như vậy không thể dùng cách này né tránh bộ lọc được. Còn một cách thứ
hai đó là giữ nguyên nội dung quảng cáo nhưng không soạn thư bằng tiếng việt chuẩn
nữa mà viết theo ngôn ngữ của teen. Ví dụ như thay dấu ngã thành ‘~’, dấu chấm
thành ‘.’, dấu hỏi thành ‘?’…. “Khuye^’n mai. mua hang gia’ re?
nha^’t …”. Cách này khá hay về mặt kĩ thuật (làm rối loạn các thẻ từ trong cơ sở dữ
liệu nhưng không phải là không khắc phục được) nhưng có khi lại phản tác dụng vì có
nhiều người rất ghét và thấy ngứa mắt với kiểu viết chữ như thế nên nhiều spammer
phải từ bỏ phương án này.
Thuật toán Bayes và ứng dụng
38
Như vậy spammer vẫn xả thư rác bình thường nhưng người dùng thư không bị
quấy rối quá nhiều lần khi họ báo cho bộ lọc biết đó là thư rác một vài lần. Các lần sau
đó do đã được huấn luyện bộ lọc càng thông minh hơn nó sẽ lọc hết những thư rác một
cách chính xác đến không ngờ. Hầu hết những người dùng trung thành với bộ lọc đều
đánh giá cao khả năng lọc thư của BayesSpam rất hiệu quả và hầu như là không có sai
sót. Và thực tế là nó đang hoạt động khá tốt dưới hệ thống thư điện tử của trường Công
nghệ (
4.8 Một số cải tiến cho bộ lọc BayesSpam
Trước khi đề cập đến vấn đề cải tiến ta cần quan tâm đến hạn chế hiện tại của
bộ lọc đó là trong một khoảng thời gian dài người dùng thư điện tử không đăng nhập
và giả sử lúc ấy người dùng nhận số lượng lớn thư sẽ dẫn đến tình trạng đăng nhập bị
chậm ì ạch do chờ lọc thư đến. Để khắc phục tình trạng trên việc lọc thư cần hoạt động
theo định kì mà không chờ người dùng đăng nhập. Mỗi thư là một file được đặt trong
các thư mục (INBOX, SENT, TRASH,…), bộ lọc sẽ âm thầm lọc thư ngay cả khi
người dùng không trực tuyến. Do đây là bộ lọc chung cho mọi người nên nó phải được
xây dựng dựa trên phong cách chung, là cái nhìn chung về thư rác của tất cả người
dùng. Để làm được điều này bộ lọc phải được huấn luyện kĩ lưỡng dựa trên dữ liệu thư
của người dùng. Trong khóa luận này trình bày ứng dụng chọn lọc thư huấn luyện
được trích chọn từ thư của tất cả người dùng trong hệ thống thư điện tử Squirrelmail
đang dùng bộ lọc BayesSpam. Ứng dụng web viết bằng ngôn ngữ PHP, có giao diện
đơn giản dưới đây:
Thuật toán Bayes và ứng dụng
39
Hoạt động chính của ứng dụng:
1. Tạo thư mục tập huấn luyện Corpus chứa 2 thư mục con là thư mục thư
rác (SPAM) và không phải thư rác (HAM).
2. Dựa trên CSDL của bộ lọc (spamCorpus) lấy ra tên những người đang
dùng bộ lọc.
3. Với mỗi người dùng, copy tất cả file thư trong thư mục sọt rác (TRASH)
vào thư mục SPAM. Tương tự copy tất cả các file trong thư mục hộp thư
(INBOX) vào thư mục (HAM).
4. Xử lý thư mục SPAM. Chọn lọc các thư có chỉ số Bayes cao (lớn hơn
ngưỡng đưa ra) ứng với thư có xác suất là thư rác cao hơn các thư cùng
loại trong thư mục. Dựa vào thuộc tính messageID của bảng ScoreCache
trong CSDL.
5. Xử lý thư mục HAM. Chọn lọc các thư có chỉ số Bayes thấp (nhỏ hơn
ngưỡng đưa ra) ứng với thư có xác suất không là thư rác cao hơn các thư
cùng loại trong thư mục. Dựa vào messageID trong bảng ScoreCache.
Sau quá trình trên ta có được tập huấn luyện được chọn lọc từ mỗi người
dùng bộ lọc. Tập huấn luyện này như là một cái nhìn chung về thư rác của tất cả
mọi người dùng bộ lọc. Có thể dùng tập huấn luyện này để huấn luyện cho bộ
lọc đề cập ở trên
Thuật toán Bayes và ứng dụng
40
Chương 5 Kết luận
Như đã nói từ đầu toán học thống kê đóng vai trò rất quan trọng trọng trong mọi
lĩnh vực. Thống kê giúp cho việc nắm bắt đánh giá tình hình trở lên trực quan và dễ
hiểu hơn. Xử lý và ứng dụng dữ liệu thống kê đem lại hiệu quả lớn lao trong việc tiên
đoán và từ đó có thể xây dựng lên một hệ tự động hóa hoạt động chính xác. Hướng
tiếp cận thống kê theo lý thuyết Bayes khá đơn giản nhưng đem lại hiệu quả rất cao
chính vì thế mà nó được ứng dụng khá phổ biến trong hầu hết các lĩnh vực.
So với các phương pháp khác, phương pháp thống kê Bayes lập luận theo kinh
nghiệm được tích lũy áp dụng vào mô hình phân loại đối tượng linh hoạt hơn, phù hợp
với đặc trưng của bài toán hơn. Các cơ chế ước lượng cũng gần gũi với cách suy luận
thông thường chính vì vậy mà các kết quả phân loại tương đối giống với cách phân
loại thông thường.
Các kết quả đã đạt được là:
Khoá luận đã tập trung nghiên cứu về lý thuyết Bayes, từ bước cơ sở đó tìm
hiểu tiếp về một ứng dụng của nó liên quan trực tiếp đến ngành công nghệ thông tin đó
là ứng dụng lọc thư rác. Quá trình tìm hiểu về nguyên lý và cách thức hoạt động của
bộ lọc đã rút ra được những kết luận về ưu nhược điểm của tiếp cận thống kê Bayes
trong việc phân loại thư rác. Đối với vấn đề ứng dụng thực tế, khoá luận sử dụng
plugin BayesSpam như một đối tượng chính để tìm hiểu và nghiên cứu. Đối với vấn đề
áp dụng lý thuyết Bayes, khoá luận nghiên cứu xây dựng các công thức tính xác suất
sao cho việc xử lý thông tin trở lên nhanh gọn và có độ chính xác cao.
Từ việc tìm hiểu ứng dụng BayesSpam, khoá luận đã rút ra được một số nhận
định về ưu điểm và nhược điểm của bộ lọc trong quá trình hoạt động. Kết quả phân
loại thư rác nhìn chung là gần giống với các kết quả đánh giá thư bởi người dùng.
Tuy nhiên, do thời gian có hạn cũng như các kiến thức chuyên môn về hệ
thống thư điện tử nên các kết luận rút ra được trong quá trình nghiên cứu còn nhiều
hạn chế. Dưới đây là những ưu nhược điểm chính của bộ lọc thư rác Bayes.
Những ưu điểm chính:
Ưu điểm của bộ lọc thư rác Bayes đó là nó có thể được huấn luyện bởi
chính người dùng cơ sở. Đây có thể thể nói là ưu điểm lớn nhất, nó tạo
ra được nét đặc trưng về cách nhìn nhận thư rác của mỗi người dùng.
Thuật toán Bayes và ứng dụng
41
Các thư rác mà một người dùng nhận được thường liên quan tới các
hoạt động trực tuyến của người dùng. Ví dụ, một người sử dụng có thể
đã được đăng ký vào một bản tin trực tuyến mà người sử dụng xem xét
như là thư rác. Đang xem thông tin này có thể chứa các từ ngữ được
phổ biến cho tất cả các bản tin, chẳng hạn như tên của bản tin và nguồn
gốc của nó địa chỉ email. Bộ lọc thư rác Bayesian sẽ chỉ định một xác
suất cao hơn dựa trên cách nhìn nhận của người sử dụng.
Thư điện thử hợp pháp sẽ nhận được nhìn nhận theo xu hướng khác
nhau đối với mỗi người. Ví dụ, trong môi trường một công ty, tên công
ty của bạn và tên của khách hàng sẽ được đề cập thường xuyên. Các bộ
lọc sẽ chỉ định một thư rác xác suất thấp hơn cho các email có chứa các
tên đó.
Xác suất của các từ là duy nhất đối với mỗi người dùng và có thể lớn
dần theo thời gian huấn luyện, cùng với sự hiệu chỉnh việc huấn luyện
mỗi khi có thư lọc sai. Kết quả là, lọc thư rác Bayesian tăng độ chính
xác khi được đào tạo thường xuyên theo các quy tắc được xác định
trước.
Những nhược điểm chính:
Một kỹ thuật được sử dụng bởi Spammer nhằm cố gắng để giảm tính
hiệu quả của bộ lọc thư rác là dựa vào chính nguyên tắc hoạt động của
nó. Kĩ thuật này sẽ chèn các từ mà không phải là bình thường liên kết
với các nội dung spam với số lượng lớn văn bản hợp pháp (thu thập từ
các nguồn tin tức hợp pháp hay văn chương). Do đó giảm giá trị xác
suất kết hợp của thư điện tử là thư rác, làm cho nó càng có nhiều khả
năng vượt qua bộ lọc thư rác Bayes.
Một kỹ thuật khác được sử dụng để che mắt bộ lọc thư rác Bayes đó là
thay thế các văn bản bằng hình ảnh, hoặc trực tiếp đặt liên kết chứa nội
dung spam đến hình ảnh. Toàn bộ nội dung của tin nhắn, hoặc một số
phần của nó, được thay thế bằng một hình ảnh có cùng một nội dung
được trình bày lôi cuốn người xem. Bộ lọc thư rác thường không thể
phân tích hình ảnh này, mà có thể chứa các từ nhạy cảm như "khiêu
dâm". Tuy nhiên, nhiều hệ thống thư điên tử đã vô hiệu hoá màn hình
hiển thị của liên kết hình ảnh vì lý do bảo mật, nhưng các spammer lại
gửi liên kết đến hình ảnh ở xa có thể tiếp cận với các mục tiêu spam ít
hơn. Ngoài ra, một hình ảnh có kích thước lớn hơn kích thước tương
đương của văn bản. Do đó, các spammer cần nhiều hơn nhu cầu băng
thông để gửi tin nhắn trực tiếp bao gồm cả hình ảnh.
Thuật toán Bayes và ứng dụng
42
Do vậy, sau bước tìm hiểu lý thuyết và ứng dụng thì hướng nghiên cứu tiếp
của đề tài nhằm tăng hiệu quả lọc là:
Tìm ra cái nhìn chung về thư rác của những người dùng thư trong cùng
hệ thống thư điện tử. Bằng cách rút ra những email có xác suất là thư
rác cao để bổ xung vào tập huấn luyện chung cho tất cả mọi người
nhằm gia tăng kinh nghiệm cho bộ lọc.
Ngăn chặn việc Spam bằng hình ảnh bằng việc đưa ra thông báo là thư
rác nếu nó có nội dung chủ yếu là đồ họa. Đơn giản nhất là không cho
hiển thị hình ảnh khi người dùng duyệt thư trừ khi họ có nhu cầu xem
hình ảnh thì tự họ sẽ bật hiển thị.
Tích hợp phân tích hình ảnh để lấy ra văn bản trong hình nhằm giảm
việc lọc sai do loại bỏ tất cả thư có nội dung chủ yếu đồ họa. Việc này
đòi hỏi hệ thống phải mạnh cùng thuật toán phân tích hình ảnh thông
minh.
Bổ xung thêm vào tập các từ trung tính tiếng Việt cho bộ lọc nhằm tăng
tốc và tiết kiệm tài nguyên cho cơ sở dữ liệu. Ví dụ như các từ trung
tính tiếng việt ứng với các từ trung tính tiếng Anh như: thì, là, ở, cái,
con, và, hoặc, ….
Thuật toán Bayes và ứng dụng
43
Phụ lục A Cơ sở dữ liệu của bộ lọc
Thuật toán Bayes và ứng dụng
44
Tài liệu tham khảo
[1] Nguyễn Quốc Đại, Lý Thuyết Bayes, mạng Bayes. (2009)
[2] Nguyễn Thanh Sơn, Lê Khánh Luận; Lý thuyết xác suất và thống kê toán;
Nxb Thống kê (2008)
[3] Nguyễn Duy Tiến, Trần Minh Ngọc Đại học Khoa Học Tự Nhiên,
ĐHQGHN, Bài giảng của Viện Thống Kê Thế Giới IMS tại Malaysia
[4] Azam. N, Dar. H. A, Marwat. S; Comparative study on Feature Space
Reduction for Spam Detection
[5] Paul Graham; A plan for spam – 2002. Xem tại địa chỉ
[6] Wikipedia ; Bayesian Spam Filtering. Xem tại địa chỉ
[7] Wikipedia ; Sequential Bayesian Filtering. Xem tại địa chỉ
Các file đính kèm theo tài liệu này:
- LUẬN VĂN-THUẬT TOÁN BAYES VÀ ỨNG DỤNG.pdf