Cùng với sự gia tăng nhanh chóng về số lượng các trang Web thì nhu cầu về khai phá dữ liệu Web ngày càng nhận được sự quan tâm của các nhà khoa học và các nhóm nghiên cứu. Trong lĩnh vực khai phá Web thì phân cụm Web là một trong những bài toán cơ bản và quan trọng. Đây cũng là thành phần chịu nhiều ảnh hưởng của các đặc trưng ngôn ngữ. Khóa luận này tập trung nghiên cứu về bài toán phân cụm Web sử dụng phương pháp xếp hạng. Trên cơ sở lý thuyết phân cụm Web và lựa chọn các đặc trưng của tiếng Việt, khóa luận đã sử dụng phương pháp xếp hạng các cụm từ quan trọng vào phân cụm các tài liệu Web tiếng Việt và tiến hành thực nghiệm. Kết quả thực nghiệm đánh giá theo các đặc trưng TFDF, độ dài (LEN), tương tự nội tại (ICS), entropy nội tại cụm văn bản (CE) cho thấy đặc trưng TFIDF và LEN có ảnh hưởng lớn hơn so với các đặc trưng khác.
42 trang |
Chia sẻ: lvcdongnoi | Lượt xem: 2733 | Lượt tải: 0
Bạn đang xem trước 20 trang tài liệu Sử dụng phương pháp xếp hạng trong bài toán phân cụm Tiếng Việt, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
string là 3 câu: “cat ate cheese”, "mouse ate
cheese too" , "cat ate mouse too". Phân tích với cây hậu tố với mỗi đơn vị là một từ. Ở
trong văn bản gồm 3 câu này sẽ có các cụm từ được đưa ra lần lượt như sau:
1. cat [2]( 1 3)
2. cat ate [2]( 1 3)
3. cat ate cheese [1]( 3)
4. cat ate mouse [1]( 1)
5. cat ate mouse too [1]( 1)
6. ate [3]( 1 2 3) (ate xuất hiện 3 lần trong cả 3 câu)
7. ate cheese [2]( 2 3)
8. ate cheese too [1]( 2)
9. ate mouse [1]( 1)
10. ate mouse too [1]( 1)
11. cheese [2]( 2 3)
12. cheese too [1]( 2)
13. mouse [2]( 1 2)
14.mouse ate cheese [1]( 2)
15.mouse ate cheese too [1]( 2)
16. mouse too [1]( 1)
17. too [2]( 1 2]
15
và cây hậu tố chúng ta xây dựng được sẽ là
tree1>|---cat ate cheese
|---ate cheese
|---cheese
Tree2>|---mouse ate cheese too
|---ate cheese too
|--- cheese too
|--- too
Tree3>|---cat ate mouse too
|---ate mouse too
|--- mouse too
|---too
Coi mỗi hậu tố là một vector. Ta so sánh độ tương đồng giữa các vetor và dùng các
thuật toán gom cụm để gom các câu trong văn bản lại và tổng hợp đưa ra vector đặc
trưng cho câu. Cây cuối cùng được đưa ra là
Tree|---cat ate|---cheese
| |----mouse
|
|---ate|---cheese|---too
| | |--- $
| |---mouse too
|
|---mouse|---too
| |---ate cheese too
|---cheese|---too
| |---$
|---too
16
Hình 2: Cây hậu tố mở rộng
Trong đó Node(a, b):
a= hậu tố thuộc câu
b= số thứ tự của lần xuất hiện
chúng ta gán nhãn cho tất cả các nút trong của cây. Mỗi nhãn này tương đương với
một từ hoặc một cụm từ nhận được từ các cạnh liền nhau từ gốc đến nhãn đó. Sau đó
đánh giá các nút này.
Node Cụm từ Văn bản
a Cat ate 1, 3
b Ate 1, 2, 3
c Cheese 1, 3
d Mouse 2, 3
e Too 2, 3
F Ate cheese 1, 2
Bảng 2: Các tài liệu chứa cụm từ ở các node
Và bằng cách này, cụm cơ sở được đưa ra dựa vào số văn bản mà cụm từ này xuất hiện
và số từ trong cụm. Công thức:
S(B) = |B| * f
17
Trong đó: |B| là số văn bản trong cụm cơ sở B
|P| số lượng từ hợp pháp trong cụm P (have non zero score)
zero score words: stopwords, quá ít(40%)
hàm f không xác định với các cụm từ có độ dài bằng 1, là một hàm tuyến tính với
những cụm từ có độ dài từ 2 đến 6 và sẽ không đổi với những cụm từ dài hơn 6.
(3)Một vấn đề đặt ra là các văn bản có thể chứa nhiều cụm từ giống nhau. Vì thế
với cách phân cụm cơ sở như trên thì việc 2 cụm cơ sở có chia sẻ chung một số văn
bản có xác suất khá lớn. Để tránh việc trùng lấp này chúng ta trộn những cụm có chứa
số văn bản dùng chung lại thành một cụm. Giả sử Bm and Bn là 2 cụm phân biệt. Gọi
|Bm∩Bn| là tập hợp các văn bản thuộc cả 2 cụm trên.
Chúng ta định nghĩa độ tương tự giữa 2 cụm là 1 nếu:
|Bm∩Bn|/|Bm| >0.5 và
|Bm∩Bn|/|Bn| > 0.5.
Và là 0 trong trường hợp còn lại
Hình 3: Kết quả sau khi trộn các tài liệu
Xét trong ví dụ trên. Các thông số được thể hiện như hình trên. Mỗi nút là một
cụm và mỗi cạnh nối với nhau thể hiện rằng độ tương tự giữa 2 cụm là lớn hơn 1 tức là
các cụm có tồn tại một cạnh nối có thể hợp lại với nhau thành một cụm. như vậy sơ đồ
trên thể hiện duy nhất một cụm.
18
Xét trong trường hợp của ví dụ này. Ta thấy b (ate) là một stopword, nút b sẽ
được đánh giá là 0. Như vậy các cạnh nối từ b cũng bị bỏ đi và chúng ta có 3 cụm
được đưa ra là “mouse too” “cat ate” “ate cheese”
1.3. Đánh giá các thuật toán phân cụm
Như đã được giới thiệu, thuật toán AHC thường chậm khi áp dụng cho các tập tài
liệu lớn. Các thuật toán khác theo hướng này như Single-link và Group-average có
thời gian thực hiện là O(n2), đồng thời thời gian kết nối hoàn toàn (complete-link) là
O(n3). Các thuật toán theo hướng này là quá chậm so với yêu cầu của bài toán phân
cụm Web. Một điểm đáng chú ý nữa đối với các thuật toán HAC là điều kiện dừng. Đã
có rất nhiều đề xuất về điều kiện dừng được đưa ra nhưng chủ yếu là dựa trên việc
điều kiện dừng đã được xác định trước (chẳng hạn, dừng khi chỉ còn 5 cụm). Điều kiện
dừng đối với các thuật toán này (HAC) là cực kỳ quan trọng. Nếu như thuật toán trộn
các cụm “tốt” với nhau có thể tạo ra kết quả không theo mong muốn của người dùng.
Trên Web, với kết quả trả về theo truy vấn là vô cùng đa dạng (về số lượng, độ lớn,
kiểu và sự phù hợp của các tài liệu) thì điều kiện dừng không tốt sẽ làm cho kết quả trở
nên nghèo nàn [6].
Thuật toán k-means thuộc vào lớp các thuật toán phân cụm thời gian tuyến tính
và là những lựa chọn tốt nhất để đáp ứng yêu cầu về tốc độ của bài toán phân cụm online.
Thời gian thực hiện của các thuật toán này là O(nk) trong đó k là số các cụm
mong muốn [6]. Thêm một ưu điểm của thuật toán K-means so với HAC là việc đáp
ứng các yêu cầu của bài toán phân cụm Web là nó có thể tạo ra các cụm có sự giao
thoa. Điểm yếu chính của thuật toán này là nó chạy hiệu quả nhất chỉ khi các cụm
mong muốn là các miền hình cầu đối với độ đo tương tự được dùng. Không có lý do gì
để tin rằng các tài liệu sẽ thuộc vào các miền cầu. Vì vậy thuật toán có thể làm mất đi
các thông tin có giá trị.
Các thuật toán như HAC hay K-means đều không là các thuật toán gia tăng. Một
số thuật toán gia tăng đã được phát triển như thuật toán phân cụm cây hậu tố (Suffix
Tree Clustering - STC), với thời gian thực hiện O(n) trong đó n là kích thước của tập
tài liệu[6].
19
Chương 2. Phân cụm văn bản tiếng Việt
2.1. Đặc trưng của tiếng Việt và tách từ trong tiếng việt
Có thể nói, khai phá web là giao thoa của khai phá dữ liệu, xử lý ngôn ngữ tự
nhiên và Word-Wide-Web. Vì vậy để có thể làm việc được với các tài liệu web tiếng
Việt cần phải tìm hiểu về các đặc trưng của tiếng Việt và việc tách từ tiếng Việt.
2.1.1. Đặc trưng của tiếng Việt
Tiếng Việt thuộc ngôn ngữ đơn lập, tức là mỗi một tiếng (âm tiết) được phát âm
tách rời nhau và được thể hiện bằng một chữ viết. Đặc điểm này thể hiện rõ rệt ở tất cả
các mặt ngữ âm, từ vựng, ngữ pháp. Dưới đây trình bày một số đặc điểm của tiếng
Việt theo các tác giả ở Trung tâm ngôn ngữ học Việt Nam đã trình bày Error!
Reference source not found..
a. Đặc điểm ngữ âm
Tiếng Việt có một loại đơn vị đặc biệt gọi là "tiếng", về mặt ngữ âm, mỗi tiếng là
một âm tiết. Hệ thống âm vị tiếng Việt phong phú và có tính cân đối, tạo ra tiềm năng
của ngữ âm tiếng Việt trong việc thể hiện các đơn vị có nghĩa. Nhiều từ tượng hình,
tượng thanh có giá trị gợi tả đặc sắc. Khi tạo câu, tạo lời, người Việt rất chú ý đến sự
hài hoà về ngữ âm, đến nhạc điệu của câu văn.
b. Đặc điểm từ vựng:
Mỗi tiếng nói chung là một yếu tố có nghĩa. Tiếng là đơn vị cơ sở của hệ thống
các đơn vị có nghĩa của tiếng Việt. Từ tiếng, người ta tạo ra các đơn vị từ vựng khác
để định danh sự vật, hiện tượng..., chủ yếu nhờ phương thức ghép và phương thức
láy.
Việc tạo ra các đơn vị từ vựng ở phương thức ghép luôn chịu sự chi phối của quy
luật kết hợp ngữ nghĩa, ví dụ: đất nước, máy bay, nhà lầu xe hơi, nhà tan cửa nát...
Hiện nay, đây là phương thức chủ yếu để sản sinh ra các đơn vị từ vựng. Theo phương
thức này, tiếng Việt triệt để sử dụng các yếu tố cấu tạo từ thuần Việt hay vay mượn từ
các ngôn ngữ khác để tạo ra các từ, ngữ mới, ví dụ như tiếp thị, karaoke, thư điện tử
(e-mail), thư thoại (voice mail), phiên bản (version), xa lộ thông tin, siêu liên kết văn
bản, truy cập ngẫu nhiên, v.v.
20
Việc tạo ra các đơn vị từ vựng ở phương thức láy thì quy luật phối hợp ngữ âm
chi phối chủ yếu việc tạo ra các đơn vị từ vựng, chẳng hạn như chôm chỉa, chỏng chơ,
đỏng đa đỏng đảnh, thơ thẩn, lúng lá lúng liếng, v.v.
Vốn từ vựng tối thiểu của tiếng Việt phần lớn là các từ đơn tiết (một âm tiết, một
tiếng). Sự linh hoạt trong sử dụng, việc tạo ra các từ ngữ mới một cách dễ dàng đã tạo
điều kiện thuận lợi cho sự phát triển vốn từ, vừa phong phú về số lượng, vừa đa dạng
trong hoạt động. Cùng một sự vật, hiện tượng, một hoạt động hay một đặc trưng, có
thể có nhiều từ ngữ khác nhau biểu thị. Tiềm năng của vốn từ ngữ tiếng Việt được phát
huy cao độ trong các phong cách chức năng ngôn ngữ, đặc biệt là trong phong cách
ngôn ngữ nghệ thuật. Hiện nay, do sự phát triển vượt bậc của khoa học-kĩ thuật, đặc
biệt là công nghệ thông tin, thì tiềm năng đó còn được phát huy mạnh mẽ hơn.
c. Đặc điểm ngữ pháp
Từ của tiếng Việt không biến đổi hình thái. Đặc điểm này sẽ chi phối các đặc
điểm ngữ pháp khác. Khi từ kết hợp từ thành các kết cấu như ngữ, câu, tiếng Việt rất
coi trọng phương thức trật tự từ và hư từ.
Việc sắp xếp các từ theo một trật tự nhất định là cách chủ yếu để biểu thị các
quan hệ cú pháp. Trong tiếng Việt khi nói “Anh ta lại đến” là khác với “Lại đến anh
ta”. Khi các từ cùng loại kết hợp với nhau theo quan hệ chính phụ thì từ đứng trước
giữ vai trò chính, từ đứng sau giữ vai trò phụ. Nhờ trật tự kết hợp của từ mà "củ cải"
khác với "cải củ", "tình cảm" khác với "cảm tình". Trật tự chủ ngữ đứng trước, vị ngữ
đứng sau là trật tự phổ biến của kết cấu câu tiếng Việt.
Phương thức hư từ cũng là phương thức ngữ pháp chủ yếu của tiếng Việt. Nhờ
hư từ mà tổ hợp “anh của em” khác với tổ hợp “anh và em”, “anh vì em”. Hư từ cùng
với trật tự từ cho phép tiếng Việt tạo ra nhiều câu cùng có nội dung thông báo cơ bản
như nhau nhưng khác nhau về sắc thái biểu cảm. Ví dụ, so sánh các câu sau đây:
- Ông ấy không hút thuốc.
- Thuốc, ông ấy không hút.
- Thuốc, ông ấy cũng không hút.
Ngoài trật tự từ và hư từ, tiếng Việt còn sử dụng phương thức ngữ điệu. Ngữ điệu
giữ vai trò trong việc biểu hiện quan hệ cú pháp của các yếu tố trong câu, nhờ đó nhằm
đưa ra nội dung muốn thông báo. Trên văn bản, ngữ điệu thường được biểu hiện bằng
21
dấu câu. Sự khác nhau trong nội dung thông báo được nhận biệt khi so sánh hai câu
sau:
- Đêm hôm qua, cầu gãy.
- Đêm hôm, qua cầu gãy.
Qua một số đặc điểm nổi bật vừa nêu trên đây, chúng ta có thể hình dung được
phần nào bản sắc và tiềm năng của tiếng Việt
2.1.2. Tách từ tiếng Việt
Các tác giả [6][12]rút ra một số đặc điểm của từ tiếng Việt như sau:
- là đơn vị có ranh giới trùng với hình vị và âm tiết
- không có sự biến đổi hình thái trong quá trình sử dụng
- là đơn vị có sẵn, được tái hiện trong khi nói
- có tính định hình hoàn chỉnh
- Có thể chia từ tiếng việt thành hai loại: từ đơn và từ phức
Chính từ những đặc điểm này mà tách từ là một khó khăn chính trong việc xử lý
các văn bản tiếng Việt. Mặc dù được viết bằng các ký tự La tinh mở rộng, tiếng Việt
cũng có những đặc tính chung với các ngôn ngữ Đông Nam Á khác như khó xác định
ranh giới giữa các từ và có các điểm khác biệt về phonetic, văn phạm và ngữ nghĩa so
với tiếng Anh. Do đó, rất khó có thể áp dụng các kỹ thuật và hướng tiếp cận đã được
nghiên cứu và thử nghiệm thành công trên tiếng Anh cho tiếng Việt nếu không xây
dựng thành công giải pháp cho việc tách từ trong văn bản tiếng Việt. Dưới đây là một
số điểm khác biệt chính giữa tiếng Việt và tiếng Anh được trình bày trong [12].
Đặc điểm Tiếng việt Tiếng Anh
Đơn vị cơ bản Tiếng Từ
Tiền tố/Hậu tố Không có Có
Từ loại Not unanimous Được định nghĩa rõ
Ranh giới từ Tổ hợp có nghĩa dựa vào
ngữ cảnh của các tiếng
Khoảng trắng hoặc
dấu câu
Bảng 3: So sánh một số đặc điểm của tiếng Việt và tiếng Anh
22
Những đặc điểm này làm cho việc tách từ tiếng việt trở nên khó khăn hơn. Dưới
đây là kết quả khảo sát về tách từ trong văn bản tiếng hoa và thống kê về tách từ tiếng
Việt được công bố hiện tại [12].
Hình 4: Thống kê về tách từ tiếng Hoa và tiếng Việt [12]
Các hướng tiếp cận dựa trên “từ”: được chia thành 3 nhóm: dựa vào thống kê,
dựa vào từ điển và nhóm lai, nhằm tách từ trọng vẹn trong câu. Các giải pháp dựa theo
hướng tiếp cận vào thống kê cần phải dựa vào thông tin thống kê như term, từ hay tần
số ký tự. hay xác suất cùng xuất hiện trong một tập dữ liệu cơ sở. Do đó, tính hiệu quả
của các giải pháp này chủ yếu dựa vào dữ liệu huấn luyện cụ thể được sử dụng. Trong
hướng tiếp cận dựa vào từ điển, các đoạn văn bản được đối sánh dựa vào từ điển. Việc
xây dựng từ điển các từ và ngữ pháp tiếng việt hoàn chỉnh là không khả thi. Hướng
tiếp cận lai áp dụng nhiều cách khác nhau để tận dụng ưu điểm của các giải pháp. Các
hướng tiếp cận để phân loại văn bản tiếng việt dựa vào từ chỉ khả thi khi có một bộ từ
vựng tốt.
23
Hướng tiếp cận dựa trên ký tự: có thể chia làm hai nhóm uni-gram và n-gram.
Các phương pháp này tuy đơn giản nhưng đã đem lại kết quả khả thi.
2.2. Một số nghiên cứu về phân cụm tiếng Việt
Cho đến nay đã có khá nhiều các công trình nghiên cứu về phân cụm trong tiếng
Việt và đều đạt được những kết quả khả quan. Dưới đây, khóa luận sẽ trình bày ba
nghiên cứu về phân cụm trong tiếng Việt là phân cụm từ tiếng Việt bằng phương pháp
học máy cấu trúc [2], đánh giá chất lượng phân cụm trong máy tìm kiếm tiếng Việt
[1], gom cụm đồ thị và ứng dụng vào việc trích rút nội dung chính của khối thông điệp
trên diễn đàn thảo luận[3].
2.2.1. Phân cụm từ tiếng Việt bằng phương pháp học máy cấu trúc
Nghiên cứu về phân cụm từ tiếng Việt là khá mới mẻ đối với bài toán tiếng
Việt[2]. Bài toán phân cụm từ tiếng việt được phát biểu như sau: gọi X là câu đầu vào
tiếng Việt bao gồm một dãy các từ tố ký hiệu X=(X1, X2,…, Xn). Cần xác định
Y=(Y1,Y2,…, Yn) là một dãy các nhãn cụm từ (cụm danh từ, cụm động từ). Bài toán
được qui về học đoán nhận dãy (có thể được thực hiện qua việc sử dụng các mô hình
học máy ….). Qui trình học được thực hiện bằng cách gán nhãn câu mới ( không thuộc
tập huấn luyện). Để thực hiện việc gán nhãn cụm cho câu tiếng việt, tác giả sử dụng
hai mô hình học khá thông dụng bao gồm: Conditional Random Fields (CRFs) và
Online Learing. Cả hai phương pháp đối với bài toán này đều dựa trên giả thuyêt các
từ tố trong câu X=(X1, X2,…, Xn) tuân theo quan hệ của chuỗi Markov. Hoạt động của
hệ thống góp nhóm từ tiếng việt được thể hiện ở hình dưới [2]:
24
Hình 5: Hệ thống phân cụm từ tiếng Việt theo phương pháp học máy cầu trúc
Trong thực nghiệm, tác giả sử dụng dữ liệu huấn luyện từ VTB (VietTree Bank)
cho bài toán phân cụm sử dụng mô hình CRFs và mô hình học Online Learning. Số
lượng dữ liệu không nhiều (260 câu được gán nhãn) nhưng kết quả thực nghiệm rất
khả quan.
2.2.2. Đánh giá chất lượng phân cụm trong máy tìm kiếm tiếng Việt
Nhóm tác giả nghiên cứu về các phương pháp đánh giá chất lượng phân cụm và
áp dụng đánh giá chất lượng kết quả phân cụm của máy tìm kiếm VNSEN. VNSEN là
máy tìm kiếm dựa trên mã nguồn mở có tích hợp phân cụm do nhóm tác giả phát triển.
Có nhiều phương pháp phân cụm khác nhau như k-mean, STC, HAC có thể áp dụng
vào phân cụm các trang Web trả về của máy tìm kiếm. Và việc đánh giá thường dựa
vào chất lượng kết quả phân cụm. Để người dùng có thể tìm được tài liệu mong muốn
một cách nhanh chóng thì cần phải gán nhãn các cụm tốt. Tồn tại một số phương pháp
đánh giá như sau [1]:
- Đánh giá phân cụm dựa vào kinh nghiệm của người dùng: nhãn cụm cần ngắn
gọn súc tích và không trùng lặp quá nhiều, số lượng cụm tạo ra vừa đủ để
người dùng không bị quá tải bởi các chủ đề quá cụ thể, nhãn cụm cần tránh
chứa các từ truy vấn. Thuật toán phân cụm phải đủ nhanh để có thể phân cụm
với lượng thời gian phù hợp. Xử lý ngôn ngữ cũng rất quan trọng để tránh các
từ gần nghĩa, đồng nghĩa.
25
- Các tiêu chí đánh giá độ kết dính và cô lập của các cụm: độ cô đọng súc tích
là độ dính kết hoặc đơn nhất của mỗi cặp đối tượng trong từng cụm riêng rẽ.
Độ cô lập đo sự tách biệt giữa hai cụm. Trong [1], Nguyễn Thi Thu Chung và
cộng sự giới thiệu 4 tiêu chuẩn đánh giá chất lượng cho phân cụm để bảo đảm
tính kết dính và độc lập là: giảm tối thiểu tổng khoảng cách (tổng khoảng cách
giữa trọng tâm các cụm với trọng tâm toàn cục và tổng khoảng cách giữa đối
tượng với trọng tâm của cụm chứa đối tượng), phân cụm sao cho độ tách biệt
giữa các cụm là lớn nhất, vị trí cụm của đối tượng và số lượng đối tượng có vị
trí cụm đúng.
- Phương pháp đánh giá dựa vào tập dữ liệu mẫu: chọn một chuẩn cơ sở để so
sánh khả năng phân cụm của bộ phân cụm: độ đo chất lượng phân cụm, đo
chất lượng của một hệ thống phân cụm bởi các mức. Một số độ đo được sử
dụng là MNI (normalized mutual information), độ hồi tưởng, độ chính xác, F,
Purity (chỉ ra độ tinh khiết, rõ ràng của cụm i).
Từ các phương pháp trên tác giả đã tiến hành đánh giá chất lượng phân cụm của máy
tìm kiếm VNSEN dựa trên cây phân cấp chủ đề và so sánh với kết quả phân cụm của
máy tìm kiếm vivisimo[1].
- Dựa vào cây phân cấp chủ đề: cây phân cấp chủ đề là một cấu trúc thư mục
Web lớn nhất được xây dựng. Tác giả tiến hành thu thập tài liệu trên
wikipedia tiếng Việt và tạo cây phân cấp thô ban đầu. Sau đó lọc ra các chủ
đề chưa có tài liệu, các tài liệu chưa có nội dung hoặc chưa được dịch. Thực
hiện tách các thẻ html. Hiện tại, đã xây dựng được cây phân cấp với 10 gốc
chủ đề và 500 chủ đề các cấp. Thử nghiệm và thông qua hai độ đo là F và
Purity cho thấy modul phân cụm có chất lượng tốt.
- So sánh kết quả phân cụm với máy tìm kiếm vivisimo: lựa chọn các truy vấn
tiếng Việt mang nghĩa tổng quát để phân cụm được rõ ràng. Tác giả lấy kết
quả trả về của google và tiến hành phân cụm với VNSEN. Sau đó so sánh kết
quả phân cụm của VNSEN và vivisimo.
Nguyễn Thi Thu Chung và cộng sự [1] đã trình bày các phương pháp đánh giá
chất lượng phân cụm và xây dựng cây phân cấp chủ đề dựa trên wikipedia tiếng Việt
để phục vụ đánh giá. Qua đó đánh giá chất lượng phân cụm của VNSEN và đưa ra kết
quả khả quan.
26
2.2.3. Gom cụm đồ thị và ứng dụng vào việc rút trích nội dung chính của khối
thông điệp trên diễn đàn thảo luận
Trong các hệ thống trực tuyến, diễn đàn thảo luận là phương tiện hữu hiệu để
trao đổi và khối lượng thông tin trên diễn đàn là rất lớn. Để người quản lý có thể nắm
bắt các nội dung chính của thông tin trao đổi trên diễn đàn trong một giai đoạn, cần
xây dựng một hệ thống gom cụm các thông điệp, hỗ trợ trích rút nội dung chính trong
khối thông điệp [3]. Đỗ Phúc và cộng sự trình bày cách sử dụng mạng Kohonen để
gom cụm các đồ thị đặc trưng văn bản và rút trích các ý chính từ khối văn bản hỗ trợ
tạo trích lược thông tin chính trong khối văn bản. Mạng Kohonen có thể gom cụm dữ
liệu mà không cần định trước số cụm. Các bước thực hiện của phương pháp này như
sau [3]:
- Biều diễn văn bản bằng đồ thị: trích rút các từ phổ biến trong văn bản, tính
các thành phần có ý nghĩa dựa trên tần suất xuất hiện đồng thời của hai từ
trong một câu, đoạn văn bản. Nếu tần suất xuất hiện đồng thời của hai từ lớn
hơn một ngưỡng cho trước thì sẽ xuất hiện một cung nối hai từ này. Ở đây,
các từ tiếng Việt cũng được tách đúng các từ đơn và từ ghép nhằm tạo chính
xác các đỉnh trong đồ thị.
- Dữ liệu nhập vào mạng Kohonen là tập các đồ thị đặc trưng văn bản. Sau khi
huấn luyện, các đồ thị nhập sẽ được gom vào các nút trên lớp ra của mạng
Kohonen. (Kết quả huấn luyện mạng Kohonen sẽ tạo trên lớp ra Kohonen các
cụm dữ liệu ứng với nhóm các nút gần nhau trên lớp ra Kohonen. Các mẫu
học sẽ thuộc về cụm có khoảng cách gần nhất từ nó đến nowrron trong cụm.
Các cụm có vị trí gần nhau trên mạng Kohonen sẽ chứa các đối tượng có mức
độ tương tự cao).
Qua thử nghiệm cho thấy hệ thống gom cụm văn bản biểu diễn bằng đồ thị có độ
chính xác cao hơn so với gom cụm văn bản được biểu diễn bằng vector [3].
Trên đây là một số những nghiên cứu về phân cụm văn bản trong tiếng Việt. Các
nghiên cứu đều cho những kết quả rất khả quan. Ở chương sau, khóa luận sẽ trình bày
phương pháp phân cụm văn bản dựa theo việc xếp hạng các cụm từ quan trọng [10].
Tiếp đó là phần thực nghiệm với việc áp dụng kỹ __________thuật phân cụm này đối với các văn
bản tiếng Việt là kết quả trả về của máy tìm kiếm Google
27
Chương 3. Phân cụm văn bản sử dụng
phương pháp xếp hạng cụm từ quan trọng
3.1. Khái quát bài toán
Với sự phát triển nhanh chóng của công nghệ thông tin thì các tài nguyên trên
internet cũng ngày càng phong phú và đa dạng. Việc tìm kiếm thông tin trên internet là
rất quan trọng và cần thiết đối với người sử dụng. Và việc tổ chức các kết quả tìm
kiếm thành các cụm làm cho người sử dụng dễ dàng hơn trong việc duyệt các kết quả
tìm kiếm. Theo [10] thì các kỹ thuật phân cụm truyền thống không phù hợp với phân
cụm kết quả tìm kiếm bởi chúng tạo ra các tên cụm “khó đọc”. Vì vậy, phương pháp
phân cụm ở đây sẽ đưa bài toán phân cụm về bài toán xếp hạng các cụm từ quan trọng.
Đưa ra truy vấn và lấy về một danh sách các tài liệu đã được xếp hạng từ máy tìm
kiếm, đầu tiên là tách các tài liệu thành các cụm từ, sau đó xếp hạng các cụm từ này.
Các cụm từ cũng chính là tên các cụm ban đầu (candidate cluster). Việc xếp hạng các
cụm từ dựa vào một mẫu hồi qui được học từ tập dữ liệu huấn luyện. Các tài liệu sẽ
được gắn với các cụm từ quan trọng tạo thành các cụm với tên cụm chính là tên của
cụm từ.
3.1.1. Nhu cầu về phân cụm các kết quả tìm kiếm
Tài nguyên trên internet rất phong phú và đa dạng, có thể nói, người sử dụng có
thể tìm kiếm thông tin về mọi lĩnh vực trên internet. Các máy tìm kiếm là công cụ tìm
kiếm hỗ trợ rất tốt cho người sử dụng. Tuy nhiên, với các máy tìm kiếm khá phổ biến
như Google [14], Yahoo [16], MSN [17] thì khi nhận một truy vấn từ người dùng, các
máy tìm kiếm này thường trả về một danh sách dài các kết quả tìm kiếm. Các kết quả
được xếp hạng theo sự phù hợp với truy vấn của người dùng dựa vào một số yếu tố
như các từ khóa trong tài liệu, mức tương tự với truy vấn, dựa theo link liên kêt,… Tuy
nhiên, danh sách kết quả trả về thường rất lớn. Thêm vào đó, đối với các truy vấn
“nhập nhằng”, có nhiều chủ đề liên quan thì người dùng rất khó khăn và tốn nhiều thời
gian xem xét các tiêu đề và đoạn tóm lược của tài liệu để tìm ra kết quả mong muốn.
Ví dụ với truy vấn “việt nam” trên máy tìm kiếm google. Số kết quả trả về là rất
lớn, vào khoảng 78 000 000.
28
Hình 6: Ví dụ với truy vấn “Việt Nam” trên máy tìm kiếm google[14]
Từ vấn đề được nêu ra ở trên, một giải pháp đưa ra là phân cụm các kết quả trả
về của máy tìm kiếm thành các nhóm khác nhau. Người sử dụng dựa vào mô tả của
các nhóm để chọn ra chủ đề mà họ cần tìm. Với mỗi chủ đề, các tài liệu có độ quan
trọng cao sẽ được đặt ở trên.
Vivisimo là tiêu biểu của phân cụm các kết quả tìm kiếm dựa theo cụm từ quan
trọng. Lấy ví dụ với truy vấn là “Việt Nam” trên máy tìm kiếm Vivisimo thu được 264
kết quả tìm kiếm, chia thành các cụm với mô tả các cụm rất trực quan.
Hình 7: Ví dụ với truy vấn “Việt Nam” trên máy tìm kiếm Vivisimo[15]
29
3.1.2. Mô tả bài toán và thuật toán
a.Mô tả bài toán
Phương pháp phân cụm ở đây là chuyển từ bài toán phân cụm không giám sát
sang bài toán xếp hạng có giám sát [10]. Chính xác hơn là đưa ra danh sách được xếp
hạng gốc của kết quả tìm kiếm R={r(di|q)}. Trong đó:
+ q là truy vấn hiện tại
+ di là một tài liệu
+ r là một hàm tính độ liên quan giữa di và q
Kỹ thuật phân cụm truyền thống cố gắng tìm ra một tập các cụm topic-coherent
C (các tài liệu trong cụm cùng hướng về một chủ đề) theo truy vấn q. Mỗi cụm được
kết hợp với một danh sách tài liệu mới, theo xác suất di có liên quan tới cả q và cụm
hiện tại:
C={Rj}, với Rj={r(di|q,Rj)} (1)
Trái lại, phương pháp phân cụm tài liệu dựa vào xếp hạng cụm từ [10] nhằm vào
tìm một danh sách đã xếp hạng của các cụm C’, với mỗi cụm kết hợp với một tên cụm
và còn thêm một danh sách đã xếp hạng mới của các tài liệu:
C’={r’(ck,Rk|q)} với Rk={r(di|q, ck)} (2)
Như trong (1) và (2), định nghĩa của các cụm được thay đổi bằng việc thêm các
tên cụm ck, và nhấn mạnh hạng của chúng bằng hàm r’, để cải tiến việc có thể đọc
được của các cụm. Phương pháp phân cụm ở đây loại ra yêu cầu về topic-coherence
của các cụm, độ phức tạp của thuật toán giảm xuống. Tính chất không mạch lạc chủ đề
(non-topic-coherence) không được coi là một mặt hạn chế của phương pháp này bởi vì
nó không ảnh hưởng đến hiệu quả của việc duyệt của người dùng [10].
b. Mô tả thuật toán
Phương pháp phân cụm không yêu cầu xác định trước các mục chủ đề
(categories) như phương pháp phân lớp. Do đó, chúng thích hợp hơn với các câu truy
vấn về nhiều nội dung khác nhau. Tuy nhiên, phương thức phân cụm thử thách hơn
phương thức phân lớp bởi vì chúng được hướng dẫn theo cách không giám sát. Hơn
nữa, hầu hết các thuật toán phân cụm truyền thống nhất không thể trực tiếp sử dụng
cho phân cụm kết quả tìm kiếm. Ví dụ, thuật toán phải đưa ra các tóm tắt tài liệu thay
cho các tài liệu đưa vào, vì việc tải các tài liệu gốc tốn nhiều thời gian; thuật toán phân
30
cụm phải đủ nhanh cho tính toán online; và các cụm được tạo ra phải có mô tả dễ đọc
để người dùng có thể duyệt nhanh chóng, vv… Đây cũng là các yêu cầu trong thiết kế
thuật toán.
Phương pháp phân cụm dựa vào xếp hạng các cụm từ quan trọng [10] đã đưa bài
toán phân cụm kết quả tìm kiếm sang bài toán xếp hạng các cụm từ quan trọng. Theo
đó, bài toán phân cụm không giám sát sẽ được chuyển sang bài toán học có giám sát.
Mặc dù phương thức học có giám sát yêu cầu thêm dữ liệu huấn luyện, nhưng nó làm
cho việc thực hiện nhóm kết quả tìm kiếm cải tiến đáng kể, và chúng ta có thể đánh giá
thuật toán một cách chính xác hơn. Đưa ra một truy vấn và lấy về danh sách được xếp
hạng các kết quả trả về của một máy tìm kiếm, trước tiên là phân tích cú pháp toàn bộ
danh sách tài liệu gồm tiêu đề và nội dung tóm tắt (snippet), trích ra tất cả các cụm từ
có thể (n-grams) từ nội dung, và tính một vài đặc trưng cho mỗi cụm từ như là tần suất
cụm từ, tần suất tài liệu, độ dài cụm từ, vv… Một mô hình hồi quy đã học từ dữ liệu
huấn luyện được áp dụng để kết hợp các thuộc tính này trong điểm quan trọng riêng.
Các cụm từ được xếp hạng tăng dần theo điểm quan trọng, và các cụm từ có hạng top
được lấy như là các cụm từ quan trọng. Các cụm từ quan trọng là tên các cụm ban đầu,
các cụm được hợp lại theo các tài liệu phù hợp của chúng.
Phương pháp phân cụm ở đây phù hợp hơn với phân cụm kết quả tìm kiếm web
vì nó nhấn mạnh hiệu quả của việc nhận ra những cụm thích hợp cho người dùng web.
Nó tạo ra tên cụm ngắn (và vì vậy hi vọng rằng dễ đọc hơn), các tên cụm ngắn cho
phép người dùng xác định nhanh hơn các chủ đề của một cụm. Hơn nữa, các cụm
được xếp hạng theo điểm quan trọng của chúng, do đó các cụm thích hợp hơn với yêu
cầu của người sử dụng được xếp hạng cao hơn.
Thuật toán phân cụm theo cụm từ quan trọng bao gồm 4 bước[10]:
(1) Lấy về kết quả tìm kiếm từ máy tìm kiếm
(2) Phân tích cú pháp tài liệu và tính toán các đặc trưng của cụm từ
(3) Xếp hạng cụm từ quan trọng
(4) Xử lý tiếp theo để tạo ra các cụm
Bước đầu tiên lấy trang web của các kết quả đã kiếm trả về bởi một máy tìm
kiếm web. Các trang web này được phân tích bởi bộ phân tích cú pháp HTML và kết
quả trả về được trích ra. Thông thường, chỉ các tiêu đề và các đoạn tóm tắt (snippet) có
thể sử dụng trong mỗi mục kết quả. Giả sử là các nội dung này cung cấp đủ tin tức cần
31
thiết vì hầu hết các máy tìm kiếm được thiết kế để người dùng dễ dàng tìm các tài liệu
liên quan chỉ bằng tiêu đề và đoạn tóm tắt (snippet), do đó nó có thể biểu thị hầu hết
các nội dung liên quan cho câu truy vấn đưa ra. Mỗi cụm từ được trích là tên của cụm
ban đầu, phù hợp với một tập các tài liệu có chứa cụm từ. Trong lúc đó, một vài đặc
trưng của mỗi cụm từ được tính trong quá trình phân tích cú pháp. Các đặc trưng này
được mô tả trong phần sau của khóa luận.
Trong bước thứ hai, các tiêu đề và đoạn tóm tắt (snippet) được phân tích cú pháp
để loại bỏ các thẻ HTML và hệ thống dấu chấm câu, tách thành các n-grams với n có
giá trị từ 1 đến 3. Trong quá trình sinh n-gram vẫn tồn tại các từ dừng, vì vậy chúng có
thể ở ngay sát với các từ khóa có ý nghĩa trong các tên cụm. Trong bước xử lý sau, các
từ dừng này sẽ được loại bỏ. Cũng với lý do như vậy, các từ truy vấn cũng tồn tại
trong bước phân tích cú pháp và sẽ được lọc ra ở bước xử lý sau. Tiến hành tính 5 đặc
trưng với mỗi cụm từ bao gồm: Phrase Frequency/Inverted Document Frequency,
Phrase Leng, Intra-cluster, Cluster Entropy, Phrase Independence
Với các đặc trưng được nêu ở trên, một mô hình hồi qui được sử dụng, mô hình
này được học từ dữ liệu huấn luyện trước, để kết hợp các đặc trưng này thành một
điểm quan trọng . Các cụm từ quan trọng được xếp hạng bằng điểm ở trên theo sắp xếp
giảm dần. Như vậy, các cụm ở trên sẽ có hạng cao hơn. Sau khi các cụm từ quan trọng
được xếp hạng, các tài liệu tương ứng được kết hợp tạo thành các cụm ban đầu, các
cụm từ quan trọng chính là tên của cụm.
Trong bước xử lý sau, các cụm từ chỉ chứa các từ dừng hoặc các từ truy vấn được
lọc ra. Tiếp theo tiến hành ghép các cụm từ, để làm giảm các cụm từ giống nhau. Đặc
biệt, nếu phần chung của hai cụm vượt quá một ngưỡng nào đó (trong thực nghiệm của
[10] ngưỡng được chọn là 75%), chúng được ghép vào thành một cụm. Cùng lúc đó,
các tên cụm được điều chỉnh theo cụm mới tạo ra từ việc ghép các cụm. Cuối cùng,
top các cụm được đưa ra cho người dùng. Khi một người dùng lựa chọn một cụm,
danh sách tài liệu liên quan được đưa ra cho người dùng. Danh sách tài liệu này có thể
như trong thứ tự gốc hoặc sẽ xếp hạng lại theo sự kết hợp cụm từ quan trọng.
3.2. Trích các cụm từ quan trọng
Việc trích các cụm từ từ các tài liệu và tính toán các đặc trưng là vấn đề quan
trọng của phương pháp phân cụm này. Đặc biệt là đối với các tài liệu tiếng việt bởi đặc
32
điểm của tiếng việt như đã nêu trong chương 2. Mỗi cụm từ được thể hiện bởi 5 đặc
trưng [10]. Các đặc trưng được tính toán ở đây là TFDF (Phrase Frequency/Inverted
Document Frequency), độ dài (Phrase leng LEN), Tương tự nội tại (Intra-cluster
similarity - ICS), entropy cụm (Cluster entropy -CE), độc lập cụm từ (Phrase
Independence - IND). Những đặc trưng này là cơ sở để xác định độ quan trọng của
cụm từ.
Trong phần mô tả các đặc trưng dưới đây, w biểu diễn một cụm từ đang xét
(một n-gram), D(w) biểu diễn tập các tài liệu có chứa cụm từ w.
3.2.1. Đặc trưng TFIDF
Đặc trưng này được tính như ý nghĩa của IFIDF. TFIDF là kết hợp của tần số từ
khóa (TF: Term Frequency) và nghịch đảo số văn bản chứa từ khóa (IDF: Inverted
Document Frequency).
Tần số từ khóa (TF: Term Frequency) là tần suất xuất hiện của từ khóa đó trong
tài liệu. Một cách trực quan thì một từ là quan trọng cho một tài liệu nếu từ đó xuất
hiện nhiều lần trong tài liệu đó.
Nghịch đảo số văn bản (IDF: Inverted Document Frequency): Theo [6] thì IDF là
nghịch đảo số văn bản chứa từ khóa. Không phải tất cả các từ khóa có độ quan trọng
như nhau và vì vậy giá trị trọng số tương ứng với các từ không quan trọng phải nhỏ. Ví
dụ, tần số của các từ chức năng như “và”, “hoặc”, “cũng” thường rất lớn và sẽ gây
nhiễu đến nội dung của tài liệu. IDF tìm cách co lại trọng số tương ứng với các từ khóa
xuất hiện trong nhiều văn bản.
IDF=log(N/|D(w)|)
Với N là tổng số tài liệu.
Trọng số từ (TFIDF) là tích của tần suất từ khóa TF và nghịch đảo số văn bản
chứa từ khóa đó và được xác định bằng công thức:
TFIDF = f(w).log(N/|D(w)|)
Trong đó f(w) là hàm tính tần số của cụm từ w.
TFIDF là một phương pháp chuẩn thường được sử dụng để biểu diễn độ quan
trọng của từ khóa trong tài liệu. TFIDF của một cụm từ sẽ giảm nếu như cụm từ đó
xuất hiện trong hầu hết các tài liệu. Vì vậy , một từ xuất hiện quá ít hoặc quá nhiều
được đánh giá ít quan trọng hơn so với các từ xuất hiện cân bằng.
33
3.2.2. Đặc trưng độ dài
Đặc trưng này là số lượng các từ trong một cụm từ.
Ví dụ: LEN(“nhà”) = 1
LEN(“việt nam”) = 2
Trong quá trình sinh các n-gram từ tiêu đề và đoạn tóm tắt, giá trị của n nằm
trong khoảng từ 1 đến 3. Như vậy đối với từ tiếng Việt thì số lượng từ trong một cụm
từ thường có giá trị từ 1 đến 6. Đối với người sử dụng, thường thì những cụm từ dài sẽ
mang ý nghĩa rõ ràng hơn, và nó sẽ thuận lợi hơn cho người sử dụng trong quá trình
tìm kiếm cụm liên quan đến vấn đề cần tìm. Do đó, các cụm từ có giá trị LEN lớn sẽ
có độ quan trọng lớn hơn.
LEN = n
3.2.3. Đặc trưng tương tự nội tại cụm
Một trong những yêu cầu đối với phân cụm là các tài liệu trong cùng một cụm
phải có độ tương tự lớn hơn so với tài liệu ở các cụm khác. Nếu một cụm từ là một mô
tả tốt cho một chủ đề riêng thì các tài liệu có chứa cụm từ đó sẽ có độ tương tự với
nhau. Đặc trưng này dùng để đo độ chặt (compaccnes) của các tài liệu chứa cụm từ với
cụm từ đó. Đầu tiên, các tài liệu được chuyển thành các vector trong không gian
vector:
di = (xi1, xi2,…)
Mỗi thành phần của vector mô tả một unigram riêng và có giá trị là TFIDF của
unigram này. Số chiều của vecto là tổng số unigram của toàn bộ dữ liệu. Khi biểu diễn
một tài liệu, nếu một unigram không có trong tài liệu đó thì giá trị của nó là 0. Với mỗi
cụm ban đầu, trọng tâm của nó được tính theo công thức:
Với di là tài liệu có chứa cụm từ w.
ICS là độ lệch giữa các tài liệu với trọng tâm của cụm.
34
Với cos(di,o) = di.o/||di||.||o||
3.2.4. Đặc trưng entropy nội tại cụm
Theo Lê Quyết Thắng và cộng sự [4], entropy được định nghĩa như sau “entropy
là một đại lượng toán học dùng để đo lượng tin không chắc( hay lượng tin ngẫu nhiên)
của một sự kiện hay của phân phối ngẫu nhiên cho trước”.
Giả sử x là một biến ngẫu nhiên trong không gian mẫu x=(x1, x2,…, xn) với độ đo
xác suất P(xn)=pn. Entropy của x được định nghĩa là:
H(x)= - Σ pilogpi
i≤n
Với pn=0 thì H(x) có giá trị bằng 0 vì xlog(x)->0 khi x->0.
Một số đặc tính của entropy[18]:
- entropy tỉ lệ thuận liên tục với các xác suất xuất hiện của các phần tử ngẫu
nhiên. Thay đổi nhỏ trong xác suất phải dẫn đến thay đổi nhỏ trong entropy.
- Nếu các phần tử ngẫu nhiên đều có xác suất xuất hiện bằng nhau thì việc
tăng số lượng phần tử ngẫu nhiên sẽ làm tăng entropy.
Trong bài toán phân cụm ở đây, xét với cụm từ w, tập các tài liệu có chứa w là
D(w) có thể có phần giao với tập tài liệu D(wi) chứa cụm từ wi với wi khác w. Với
trường hợp D(w) phân bố đều trong D(wi), tức là có nhiều tài liệu chứa cả hai cụm từ
w và wi thì w có thể là cụm có độ quan trọng cao. Với trường hợp D(w) hiếm khi
chồng lên với D(wi) thì w có thể mang một nghĩa riêng. Sử dụng đặc trưng entropy ở
đây để mô tả tính riêng của cụm từ.
Trong công thức này, nếu không có tài liệu nào chứa cả hai cụm từ w và t tức là
D(w) giao với D(t) bằng 0 thì sẽ xuất hiện log0. Vì vậy ở đây coi 0log0=0
3.2.5. Đặc trưng độc lập cụm từ
Theo [8], một cụm từ là độc lập khi entropy trong ngữ cảnh của nó là cao. Ký
hiệu IND là tính độc lập của một cụm từ. INDl là giá trị độc lập của ngữ cảnh trái của
35
cụm từ w, INDr là giá trị độc lập của ngữ cảnh phải của cụm từ w. Các công thức tính
các giá trị INDl, INDr, IND ở dưới được lấy từ [10].
l(w) là tập các từ ở liền kề trái của w trong tập tài liệu, r(w) là tập các từ ở liền
kề phải của w trong tập tài liệu. Giá trị độc lập của ngữ cảnh trái của w được xác định
như công thức ở dưới.
INDr được tính tương tự như INDl. Giá trị IND cuối cùng của w là trung bình của
INDl và INDr
3.3. Xếp hạng các cụm từ quan trọng
Với 5 thuộc tính ở trên, phương pháp phân cụm ở đây sẽ sử dụng dữ liệu đã huấn
luyện để học một mô hình hồi qui. Từ đó tính ra điểm quan trọng của mỗi cụm từ, và
dựa vào điểm quan trọng để xếp hạng cụm từ.
Hồi qui [10] là một bài toán thống kê kinh điển xác định mối quan hệ giữa hai
biến ngẫu nhiên x = (x1,x2,…,xn) và y. Trong phương pháp phân cụm này, biến độc lập
x là vector của 5 thuộc tính đã miêu tả ở trên x = (TFIDF,LEN, ISC, CE, IND) và biến
độc lập y là một giá trị thực nào đó. Ở đây, y là điểm của các cụm từ, y càng cao thì độ
quan trọng của cụm từ càng cao.
Một vài kiểu hồi qui có thể được sử dụng như hồi qui tuyến tính (linear
regression), hồi qui logistic (logistic regression) và hồi qui hỗ trợ vector (support
vector regression). Dưới đây sẽ trình bày sơ lược về các mô hình hồi qui.
3.3.1. Hồi qui tuyến tính
Mô hình hồi qui tuyến tính tìm mối quan hệ của x và y với một đường thẳng phù
hợp với dữ liệu. Mô hình hồi qui tuyến tính đưa ra là:
36
Với sai số e là một biến ngẫu nhiên độc lập, phân phối theo luật phân phối chuẩn,
có giá trị trung bình là 0. Hệ số bj (0<=j<=p) được xác định là tổng của bình phương
phần dư nhỏ nhất có thể được. Vì vậy, kết hợp tuyến tính với bj tốt hơn bất cứ hệ số
nào khác. Biến xj có thể lấy trực tiếp từ inputs hoặc một vài biến đổi, như log hoặc đa
thức, của inputs.
3.3.2. Hồi qui logistic
Khi biến độc lập y không phải là biến liên tục mà là biến mang tính đo lường nhị
phân: có giá trị là 0 hoặc 1, mô hình hồi qui logistic phù hợp hơn vì những gì cần
chính xác không phải là một giá trị số rõ ràng của biến độc lập, nhưng khả năng xảy ra
giá trị là 1, còn lại là 0 (q=P(y=1)).
Trong [5] trình bày về hồi qui logistic như sau: giả sử một tần số biến cố x ghi
nhận từ n đối tượng, xác suất của biến cố đó là:
q = x/n
q có thể xem là một chỉ số đo lường nguy cơ của một biến cố. Một cách thể hiện
nguy cơ khác là odds (khả năng). Khả năng của một biến cố được định nghĩa đơn giản
là tỉ số xác suất biến cố xảy ra trên xác suất biến cố không xảy ra:
odds = p/p-1
Hàm logit của odds được định nghĩa như sau:
q có thể chỉ trong giải từ 0 đến 1, logit(q) chạy từ âm vô cùng đến dương vô
cùng. Hồi qui logistic cố gắng tìm hệ số bj (0<=j<=p) phù hợp với x.
Thay cho việc sử dụng một bình phương nhỏ nhất độ lệch tiêu chuẩn cho phù
hợp nhất, hồi qui logistic sử dụng một phương thức có thể xảy ra lớn nhất với khả
năng lớn nhất của việc lấy các kết quả quan sát đưa ra hệ số hồi quy.
3.3.3. Hồi qui hỗ trợ vector (Support vector regression)
Trong hồi qui hỗ trợ vecto, x đưa vào được sắp xếp lên trên một không gian đặc
trưng nhiều chiều (hight dimensional feature space) sử dụng một vài sắp xếp không
tuyến tính, và sau đó một mô hình tuyến tính được xây dựng trong không gian riêng
37
này. Hồi qui hỗ trợ vector sử dụng một kiểu mới của hàm hao phí gọi là hàm hao phí
epsilon-insensitive:
Hồi qui hỗ trợ vector cố gắng làm nhỏ ||ω||2. Điều này có thể được mô tả bởi
việc đưa vào các biến slack (không âm) ξi, ξi* với i=1, 2,..., n, để đo độ lệch của mẫu
huấn luyện bên ngoài miền epsilon-sensitive. Do đó mô hình hỗ trợ vecto được chính
thức hóa (formalized) như giá trị nhỏ nhất của hàm dưới đây:
Bài toán tối ưu hóa này có thể được chuyển vào bài toán đối ngẫu (dual) và vì
vậy các hàm nhân non-linear có thể được sử dụng để làm mô hình non-linear.
Trên đây là mô tả bài toán cũng như kỹ thuật phân cụm dựa theo các cụm từ quan
trọng. Trong phần tiếp theo, khóa luận sẽ trình bày phần thực nghiệm đã được tiến
hành dựa theo kỹ thuật phân cụm dựa vào các cụm từ quan trọng thực hiện trên các tài
liệu tiếng Việt. Các tài liệu được lấy từ kết quả trả về của máy tìm kiếm Google [14].
Sau đó là kết quả của thực nghiệm và đánh giá hiệu quả phương pháp cũng như kết
quả của của thực nghiệm.
38
Chương 4. Thực nghiệm và đánh giá
4.1. Dữ liệu của thực nghiệm
Dữ liệu của thực nghiệm được lấy từ danh sách các kết quả trả về của máy tìm
kiếm google [14]. Thực hiện gán nhãn dữ liệu cho 10 truy vấn. 10 truy vấn được chọn
thuộc ba loại truy vấn: truy vấn nhập nhằng, tên thực thể, các cụm từ chung. Các truy
vấn này được lựa chọn bởi chúng có nhiều chủ đề nhỏ, sẽ có lợi cho việc phân cụm các
kết quả tìm kiếm. 10 truy vấn được liệt kê trong bảng:
Loại truy vấn Truy vấn
Truy vấn nhập nhằng Ma trận, thăng long
Tên thực thể Việt Nam, Hà Nội, Nguyễn Trãi
Cụm từ chung
Quốc gia, công nghệ, tài khoản,
thị trường, mùa hè
Bảng 4: Các truy vấn trong tập huấn luyện
Với mỗi truy vấn, thực hiện tìm kiếm trên máy tìm kiếm google[14] và lấy về 50
kết quả đầu tiên bao gồm tiêu đề và đoạn tóm tắt của tài liệu. Sử dụng phần mềm
JVnTextPro (của Nguyễn Cẩm Tú và Phan Xuân Hiếu, đại học Công nghệ, đại học
quốc gia Hà Nội) để phân tích cú pháp và tách từ tiếng việt. Ví dụ về tách từ:
(tiêu đề): việt_nam – wikipedia tiếng_việt
(tóm tắt): Để tìm_hiểu các chính_thể trước đây, xin xem việt_nam (định hướng).
Để tìm_hiểu về quốc_hiệu việt_nam, xem bài quốc_hiệu việt_nam.
Sau đó trích tất cả các n-grams (n<=3), loại bỏ các cụm từ có số tần số nhỏ hơn
3. Với mỗi truy vấn sẽ thu được khoảng từ 100 đến 150 cụm từ. Tập huấn luyện gồm
10 truy vấn với 1386 cụm từ.
Đưa các cụm từ này tới 3 người hỏi để lựa chọn các “good phrases” và “medium
phrases”. Mỗi người được hỏi sẽ lựa chọn ra 10 “good phrases” (ấn định 100 điểm cho
các cụm từ này), 10 “medium phrases” (ấn định 50 điểm cho các cụm từ này). Các
cụm từ khác sẽ có điểm là 0. Cuối cùng cộng 3 điểm này lại với nhau. Các cụm từ với
điểm từ 100 trở lên thì y sẽ được gán giá trị là 1, các cụm từ khác giá trị của y là 0.
39
STT Truy vấn Số cụm từ Số giá trị y=1
1 Việt Nam 85 19
2 Máy tính 163 23
3 Quốc gia 123 22
4 Thị trường 122 21
5 Ma trận 196 22
6 Tài khoản 165 29
7 Mùa hè 164 21
8 Nguyễn Trãi 139 21
9 Hà Nội 106 26
10 Công nghệ 123 35
Bảng 5: Số cụm từ và số giá trị y=1 trong tập dữ liệu huấn luyện
Ở đây giá trị của y được gán là 0 hoặc 1 nhưng ở đầu ra của mô hình hồi qui hỗ
trợ vector (cụ thể là SVM rank [19]) thì điểm quan trọng của các cụm từ có giá trị từ
âm vô cùng đến dương vô cùng. Với mỗi cụm từ, thực hiện tính toán 4 đặc trưng
TFIDF, LEN, ICS, CE.
4.2. Cài đặt thực nghiệm
4.2.1. Phần cứng
Mô trường thực nghiệm:
- Hệ điều hành Windows XP
- Vi xử lý Pentium 4
- RAM 256
40
4.2.2. Phần mềm
- Khóa luận sử dụng phần mềm tách từ tiếng Việt JvnTextPro của tác giả
Nguyễn Cẩm Tú và Phan Xuân Hiếu (trường đại học Công nghệ, đại học
quốc gia Hà Nội).
- Khóa luận xây dựng chương trình sinh n-gram và tính các đặc trưng của các
cụm từ. Chương trình được viết bằng ngôn ngữ python phiên bản 2.6.1.
- Bộ mã nguồn mở SVM rank - Support Vector Machine for Ranking của tác
giả Thorsten Joachims [19] được sử dụng để xếp hạng các cụm từ quan
trọng. Thông số được thiết lập cho mô hình hồi qui hỗ trợ vector này là
thông số -c (được gán giá trị là 3) là giá trị chuyển đổi giữa lỗi của tập huấn
luyện và độ lệch chuẩn. Tham số epsilon được đặt mặc định.
4.3. Phương pháp đánh giá
Thuật toán phân cụm truyền thống rất khó đánh giá, tuy nhiên với phương pháp
phân cụm trong khóa luận, việc đánh giá tương đối dễ vì bài toán phân cụm được đưa
về bài toán xếp hạng. Vì vậy, có thể sử dụng phương pháp đánh giá kinh điển trong
tìm kiếm thông tin.
Sử dụng đúng (P) @ trong N kết quả đầu để đánh giá kết quả thực nghiệm.
P@N = |C ∩ R|/|R|
Với R là tập hợp của top N từ khóa quan trọng đã trả về bởi thực nghiệm trong
khóa luận và C là tập hợp các từ khóa quan trọng đúng. Trong khóa luận sẽ sử dụng
P@5, P@10 và P@15 để đánh giá
4.4. Kết quả thực nghiệm và đánh giá
Kết quả huấn luyện với SVM-rank như sau:
Epsilon: 2.807000
Thời gian huấn luyện: 109.92 giây
Số bước lặp: 16
Đầu tiên sử dụng mỗi đặc trưng đã nêu ở chương 3 của khóa luận (4 đặc trưng
là TFIDF, LEN, ICS, CE) để xếp hạng các cụm từ, và đánh giá độ chính xác của 10
truy vấn. Độ chính xác trung bình của 5, 10,15 kết quả đầu được thể hiện ở bảng và
41
biểu đồ. Vì rất nhiều từ có cùng giá trị LEN nên TFIDF được sử dụng như là tiêu
chuẩn thứ hai để xếp hạng trong việc đánh giá của LEN.
P@5 P@10 P@15
TFIDF 0.3 0.35 0.24
LEN 0.26 0.22 0.26
ICS 0.12 0.11 0.06
CE 0.24 0.13 0.18
Bảng 6: Độ chính xác khi sử dụng từng đặc trưng để xếp hạng
Hình 8: Biểu đồ độ chính xác khi sử dụng từng đặc trưng để xếp hạng
Như biểu đồ trên ta thấy mỗi đặc trưng thể hiện không tốt trong việc xếp hạng
các cụm từ khi thực hiện riêng. Xét trong 4 đặc trưng thì TFIDF và LEN tỏ ra tốt hơn
trong việc xác định độ quan trọng của cụm từ. Trong khi đó, đặc trưng ICS tỏ ra không
tốt để xác định độ quan trọng của cụm từ. Điều này có thể là do mỗi tài liệu chỉ gồm
có tiêu đề và đoạn tóm tắt rất ngắn nên không gian vecto dựa vào độ tương tự có lỗi
khá lớn.
42
Lấy 5 truy vấn trong tập huấn luyện để đánh giá độ chính xác, kết quả được mô
tả trong bảng và biểu đồ.
Việt Nam Thị trường Quốc gia Công nghệ Nguyễn trãi
P@5 0.8 0.4 0.8 1 0.8
P@10 0.8 0.5 0.7 0.8 0.7
P@15 0.73 0.53 0.73 0.67 0.67
Bảng 7: Độ chính xác của từng truy vấn
Hình 9: Biểu đồ độ chính xác của từng truy vấn
Có thể nhận thấy độ chính xác ở đây là khá cao song không đều do có sự khác
nhau về độ chính xác khá rõ giữa các truy vấn. Với truy vấn “thị trường” độ chính xác
thấp, bởi vì top các cụm từ quan trọng có chứa từ truy vấn như “thị trường vàng”, “thị
trường bất động sản”,”thông tin thị trường”. Các truy vấn “công nghệ” và “việt nam”
có độ chính xác cao hơn, top các cụm từ quan trọng miêu tả các chủ đề nhỏ rõ ràng. Ví
dụ với truy vấn là “việt nam” thì top các cụm từ quan trọng theo thứ tự là: phật giáo,
khoa học, kinh tế, trực tuyến, lịch sử, tiếng Việt, diễn đàn, thế giới, quốc tế, lĩnh vực.
Từ phần thực nghiệm trên có thể thấy phương pháp phân cụm tài liệu dựa vào
các cụm từ quan trọng áp dụng trên các văn bản tiếng Việt có kết quả khá khả quan.
Các cụm từ quan trọng mô tả khá tốt cho một cụm. Trong mỗi cụm, các tài liệu nhìn
43
chung có liên quan đến cùng chủ đề. Tuy nhiên việc tách các từ tiếng Việt vẫn còn hạn
chế nên trong các cụm từ sinh ra vẫn còn nhiều cụm từ có cùng nội dung, ví dụ như
“việt nam” ,“viet nam” (đúng dạng phải là “việt_nam’, “viet_nam”). Do đó thực
nghiệm vẫn chưa thực hiện được bước xử lý sau, đó là loại bỏ các cụm chỉ có từ dừng,
loại bỏ các từ truy vấn, và gộp các cụm có phần giao nhau vượt qua một ngưỡng định
trước (ví dụ là 75%).
44
Kết luận
Từ việc nghiên cứu bài toán và kỹ thuật phân cụm văn bản dựa vào các cụm từ
quan trọng trên các tài liệu tiếng việt, có thể thấy phương pháp phân cụm cho kết quả
khá tốt khi các cụm từ mô tả khá tốt cho một cụm có độ quan trọng khá cao.
Về mặt nội dung, khóa luận đã đạt được những kết quả sau:
- Tổng hợp có hệ thống các nội dung cơ bản nhất về phân cụm văn bản (khái
niệm, đặc trưng, các kỹ thuật phân cụm phổ biến và đánh giá các kỹ thuật
phân cụm).
- Đề cập được ảnh hưởng đặc điểm của từ tiếng Việt, kỹ thuật tách từ tiếng
Việt vào phân cụm văn bản tiếng Việt.
- Phân tích kỹ lưỡng kỹ thuật phân cụm dựa vào cụm từ quan trọng và những
đặc trưng của cụm từ tiếng Việt cần đánh giá, lựa chọn để sử dụng trong
thuật toán phân cụm.
- Xây dựng chương trình trên ngôn ngữ python phiên bản 2.6.1 sinh n-gram
và tính các đặc trưng được lựa chọn của các cụm từ để xác định độ quan
trọng tích hợp với phần mềm tách từ tiếng Việt JVnTextPro và khai thác mã
nguồn mở SVM-rank để tiến hành thực nghiệm xác định độ quan trọng của
các cụm từ và cho kết quả về ảnh hưởng của các đặc trưng cụm từ vào phân
cụm, trong đó các đặc trưng TFIDF và LEN có ánh hưởng lớn hơn.
Bên cạnh đó, do thời gian và kiến thức có hạn nên khóa luận vẫn còn một vài hạn
chế sau:
- Theo trực quan thì các từ tiếng Việt vẫn chưa được tách một cách chính xác
hoàn toàn.
- Kỹ thuật phân cụm dựa vào cụm từ quan trọng được đưa ra cần tính 5 đặc
trưng là TFIDF, LEN, ICS, CE, và IND. Tuy nhiên, chương trình được xây
dựng để tính các đặc trưng mới chỉ dừng lại ở việc tính 4 đặc trưng là
TFIDF, LEN, ICS, CE.
- Tập huấn luyện với các truy vấn khá tốt, song lượng truy vấn chưa nhiều (10
truy vấn) và mới mỗi truy vấn chỉ lấy 50 kết quả trả về từ máy tìm kiếm.
điều này cũng ảnh hưởng độ chính xác của kết quả thực nghiệm.
45
- Thực nghiệm mới chỉ dừng lại ở bước tính ra điểm quan trọng của cụm từ,
chưa xây dựng được chương trình xử lý sau khi có độ quan trọng của cụm
từ. Vì vậy việc tạo ra các cụm cũng như đánh giá kết quả thực nghiệm vẫn
phải thực hiện bằng tay.
Trong tương lai, khóa luận có thể tiếp tục được hoàn thiện theo các hướng sau:
- Thử nghiệm trên nhiều bộ dữ liệu khác nhau và với các mô hình hồi qui
khác.
- Xây dựng chương trình xử lý sau khi có được độ quan trọng của các cụm từ,
từ đó đưa ra các cụm với các tài liệu có chứa cụm từ.
46
Tài liệu tham khảo
Tiếng Việt
[1] Nguyễn Thị Thu Chung, Nguyễn Thu Trang, Hà Quang Thụy, “Đánh giá chất
lượng phân cụm trong máy tìm kiếm tiếng Việt”, Hội thảo Quốc gia lần thứ XI,
Huế, Việt Nam
[2] Nguyễn Lê Minh, Hoàng Cao Trụ, “Phân cụm từ tiếng Việt bằng phương pháp
học máy cấu trúc”, thực hiện trong khuôn khổ đề tài Nhà nước “Nghiên cứu
phát triển một số sản phẩm thiết yếu về xử lý tiếng nói và văn bản tiếng Việt”
mã số KC01.01/06-10
[3] Đỗ Phúc, Mai Xuân Hùng, Nguyễn Thị Kim Phụng, “gom cụm đồ thị và ứng
dụng vào việc trích rút nội dung chính của khối thông điệp trên diễn đàn thảo
luận”, Tạp chí phát triển KH & CN, tập 11, số 05-2008.
[4] Lê Quyết Thắng, Phan Tấn Tài, Dương Văn Hiếu, “Giáo trình lý thuyết thông
tin”, Khoa CNTT & truyền thông, đại học Cần Thơ, 2007,
tin31/GT_LTTT.pdf
[5] Nguyễn Văn Tuấn, “Phân tích số liệu và tạo biểu đồ bằng R”, nhà xuất bản
Khoa học kỹ thuật, tr 94-101
[6] Hà Quang Thụy, “Khai phá dữ liệu Web”, Bài giảng, Trường Đại học Công
nghệ, ĐHQGHN, 2008.
[7] Trung tâm ngôn ngữ học Việt Nam. “Đặc điểm tiếng Việt”,
Tiếng Anh
[8] Chien L. F. "PAT-Tree-Based Adaptive Keyphrase Extraction for Intelligent
Chinese Information Retrieval". Proceedings of the 20th Annual International
ACM/SIGIR Conference on Research and Development in Information
Retrieval (SIGIR'97), pages 50-58, Phliadelphia, 1997.
47
[9] Christopher D. Manning, Prabhakar Raghavan, Hinrich Schutze, “An
introduction to Information Retrival”, Cambridge University, 2007, page 349-
400
[10] Hua-jun zeng, Qi-cai He, Zheng Chen, Wei-Ying Ma, Jinwen Ma.
"Learning to Cluster Web Search Results". Proceedings of SIGIR-04, 27th
ACM International Conference on Re-search and Development in Information
Retrieval, 2004, Sheffield, South Yorkshire, UK
[11] Paolo Ferragina, Dino Pedreschi, Francesco Romani, “On two web IR
Boosting tools: Clustering and Ranking”, PhD. Thesis, University of Pisa May
6, 2006, page 34-38.
[12] Thanh V. Nguyen, Hoang K. Tran, Thanh T.T. Nguyen and Hung Nguyen,
“Word Segmentation for Vietnamese Text Categorization: An online corpus
approach”, IEEE RIVF2006 - Research, Innovation and Vision of the Future -
The 4rd IEEE International Conference in Computer Science, Ho Chi Minh
City, Vietnam, 2/2006
[13] Zamir O., Etzioni O. Web Document Clustering: "Web Document
Clustering: A Feasibility Demonstration", Proceedings of SIGIR 1998: 46-54
[14] Máy tìm kiếm google,
[15] Máy tìm kiếm vivisimo,
[16] Máy tìm kiếm yahoo,
[17] Máy tìm kiếm MSN,
[18] Entropy,
[19] Support Vector Machine for Ranking,
Các file đính kèm theo tài liệu này:
- Sử dụng phương pháp xếp hạng trong bài toán phân cụm tiếng việt.doc