Có thể nói, phương pháp được đề xuất trong chương này là phương pháp khả
thi cho trích chọn collocations trong tiếng Việt. Độ chính xác đạt được ở cả hai giai
đoạn đều khá cao. Điểm nổi bật của phương pháp này là nó cho phép trích chọn các
collocations là n-gram. Giai đoạn 1 đóng vai trò trích chọn các collocation là bigram.
Độ chính xác giai đoạn này đạt được trong khoảng trên 80% và trong phạm vi luận văn
này, độ chính xác cao nhất đạt được khi ngưỡng k0bằng 0.25 là 88%.
49 trang |
Chia sẻ: lylyngoc | Lượt xem: 2592 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Luận văn Các kỹ thuật xác định collocation và ứng dụng cho tiếng việt, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
Nói
cách khác, chúng ta có thể chắc chắn hơn rằng Ruhollah sẽ xuất hiện tại ví trí tiếp theo
nếu chúng ta biết rằng Ayatollah là từ đang xét.
Có thể thấy rằng thông tin tương hỗ phản ánh khá tốt tính độc lập giữa hai sự
kiện. Giá trị thông tin tương hỗ tiệm cận 0 chứng tỏ hai sự kiện độc lập nhưng giá trị
thông tin tương hỗ lớn hơn 0 không thực sự phản ánh được quan hệ phụ thuộc giữa hai
biến vì quan hệ phụ thuộc còn phụ thuộc rất nhiều vào tần suất xuất hiện 2 sự kiện.
Nói cách khác, hai từ có giá trị thông tin tương hỗ lớn chưa hẳn đã là một collocation.
Một giải pháp cho vấn đề này được đưa ra đó là tách ngưỡng với một tần suất lớn hơn
một giá trị ngưỡng. Tuy nhiên, điều này vẫn chưa thực sự giải quyết được vấn đề đang
tồn tại, mà chỉ giảm nhẹ tác động của nó. Một hạn chế nữa của phương pháp này là do
nó dựa trên giả định là hai từ tạo thành collocation phải có quan hệ phụ thuộc lẫn
nhau, tập kết quả thường bao gồm cả các cụm từ không phải là collocations nhưng có
quan hệ với nhau về nghĩa (ví dụ: doctor-nurse, doctor-dentist).
Như đã nói ở trên, thông tin tương hỗ không thực sự phản ánh khả năng có thể
tạo thành collocation của 2 từ (x,y), do đó, phương pháp trích chọn collocations dựa
trên thông tin tương hỗ thường chỉ tồn tại trong các nghiên cứu về lý thuyết và thường
không được sử dụng trong các ứng dụng thực tế. Bảng 2-6 minh họa một số
collocations được trích chọn bằng phương pháp sử dụng thông tin tương hỗ.
Bảng 2-6: Một số collocation trích chọn được bằng phương pháp dựa trên thông tin tương hỗ
w1 w2 w1 w2 freq w1 freq w2 freq PMI – score
nền kinh_tế_thị_trường 67 1544 84 6.69599122813447
15
tài_nguyên thiên_nhiên 28 111 161 7.80551708204994
lý_luận chính_trị 21 35 940 6.90754163914149
đội quân 106 1835 461 5.28221694345149
sạt_lở nặng 22 82 1166 5.88723597735516
kháng_chiến chống 104 281 2121 5.61064041341448
gây hoang_mang 12 5308 12 5.68727674271944
2.4. KẾT QUẢ THỰC NGHIỆM
Do cả 4 phương pháp được đề cập ở trên đều nhận đầu vào là tập các bigram và
thông tin về tần suất xuất hiện của chúng, chúng tôi chia quá trình trích chọn
collocations dựa trên các phương pháp thống kê làm 3 bước chính: bước 1: trích chọn
bigram; bước 2: chạy thử nghiệm trên các mô hình; và bước 3: đánh giá kết quả thu
được. Từ việc xây dựng các mô hình thử nghiệm khác nhau, thu thập kết quả, đánh giá
và so sánh, chúng tôi đề xuất mô hình hiệu quả cho việc trích chọn collocations trong
tiếng Việt dựa trên thống kê. Phần bên dưới sẽ trình bày chi tiết hơn về dữ liệu sử
dụng, ba bước chính trong quá trình trích chọn collcations và một số đề xuất, nhận xét
về kết quả thu được.
2.4.1. Khái quát về dữ liệu sử dụng
Chúng tôi tiến hành thử nghiệm bốn phương pháp trên với đầu vào là ba bộ dữ
liệu. Ba bộ dữ liệu này đều xuất phát từ cùng một tập dữ liệu được sưu tầm từ báo Lao
Động và PCWorld gồm khoảng 300,000 câu, tương đương với 7,142,500 từ. Điểm
khác nhau duy nhất giữa các bộ dữ liệu là ở thông tin về nhãn từ loại và cú pháp. Ba
bộ dữ liệu được đề cập bao gồm một bộ dữ liệu chỉ được tách từ đơn thuần, một bộ
được gán nhãn từ loại và một bộ đã được phân tích cú pháp. Thông tin về nhãn từ loại
và cú pháp sẽ được sử dụng để loại bỏ các bigrams không phù hợp; từ đó, làm tăng độ
chính xác của chương trình trích chọn.
Bộ gán nhãn từ loại được chúng tôi sử dụng là bộ vnTagger – một bộ công cụ mã
nguồn mở được phát triển bởi tác giả Lê Hồng Phương, có thể được download từ trang
với độ chính xác đạt xấp xỉ 95% (*).
Bộ nhãn được sử dụng bao gồm 17 nhãn chính. Bảng 2-7 trình bày bộ nhãn sử dụng
bởi bộ vnTagger.
Bảng 2-7: Bộ nhãn sử dụng bởi vnTagger
STT Nhãn Chú thích
1 N Danh từ
16
2 Np Danh từ riêng
3 Nc Danh từ chỉ loại
4 Nu Danh từ đơn vị
5 V Động từ
6 A Tính từ
7 P Đại từ
8 L Định từ (lượng từ)
9 M Số từ
10 R Phụ từ
11 E Giới từ
12 C Liên từ
13 I Thán từ
14 T Trợ từ, tiểu từ, từ tình thái
15 U Từ đơn lẻ
16 X Từ viết tắt
17 Y Các từ không phân loại được
(*):
Bộ phân tích cú pháp được sử dụng là bộ phân tích được phát triển bởi nhóm Lê
Anh Cường, Nguyễn Phương Thái, Vương Hoài Vũ, Phạm Minh Thu, Hồ Tú Bảo;
được trình bày trong bài báo “An Experimental on Lexicalized Statiscal Parsing for
Vietnamese” trình bày tại hội nghị KSE năm 2009, tổ chức tại trường ĐH Công
Nghệ, ĐH Quốc Gia Hà Nội; với độ chính xác khoảng 78%. Bộ phân tích cú pháp
cũng sử dụng bộ nhãn được miêu tả trong bảng 2-7.
2.4.2. Trích chọn bigrams
Vì cả bốn phương pháp đều nhận đầu vào là một file chứa thông tin về các
bigrams và tần suất xuất hiện của chúng, chúng tôi xây dựng một module riêng chỉ
đảm nhiệm việc trích chọn bigram, và kết quả của quá trình trích chọn sẽ được dùng
làm đầu vào cho cả 4 phương pháp. Như đã đề cập ở phần trên, chúng tôi tiến hành
chạy thử nghiệm cả 4 phương pháp trên 3 bộ dữ liệu. Các bộ dữ liệu đều xuất phát từ
cùng một nguồn, nên có thể nói về cơ bản chúng giống nhau. Điểm khác nhau duy
nhất giữa ba tập dữ liệu là thông tin về nhãn từ loại và thông tin cú pháp. Tuy nhiên,
nhìn vào công thức của cả bốn phương pháp, chúng ta thấy không chỗ nào đề cập đến
thông tin về cú pháp hay thông tin từ loại. Công thức được sử dụng trong cả 3 trường
hợp đều như nhau nhưng kết quả thực nghiệm lại khác nhau. Điều này có thể được giải
thích đơn giản là do chúng tôi áp dụng ba cách trích chọn bigram khác nhau cho 3 tập
dữ liệu. Nói cách khác, các thông tin thêm vào ở mỗi tập dữ liệu được đưa vào mô
hình trích chọn bigram để lọc ra các bigram không phù hợp. Chi tiết về các mô hình
trích chọn bigram cho từng bộ dữ liệu sẽ được trình bày chi tiết ở phần bên dưới.
17
2.4.2.1. Mô hình trích chọn bigrams cho bộ dữ liệu đã được tách từ
Với đầu vào là một file văn bản đơn thuần, chương trình sinh các bigram thỏa mãn
hai điều kiện sau:
- Hai từ tạo thành bigram phải nằm trong cùng 1 câu và có khoảng cách giữa chúng
không quá window_size từ nhất định.
- Hai từ tạo thành bigram phải không được là một trong số các từ: {là, hả, hử, à, ừ,
và, không, rất, sẽ, đã, rồi, được, đây, đó, nay, này, kia, sao, tại, ở, về, thì, rằng, để,
nhiều, ít, chỉ, với, bằng, của, cho, các, có, vẫn, những, lại, mà, kia, quá, một, cũng,
như, đây, đấy, đó, sau, khi, một, trong, cả, tới, từ, đến, bị}
Vì các từ tạo thành collocation có quan hệ với nhau, nên ta giới hạn hai từ tạo
thành bigram phải nằm trong cùng một cửa sổ có độ lớn window_size từ. Các nghiên
cứu về collocations trong tiếng Anh cho thấy, độ lớn cửa sổ thích hợp nhất cho hai từ
tạo thành bigram là 5 từ. Với tiếng Việt, chưa nghiên cứu nào đưa ra độ lớn cửa sổ
thích hợp nhất cho việc trích chọn collocation trong tiếng Việt; vì vậy, với nỗ lực tìm
ra độ lớn cửa sổ phù hợp nhất cho việc trích chọn bigram trong tiếng Việt, trong phạm
vi luận văn này, chúng tôi cho window_size chạy từ 1 đến 5. 5 file bigram được chiết
xuất đều được dùng làm đầu vào cho các phương pháp được nêu ở chương 3. Thêm
vào đó, qua thực nghiệm chúng tôi xác định được các từ được đưa ra trong điều kiện
thứ 2 làm giảm đáng kể độ chính xác của chương trình trích chọn; do đó, chúng tôi
quyết định loại bỏ các từ đó trong quá trình sinh bigrams. Cũng dựa trên thực nghiệm,
chúng tôi nhận thấy việc lọc ngưỡng tần số cho file bigram đầu vào sẽ cải thiện đáng
kể độ chính xác các phương pháp, do đó các file bigram trong giới hạn luận văn này
đều được lọc ngưỡng tần số bằng 10. Kết quả sau khi chạy chương trình là 2 file: file
bigram chứa thông tin về bigram (hai từ tạo thành cách nhau bởi dấu cách trắng) cùng
tần suất xuất hiện của nó trong văn bản, và file unigram chứa thông tin về các từ đơn
lẻ và tần suất xuất hiện của chúng trong file bigram kết quả.
2.4.2.2. Mô hình trích chọn bigrams cho bộ dữ liệu đã được gán nhãn
Một số nghiên cứu cho tiếng Đức[15, 35] hay nghiên cứu cho tiếng Anh của
Justeson và Katz[28] đã khẳng định việc trích chọn các collocations theo các mẫu cho
trước sẽ đem lại hiệu quả cao hơn. Do đó, chúng tôi tiến hành thử nghiệm phương
pháp này cho tiếng Việt, với các mẫu trích chọn có dạng: VN, VA, NA và NN. Trong
đó N là danh từ, A là tính từ, V là động từ. Tập dữ liệu đầu vào đã được gán nhãn với
bộ nhãn sử dụng được miêu tả trong bảng 2-7. Do chúng tôi trích chọn các bigram dựa
trên mẫu, nên độ lớn cửa sổ không cần giới hạn trong bước này. Giả sử một bigram có
18
cấu trúc dạng w1w2; khi đó, w1w2 là kết quả sau khi chạy chương trình khi và chỉ khi
nó thỏa mãn 2 điều kiện sau:
- w1 là một động từ hoặc 1 danh từ
- w2 là một danh từ hoặc tính từ xuất hiện đầu tiên sau w1 trong cùng một cụm danh
từ (tương ứng với w1 là danh từ) hoặc động từ (tương ứng với w1 là động từ) và
không có động từ nào xen ngang giữa w1 và w2.
Kết quả sau khi chạy chương trình là 2 file: file bigram chứa thông tin về bigram
cùng tần suất xuất hiện của nó trong văn bản; và file unigram chứa thông tin về các
unigram và tần suất xuất hiện của nó trong danh sách bigram. Các bigram có tần suất
nhỏ hơn 10 sẽ bị loại khỏi danh sách kết quả.
2.4.2.3. Mô hình trích chọn bigrams cho bộ dữ liệu đã được phân tích cú pháp
Mô hình trích chọn bigram cho bộ dữ liệu đã được phân tích cú pháp cũng
tương tự như mô hình trích chọn bigram cho bộ dữ liệu đã gán nhãn. Tuy nhiên, với bộ
dữ liệu đã gán nhãn: các bigram có dạng VN và VA phải có hai từ thành phần thuộc
cùng một cụm động từ; các bigram có dạng NA hoặc NN phải có hai từ thành phần
thuộc cùng một cụm danh từ; và trong cả hai trường hợp, không có động từ xen ngang
giữa hai từ. Kết quả sau khi chạy chương trình cũng là hai file: file bigram chứa thông
tin về bigram cùng tần suất xuất hiện của nó trong văn bản; và file unigram chứa thông
tin về các unigram và tần suất xuất hiện của nó trong danh sách bigram. Các bigram có
tần suất nhỏ hơn 10 cũng bị loại khỏi danh sách kết quả.
2.4.3. Các mô hình thử nghiệm
Với các bộ dữ liệu được miêu tả trong phần trên, chúng tôi xây dựng các mô hình
thử nghiệm trên bốn phương pháp đã được đề cập. Vì mục đích của luận văn là nghiên
cứu độ chính xác của các phương pháp trích chọn cho tiếng Việt cũng như tác động
của việc tiền xử lý văn bản lên các phương pháp trích chọn và do số lượng các file
bigram được sinh ra từ tập dữ liệu chỉ được tách từ khá lớn(do độ lớn cửa sổ thay đổi,
với mỗi cửa sổ, ta lại thu được một tập bigram); chúng tôi tiến hành thử nghiệm từng
phương pháp trên cả ba bộ dữ liệu, và chỉ tiến hành thử nghiệm các phương pháp kết
hợp trên bộ dữ liệu đã được gán nhãn và được phân tích cú pháp. Các mô hình thử
nghiệm được chia làm hai nhóm chính: thử nghiệm trên từng phương pháp và thử
nghiệm bằng cách kết hợp ba hoặc bốn phương pháp. Với các phương pháp kết hợp,
trong phạm vi luận văn này, việc kết hợp mới chỉ dừng lại ở mức lọc ra các kết quả
trùng khớp từ tập kết quả chạy riêng lẻ của 3 hoặc cả 4 phương pháp trên cùng một tập
dữ liệu đầu vào. Như vậy, chúng ta sẽ có tất cả 9 mô hình thử nghiệm (4 đơn lẻ, 4 kết
19
hợp của 3 phương pháp, và 1 kết hợp của cả 4 phương pháp) để chạy với các bộ dữ
liệu đầu vào thay đổi. Trong phần tiếp theo, chúng tôi sẽ trình bày chi tiết hơn về kết
quả thu được từ việc chạy chương trình trên các mô hình thử nghiệm đã được trình
bày.
2.4.4. Kết quả thực nghiệm
Phương pháp kiểm thử chủ yếu trong các nghiên cứu về collocations đến thời
điểm này[19, 34, 40] vẫn là phương pháp thủ công. Do vậy, trong giới hạn của luận
văn này, chúng tôi cũng áp dụng phương pháp kiểm thử bằng tay để đánh giá độ chính
xác của chương trình trích chọn. Với mỗi tập kết quả, chúng tôi lấy ra 500 kết quả đầu
tiên. Từ 500 kết quả đó, chúng tôi cho sinh ngẫu nhiên 100 kết quả. 100 kết quả thu
được từ quá trình sinh ngẫu nhiên này sẽ được đánh giá bằng tay từ đó dùng để đánh
giá độ chính xác của chương trình. Phần bên dưới trình bày chi tiết hơn về kết quả
thực nghiệm thu được.
2.4.4.1. Bộ dữ liệu chỉ được tách từ đơn thuần
Chạy thử nghiệm bốn phương pháp trên bộ dữ liệu chỉ được tách từ, với độ lớn
cửa sổ thay đổi từ 1 đến 5, ta sẽ thu được 20 tập kết quả. Bảng 2-8 và hình 2-1 minh
họa kết quả thu được bằng phương pháp kiểm thử bằng tay khi chạy các mô hình thực
nghiệm trên bộ dữ liệu đã được tách từ.
Bảng 2-8: Kết quả chạy thực nghiệm 4 phương pháp trên bộ dữ liệu đã được tách từ với độ
lớn cửa sổ thay đổi từ 1 đến 5
Window
size
Freq-
based
Chi-
square
PMI T-test
1 62% 66% 69% 71%
2 57% 65% 67% 65%
3 46% 59% 55% 64%
4 47% 66% 68% 61%
5 43% 60% 69% 70%
20
Hình 2-1: Kết quả chạy 4 phương pháp khi chạy trên bộ dữ liệu chỉ được tách từ với độ lớn
cửa sổ thay đổi từ 1 đến 5
Nhìn vào hình vẽ và bảng chúng ta thấy độ lớn cửa sổ bằng 1 đem lại kết quả khả
quan nhất. Khi so sánh các phương pháp, phương pháp kiểm tra t đem lại độ chính
xác cao nhất cho tiếng Việt, phương pháp kiểm tra Chi bình phương và phương pháp
dựa trên thông tin tương hỗ (PMI) cũng đem lại kết quả khá khả quan, trong khi đó,
phương pháp dựa trên tần số mang lại độ chính xác thấp hơn hẳn, đặc biệt khi độ lớn
cửa sổ tăng lên và có độ chính xác bị ảnh hưởng nhiều nhất bởi độ lớn cửa sổ. Độ
chính xác của phương pháp trích chọn dựa trên tần số tỉ lệ nghịch với độ lớn của cửa
sổ. Qua thực nghiệm, chúng tôi cũng nhận thấy phương pháp kiểm tra t và phương
pháp kiểm tra Chi có độ trùng khớp về kết quả khác lớn, và cả hai phương pháp này
thích hợp hơn cho việc trích chọn các collocations có dạng cụm danh từ cố định, đặc
biệt là cụm danh từ riêng (ví dụ: Bộ Công_An, Đoàn thanh_tra, Bí_thư Đảng_ủy,
Công_nương Diana…).
2.4.4.2. Bộ dữ liệu đã được tách từ và gán nhãn từ loại
Bảng 2-9 và hình 2-2 minh họa kết quả thu được khi chạy thử nghiệm 9 mô
hình trên tập dữ liệu đã gán nhãn.
Bảng 2-9: Kết quả thu được khi chạy 9 mô hình trên bộ dữ liệu đã được gán nhãn từ loại
Freq-
based
Chi-
square
PMI T-test
Freq-
Chi-PMI
Freq-Chi-
T-test
Chi-PMI-
T-test
Freq-PMI-
T-test
Freq-Chi-
PMI-T-test
65% 63% 65% 64% 57% 56% 66% 55% 66%
0%
10%
20%
30%
40%
50%
60%
70%
80%
Freq-based Chi-square PMI T-test
Window_size = 1
Window_size = 2
Window_size = 3
Window_size = 4
Window_size = 5
21
Hình 2-2: Kết quả thử nghiệm trên bộ dữ liệu đã được gán nhãn
Nhìn vào bảng kết quả và hình vẽ, chúng ta thấy, nếu xét các mô hình thực
nghiệm dựa trên các phương pháp riêng lẻ, các phương pháp đạt độ chính xác xấp xỉ
nhau, trong khoảng từ 63%-65%; phương pháp dựa trên thông tin tương hỗ và phương
pháp dựa trên tần số đem lại kết quả cao nhất. Khi xét các phương pháp kết hợp, việc
kết hợp cả 4 phương pháp và việc kết hợp 3 phương pháp: phương pháp kiểm tra chi,
phương pháp kiểm tra t, và phương pháp dựa trên thông tin tương hỗ tỏ ra thích hợp
nhất. Sở dĩ kết quả trích chọn từ 3 bộ 3 phương pháp còn lại thấp là do tập kết quả của
các phương pháp đó khác nhau khá nhiều, độ lớn của tập kết quả nhỏ, do đó, tập kết
quả chung của 3 phương pháp sẽ chứa nhiều bigram không phải là collocation; dẫn
đến làm giảm độ chính xác của các phương pháp. Qua đánh giá kết quả, chúng ta cũng
nhận thấy thông tin về nhãn từ loại, với cách áp dụng đã được trình bày, không cải
thiện độ chính xác của quá trình trích chọn.
2.4.4.3. Bộ dữ liệu đã được phân tích cú pháp
Hình 2-9 và bảng 2-3 minh họa kết quả chạy thực nghiệm trên 9 mô hình, với bộ dữ
liệu đầu vào đã được phân tích cú pháp.
Bảng 2-10: Kết quả chạy thực nghiệm 9 mô hình trên bộ dữ liệu đã được phân tích cú pháp
Freq-
based
Chi-
square
PMI T-test
Freq-
Chi-PMI
Freq-Chi-
T-test
Freq-PMI-
T-test
Chi-PMI-
T-test
Fre-Chi-
PMI-T-test
78% 75% 89% 84% 87% 92% 86% 85% 88%
0%
10%
20%
30%
40%
50%
60%
70%
Hiệu suất
22
Hình 2-3: Kết quả chạy thực nghiệm 9 mô hình trên bộ dữ liệu đã được phân tích cú pháp
Nhìn vào bảng và hình vẽ chúng ta thấy thông tin cú pháp làm cải thiện đáng kể
độ chính xác chương trình trích chọn trên cả 9 mô hình thử nghiệm. Sự kết hợp 3
phương pháp: phương pháp dựa trên tần số, phương pháp dựa trên thông tin tương hỗ,
và phương pháp kiểm tra t đem lại độ chính xác cao nhất, tuy nhiên, phương pháp kết
hợp cả 4 phương pháp, phương pháp dựa trên thông tin tương hỗ cũng đem lại độ
chính xác rất cao.
2.4.4.4. Đánh giá
Hình 2-4: Kết quả chạy thực nghiệm trên tất cả các mô hình với 3 tập dữ liệu đầu vào
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Hiệu suất
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Window_size = 1
Window_size = 2
Window_size = 3
Window_size = 4
Window_size = 5
POS_TAGGED
PARSED
23
Bảng 2-11: Kết quả chạy thực nghiệm trên tất cả các mô hình thực nghiệm
Phương pháp
Dữ liệu chỉ được tách từ Dữ liệu đã
gán nhãn
Dữ liệu đã phân
tích cú pháp w = 1 w = 2 w = 3 w = 4 w = 5
Freq-based 62% 57% 46% 47% 43% 65% 78%
Chi-square 66% 65% 59% 66% 60% 63% 75%
PMI 69% 67% 55% 68% 69% 65% 89%
t-test 71% 65% 64% 61% 70% 64% 87%
Freq-Chi-PMI 57% 87%
Freq-Chi-T-test 56% 92%
Chi-PMI-T-test 66% 86%
Freq-PMI-T-test 55% 85%
Freq-Chi-PMI-T-test 66% 88%
Nghiên cứu và thực nghiệm cho thấy, các phương pháp thống kê cổ điển đạt độ
chính xác khá cao trong trích chọn collocations trong tiếng Việt. Hình 2-4 minh họa
kết quả thu được từ tất cả các mô hình thực nghiệm trên tất cả các bộ dữ liệu. Nhìn vào
đồ thị ta thấy, phương pháp dựa trên tần số có độ chính xác thấp hơn cả và phương
pháp kiểm tra t tỏ ra khả quan nhất. Khi xét các phương pháp kết hợp, kết quả cho thấy
phương pháp kết hợp cả 4 phương pháp đã giúp cải thiện độ chính xác chương trình,
đặc biệt trên bộ dữ liệu đã được phân tích cú pháp.
Quả thật, độ chính xác của chương trình trích chọn dựa trên tần số với bộ dữ
liệu gán nhãn đã được cải thiện đáng kể, tuy nhiên, độ chính xác của các phương pháp
còn lại trên bộ dữ liệu đã được gán nhãn không đạt được độ chính xác cao như mong
đợi. Có thể nói, thông tin về nhãn từ loại không làm cải thiện độ chính xác các phương
pháp kiểm định giả thuyết và dựa trên thông tin tương hỗ, thậm chí còn làm giảm đáng
kể độ chính xác của các phương pháp kết hợp so với việc áp dụng cho các phương
pháp riêng lẻ. Nguyên nhân của vấn đề này có thể là do độ chính xác của chương trình
gán nhãn cũng như việc áp dụng các mô hình trích chọn không phù hợp với các
phương pháp đó.
Kết quả chạy thử nghiệm cả 9 mô hình thử nghiệm trên cả 3 bộ dữ liệu cho thấy
thông tin cú pháp thêm vào làm cải thiện đáng kể độ chính xác của chương trình trích
chọn. Thông tin cú pháp thêm vào đã có tác dụng tích cực đối với độ chính xác của
chương trình. Độ chính xác cao nhất trong trích chọn collocations cho bộ dữ liệu đã
được phân tích cú pháp, sử dụng phương pháp kết hợp cả bốn phương pháp lên tới
khoảng 90%. Như vậy, phương pháp trích chọn collocations bằng cách kết hợp cả 4
phương pháp trên bộ dữ liệu đã được phân tích cú pháp có thể nói là hướng trích chọn
collocations thích hợp nhất cho tiếng Việt.
24
Tuy nhiên cần phải chú ý là độ chính xác của chương trình cũng bị ảnh hưởng
không nhỏ bởi độ chính xác của chương trình phân tích cú pháp và chương trình gán
nhãn từ loại. Do vậy, lựa chọn một chương trình phân tích cú pháp phù hợp cũng làm
ảnh hưởng không nhỏ tới độ chính xác chương trình
25
Chương 3. MỘT PHƯƠNG PHÁP KẾT HỢP ÁP DỤNG CHO TRÍCH
CHỌN COLLOCATIONS CÓ DẠNG CỤM DANH TỪ
Các phương pháp được trình bày ở chương 2 chỉ có thể trích chọn được các
collocations là bigrams. Song trên thực tế, collocations có dạng n-grams cũng xuất
hiện khá thường xuyên trong các văn bản. Do vậy, một yêu cầu rất tự nhiên là trích
chọn cả các collocations có dạng n-grams. Một phương pháp đơn giản được đề xuất có
thể là trích chọn tất cả các n-grams trong tập dữ liệu để làm đầu vào cho các phương
pháp thống kê nhằm trích chọn danh sách collcoations. Tuy nhiên, cách tiếp cận đó có
độ phức tạp và thời gian tính toán khổng lồ. Chính vì vậy, khi corpus dữ liệu lớn, n
lớn, việc trích chọn collocations là n-gram sử dụng phương pháp này là không thể thực
hiện được và đặc biệt kém hiệu quả. Trong chương này, chúng tôi đề xuất một phương
pháp trích chọn collocations có dạng bigram hoặc n-gram là cụm danh từ trong văn
bản.
Phương pháp này xuất phát từ ý tưởng được sử dụng trong công cụ Xtract[19]
được Frank Smadja trình bày vào năm 1993 và dựa chủ yếu trên nghiên cứu của
Chouka, sử dụng các giả định thống kê dựa trên các đặc trưng của collocations kết hợp
với sử dụng các thông tin về ngữ nghĩa. Cụ thể hơn, chúng tôi sẽ trích chọn các
collocations có quan hệ ngữ pháp giữa các từ thành phần, và sẽ trích chọn các
collocation có dạng n-gram xuất phát từ tập collocations có dạng bigram. Chương
trình có thể trích chọn được các bigram liền nhau cũng như ngắt quãng, có thể trích
chọn các collcations là bigram hay n-gram. Dữ liệu đầu vào của chương trình là một
bộ dữ liệu đã được đi qua bộ phân tích cú pháp. Trong phạm vi luận văn này, chúng tôi
sử dụng tập dữ liệu khoảng 300,000 câu đã được phân tích cú pháp, tương đương với
khoảng 7,142,500 từ. Tuy nhiên, trong giới hạn của luận văn này, chúng tôi chỉ trích
chọn các bigram là collocations có dạng N+A và N+N trong tiếng Việt và các n-gram
collocations là cụm danh từ cố định. Do vậy, từ bộ dữ liệu đã được phân tích cú pháp,
chúng tôi viết chương trình lọc các cụm danh từ. Các cụm danh từ này sẽ được sử
dụng làm đầu vào cho chương trình trích chọn collocation trình bày bên dưới. Có
khoảng 719,000 cụm danh từ đã được trích chọn từ tập dữ liệu văn bản gồm 300,000
câu. Quá trình trích chọn collocation được chia ra làm 2 giai đoạn chính. Kết quả của
giai đoạn thứ nhất sẽ được đưa vào làm đầu vào của giai đoạn thứ hai. Giai đoạn thứ
nhất có nhiệm vụ chiết xuất các collocation có dạng bigram sử dụng một số phép lọc
và phép kiểm tra thống kê. Giai đoạn thứ hai có nhiệm vụ trích chọn các collocation có
dạng n-gram từ các cặp bigram là kết quả của bước 1. Cụ thể hơn, so với mô hình
thông thường, chúng tôi không giới hạn n mà chỉ giới hạn các câu dùng trong quá trình
26
trích chọn. Chúng tôi không sử dụng tất cả các câu đầu vào ở bước 1 để trích chọn
danh sách n-gram mà chỉ sử dụng các câu có chứa các bigram với vị trí tương đối của
hai từ thành phần là kết quả của giai đoạn một. Danh sách các từ xuất hiện xung quanh
hai từ thành phần tạo thành bigram gốc sẽ được lưu lại cùng với tần suất và vị trí
tương đối của chúng so với bigram. Một bước lọc thống kê sẽ được đưa vào để loại bỏ
các từ có xác suất xuất hiện nhỏ hơn một ngưỡng nhất định. Từ kết quả của bước lọc,
chúng tôi thu được danh sách các collocations là n-gram. Chi tiết về các bước xử lý
được thực hiện tại mỗi giai đoạn sẽ được chúng tôi trình bày chi tiết ở phần còn lại của
chương.
3.1. GIAI ĐOẠN 1: TRÍCH CHỌN CÁC COLLCOATIONS CÓ DẠNG
BIGRAM.
Do mục đích của chương trình là trích chọn các collocations là cụm danh từ và
do độ phức tạp, thời gian chạy chương trình khá lớn; trong giới hạn của luận văn này,
chúng tôi chỉ tập trung trích chọn các collocation có dạng N+A hoặc N+N. Dữ liệu đầu
vào đã được đưa qua một bộ phân tích cú pháp, sau đó được đi qua một chương trình
do chúng tôi tự phát triển nhằm lọc ra các cụm danh từ và gán nhãn các từ theo từ loại.
Tập nhãn sử dụng gồm 4 nhãn: {N, A, V, U} trong đó, N: danh từ, A: tính từ, V: động
từ và U cho các từ còn lại. Sau khi được phân tích cú pháp và thông qua bước tiền xử
lý dữ liệu, file dữ liệu đầu vào cho bước 1 là file văn bản gồm các cụm danh từ, mỗi
cụm danh từ trên một dòng và mỗi từ được gán một trong bốn nhãn trong tập nhãn đã
đề cập ở trên. Quá trình trích chọn các collocation từ tập bigram dựa trên hai giả định:
- Hai từ phải xuất hiện cùng nhau lặp đi lặp lại, trên mức bình thường trong văn bản.
- Hai từ phải thuộc cùng một cụm danh từ.
Dựa vào hai giả định này, chương trình thực hiện các bước lọc dựa trên thống kê để
trích chọn ra các bigram có khả năng tạo thành collocations. Kết thúc giai đoạn một,
chúng ta sẽ nhận được danh sách các bigram cùng thông tin về tần suất, vị trí tương
đối của hai từ được lưu trữ dưới dạng một file văn bản có phần mở rộng “.txt” và danh
sách các unigram và thông tin về tần suất xuất hiện của nó trong tập bigram; danh sách
này cũng được lưu trữ dưới dạng file văn bản có phần mở rộng “.txt”. Quá trình trích
chọn và lọc các bigram được chia làm 2 bước chính:
3.1.1. Bước 1: Trích chọn bigram
Chương trình đọc dữ liệu từ file văn bản đầu vào bao gồm các cụm danh từ, với
mỗi cụm danh từ trên một dòng. Các bigram được trích chọn trong bước này có dạng
wwi và phải thỏa mãn hai điều kiện sau:
27
- w là danh từ chính trong cụm danh từ
- wi là danh từ hoặc tính từ đầu tiên ngay sau w và với điều kiện không có động từ
nào xen ngang.
Các bigram là kết quả của chương trình sẽ được lưu trữ dưới dạng từ điển cùng thông
tin về tần suất xuất hiện và vị trí tương đối của hai từ thành phần trong tập ngữ liệu.
Trong chương này, chúng ta sẽ ký hiệu freqi là tần suất xuất hiện của wwi và p
i
j là tần
suất xuất hiện của wi xung quanh w sao cho khoảng cách của chúng là j từ. Bảng 3-1
minh họa một số bigram cùng thông tin về tần suất, vị trí của chúng trích chọn được từ
tập dữ liệu.
Bảng 3-1: Một số bigrams và thông tin về vị trí và tần suất xuất hiện của chúng
STT w wi freqi j
1 báo_cáo chính_trị 12 1
2 báo_cáo Ngành 12 5
3 báo_cáo mới 12 2
4 báo_cáo nhất 12 2
5 lãnh_đạo tỉnh 114 3
6 lãnh_đạo tỉnh 13 5
7 lãnh_đạo tỉnh 29 4
8 lãnh_đạo tỉnh 3 2
9 lãnh_đạo Cty 66 1
10 lãnh_đạo Cty 1 3
11 lãnh_đạo Cty 5 5
12 lãnh_đạo Cty 3 4
13 vai_trò quan_trọng 83 2
14 vai_trò quan_trọng 28 3
3.1.2. Bước 2: Lọc các bigram không hợp lệ
Bước 2 nhận dữ liệu vào là các cặp từ {w, wi} trích chọn được ở bước 1 cùng
các thông tin về vị trí, tần suất xuất hiện của chúng trong corpus dữ liệu. Chương trình
sẽ tiến hành lọc dựa trên các giá trị thống kê để lọc ra các cụm từ có tính chất: Hai từ
xuất hiện cùng nhau lặp đi lặp lại, trên mức bình thường trong văn bản, với khoảng
cách tương đối cố định.
28
Bước đầu tiên trong quá trình lọc, chúng tôi loại bỏ các bigram có tần suất xuất
hiện nhỏ hơn 10. Sau đó, chương trình tiến hành phân tích phân phối xác suất của các
từ xuất hiện xung quanh w. Chúng ta kí hiệu freqi là tần suất xuất hiện của wi xung
quanh w. là giá trị tần suất trung bình tần suất của tất cả các từ xuất hiện xung
quanh w, là độ lệch chuẩn ứng với giá trị trung bình tần suất đó. Giả sử có tất cả n từ
wi1, wi2, … win có khả năng kết hợp với w để tạo thành bigram. Tần suất xuất hiện
tương ứng với n từ này lần lượt là freqi1, freqi2, …, freqin. Khi đó, tần suất trung bình .
được tính theo công thức:
=
⋯
Độ lệch σ được tính theo công thức:
σ =
⋯
Từ các giá trị về tần suất, độ lệch tính được, chúng ta tính được chỉ số z (kí hiệu là: ki)
tương ứng với nó. ki đại diện cho mức độ gắn kết của cặp từ, nó đại diện cho độ lệch
tiêu chuẩn so với giá trị trung bình tần suất của cặp từ w và wi, ki lớn chứng tỏ w và wi
thường xuất hiện cùng nhau trên mức bình thường trong văn bản, và có thể nói chúng
có quan hệ với nhau. ki được tính theo công thức:
=
(1a)
Sau hai bước lọc, một bigram chứa w là đầu ra của giai đoạn 1 sẽ được xác định
bởi bộ {wi, ki, j} thỏa mãn: tần suất xuất hiện của wi xung quanh w lớn hơn 10 và thỏa
mãn bất đẳng thức:
=
−
> (C1)
Điều kiện C1 giúp loại bỏ các cặp từ có tần suất xuất hiện nhỏ hơn hoặc chỉ
xung quanh giá trị tần suất trung bình. Trong hầu hết các phân phối thống kê, bước
tách ngưỡng này loại bỏ phần lớn các cặp từ không phù hợp. Bước lọc dựa trên giá trị
trung bình và độ lệch giúp loại bỏ các cặp từ có phân phối tần suất xuất hiện theo vị trí
dàn trải. Bảng 3-2 minh họa một số bigram là kết quả của giai đoạn 1.
3.2. GIAI ĐOẠN 2: TRÍCH CHỌN CÁC COLLOCATIONS LÀ CỤM DANH
TỪ CÓ DẠNG N-GRAM.
29
Nhiệm vụ của bước 2 là sinh các collocation có nhiều hơn 2 từ và lọc bỏ những
chuỗi từ không phù hợp. Giai đoạn 2 liên quan đến nghiên cứu của Choueka[5], và
trong một số giới hạn nào đấy, nó đã được áp dụng trong bài toán nhận dạng ngôn ngữ.
Với mỗi bigram được xác định ở giai đoạn 1, chương trình duyệt tất cả các câu
có chứa bigram đó, với khoảng cách giữa hai từ cố định được xác định ở bước một, để
lưu lại thông tin về tần suất, vị trí của các từ xung quanh bigram đó. Từ việc phân tích
tần suất, vị trí của các từ lân cận đó, chương trình trả ra các collocation có dạng n-
gram. Giai đoạn chia làm 3 bước chính. Phần bên dưới sẽ trình bày chi tiết hơn về các
công việc xử lý thực hiện tại mỗi bước.
3.2.1. Bước 1:
Giống như trong giai đoạn 1, đầu vào của bước này là một cặp {wi, w} và tần
suất xuất hiện, khoảng cách giữa hai từ. Bước này sẽ trả ra tất cả các câu chứa hai từ
này với thông tin về vị trí như vậy.
3.2.2. Bước 2:
Từ các câu nhận được sau bước 1, chương trình trích chọn được thông tin về
các từ lân cận của w, wi, tần suất xuất hiện, cũng như vị trí của chúng. Trong bước này,
ta cũng thực hiện việc duyệt và lưu trữ giống hệt bước 1 trong giai đoạn 1, tuy nhiên,
các từ được đưa thêm vào không chỉ giới hạn ở các từ có nhãn tính từ hoặc danh từ,
mà bao gồm tất cả các từ xuất hiện xung quanh vị trí của w và wi.
3.2.3. Bước 3:
Một từ w0 là lân cận của w, chỉ được giữ lại trong n-gram kết quả nếu và chỉ
nếu xác suất để w0 xuất hiện ở vị trí i so với w lớn hơn một ngưỡng T nhất định. Nói
cách khác, w0 phải thỏa mãn đẳng thức sau đây: p(word[i] = w0 ) > T, với p(word[i] =
w0) là xác suất để w0 xuất hiện ở vị trí i xung quanh w.
Vai trò của giai đoạn 2 là loại bỏ các quan hệ từ vựng không phù hợp. Giai
đoạn này có thể sinh ra cả các cụm từ khuôn mẫu và cụm danh từ cố định, tuy nhiên,
trong phạm vi luận văn này, chúng tôi chỉ trích chọn các cụm danh từ cố định, vì tập
nhãn sử dụng còn hạn chế, dựa chủ yếu vào thông tin từ bộ phân tích cú pháp. Như
vậy, giai đoạn 2 đã mở rộng các collocation là bigram thành n-gram. Phương pháp này
làm đơn giản hơn rất nhiều độ phức tạp của chương trình so với cách tiếp cận được
đưa ra bởi Choueka[5]. Có thể khái quát phương pháp tiếp cận bởi Choueka như sau:
với mỗi giá trị n, sinh tất cả chuỗi có độ dài bằng n và sắp xếp chúng giảm dần theo
tần số. Với bộ dữ liệu gồm 12 triệu từ, Chouka nhận được 10 collocations có độ dài
30
bằng sáu; 115 collocations có độ dài bằng năm; 1024 collocaitions có độ dài bằng bốn;
4,777 collocations có độ dài bằng ba, và 15,973 collocations có độ dài bằng 2. Ngưỡng
được đưa ra bằng 14. Phương pháp được sử dụng bởi chương trình có hai ưu điểm nổi
bật so với cách tiếp cận bởi Chouka:
- Nó giúp loại bỏ các m-grams là chuỗi con của một n-gram cho trước. Vì giai đoạn
hai sinh chuỗi có độ dài lớn nhất từ một bigram cho trước, cho nên chuỗi m-gram
(m<n) sẽ không được sinh ra.
- Thêm vào đó, nó là đơn giản hóa hơn rất nhiều quá trình tính toán các collocation
là n-gram, vì nó chỉ xét các câu có chứa các bigram với các khoảng cách cho trước
là kết quả của giai đoạn một. So với các phương pháp đã được tiến hành trước đó
như của Chouka, phương pháp này tỏ ra hiệu quả rõ rệt, đặc biệt là trên một tập dữ
liệu lớn vì nó giúp giảm đáng kể thời gian tính toán.
3.3. KẾT QUẢ THỰC NGHIỆM
Bảng 3-2: Một số bigram là kết quả của giai đoạn 1
W wi Distance freq
doanh nghiệp tư_nhân 1 94
doanh nghiệp tư_nhân 2 112
cơ_sở pháp_lý 1 60
cơ_sở sản_xuất 1 136
cơ_sở vật_chất 1 146
cơ_sở y_tế 1 80
cơ_sở y_tế 3 9
vai_trò quan_trọng 2 83
vai_trò quan_trọng 3 28
Chúng tôi tiến hành chạy chương trình với bộ dữ liệu được sưu tầm từ các báo
Lao động và PCWorld, gồm khoảng 300,000 câu tương đương với 7,142,500 từ. Sau
khi cho tập dữ liệu qua chương trình tiền xử lý (nhằm trích chọn các cụm danh từ),
chúng tôi thu được khoảng 719,000 cụm danh từ. Trong giai đoạn một, ngưỡng k0
(được đưa vào để lọc các bigrams theo điều kiện C1) được cho chạy từ 0.1 đến 0.5 với
độ lệch bằng 0.05. Như vậy, chúng ta sẽ thu được 9 tập kết quả. Từ 9 tập kết quả đó,
chúng tôi cho sinh ngẫu nhiên 100 kết quả, và đánh giá 100 kết quả đó bằng tay. Bảng
3-2 minh họa một số kết quả thu được sau giai đoạn 1 và bảng 3-3 minh họa độ chính
xác của chương trình ở giai đoạn 1 sau khi đánh giá tập kết quả:
Bảng 3-3: Kết quả chạy chương trình ở giai đoạn 1
k0
Độ chính
xác
31
0.1 80%
0.15 75%
0.2 84%
0.25 88%
0.3 84%
035 84%
0.4 83%
0.45 80%
0.5 80%
Với k0 là ngưỡng được đưa vào để lọc các bigram theo điều kiện C1
Như vậy, độ chính xác của giai đoạn 1 đạt được khá cao. Nhìn vào bảng ta thấy,
ngưỡng k0 = 0.25 làm cho chương trình có độ chính xác cao nhất.
Chúng tôi lấy tập kết quả của giai đoạn 1 với ngưỡng k0 = 0.25 làm đầu vào cho giai
đoạn 2. Với ngưỡng T được xác định bằng 0.3, chúng tôi thu được thêm 150
collocations có dạng từ 3-gram trở lên.
Có thể nói, phương pháp được đề xuất trong chương này là phương pháp khả
thi cho trích chọn collocations trong tiếng Việt. Độ chính xác đạt được ở cả hai giai
đoạn đều khá cao. Điểm nổi bật của phương pháp này là nó cho phép trích chọn các
collocations là n-gram. Giai đoạn 1 đóng vai trò trích chọn các collocation là bigram.
Độ chính xác giai đoạn này đạt được trong khoảng trên 80% và trong phạm vi luận văn
này, độ chính xác cao nhất đạt được khi ngưỡng k0 bằng 0.25 là 88%. Giai đoạn 2 có
nhiệm vụ trích chọn các collocations là n-gram. Phương pháp được áp dụng giúp giảm
đáng kể thời gian tính toán và độ phức tạp so với việc sinh tất cả các cụm n-gram và áp
dụng các công thức thống kê vào để trích chọn. Bảng 3-4 minh họa một số bigram
được trích chọn từ giai đoạn 2:
Bảng 3-4: Một số cụm danh từ cố định được trích chọn từ giai đoạn 2
quyền hợp_pháp của
quyền và nghĩa_vụ của người lao_động
Cty tài_chính Sài_Gòn
nhiều nội_dung về tình_hình kinh_tế
vốn đầu_tư trực_tiếp
32
thông_tin về tình_hình chính_trị xã_hội
điều_kiện để thúc_đẩy tăng_trưởng
chủ_quyền từng tấc đất từng mét biển của ta
vùng đồng_bào dân_tộc miền
những nhiệm_vụ kinh_tế xã_hội
33
Chương 4. KẾT LUẬN
Luận văn đã trình bày nghiên cứu về đề tài “Các kỹ thuật xác định collocations và
ứng dụng cho tiếng Việt” và đạt các kết quả sau:
Về mặt lý thuyết, trong giới hạn của luận văn, chúng tôi đã tìm hiểu các khái
niệm và kỹ thuật chung áp dụng cho trích chọn collocations. Từ đó, chúng tôi
đưa ra cơ sở lý thuyết liên quan đến collocations cho tiếng Việt: định nghĩa, đặc
trưng, phân loại và ứng dụng. Dựa trên cơ sở lý thuyết đó, chúng tôi xây dựng
các phương pháp trích chọn, nghiên cứu tác động của việc tiền xử lý văn bản
lên chương trình trích chọn, tìm ra độ lớn cửa sổ, thao tác tiền xử lý văn bản
phù hợp cho chương trình trích chọn, đồng thời đề xuất một số phương pháp kết
hợp nhằm tăng độ chính xác.
Về mặt thực nghiệm, chúng tôi đã xây dựng hệ thống trích chọn collocations
dựa trên tất cả các phương pháp đã trình bày, tiến hành chạy thực nghiệm và
đánh giá độ chính xác của các phương pháp, từ đó tìm ra, đề xuất, xây dựng mô
hình hiệu quả cho trích chọn collocation trong tiếng Việt. Mô hình trích chọn
collocation là cụm danh từ đạt được độ chính xác khá cao, hoàn toàn có thể mở
rộng để trở thành một hệ thống trích chọn collcoations hiệu quả cho tiếng Việt.
Về việc đóng góp và xây dựng tài nguyên, luận văn đóng vai trò là một trong
những nghiên cứu đầu tiên về collocations cho tiếng Việt. Chúng tôi đã xây
dựng cơ sở lý thuyết liên quan, đưa ra một số phương pháp trích chọn khá hiệu
quả cho tiếng Việt. Phương pháp trích chọn collocations có dạng cụm danh từ
được đề xuất chứng tỏ là một hướng nghiên cứu khả thi trong trích chọn
collocations trong tiếng Việt.
Hướng nghiên cứu trong tương lai trong thời gian tới, chúng tôi dự định sẽ tiếp
tục nghiên cứu sâu hơn việc vận dụng các thông tin cú pháp vào chương trình
trích chọn, mở rộng phương pháp trích chọn collocations là cụm danh từ để có
thể trích chọn các loại collocations còn lại, đồng thời, nghiên cứu ứng dụng của
từ điển collocation vào các ứng dụng xử lý ngôn ngữ tự nhiên (như dịch máy,
sinh ngôn ngữ…).
ii
TÀI LIỆU THAM KHẢO
[1]. Adam Kilgarriff and David Tugwell. WORD SKETCH: Extraction and Display of
Significant Collocations for Lexicography. Proc. ACL workshop on COLLOCATION:
Computational Extraction, Analysis and Exploitation. Toulouse, July: 32-38.
[2]. Benson & Morton 1989. The structure of the collocational dictionary. In
International Journal of Lexicography 2:1-14.
[3]. Brigitte Krenn and Stefan Evert. Can we do better than frequency? A case study
on extracting PP-verb collocations. In Proceedings of the ACL Workshop on
Collocations, Toulouse, France, 39-46.
[4]. Caroll J.,Minnen G., Pearse D., Canning Y., Delvin S. and Tait J. (1999).
Simplifying text for language-impaired readers. In preceedings of 9th Conference of
European Chapter of the ACL (EACL ’99), Bergen, Norway, June.
[5]. Choueka, Yaacov, Fraenkel, Aviezri S., Klein, S.T.. "Compression of
Concordances in Full-Text Retrieval Systems" (ed.) Proc. SIGIR, p. 597-612, 1988.
[6]. Church, K. and Hanks, P. Word association norms, mutual information, and
lexicography. In Proceedings of the 27th annual meeting on Association for
Computational Linguistics, p. 76-83, 1989.
[7]. Cowie, A. P. "The treatment of collocations and idioms in learners' dictionaries".
In Applied Linguistics, Vol.II, No. 3, p.223-235, 1981.
[8]. Cruse, D.A Lexical semantics. Cambridge University Press, 1991.
[9]. Danieala Kurz, Feiyu Xu. Text Mining for the Extraction of Domain Relevant
Terms and Term Collocations, In International Workshop on Computational
Approaches to Collocations, Vienna, 2002.
[10]. Darren Pearce. A Comparative Evaluation of Collocation Extraction Techniques.
In The third International Conferene on Language Resources and Evaluation, p. 1530-
1536, 2002.
[11]. Darren Pearce. Synonymy in Collocation Extraction. In Proceedings of the 2009
Conference on Empirical Methods in Natural Language Processing: Volume 2 -
Volume 2, Singapore, p.487-495, 2009.
[12]. Darren Pearce. Using conceptual similarity for collocation extraction. In Proc. of
the 4th UK Special Interest Group for Computational Linguistics (CLUK4), 2001.
[13]. Dekang Lin. Extracting Collocations from Text Corpora. In First Workshop on
Computational Terminology, p. 57--63, Montreal.
iii
[14]. Dekang Lin. Using Collocation Statistics in Information Extraction. In
Proceedings of the 7th Message Understanding Conference, 1998c.
[15]. Elisabeth Breidt. Extraction of V-N-Collocations from Text Corpora: A
feasibility Study for German. In Proceedings of the Workshop on Very Large
Corpora: Academic and Industrial Perspectives, Ohio State University, Columbus,
OH, pp. 74-83.
[16]. Eric Gaussier, David A. Hull, Salah Ait-Mokhatar. Term Alignment in Use:
Machine-Aided Human Translation. In J. Veronis (Ed.), Parallel Text Processing
Alignment and Use of Translation Corpora. Kluwer Academic Publishers.
[17]. Firth J. R. A synopsis of linguistic theory 1930-1955. In Studies in Linguisti
Analysis, pp 1-32. Oxford: Philological society.
[18]. Frank Smadja and Kathleen McKeown, Translating Collocations for Use in
Bilingual Lexicons. In Proceedings of a Workshop about Human Language
Technology held at Plainsboro, New Jerey, USA, March 8-11, 1994.
[19]. Frank Smadja. Retrieving Collocations from text: Xtract. In Computational
Linguistics, Vol 19, p.143-177 (1993)
[20]. Gerlof Bouma. Normalized (Pointwise) Mutual Information in Collocation
Extraction. In: Chiarcos, Eckart de Castilho & Stede (eds), Von der Form zur
Bedeutung: Texte automatisch verarbeiten / From Form to Meaning: Processing Texts
Automatically, Proceedings of the Biennial GSCL Conference 2009, pp31-40,
Tübingen, Gunter Narr Verlag.
[21]. Gitsaky C.Daigaku N. and Tailor R. (2000). English collocations and their place
in the EFL. In Iranian Journal of Applied Linguistics, 6, p.137-169.
[22]. Halliday, M. (1966). Patterns in words. The Listener, Vol. LXXV, no. 1920: p.53-
55.
[23]. Howarth P. and Nesi H. The teaching of collocations in EAP. Technical report
University of Leeds, June, 1996.
[24]. Hua WU, Ming ZHOU, Synonymous Collocation Extraction Using Translation
Information. In Proceedings of the 41st Annual Meeting on Association for
Computational Linguistics, p.120-127, July 07-12, 2003, Sapporo, Japan
[25]. Janyce Wiebe and Theresa Wilson and Matthew Bell. Identifying Collocation fro
Recognizing Opinions. In Proceedings of the ACL-01 Workshop on Collocations:
Computational Extraction, Analysis, and Exploitation, p.24-31.
iv
[26]. Jiansheng Yu, Zihui Jin, Zhenshan Wen. Automatic Detection of Collocation. In
The 4th Chinese lexical semantics workshop, 2003.
[27]. Johannes Matiasek and Marco Baroni. Exploiting long distance collocational
relations in predictive typing. In project FASTY(IST-2000-25420).
[28]. Justeson, John S., and Slava M. Katz. Technical terminology: some linguistic
properties and an algorithm for identification in text. In Natural Language
Engineering (1995), 1:9-27 Cambridge University Press.
[29]. Kathleen R. McKKeown and Dragomir R. Radev. Collocations. In Robert Dale,
Hermann Moisl, and Harold Somers, editors, A Handbook of NaturalLanguage
Processing. Marcel Dekker, 2000.
[30]. Kostas Fragos, Yannis Maistros, Christos Skourlas. Extracting Collocations in
Modern Greek Language. In Proceedings of the 1st International Workshop on
Natural Language Understanding and Cognitive Science, NLUCS 2004, In
conjunction with ICEIS 2004, Porto, Portugal, April 2004 2004.
[31]. Lin D. Extracting collocations from text corpora. In First Workshop on
Computational Terminology, Montreal, Canada, Augaust.
[32]. Manning C. and Schutze H. Foundations of Statiscal Natural Language
Processing (Fifth Printing 2002). The MIT Press.A14
[33]. Pavel Pecina and Pavel Schlesinger. Combining Association Measures for
Collocation Extraction. In Proceedings of the COLING/ACL on Main conference
poster sessions, p.651-658, July 17-18, 2006, Sydney, Australia
[34]. Qin Lu, Yin Li and Ruifeng Xu. Improving Xtract for Chinese Collocation
Extraction. In Proceedings of IEEE Int. Conf. Natural Language Processing and
Knowledge Engineering 2003, Beijing, p. 333-338
[35]. Sasa Petrovic. Collocation Extraction measures for text mining applications.
Diploma Thesis num. 1693. 2007.
[36]. Sabine Schulte In Walde. A Collocation Database for German Verbs and Nouns.
In Proceedings of the 7th Conference on Computational Lexicography and Text
Research. Budapest, Hungary, April 2003
[37]. Sayori Shimohata, Toshiyuki Sugio and Junji Nagata. Retrieving Collocations by
Co-occurrences and Word Order Constraints. In Proceedings of the 35th Annual
Meeting of the ACL and 8th Conference of the EACL (ACL-EACL'97), p. 476-81,
Madrid, Spain, 1997
v
[38]. Smith A. David (2002). Searching across language, time, and space: Detecting
events with date and place information in unstructured text. In Proceedings of the
second ACM/IEEE-CS joint conference on Digital libraries, July 2002.
[39]. Violeta Seretan, Eric Wehrli. Accurate Collocation Extraction Using a
Multilingual Parser. In Proceedings of the Workshop on Multilingual Language
Resources and Interoperability, Sydney, Australia, p.40-49, 2006
[40]. Wan Yin Li, Qin Lu, James Liu. TCtract-A Collocation Extraction Approach for
Noun Phrases Using Shallow Parsing Rules and Statistic Models. In 20th Pacific Asia
Conference on Language, Information and Computation (PACLIC¡¦06), Wuhan,
China, November 1-3, 2006, p. 109-116.
vi
PHỤ LỤC A: Bảng giá trị chỉ số t
df\p 0.4 0.25 0.1 0.05 0.025 0.01 0.005 0.0005
1 0.32492 1 3.077684 6.313752 12.7062 31.82052 63.65674 636.6192
2 0.288675 0.816497 1.885618 2.919986 4.30265 6.96456 9.92484 31.5991
3 0.276671 0.764892 1.637744 2.353363 3.18245 4.5407 5.84091 12.924
4 0.270722 0.740697 1.533206 2.131847 2.77645 3.74695 4.60409 8.6103
5 0.267181 0.726687 1.475884 2.015048 2.57058 3.36493 4.03214 6.8688
6 0.264835 0.717558 1.439756 1.94318 2.44691 3.14267 3.70743 5.9588
7 0.263167 0.711142 1.414924 1.894579 2.36462 2.99795 3.49948 5.4079
8 0.261921 0.706387 1.396815 1.859548 2.306 2.89646 3.35539 5.0413
9 0.260955 0.702722 1.383029 1.833113 2.26216 2.82144 3.24984 4.7809
10 0.260185 0.699812 1.372184 1.812461 2.22814 2.76377 3.16927 4.5869
11 0.259556 0.697445 1.36343 1.795885 2.20099 2.71808 3.10581 4.437
12 0.259033 0.695483 1.356217 1.782288 2.17881 2.681 3.05454 4.3178
13 0.258591 0.693829 1.350171 1.770933 2.16037 2.65031 3.01228 4.2208
14 0.258213 0.692417 1.34503 1.76131 2.14479 2.62449 2.97684 4.1405
15 0.257885 0.691197 1.340606 1.75305 2.13145 2.60248 2.94671 4.0728
16 0.257599 0.690132 1.336757 1.745884 2.11991 2.58349 2.92078 4.015
17 0.257347 0.689195 1.333379 1.739607 2.10982 2.56693 2.89823 3.9651
18 0.257123 0.688364 1.330391 1.734064 2.10092 2.55238 2.87844 3.9216
19 0.256923 0.687621 1.327728 1.729133 2.09302 2.53948 2.86093 3.8834
20 0.256743 0.686954 1.325341 1.724718 2.08596 2.52798 2.84534 3.8495
21 0.25658 0.686352 1.323188 1.720743 2.07961 2.51765 2.83136 3.8193
22 0.256432 0.685805 1.321237 1.717144 2.07387 2.50832 2.81876 3.7921
23 0.256297 0.685306 1.31946 1.713872 2.06866 2.49987 2.80734 3.7676
24 0.256173 0.68485 1.317836 1.710882 2.0639 2.49216 2.79694 3.7454
25 0.25606 0.68443 1.316345 1.708141 2.05954 2.48511 2.78744 3.7251
26 0.255955 0.684043 1.314972 1.705618 2.05553 2.47863 2.77871 3.7066
27 0.255858 0.683685 1.313703 1.703288 2.05183 2.47266 2.77068 3.6896
28 0.255768 0.683353 1.312527 1.701131 2.04841 2.46714 2.76326 3.6739
29 0.255684 0.683044 1.311434 1.699127 2.04523 2.46202 2.75639 3.6594
30 0.255605 0.682756 1.310415 1.697261 2.04227 2.45726 2.75 3.646
inf 0.253347 0.67449 1.281552 1.644854 1.95996 2.32635 2.57583 3.2905
vii
PHỤ LỤC B: Bảng giá trị chỉ số Chi bình phương
df\area 0.995 0.99 0.975 0.95 0.9 0.75 0.5 0.25 0.1 0.05 0.025 0.01 0.005
1 0.00004 0.00016 0.00098 0.00393 0.01579 0.10153 0.45494 1.3233 2.70554 3.84146 5.02389 6.6349 7.87944
2 0.01003 0.0201 0.05064 0.10259 0.21072 0.57536 1.38629 2.77259 4.60517 5.99146 7.37776 9.21034 10.59663
3 0.07172 0.11483 0.2158 0.35185 0.58437 1.21253 2.36597 4.10834 6.25139 7.81473 9.3484 11.34487 12.83816
4 0.20699 0.29711 0.48442 0.71072 1.06362 1.92256 3.35669 5.38527 7.77944 9.48773 11.14329 13.2767 14.86026
5 0.41174 0.5543 0.83121 1.14548 1.61031 2.6746 4.35146 6.62568 9.23636 11.0705 12.8325 15.08627 16.7496
6 0.67573 0.87209 1.23734 1.63538 2.20413 3.4546 5.34812 7.8408 10.64464 12.59159 14.44938 16.81189 18.54758
7 0.98926 1.23904 1.68987 2.16735 2.83311 4.25485 6.34581 9.03715 12.01704 14.06714 16.01276 18.47531 20.27774
8 1.34441 1.6465 2.17973 2.73264 3.48954 5.07064 7.34412 10.21885 13.36157 15.50731 17.53455 20.09024 21.95495
9 1.73493 2.0879 2.70039 3.32511 4.16816 5.89883 8.34283 11.38875 14.68366 16.91898 19.02277 21.66599 23.58935
10 2.15586 2.55821 3.24697 3.9403 4.86518 6.7372 9.34182 12.54886 15.98718 18.30704 20.48318 23.20925 25.18818
11 2.60322 3.05348 3.81575 4.57481 5.57778 7.58414 10.341 13.70069 17.27501 19.67514 21.92005 24.72497 26.75685
12 3.07382 3.57057 4.40379 5.22603 6.3038 8.43842 11.34032 14.8454 18.54935 21.02607 23.33666 26.21697 28.29952
13 3.56503 4.10692 5.00875 5.89186 7.0415 9.29907 12.33976 15.98391 19.81193 22.36203 24.7356 27.68825 29.81947
14 4.07467 4.66043 5.62873 6.57063 7.78953 10.16531 13.33927 17.11693 21.06414 23.68479 26.11895 29.14124 31.31935
15 4.60092 5.22935 6.26214 7.26094 8.54676 11.03654 14.33886 18.24509 22.30713 24.99579 27.48839 30.57791 32.80132
16 5.14221 5.81221 6.90766 7.96165 9.31224 11.91222 15.3385 19.36886 23.54183 26.29623 28.84535 31.99993 34.26719
17 5.69722 6.40776 7.56419 8.67176 10.08519 12.79193 16.33818 20.48868 24.76904 27.58711 30.19101 33.40866 35.71847
18 6.2648 7.01491 8.23075 9.39046 10.86494 13.67529 17.3379 21.60489 25.98942 28.8693 31.52638 34.80531 37.15645
19 6.84397 7.63273 8.90652 10.11701 11.65091 14.562 18.33765 22.71781 27.20357 30.14353 32.85233 36.19087 38.58226
20 7.43384 8.2604 9.59078 10.85081 12.44261 15.45177 19.33743 23.82769 28.41198 31.41043 34.16961 37.56623 39.99685
21 8.03365 8.8972 10.2829 11.59131 13.2396 16.34438 20.33723 24.93478 29.61509 32.67057 35.47888 38.93217 41.40106
22 8.64272 9.54249 10.98232 12.33801 14.04149 17.23962 21.33704 26.03927 30.81328 33.92444 36.78071 40.28936 42.79565
23 9.26042 10.19572 11.68855 13.09051 14.84796 18.1373 22.33688 27.14134 32.0069 35.17246 38.07563 41.6384 44.18128
24 9.88623 10.85636 12.40115 13.84843 15.65868 19.03725 23.33673 28.24115 33.19624 36.41503 39.36408 42.97982 45.55851
25 10.51965 11.52398 13.11972 14.61141 16.47341 19.93934 24.33659 29.33885 34.38159 37.65248 40.64647 44.3141 46.92789
26 11.16024 12.19815 13.8439 15.37916 17.29188 20.84343 25.33646 30.43457 35.56317 38.88514 41.92317 45.64168 48.28988
27 11.80759 12.8785 14.57338 16.1514 18.1139 21.7494 26.33634 31.52841 36.74122 40.11327 43.19451 46.96294 49.64492
28 12.46134 13.56471 15.30786 16.92788 18.93924 22.65716 27.33623 32.62049 37.91592 41.33714 44.46079 48.27824 50.99338
29 13.12115 14.25645 16.04707 17.70837 19.76774 23.56659 28.33613 33.71091 39.08747 42.55697 45.72229 49.58788 52.33562
30 13.78672 14.95346 16.79077 18.49266 20.59923 24.47761 29.33603 34.79974 40.25602 43.77297 46.97924 50.89218 53.67196
Các file đính kèm theo tài liệu này:
- LUẬN VĂN- CÁC KỸ THUẬT XÁC ĐỊNH COLLOCATION VÀ ỨNG DỤNG CHO TIẾNG VIỆT.pdf