Link spam với đồ thị web và hạng trang web

Các phương pháp tính hạng trang được trình bày trong chương trước là khá tốt nhưng hoàn toàn không đề cập đến vấn đề spam, và coi liên kết giữa các trang thực sự hàm chứa mối quan hệ độ quan trọng. Ngày nay, với sự ra đời của các công nghệ spam link nhằm nâng cao hạng trạng thì các phương pháp đó không còn phù hợp mà cần cải tiến, thực hiện xác định, loại bỏ các link spam để có được đánh giá hạng chính xác hơn. Trong hai năm gần đây có nhiều bài báo tập trung vào việc đưa ra phương pháp xác định link spam. Qua nghiên cứu [3, 4, 5, 8, 14, 13, 15] cho thấy các phương pháp có thể chia thành các hướng tiếp cận:

pdf55 trang | Chia sẻ: lylyngoc | Ngày: 26/11/2013 | Lượt xem: 1859 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Link spam với đồ thị web và hạng trang web, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
ử tại thời điểm k, người dùng u đang duyệt trang web p thì tại bước tiếp theo, thời điểm (k + 1), người dùng đó có thể chọn một trong các liên kết ra từ p: out = {q|(p, q) ∈ E} để xem tiếp một cách ngẫu nhiên. Tức là tại thời điểm (k + 1), xác suất để người dùng u tới trang q ∈ out là 1/B(p). 1.4. TỔNG KẾT CHƯƠNG 1 12 Giả thiết chuỗi Markov được tạo ra bởi các bước duyệt ngẫu nhiên liên tiếp trên đồ thị Web G. Khi đó mô hình Markov được biểu diễn bởi ma trận xác suất chuyển P, là ma trận vuông cấp n (với n là số node trong đồ thị G) với thành phần pij là xác suất chuyển từ trạng thái i (trang i) tới trạng thái j (trang j ) chỉ với một bước chuyển. Từ đó, ma trận xác suất chuyển P của mô hình Markov tương đương ma trận chuyển P trong biểu diễn đồ thị Web (xem mục 1.3.1). Với p kij là xác suất chuyển từ trạng thái i đến j sau k bước chuyển. Theo tính chất ergodic của xích Markov suy ra có: nếu mini,j p k ij > 0 thì tồn tại phân phối dừng (hay bất biến) của xích Markov với ma trận xác suất chuyển P. Với giả thiết đồ thị web là liên thông, khi đó tính chất trên được thỏa mãn. Tức xác suất được duyệt tới của các trang trong đồ thị web là ổn định, và giá trị đó được coi là hạng trang theo phương pháp PageRank[9]. 1.4 Tổng kết chương 1 Xác định và loại bỏ ảnh hưởng của web spam đối với bài toán tính hạng trang là một vấn đề quan trọng trong máy tìm kiếm. Chương này đã giới thiệu về các công nghệ tạo spam chính hiện nay, trong đó link spam là kỹ thuật đáng quan tâm vì có ảnh hưởng lớn, trực tiếp đến kết quả tính hạng trang của máy tìm kiếm. Các chương tiếp theo sẽ trình bày các thuật toán tính hạng trang cơ bản và các phương pháp cải tiến nhằm nâng cao chất lượng tính hạng trang với việc nhận diện và xử lý link spam. Chương 2 Một số phương pháp tính hạng trang cơ bản Để đánh giá độ quan trọng của các trang web, máy tìm kiếm có thể sử dụng các thuật toán tính hạng độc lập yêu cầu người dùng tức là chỉ dựa vào số lượng các liên kết giữa các trang web. Nhiều thuật toán tính hạng trang đang được sử dụng đều tính toán dựa trên liên kết giữa các trang web với nhau, trong đó các thuật toán điển hình là PageRank, HITS [6, 9]. Kết quả nghiên cứu của chúng tôi nhằm tăng tốc tính hạng trang và cài đặt vào máy tìm kiếm cũng được trình bày [2, 12]. 2.1 Phương pháp PageRank 2.1.1 Phương pháp Đây là một trong các phương pháp tính hạng đầu tiên dựa vào mối liên kết giữa các trang. Page và các đồng tác giả [9] đã đưa ra ý tưởng: độ quang trọng của một trang chịu ảnh hưởng của độ quan trọng từ các trang liên kết đến nó. Và công thức tính PageRank cho một trang u, gọi là piu được tính như sau: piu = ∑ i∈BI(i) pii Ni (2.1) Với BI(i) là tập hợp các trang có liên kết đến trang i. 2.1. PHƯƠNG PHÁP PAGERANK 14 Biểu diễn đồ thị Web bởi ma trận chuyển P , khi đó phương trình (2.1) được viết lại dưới dạng ma trận: pi = piP (2.2) Trong đó: pi = (pi1, pi2, . . . pin) là véctơ hạng các trang web, với thành phần pii là hạng của trang i. Từ (2.2) cho thấy véctơ hạng trang pi chính là véctơ riêng của ma trận chuyển P tương ứng với giá trị riêng λ = 1. Do tính chất của chuỗi Markov, để tính véctơ riêng của P thuật toán giả thiết rằng đồ thị trang Web là liên thông, tức với cặp hai trang Web i, j bất kì luôn có đường đi từ i tới j và ngược lại. Tuy nhiên thực tế trên World Wide Web (WWW) vẫn tồn tại không ít các trang web không có liên kết đến hoặc liên kết ra nên việc giả thiết đồ thị Web liên thông là không hợp lý. Và trong ma trận P vẫn tồn tại hàng chỉ toàn số 0, nên không tồn tại một phân phối xác suất dừng ổn định của P hay chính là véctơ hạng trang. Vậy cần phải biến đổi ma trận P thành P ′ cho phù hợp. Định nghĩa véctơ v, được chuẩn hóa ‖ v ‖= 1, xác định xác suất phân phối với vi là xác suất trang web i được gọi đến ở lần duyệt web đầu tiên. Véctơ v có vai trò trong việc hướng kết quả PageRank theo chủ đề, lĩnh vực mong muốn. Khi không xét đến ngữ cảnh đó có thể chọn vi = 1 n với ∀i = 1, 2..n . Gọi d là véctơ n× 1 xác định các dangling nút: di = { 1 nếuN(i) = 0 0 ngược lại Ma trận P ′ được xác định: P ′ = P + dv (2.3) Khi thay đổi ma trận P như vậy tức thêm các liên kết ảo từ các dangling nút tới tất cả các nút khác trong đồ thị Web theo phân phối xác suất v. Điều đó giúp tránh việc khi duyệt các trang không có liên kết ra sẽ không duyệt tiếp được. Để đảm bảo phân phối dừng ổn định (duy nhất), chuỗi Markov tương ứng với quá trình duyệt Web của người dùng cần có tính chất ergodic, tức từ một trang 2.1. PHƯƠNG PHÁP PAGERANK 15 web người dùng có thể chuyển tới một trang bất kì khác. Do vậy ma trận Markov P˜ được xác định như sau: P˜ = αP ′ + (1− α) J (2.4) Với: J = [1]n×1 v α: là hệ số hãm Qua thực nghiệm, α thường được chọn giá trị 0.85. Với ý nghĩa, tại mỗi bước duyệt Web người dùng có thể chuyển tới một trang trong các liên kết ra từ trang hiện tại với xác suất α và chuyển tới các trang khác trong đồ thị Web với xác suất (1− α) theo phân phối v. Khi đó, thay vì tính vector riêng của ma trận P ta tính vector riêng pi của ma trận P˜ : pi = piP˜ (2.5) Theo tính chất của chuỗi Markov, tổng các thành phần của véctơ pi bằng 1: n∑ i=1 pii = 1 Véctơ hạng trang được tính toán dựa theo liên kết, hạng của một trang web phụ thuộc giá trị hạng của các trang liên kết đến, nên việc tính hạng có thể dẫn tới vòng lặp vô hạn. Tuy nhiên với công thức 2.5, véctơ hạng trang có thể được tính một cách đơn giản đó là tính véctơ riêng của ma trận P˜ . Có nhiều phương pháp tính véctơ riêng của ma trận nhưng với ma trận rất lớn của đồ thị các trang web thì không phải phương pháp nào cũng phù hợp. Phần sau sẽ giới thiệu phương pháp lặp tính véctơ riêng của ma trận, tính hạng 2.1.2 Tính hạng trang dựa vào tính chất hội tụ Page và Brin [9] đã sử dụng phương pháp lặp để tính hạng trang và qua thực nghiệm họ đưa ra đồ thị hình 2.1 biểu diễn mối quan hệ giữa bước lặp và độ sai lệch giữa hai vòng lặp liên tiếp. Từ đồ thị, các tác giả thấy độ sai khác giá trị hạng trang giữa hai vòng lặp liên tiếp giảm tuyến tính theo hàm log n, và tốc độ hội tụ khá nhanh sau khoảng 50 vòng lặp. Phương pháp tính hạng bằng cách thực hiện các vòng lặp, và từ tính hội 2.1. PHƯƠNG PHÁP PAGERANK 16 Hình 2.1: Tốc độ hội tụ Thuật toán 1 Tính PageRank theo phương pháp lặp 1: i← 0 2: pi[0] ← v 3: repeat 4: i← i + 1 5: pi[i] ← αP Tpi[i−1] + (1− α)v 6: until ‖ pi[i] − pi[i−1] ‖<  7: pi = pi[i] 2.1. PHƯƠNG PHÁP PAGERANK 17 tụ xác định ngưỡng , là sai số chấp nhật được của giá trị hạng trang, làm điều kiện dừng (xem thuật toán 1). Phương pháp PageRank khá tốt, được áp dụng trong rất nhiều máy tìm kiếm trên Internet. Nhưng do dựa trên vòng lặp, trong khi đồ thị Web có kích thước rất lớn (khoảng 11,5 tỉ trang web)1 nên thời gian tính toán có thể lên tới nhiều ngày. Điều này ảnh hưởng đến chất lượng của máy tìm kiếm. Do vậy, Sepandar Kamvar và các đồng tác giả [?] đã đưa ra ý tưởng cải tiến để tăng tốc độ tính toán, gọi là phương pháp Modified Adaptive PageRank hay MAP. Và chúng tôi [1] đã tiến hành thử nghiệm, đưa ra những đánh giá khá tốt về phương pháp này. Qua thực nghiệm tính hạng, các tác giả nhận thấy tốc độ hội tụ của các trang là không giống nhau. Do đó có thể giảm bớt tính toán, tận dụng những trang hội tụ trước bằng cách không tính lại hạng cho các trang đó ở các vòng lặp tiếp sau. Giả sử tại vòng lặp thứ k, có các tập hợp C các trang có hạng hội tụ theo  và N là tập các trang có hạng chưa hội tụ. Sắp xếp lại ma trận P và véc tơ pi ta có: pi[k] = (pi [k] N pi [k] C )và P = ( PNN PNC PCN PCC ) Trong đó: PNN : là ma trận kề của các trang chưa hội tụ có liên kết đến các trang chưa hội tụ. PNC : là ma trận kề của các trang chưa hội tụ có liên kết đến các trang đã hội tụ. PCN : là ma trận kề của các trang đã hội tụ có liên kết đến các trang chưa hội tụ. PCC : là ma trận kề của các trang đã hội tụ có liên kết đến các trang đã hội tụ. Vì piC đã hội tụ nên ở vòng lặp thứ k không cần tính lại, ta chỉ tính thành phần chưa hội tụ: pi (k+1) N = PNNpi (k) N + PCNpi (k) C Với việc biến đổi ma trận với độ hội tụ của các trang như vậy, quá trình tính toán đã thực sự cải thiện đáng kể. 1Đánh giá của Google 2.2. PHƯƠNG PHÁP HITS 18 2.1.3 Đánh giá PageRank là một phương pháp tính hạng khá tốt và quá trình tính toán độc lập với người dùng. Do vậy quá trình tính toán được thực hiện ngoại tuyến (offline) nên không ảnh hưởng đến tốc độ tìm kiếm. Tuy nhiên, vì thuật toán PageRank không quan tâm đến nội dung của trang web mà chỉ dựa vào các liên kết giữa các trang web, cụ thể là số lượng lên kết đến mỗi trang. Do đó, với sự ra đời của các công nghệ spam thì giá trị hạng trang sử dụng phương pháp PageRank không còn chính xác. 2.2 Phương pháp HITS Phương pháp HITS, do Kleinberg đưa ra [6], tính hạng của một trang web không chỉ dựa trên một giá trị độ quan trọng như PageRank mà nỗi trang web được xác định hai trọng số khác nhau: authority và hub. Thuật toán đưa ra dựa trên ý tưởng một trang có giá trị hub tốt là trang mà có nhiều liên kết ra, và một trang có authority tốt là trang được nhiều trang liên kết tới (hình 2.2). Trong đó các trọng số hub và authority có quan hệ qua lại với nhau: một trang có giá trị hub tốt hơn nếu trỏ tới nhiều trang có authority tốt, và những trang được càng nhiều trang hub tốt trỏ tới thì càng có giá trị authority tốt hơn. Hình 2.2: Mô tả tính chất authority và hub 2.2.1 Thuật toán Thuật toán chỉ làm việc trên một tập nhỏ các trang web, gọi là đồ thị con, chứ không phải toàn bộ đồ thị Web. Và tùy thuộc vào câu truy vấn của người dùng tức phương pháp tính này không hoàn toàn độc lập người dùng, với mỗi truy vấn 2.2. PHƯƠNG PHÁP HITS 19 Hình 2.3: Mở rộng tập cơ sở T từ tập nhân S khác nhau công việc tính toán phải được thực hiện lại. Tuy nhiên câu truy vấn chỉ có vai trò trong việc tạo đồ thị con chứ không ảnh hưởng tới phương pháp tính toán. Vì vậy trước tiên phải xây dựng đồ thị con các trang tùy theo truy vấn và sau đó dự vào liên kết giữa các trang trong đồ thị để xác định các giá trị authority và hub của các trang đến khi hai giá trị đó hội tụ (bằng nhau). • Tạo đồ thị con hay còn gọi là tập cơ sở S: từ tập nhân gồm các trang chứa, liên quan nhiều đến truy vấn, dựa vào các liên kết đến và liên kết ra của các trang trong tập nhân đó để mở rộng đồ thị. Việc mở rộng dừng lại khi đồ thị con đã đủ lớn hoặc đã loang hết tất cả các trang có liên kết đến, hoặc được liên kết ra từ tập nhân. Việc tìm tập nhân liên quan đến truy vấn có thể xác định dựa vào kết quả tìm kiếm của các máy tìm kiếm khác như Google: tập nhân được lấy từ các trang đầu tiên có thể là 10 địa chỉ trang web đầu tiên được trả về tương ứng với truy vấn. Hoặc là các trang có địa chỉ chứa nội dung truy vấn, ví dụ với truy vấn “java” thì trang chủ là Các trang web trong đồ thị con S cũng được đánh chỉ số từ 1 đến n và đồ thị được biểu diễn bởi ma trận kề A. • Tính giá trị authority và hub của các trang trong tập S. Các trọng số au- thority ai và hub hi của mỗi trang web được khởi tạo bằng 1 và sau đó sẽ được tính dựa theo công thức: ai = ∑ j∈B(i) hj và hi = ∑ j∈N(i) aj (2.6) 2.2. PHƯƠNG PHÁP HITS 20 Biểu diễn theo ma trận ta có: ~a = AT~h và ~h = A~a (2.7) Trong đó: ~a = (a1, a2, . . . an), ~h = (h1, h2, . . . hn) lần lượt là véc tơ trọng số authority, hub của các trang trong tập S. Từ 2.7 biến đổi ta được: ~a = AAT~a và ~h = ATA~h Vậy cũng tương tự như phương pháp PageRank, véc tơ a, h lần lượt là véc tơ riêng của các ma trận AAT và ATA. Do vậy tương tự phương pháp tính PageRank, có thể áp dụng tính chất hội tụ để tính véc tơ a, h. Véc tơ a, h thường được chuẩn Thuật toán 2 Tính HITS theo phương pháp lặp 1: a← (1, 1 . . . 1) 2: h← (1, 1 . . . 1) 3: k ← 0 4: repeat 5: k ← k + 1 6: for i = 1 to n do 7: a [k] i = ∑ j∈B(i) h [k−1] j 8: h [k] i = ∑ j∈N(i) a [k−1] j 9: end for 10: until ‖ a[k] − a[k−1] ‖<  11: a = a[k] 12: h = h[k] hóa: ∑ i a = ∑ i h = 1. Kleinberg [6] đã chỉ ra sự hội tụ của các trọng số authority và hub tức thuật toán thỏa mãn tính dừng nhưng chưa đưa ra được giới hạn số vòng lặp cần tính. Tuy nghiên thực nghiệm đã cho thấy thuật toán nhanh chóng hội tụ. 2.2.2 Đánh giá Thuật toán HITS có phần hướng người dùng do sử dụng thông tin truy vấn để xây dựng tập con S các trang web. Thuật toán đã thể hiện mối quan hệ chặt chẽ giữa các trang chủ (authority) và trang trung tâm (hub). 2.3. PHƯƠNG PHÁP CCP 21 Tuy nhiên thuật toán HITS lại cần tính toán trực tuyến (online), tức nhận được câu truy vấn rồi đồ thị con mới được xây dựng và sau đó các trọng số authority, hub được tính. Điều này làm chậm thời gian trả kết quả về cho người dùng. Nhưng có thể ứng dụng thuật toán HITS trong các phương pháp có xác định link spam sau này nhằm đánh tính độ ảnh hưởng của các trang xấu tới các trang khác khi đã xác định được tập nhân các trang xấu. 2.3 Phương pháp CCP Tuy phương pháp tính hạng trang PageRank không tính hạng trực tuyến nên không trực tiếp ảnh hưởng đến thời gian tìm kiếm của người dùng, nhưng độ trễ do thời gian tính hạng ảnh hưởng đến việc cập nhật thông tin. Như với Google quá trình crawl thực hiện hàng tháng do vậy thông tin về các trang web đặc biệt các liên kết giữa các trang thay đổi và cần tính lại hạng trang. Do đó thời gian tính hạng sẽ ảnh hưởng tới thời gian cập nhật thông tin mới của máy tìm kiếm. Trong thực tế đồ thị Web không liên thông và tồn tại rất nhiều trang web không có liên kết đến hoặc liên kết ra. Do vậy ma trận kề biểu diễn đồ thị Web thường là ma trận thưa. Do vậy với các phương pháp tính hạng trên, dù dựa vào tốc độ hội tụ của các trang nhưng quá trình tính toán trên toàn đồ thị Web vẫn chưa tối ưu. Chúng tôi đã nghiên cứu và đề xuất một phương pháp tính hạng với việc phân tích các thành phần liên thông nhằm giảm bớt công việc tính toán, giảm thời gian tính hạng trang [2, 12]. 2.3.1 Thuật toán Qua khảo sát mô hình Markov, các trạng thái có thể phân thành các lớp khác nhau và trong cùng một lớp các trạng thái có thể chuyển qua nhau. Khái niệm lớp các trạng thái trong mô hình Markov rất gần với khái niệm thành phần liên thông trong lý thuyết đồ thị. Do vậy việc phân lớp hay thành phần liên thông trong đồ thị Web để tính hạng trang là hoàn toàn khả thi. 2.3. PHƯƠNG PHÁP CCP 22 Giả sử đồ thị G có k thành phần liên thông, đồ thị được sắp xếp lại như sau: P =  P1 0 · · · 0 0 P2 · · · 0 ... ... . . . ... 0 0 · · · Pk  (2.8) Với: - Pi là ma trận kề kích thước ni × ni của thành phần liên thông thứ i - ∑k i=1 ni = n Chúng tôi định nghĩa: P˜i = αPi + (1− α) ni Ji i = 1, k (2.9) Với: Ji là ma trận J của thành phần liên thông i kích thước ni × ni Khi đó, véc tơ riêng ứng với từng khối ma trận Pi, i = 1, k: pii = piiP˜i (2.10) Và véc tơ hạng trang ˜ được tính: ˜ = (n1 n pi1, n2 n pi2, . . . , nk n pik ) (2.11) Trong [12] chúng tôi đã chứng minh ˜ chính là véc tơ riêng của ma trận P˜ . Do vậy˜ là véc tơ hạng của các trang web. Mỗi thành phần liên thông gọi là một khối. Nhằm nâng cao hiệu quả tính toán, chúng tôi đề xuất đặt giới hạn về độ lớn Max, Min cho các khối. Do vậy sau khi phân tách thành phần liên thông, các khối có độ lớn nhỏ hơn giới hạn dưới Min sẽ được gộp lại và các khối có độ lớn vượt quá Max sẽ được chia thành các khối nhỏ hơn có độ lớn phù hợp. Quá trình tính hạng gồm ba bước chính: • Chia đồ thị Web thành các thành phần liên thông (khối) với các ma trận kề tương ứng. • Tính véc tơ riêng PageRank của các trang trong mỗi thành phần liên thông, theo thuật toán PageRank. • Tổ hợp hạng trang cuối cùng theo công thức 2.11. 2.3. PHƯƠNG PHÁP CCP 23 2.3.2 Đánh giá Khi chúng ta sử dụng toàn bộ ma trận P để tính toán véc tơ riêng như trong phương pháp PageRank, thì với phép nhân ma trận thời gian tính toán là O(n2) trong đó n là số trang web. Mà thực tế đồ thị Web có tới hàng tỉ trang. Nhưng khi chúng ta đưa ma trận kề biểu diễn đồ thị về dạng các khối biểu diễn cho từng thành phần liên thông thì thời gian tính toán sẽ giảm đi rất nhiều. Giả sử chúng ta sẽ có k thành phần liên thông, khi đó với mỗi khối thời gian tính toán nhỏ hơn O(n2i max) và tổng thời gian tính toán sẽ nhỏ hơn k×O(n2imax) nhỏ hơn nhiều so với khi sử dụng cả ma trận lớn để tính toán. Đồng thời, việc tìm thành phần liên thông của đồ thị có thể tiến hành dễ dàng với thời gian đa thức O(n+m) với n là số đỉnh và m là số cạnh của đồ thị nên thời gian chi phí với việc tìm kiếm thành phần liên thông là không đáng kể. Như vậy, phương pháp do chúng tôi đề xuất có thời gian tính toán lý thuyết hiệu quả hơn đối với phương pháp PageRank. Hơn nữa, nếu kết hợp phương pháp này với những phương pháp hỗ trợ tính toán như MAP thì thời gian tính toán được giảm đi đáng kể. Sử dụng thành phần liên thông chúng ta có thể làm giảm đi số vòng lặp tính toán do kích thước ma trận giảm nên tốc độ giảm của véc tơ hạng càng nhanh. Ngoài ra với chúng ta còn có thể tiến hành song song hoá quá trình tính hạng. Với phương pháp chia ma trận thành các thành phần theo tiêu chí cùng host cũng làm giảm số vòng lặp nhưng lại được chia làm hai bước tính hạng, mất thời gian tính toán hạng cho khối. Do vậy độ phức tạp tính toán vẫn lớn. Như vậy, phương pháp đề xuất có một số ưu điểm cơ bản sau: - Giảm thời gian tính toán do việc tính lặp trên ma trận cỡ nhỏ. - Tích hợp dễ dàng với các phương pháp hỗ trợ tính toán trên ma trận. - Có thể dễ dàng áp dụng song song hoá cho quá trình tính hạng. Kết quả thực nghiệm khi thi hành đối với máy tìm kiếm Nutch [16] đã được chúng tôi gửi công bố trong [12]. Chương 3 Các phương pháp xác định LinkSpam 3.1 Giới thiệu Các phương pháp tính hạng trang được trình bày trong chương trước là khá tốt nhưng hoàn toàn không đề cập đến vấn đề spam, và coi liên kết giữa các trang thực sự hàm chứa mối quan hệ độ quan trọng. Ngày nay, với sự ra đời của các công nghệ spam link nhằm nâng cao hạng trạng thì các phương pháp đó không còn phù hợp mà cần cải tiến, thực hiện xác định, loại bỏ các link spam để có được đánh giá hạng chính xác hơn. Trong hai năm gần đây có nhiều bài báo tập trung vào việc đưa ra phương pháp xác định link spam. Qua nghiên cứu [3, 4, 5, 8, 14, 13, 15] cho thấy các phương pháp có thể chia thành các hướng tiếp cận: 1. Nhận dạng LinkSpam dựa vào cấu trúc liên kết: Với nhận định các trang web có số liên kết đến và liên kết ra tuân theo luật số lớn và do đó các trang web có trọng số PageRank tuân theo luật số lớn, nhóm của Benezur [3] đã cho rằng mỗi trang web được phân phối trọng số PageRank từ các trang liên kết tới tuân theo luật số lớn. Do đó các phân phối trọng số PageRank không tuân theo luật đó được nhận định là link spam. Ngoài ra, D. Fetterly, M. Manasse, và M. Najork cũng phân tích các mô hình phân phối liên kết trên web để xác định các trang spam. Phương pháp này chỉ thích hợp với những dạng link spam đơn giản với cấu trúc liên kết lớn 3.2. PHƯƠNG PHÁP TRUSTRANK 25 được sinh tự động. Và với sự phát triển của công nghệ spam hiện nay thì các phương pháp đó không hiệu quả. Tạo nhóm các trang có liên kết mạnh với nhau, còn gọi là các trang có cấu kết với nhau, là một phương pháp nâng cao hạng trang rất hiệu quả và thường được sử dụng bởi những người tạo spam. Baoning Wu và Brian D.Davion [4] đã đưa ra một thuật toán hiệu quả để nhận diện nhóm các trang đó và Z. Gyongyi, H. Garcia-Molina [15] cũng đưa ra các cải tiến trong công thức tính hạng trang tùy theo cấu trúc liên kết trong các nhóm đó. Các phương pháp này tập trung vào phân tích các cấu trúc liên kết tức các trang liên kết với nhau như thế nào để quyết định một trang là spam hay không và thay đổi giá trị hạng trang của chúng. 2. Xác định spam bằng cách đánh giá độ tốt của các trang thay vì tìm các trang xấu, và hạng các trang web được phân phối từ hạng của các trang trong tập nhân các trang web tốt cho trước. Nhóm tác giả Z.Gyongyi, H. Garcia-Molina, J. Pedersen [13] đã đưa ra phương pháp này dựa trên quan niệm: các trang tốt thường chỉ liên kết đến các trang tốt, và các trang xấu (spam) thường chỉ được các trang xấu liên kết đến. 3. Ngoài ra, với sự ra đời của các trang web cho phép viết bài phương pháp xác định các link spam hay cụ thể là blog spam do Gilad Mishne, David Carmel và Ronny Lempel [5] đưa ra nhằm xác định các bài viết xấu (comment spam) chứa liên kết tới các trang web có chủ đề không phù hợp với chủ đề của bài viết. Chương này tập trung phân tích hai thuật toán xác định Link Spam quan trọng là phương pháp xác định Link Farm của Baoning Wu và Brian D. Davison [4] và phương pháp xác định các trang tốt của nhóm Z.Gyongyi [13], từ đó đưa ra giải pháp kết hợp hai phương pháp xác định link spam ứng dụng vào máy tìm kiếm. 3.2 Phương pháp TrustRank Thay vì xác định các trang spam tức trang xấu, phương pháp đánh giá độ tốt của các trang web. Do mục đích của phương pháp là chọn ra những trang tốt nhất nên cũng tương đương với việc loại bỏ các trang xấu. Các trang tốt thường chỉ liên kết 3.2. PHƯƠNG PHÁP TRUSTRANK 26 đến các trang tốt và hiếm khi liên kết đến các trang xấu (spam). Đó là ý tưởng để nhóm của Z. Gyongyi đưa ra thuật toán TrustRank [13]. 3.2.1 Nội dung phương pháp Phương pháp không tự động xác định các trang tốt và xấu mà cần có tập nhân các trang tốt được xác định trước, và các trang đó phân phối độ tốt tới các trang khác dựa vào mối liên kết giữa chúng. Do vậy việc đầu tiên là chọn một tập nhân các trang tốt, và gán trọng số về độ tốt trust lớn. Sau đó dựa vào thuật toán tính hạng PageRank để phân phối giá trị trust, tìm các trang tốt khác. Những trang có giá trị trust cao được tin tưởng đó là các trang tốt. Trong thuật toán, việc chọn tập nhân rất quan trọng và có ảnh hưởng quyết định tới độ tin cậy của phương pháp, nên trước tiên cần dựa vào kiến thức chuyên gia (kiến thức của con người) xác định một tập nhỏ các trang tốt, xấu trong đồ thị Web, rồi kết hợp với phương pháp xác định trọng số trust của các trang để lựa chọn những trang tốt có trọng số trust cao nhất đưa vào tập nhân. Thuật toán 3 TrustRank 1: s← SelectSeed(. . .) . Tính giá trị trust của N trang trong toàn đồ thị web 2: σ ← Sort({1, . . . , N}, s) . Sắp xếp các trang theo thứ tự trust giảm dần 3: v = 0N . v là véc tơ các trang tốt ban đầu 4: for i = 1 to L do . Chọn L trang tốt có trust cao nhất vào tập nhân 5: if O(σ(i)) = 1 then . O(p) = 1 xác định trang p là tốt 6: v(σ(i))← 1 7: end if 8: end for 9: v ← v/ | v | . Chuẩn hóa véc tơ v 10: pi ← v 11: for i = 1 to MB do . Tính hạng theo PageRank với MB vòng lặp 12: pi = αB.P.pi + (1− α)v 13: end for Các tác giả đã xác định các trang tốt (có trust cao) là các trang có nhiều liên kết ra. Do vậy để tính trust của các trang, các tác giả sử dụng thuật toán tính PageRank với hệ số hãm α và số vòng lặp M nhưng thay vì sử dụng ma trận 3.2. PHƯƠNG PHÁP TRUSTRANK 27 chuyển P của đồ thị G = (V,E), thuật toán sử dụng ma trận chuyển U của đồ thị G′ = (V,E ′). Trong đó: mỗi (p, q) ∈ E có (q, p) ∈ E ′ và ngược lại, hay U chính là ma trận chuyển ngược của P . Thuật toán 4 Tính trust hay PageRank ngược 1: function SelectSeed(. . . ) 2: s← 1N . N là số trang trong đồ thị Web 3: for i = 1 to M do . Tính hạng theo PageRank với M vòng lặp 4: s = α.U.s + (1− α). 1 N .1N 5: end for 6: return s 7: end function Thuật toán TrustRank sử dụng phương pháp tính hạng PageRank nguyên thủy để phân phối hạng từ các trang tốt trong tập nhân tới các trang khác. Tuy nhiên các tác giả cũng đưa ý tưởng về cách phân phối giá trị trust giảm dần theo khoảng cách (bước liên kết) từ các trang nhân với trang được liên kết tới, thay vì phương pháp phân phối đều như PageRank. Hình 3.1: Phương pháp phân phối giảm dần Hình 3.1 mô phỏng việc phân phối giá trị trust từ trang 1 tới trang 2 với giá trị β < 1, và từ đó giá trị trust do trang 2 phân phối cho trang 3 là β.β. Nếu có liên kết từ trang 1 tới trang 3 thì giá trị trust mà 3 nhận được sẽ được lấy trung bình: (β + β.β)/2. Hình 3.2 mô phỏng phương pháp phân phối đều giá trị trust, tương tự phương pháp tính PageRank nguyên thủy. Hơn nữa, có thể kết hợp cả hai cách trên để phân phối giá trị trust, ví dụ trang 3 trong hình 3.2 có thể nhận giá trị trust là β.(1/2+1/3). Mô phỏng thuật toán với một ví dụ cụ thể (theo ví dụ trong [13]): 3.2. PHƯƠNG PHÁP TRUSTRANK 28 Xét đồ thị web gồm 7 trang web hình 3.3, với các nút để trắng tương ứng với các trang tốt và các nút đen tương ứng với các trang xấu. Ta có véc tơ xác định các trang tốt xấu: O = [1, 1, 1, 1, 0, 0, 0]. Véc tơ trust: s = [0.08, 0.13, 0.08, 0.10, 0.09, 0.06, 0.02]. Sắp xếp trang theo giá trị trust giảm dần: σ = [2, 4, 5, 1, 3, 6, 7] Chọn L = 3 khi đó tập nhân gồm các trang {2, 4, 5 } nhưng trong đó trang 5 không phải trang tốt do thông tin ban đầu O [5] = 0. Nên có véc tơ v sau khi chuẩn hóa: v = [ 0, 1 2 , 0, 1 2 , 0, 0, 0, 0 ] Chọn hệ số hãm αB = 0.85 và số vòng lặp MB = 20, thuật toán TrustRank trả về giá trị hạng các trang: pi = [0, 0.18, 0.12, 0.15, 0.13, 0.05, 0.05] Ở đây, trang 1 là trang tốt nhưng có giá trị hạng bằng 0 là do trang 1 chỉ có liên kết ra nên không được phân phối giá trị trust từ các trang nhân. Trong khi đó Hình 3.2: Phương pháp chia đều giá trị trust Hình 3.3: Đồ thị gồm 7 trang web đã được đánh dấu trang tốt, xấu 3.2. PHƯƠNG PHÁP TRUSTRANK 29 Hình 3.4: Biểu đồ kết quả thử nghiệm TrustRank [13] trang 5 là trang xấu lại có hạng cao do có một liên kết trực tiếp từ trang tốt 4 trong tập nhân tới nó. Đây cũng chính là mặt hạn chế của phương pháp TrustRank. 3.2.2 Đánh giá phương pháp Phương pháp TrustRank đã nâng cao hạng của nhiều trang tốt và đồng thời do đó đã giảm hạng của các trang xấu như biểu đồ hình 3.4. Tuy nhiên khi xác định trang tốt thuật toán vẫn còn nhiều hạn chế, như ví dụ ở phần trước đã dẫn chứng hai lỗi điển hình của phương pháp. Vấn đề cốt lõi của phương pháp nằm ở quá trình lựa chọn tập nhân các trang tốt. Trong khi việc chọn tập nhân tốt với số lượng không quá lớn nhưng phải bao phủ được không gian web là vấn đề không đơn giản. Đồng thời phương pháp cần thông tin kiến thức chuyên gia để xác định các trang tốt ban đầu trước khi chọn tập nhân. Do vậy gây ra lỗi điển hình đó là nếu một trang tốt nhưng do tập nhân chưa được cập nhật hay không có liên kết tới từ tập nhân tốt đã được chọn trước thì trang đó không thể đạt được hạng cao, hay một trang xấu nếu có được liên kết từ trang tốt trong tập nhân đến thì lại được đánh giá hạng cao. Ngoài ra thuật toán cần hai lần tính hạng, đó là quá trình tính trọng số trust cho các trang để lựa chọn tập nhân và quá trình tính hạng trang sau khi đã có tập nhân tốt. Đó cũng là một hạn chế phải tính hạng nhiều lần của phương pháp. Do không gian Web rất lớn nên việc tính hạng đòi hỏi chi phí lớn, mà với máy tìm kiếm thì yêu cầu quá trình tính hạng phải đủ nhanh để kết quả trả về cho người dùng là cập nhật và tốt nhất. 3.3. PHƯƠNG PHÁP XÁC ĐỊNH LINK FARM 30 3.3 Phương pháp xác định spam dựa vào cấu trúc liên kết Với nhận định các trang spam link thường có nhiều liên kết đến và ra thuộc cùng các domain, phương pháp tự động nhận diện các trang web có khả năng là spam dựa vào phân tích tập các liên kết vào ra. Từ đó tạo tập nhân các trang spam rồi mở rộng không gian web để tìm các link farm. Sau khi nhận diện các link farm, cần phải xử lý các trang thuộc các link farm đó để loại bỏ ảnh hưởng của chúng tới kết quả tính hạng trang như: giảm trọng số của các liên kết là spam, xóa bỏ các liên kết spam hay thậm chí loại bỏ trang web spam khỏi không gian web. Sau đó có thể sử dụng các thuật toán tính hạng cơ bản như PageRank hoặc HITS để tính hạng của các trang web. 3.3.1 Nội dung phương pháp Baoning Wu và Brian D. Davison [4] đã đề xuất phương pháp với các bước thực hiện: • Xác định tập nhân các trang spam xét trên toàn bộ không gian web. • Mở rộng: thêm vào tập nhân các trang có liên kết chặt với các trang spam đã tìm được. • Tính hạng trang: kết hợp thông tin các trang spam với thuật toán tính hạng dựa trên liên kết để xác định hạng của các trang web. Trong đó bước mở rộng, các trang có liên kết chặt với các trang trong tập nhân được thêm vào tập nhân. Do đó đây là quá trình này lặp, và dừng khi không có trang spam mới nào được tìm thấy. Xây dựng tập nhân Một trang được đưa vào tập nhân S nếu có nhiều trang khác vừa có liên kết đến vừa được liên kết ra trang đó. Để xác định thế nào là nhiều, các tác giả đưa một tham số ngưỡng TIO: một trang có ít nhất TIO các trang có liên kết hai chiều với trang đó thì nó được coi là spam, thuộc một link farm, và được đưa vào S. 3.3. PHƯƠNG PHÁP XÁC ĐỊNH LINK FARM 31 Hình 3.5: Đồ thị Web nhỏ gồm 6 trang thuộc 6 domain khác nhau Tuy nhiên vấn đề đặt ra việc xác định độ tương đồng giữa hai liên kết vào ra để xác định hai trang web có liên kết tới nhau là không đơn giản, bởi các công nghệ tạo web như chuyển hướng (redirect). . . . Do vậy, thay vì xác định các trang web có liên kết tới nhau, thuật toán xác định ở cấp cao hơn đó là site hay domain. Đồng thời phương pháp cũng giúp loại trừ trường hợp các site được thiết kế theo dạng một trang chủ và nhiều trang thành viên, các trang thành viên có liên kết đến trang chủ và trang chủ có liên kết đến các trang thành viên. Ví dụ site của Đại Học Công Nghệ có các liên kết tới trang web của từng bộ môn, và tại trang web của mỗi bộ môn lại có liên kết tới trang chủ Đại Học Công Nghệ. Nhưng trang chủ không phải là trang spam. Xét ví dụ [4], có đồ thị Web nhỏ gồm có 6 trang web thuộc các domain khác nhau (hình 3.5) và chọn giá trị ngưỡng TIO bằng 2. Dễ dàng nhận thấy tập các liên kết đến A gồm [C,D,E] và tập các liên kết A liên kết ra gồm [B,C,D]. Do vậy A có 2 domain của [C,D] vừa có liên kết A vừa được A liên kết tới, thỏa mãn giá trị ngưỡng nên được tập nhân bao gồm [A,C,D]. Trong thuật toán xác định tập nhân định nghĩa: INdomain(p) là danh sách các domain có liên kết đến trang p, OUTdomain(p) là danh sách các domain mà p liên kết tới, và interDomain(p) là số domain trùng nhau giữa INdomain(p), OUTdomain(p). S là mảng đánh dấu các trang thuộc tập nhân, được khởi tạo bằng 0, S [i] = 1 nếu trang web i là trang spam thuộc tập nhân. 3.3. PHƯƠNG PHÁP XÁC ĐỊNH LINK FARM 32 Mở rộng Bước tiếp theo là mở rộng tập nhân, tìm các trang có nhiều liên kết tới các trang trong tập nhân, được coi là các trang spam và thuộc link farm. Để xác định các trang spam đó cần đưa ra một tham số ngưỡng mới xác định giới hạn số lượng liên kết spam tối thiểu cần có của một trang spam, gọi là TPP . Thuật toán ParentPenalty được đưa ra để mở rộng tập nhân. Tiếp tục với đồ thị Web nhỏ trên, thuật toán ParentPenalty mở rộng tập nhân thực hiện như sau: Tập nhân ban đầu gồm [A,C,D]. Số liên kết ra trỏ tới các trang trong tập nhân của trang B là 1, của trang E là 2 và trang F không có liên kết tới các trang trong tập nhân. Chọn ngưỡng TPP = 2, khi đó trang E thỏa mãn điều kiện giới hạn ngưỡng liên kết tới tập nhân nên được thêm vào tập nhân S. Xét tiếp, không có trang nào thỏa mãn điều kiện ngưỡng nên thuật toán dừng và tập các trang xấu nhận diện được là [A,C,D,E]. Tính hạng Sau khi nhận diện các trang spam, có nhiều giải pháp khác nhau để xử lý các trang đó trong quá trình tính hạng trang như: loại bỏ các trang spam khỏi đồ thị Web, giảm trọng số hoặc xóa các liên kết giữa các trang thuộc link farm. Trong đó việc loại bỏ hoàn toàn các trang spam là không thực tế, do mỗi trang web đều có ý nghĩa ít nhất là người tạo ra trang web đó và nhiều trang web tuy được thuật toán nhận diện là spam nhưng vẫn có độ quan trọng cao. Do vậy giải pháp được lựa chọn đó là loại bỏ hoặc giảm trọng số của các liên kết spam, tương ứng là sự biến đổi ma trận chuyển biểu diễn đồ thị Web. Các thuật toán tính hạng trang như PageRank, HITS có thể áp dụng để tính hạng trang sau khi ma trận chuyển được biến đổi, và phương pháp được các tác giả lựa chọn là phương pháp cải tiến HITS do Bharat và Henzinger đưa ra [4]. 3.3.2 Đánh giá Qua thực nghiệm, các tác giả đã chọn TIO = 3, TPP = 3. Bằng cách chia các trang web thành 10 nhóm với mỗi nhóm có tổng giá trị hạng chiếm 1/10 tổng hạng các trang trong toàn đồ thị Web, biểu đồ 3.6 biểu diễn tỉ lệ xuất hiện của các trang spam trong mỗi nhóm. Trong đó các cột màu sáng tương ứng với trường hợp không 3.3. PHƯƠNG PHÁP XÁC ĐỊNH LINK FARM 33 Thuật toán 5 Xác định tập nhân 1: for all p ∈ G do . p là một trang web trong đồ thị Web G 2: for all i ∈ B(p) do 3: if d(i) 6= d(p) then . d(i) là domain của trang i 4: INdomain(p)← INdomain(p) + d(i) 5: end if 6: end for 7: for all k ∈ N(p) do 8: if d(k) 6= d(p) then 9: OUTdomain(p)← OUTdomain(p) + d(k) 10: end if 11: end for 12: interDomain(p)←‖ OUTdomain(p) ∩ INdomain(p) ‖ 13: if interDomain(p) ≥ TIO then 14: S [p]← 1 15: end if 16: end for Thuật toán 6 Mở rộng tập nhân 1: loop ← 0 2: repeat 3: for all (p ∈ G & S [p] = 0) do 4: badnum ← 0 . badnum là số liên kết tới các trang spam 5: for all i ∈ N(p) do 6: if S [i] = 1 then 7: badnum ← badnum +1 8: end if 9: end for 10: if badnum ≥ TPP then 11: S [p]← 1 12: loop ← 1 13: end if 14: end for 15: until loop = 1 3.4. ĐỀ XUẤT PHƯƠNG PHÁP CẢI TIẾN 34 Hình 3.6: Biểu đồ kết quả phân phối các trang spam [4] xác định link farm và các cột màu sẫm tương ứng với trường hợp sau khi xác định, loại bỏ các trang thuộc link farm. Dễ dàng nhận thấy với kết quả thực nghiệm của Baoning Wu và Brian D. Davion [4], thuật toán xác định các trang spam dựa vào cấu trúc liên kết chặt giữa các trang trong link farm có hiệu quả và đã giảm hạng của nhiều trang spam. Nhưng qua thực nghiệm các tác giả cũng thấy có nhiều trang được nhận diện là spam nhưng vẫn có giá trị hạng trang cao. Và điều đó được chấp nhận với lý giải các trang đó có nhiều liên kết tốt từ các trang khác ngoài link farm. Với việc chọn giá trị ngưỡng TIO, TPP cố định đối với tất cả các trang trên đồ thị Web như các tác giả chưa hẳn hợp lý, do mỗi trang web có số lượng liên kết đến và ra không giống nhau. Vì vậy có thể cải tiến phương pháp với việc lựa chọn giá trị ngưỡng là tỉ lệ liên kết thay vì số lượng liên kết. Ví dụ chọn TPP = 0, 5, tức những trang có ít nhất một nửa số liên kết ra trỏ tới các trang spam sẽ được chọn là spam. 3.4 Đề xuất phương pháp cải tiến Mỗi phương pháp trên có hướng tiếp cận riêng và đã góp phần cải thiện kết quả tính hạng trang, có loại bỏ một phần ảnh hưởng của spam. Sau khi nghiên cứu đánh giá các phương pháp, tôi đưa ra một vài cải tiến, tận dụng ưu điểm của mỗi phương pháp để áp dụng hiệu quả vào máy tìm kiếm 3.4. ĐỀ XUẤT PHƯƠNG PHÁP CẢI TIẾN 35 NUTCH. Phương pháp được thực hiện như sau: 1. Sử dụng phương pháp LinkFarm, với tham số ngưỡng được lựa chọn là tỉ lệ liên kết spam thay cho số lượng liên kết spam như thuật toán gốc, để nhận diện các trang spam. 2. Từ danh sách các trang spam tìm được, kết hợp tri thức con người tạo nên danh sách đen (black list) các trang xấu, và từ lần crawl sau máy tìm kiếm có thể bỏ qua không cập nhật nội dung các trang spam. Từ đó tiết kiệm không gian và thời gian xử lý cho máy tìm kiếm. 3. Sau khi xác định các trang spam, biến đổi ma trận chuyển biển diễn đồ thị Web, tiếp tục áp dụng thuật toán CCP để tính hạng các trang web. Chương 4 Thử nghiệm 4.1 Giới thiệu hệ thống NUTCH Nutch [16]là một phần mềm mã mở của máy tìm kiếm trên mạng. Nutch được phát triển từ Lucene, một bộ tìm kiếm (searcher), với việc xây dựng các module phục vụ tìm kiếm web như crawler, cơ sở dữ liệu lưu trữ đồ thị web với, các bộ phân tích tài liệu HTML,. . . . Hệ thống được phát triển trên nền JAVA, và tổ chức một hệ thống file lưu trữ riêng gọi là NFS(Nutch File System) có khả năng xử lý phân tán nên có tính chất độc lập cao. Ngoài ra, hệ thống có kiến trúc môđun hóa cao cho phép phát triển, tích hợp thêm các môđun mới như tính hạng, phân lớp,. . .một cách dễ dàng. Do sử dụng hệ mã UTF-8 trong xử lý và lưu trữ dữ liệu nên hệ thống Nutch có khả năng hỗ trợ nhiều ngôn ngữ khác nhau. Chỉ với một số thay đổi thông tin cấu hình, hệ thống hoàn toàn có thể tìm kiếm với tiếng Việt. Với tính chất mở và tương thích cao của hệ thống như vậy nên đã có rất nhiều máy tìm kiếm trên mạng 1 là sản phẩm phát triển từ hệ thống Nutch. Sau khi nghiên cứu, đánh giá về khả năng phát triển của hệ thống Nutch nên tôi đã quyết định chọn hệ thống Nutch để tích hợp môđun tính hạng trang, lọc spam của mình và tiến hành thử nghiệm trên đó. Hiện nay, hệ thống Nutch đã phát triển và công bố phiên bản 0.8 cùng những ưu điểm vượt trội hơn các phiên bản trước về khả năng tính toán phân tán. Tuy nhiên do vấn đề thời gian nên khóa luận sử dụng Nutch với phiên bản 0.7.2 (công bố ngày 31 tháng 3 năm 2006). 1 4.2. THỬ NGHIỆM 37 4.2 Thử nghiệm Hệ thống Nutch chưa có một môđun tính hạng trang tốt (sử dụng phương pháp PageRank nguyên thủy) và chưa có môđun nhận diện spam mà chỉ có một môđul lọc URL dựa vào một danh sách URL cho trước. 4.2.1 Môi trường thử nghiệm Phần cứng: máy IBM cluster 1350 có cấu hình 3.2GHz, 2GB RAM. Dữ liệu: Tiến hành crawl các trang web với tập nhân lấy từ nguồn dữ liệu URL của Dmoz. Lấy ngẫu nhiên 3000 URL từ Dmoz để tạo nhân và tiến hành crawl với độ sâu liên kết là 30. Sau khi hệ thống crawl và xóa bỏ các trang trùng nhau, được dữ liệu gồm: 2,5 triệu trang web với 4,6 triệu liên kết. Môđun: Các môđun đã tích hợp vào hệ thống Nutch • SpamFilter: nhận diện link farm, thử nghiệm với tham số ngưỡng THRESH- OLD thay đổi trong khoảng 0,3 - 0,5 và thử nghiệm với với phương pháp xác định LinkFarm cũ với ngưỡng T = 3 và để tồn tại tỉ số liên kết xấu trên tổng số liên kết thì phương pháp chỉ xét các trang có liên kết vào, ra. • PageRankTool: tính hạng trang với phương pháp CCP. 4.2.2 Kết quả Với phương pháp cải tiến: • Thời gian trung bình cho quá trình nhận diện spam : 210.000 ms • Số site được nhận diện là nhân của link farm: 6 Bảng 4.1 so sánh kết quả nhận diện link farm của phương pháp cũ sử dụng số lượng liên kết và phương pháp cải tiến dựa theo tỉ lệ liên kết. 4.2. THỬ NGHIỆM 38 B ản g 4. 1: T ập cá c si te n h ân củ a li n k fa rm P h ư ơn g p h áp lấ y số lư ợn g P h ư ơn g p h áp lấ y tỉ lệ ht tp :/ /b ag hd ad bl og .m sn bc .c om / ht tp :/ /b ag hd ad bl og .m sn bc .c om / ht tp :/ /w w w .b er lin on lin e. de /w m 20 06 /d eu ts ch es te am / ht tp :/ /w w w .b er lin on lin e. de /w m 20 06 /d eu ts ch es te am / ht tp :/ /w w w .g eo rg et ow n. ed u/ de pa rt m en ts /- ht tp :/ /w w w .g eo rg et ow n. ed u/ de pa rt m en ts /- ec on om ic s/ fa cu lt y. ht m l ec on om ic s/ fa cu lt y. ht m l ht tp :/ /w w w .u n. or g/ la w / ht tp :/ /w w w .u n. or g/ la w / ht tp :/ /w w w .o re ill y. co m /p ub /t op ic /c pr og ht tp :/ /w w w .o re ill y. co m /p ub /t op ic /c pr og ht tp :/ /p eo pl e. tr ib e. ne t/ el le nc at al in a - - ht tp :/ /w w w .g rd c. co m .a u/ gr ow er s/ re su pd /n or th /n 05 /m ur ra y. ht m ht tp :/ /g ab ri el om eu an jin ho .b lo gs po t. co m / - ht tp :/ /e n. w ik ip ed ia .o rg /w ik i/ K an sh i- R am - ht tp :/ /w w w .e ng ad ge t. co m /2 00 6/ 04 /2 7/ ni nt en do - -w ii- th e- re vo lu ti on -g et s- a- re al -n am e/ ht tp :/ /w w w .r ef or um .c om / - ht tp :/ /s lu gg on ee ds an ap .b lo gs po t. co m / - 4.2. THỬ NGHIỆM 39 Từ bảng 4.1 nhận thấy với hai phương pháp, tập các trang link farm có sự khác biệt. Gọi phương pháp lấy ngưỡng theo số lượng liên kết là phương pháp 1 và phương pháp lấy ngưỡng theo tỉ lệ là phương pháp 2. Ta thấy, có nhiều trang trong phương pháp 1 được xác định là spam nhưng trong phương pháp 2 thì không, điều đó có thể lý giải bởi những trang đó có tổng số liên kết vào, ra lớn nên dù đạt ngưỡng có T liên kết xấu nhưng xét về tỉ lệ số liên kết xấu trên tổng liên kết vào ra thì vẫn có thể nhỏ. Tuy nhiên có một trường hợp đặc biệt xảy ra, đó là trường hợp một trang chỉ được xác định là spam trong phương pháp 2: -supd/north/n05/murray.htm. Điều này xảy ra khi số liên kết vào và ra từ trang này đến các trang có tên miền (domain) khác quá ít, do đó dẫn đến dù có ít liên kết xấu nhưng xét về tỉ lệ thì cao nên bị đưa vào nhóm các trang thuộc link farm. Việc này hoàn toàn chấp nhận được, nhưng cũng có thể khắc phục bằng cách kết hợp thêm giới hạn về số lượng liên kết xấu thay vì chỉ dùng tỉ lệ. Sau khi thêm thông tin về giới hạn số lượng liên kết cho phương pháp 2, trang đã được loại khỏi danh sách spam. Do đồ thị Web được mở rộng từ tập nhân các trang tốt trích từ Dmoz, đồng thời do tập nhân lớn và giới hạn mở rộng đồ thị (độ sâu 30) nên mật độ liên kết trong đồ thị Web thu được rất thưa (trung bình có 2 liên kết vào ra cho mỗi trang) nên với cả hai phương pháp đều chỉ nhận diện được rất ít các trang thuộc link farm. Kết luận Tính hạng trang là một quá trình quan trọng trong xây dựng máy tìm kiếm. Vấn đề xác định chính xác hạng của các tài liệu, cụ thể là các trang web có một vai trò to lớn bởi nó giúp định hướng, chỉ dẫn người dùng đến với những thông tin phù hợp theo nhu cầu. Cùng với sự phát triển của các thuật toán tính hạng trang là các công nghệ tạo spam nhằm đánh lừa máy tìm kiếm đưa ra các đánh giá hạng trang có lợi cho một nhóm các trang chứa ít thông tin có ích nhưng mong muốn được nhiều người dùng ghé thăm. Khóa luận này đã tiếp cận vấn đề nói trên và nghiên cứu giải pháp chống lại các công nghệ spam. Từ đó đưa ra phương pháp áp dụng vào máy tìm kiếm NUTCH để nâng cao chất lượng tính hạng trang. Khóa luận đã đạt được những kết quả: • Phân tích các vấn đề thời sự nhất về bài toán tính hạng trang. Trình bày các thuật toán cải tiến nâng cao tốc độ tính hạng trang trong một vài năm gần đây, trong đó có hai kết quả đã được công bố mà tác giả khóa luận đã tham gia [1, 2]. • Xây dựng modul nhận diện link farm dựa vào cấu trúc liên kết. • Cải tiến phương pháp và nâng cao chất lượng tính hạng trang trong máy tìm kiếm NUTCH. Kết quả nghiên cứu này sẽ được trình bày tại Hội thảo quốc tế ICMOCCA 2006, 16-17 August, 2006, Seoul, Korea [12]. Do giới hạn về thời gian và kiến thức nên qua thực nghiệm phương pháp LinkSpam vẫn còn có hạn chế về thời gian tính toán, cần được tiếp tục nghiên cứu và cải tiến để khẳng định tính hiệu quả của phương pháp. Tài liệu tham khảo Tiếng Việt [1] Đỗ Thị Diệu Ngọc, Nguyễn Hoài Nam, Nguyễn Thu Trang, Nguyễn Yến Ngọc.Giải pháp tính hạng trang Modified Adaptive PageRank trong máy tìm kiếm. Chuyên san "Các công trình nghiên cứu về CNTT và Truyền thông", Tạp chí Bưu chính Viễn thông, 14 , 4-2005, 65-71. [2] Nguyễn Hoài Nam, Nguyễn Thu Trang, Nguyễn Yến Ngọc, Nguyễn Trung Kiên, Bùi Việt Hải. Sử dụng thành phần liên thông nâng cao hiệu năng tính toán PageRank trong máy tìm kiếm Vinahoo. Hội thảo quốc gia lần thứ VIII “Một số vấn đề chọn lọc của Công nghệ thông tin và Truyền thông”, Hải Phòng, 24-26/8/2005 Tiếng Anh [3] András A. Benczúr, Károly Csalogány, Tamás Sarlós and Máté Uher. Spam- Rank – Fully Automatic Link Spam. In First International Workshop on Ad- versarial Information Retrieval on the Web, WWW2005, 2005. [4] Baoning Wu and Brian D. Davison. Identifying Link Farm Spam Pages. In Proceedings of the 14th International World Wide Web Conference, Industrial Track, May 2005. [5] Gilad Mishne, David Carmel, Ronny Lempel. Blocking Blog Spam with Lan- guage Model Disagreement. AIRWeb ’05 - First International Workshop on Adversarial Information Retrieval on the Web, at the 14th International World Wide Web Conference (WWW2005), 2005 TÀI LIỆU THAM KHẢO 42 [6] Jon Kleinberg. Authoritative sources in a hyperlinked environment. Journal of the ACM, 46(5):604-632, November 1999. [7] Monika Henzinger, Rajeev Motwani, and Craig Silverstein. Challenges in web search engines.SIGIR Forum, 36(2), 2002. [8] Panagiotis T. Metaxas, Joseph DeStefano. Web Spam, Propaganda and Trust. Proceedings of the 1st International. Workshop on Adversarial Information Retrieval on the Web (AIRWeb). [9] Page, L., Brin, S., Motwani, R. and Winograd, T. The PageRank citation rank- ing: bringing order to the Web. Technical report, Stanford University, 1998. [10] Sebastiano Vigna. TruRank: Taking PageRank to the Limit. In Proc. of the Fourteenth International World Wide Web Conference (Poster Session), Chiba, Japan, 2005. ACM Press [11] Sepandar Kamvar, Taher Haveliwala, and Gene Golub. Adaptive Methods for the Computation of PageRank. Technical report, Stanford University, 2003. [12] Thuy Q. Ha, Nam H. Nguyen, and Trang T. Nguyen. Improve Performance of PageRank Computation with Connected-Component PageRank. First Interna- tional Conference on Mobile Computing, Communications and Applications, 16-17 August, 2006, ICMOCCA 2006, Seoul, Korea (submitted). [13] Z. Gyongyi, H. Garcia-Molina, and J. Pendersen. Combating Web Spam with TrustRank. In Proceedings of the 30th International VLDB Conference, 2004. [14] Z. Gyongyi and H. Garcia-Molina. Web Spam Taxonomy. Proc. of the Four- teenth International World Wide Web Conference, Chiba, Japan, 2005 [15] Zoltan Gyongyi and Hector Garcia-Molina. Link spam alliances. Technical report, Stanford University, 2005. [16] Phụ lục A Mã chương trình A.1 Phân tích liên kết public void Init() throws IOException { long linkCount = 0; try { IWebDBReader reader = new WebDBReader(nfs, dbDir); MD5Hash lastHash = null; try { for (Enumeration e = reader.pagesByMD5(); e.hasMoreElements();) { Page curPage = (Page) e.nextElement(); MD5Hash newHash = curPage.getMD5(); if (newHash.equals(lastHash)) continue; lastHash = newHash; Link outLinks[] = reader.getLinks(curPage.getMD5()); linkCount += outLinks.length; // // invert links // for (int i = 0; i < outLinks.length; i++) { if (Inlinks.containsKey(outLinks[i].getURL())){ inlink in= (inlink) Inlinks.get( outLinks[i].getURL()); A.2. LỌC SPAM 44 in.links.add(curPage.getURL()); Inlinks.put(outLinks[i].getURL(),in); }else{ inlink in = new inlink(); in.links.add(curPage.getURL()); Inlinks.put(outLinks[i].getURL(),in); } } } } finally { reader.close(); } }catch(Exception e){} System.out.println("So luong lien ket:" + linkCount); } A.2 Lọc Spam public void Filter(File spamFile) throws IOException { int linkCount =0; try { DataOutputStream out = new DataOutputStream(new BufferedOutputStream(nfs.create(new File(spamFile,"spam")))); IWebDBReader reader = new WebDBReader(nfs, dbDir); WebDBWriter webdb = new WebDBWriter(nfs, dbDir); MD5Hash lastHash = null; String lastHost = new String(""); spamlinkSet.clear(); try { for (Enumeration e = reader.pagesByMD5(); e.hasMoreElements();) { Page curPage = (Page) e.nextElement(); MD5Hash newHash = curPage.getMD5(); A.2. LỌC SPAM 45 if (newHash.equals(lastHash)) continue; lastHash = newHash; String newHost =new URL(curPage.getURL(). toString()).getHost().toLowerCase(); if (newHost.equals(lastHost)) continue; Link outLinks[] = reader.getLinks(curPage.getMD5()); linkCount = outLinks.length; inlink inLinks = (inlink)Inlinks.get(curPage.getURL()); linkCount += inLinks.links.size(); int insectLinks = 0; int delLink =0; int change = 0; //insection links if( (linkCount >2) & (outLinks.length >1)){ for (int i = 0; i < outLinks.length; i++) { String sourceHost= new URL(outLinks[i]. getURL().toString()).getHost().toLowerCase(); Iterator iter = inLinks.links.iterator(); while(iter.hasNext()){ String destHost= new URL( ((UTF8)iter.next() ).toString()).getHost().toLowerCase(); if(destHost.equals(sourceHost)) insectLinks++; } } if ((linkCount>0) & (2*insectLinks/linkCount >= THRESHOLD)){ lastHost= newHost; // Luu spam out.writeBytes("-"+curPage.getURL().toString()+"\n"); spamlinkSet.add(curPage.getURL()); // Xoa lien ket A.2. LỌC SPAM 46 for (int k = 0; k < outLinks.length; k++) { String sourceHost= new URL(outLinks[k].getURL(). toString()).getHost().toLowerCase(); Object[] links = inLinks.links.toArray(); int len = inLinks.links.size(); for( int ci =0; ci < len; ci++){ String destHost= new URL( links[ci]. toString()).getHost().toLowerCase(); if(destHost.equals(sourceHost)){ try{ ((inlink)Inlinks.get(curPage.getURL()) ).links.remove((UTF8)links[ci]); }catch(Exception x){} } }//endfor ci }//endfor k }//end if } }//end for System.out.println("Loai bo spam cap 1"); for (Enumeration e = reader.pagesByMD5(); e.hasMoreElements();){ Page curPage = (Page) e.nextElement(); MD5Hash newHash = curPage.getMD5(); if (newHash.equals(lastHash)) continue; lastHash = newHash; Link outLinks[] = reader.getLinks(curPage.getMD5()); linkCount = outLinks.length; int insectLinks = 0; int delLink =0; int change = 0; //insection links if( (linkCount >2) & (!spamlinkSet.contains(curPage.getURL()))){ for (int i = 0; i < outLinks.length; i++) { A.2. LỌC SPAM 47 outLinks[i].getURL().toString(); if (spamlinkSet.contains(outLinks[i].getURL())) insectLinks++; } if ((linkCount>0) & (2*insectLinks/linkCount >= THRESHOLD)) { // Luu spam out.writeBytes("--"+curPage.getURL().toString()+"\n"); spamlinkSet.add(curPage.getURL()); // Xoa lien ket for (int k = 0; k < outLinks.length; k++) { if (spamlinkSet.contains(outLinks[k].getURL())) ((inlink)Inlinks.get(outLinks[k].getURL()) ).links.remove(curPage.getURL()); } } }//endif linkcount }//endfor }catch(Exception e){ System.out.println("Loi spamfilter: "+e); } } finally { reader.close(); out.close(); } System.out.println("Ket thuc Spam Filter " ); }

Các file đính kèm theo tài liệu này:

  • pdfk47_nguyen_thu_trang_thesis_0605.pdf