Luận văn Áp dụng phương pháp trích chọn thuộc tính đặc trưng để nâng cao hiệu quả phân lớp khi khai phá dữ liệu lớn

o Số lượng các đặc trưng giữ lại sau khi giảm chiều không làm ảnh hưởng nhiều tới kết quả phân lớp thu được. o Khi tiến hành giảm chiều tập dữ liệu ban đầu (311x119), rồi sử dụng bộ phân lớp MPM thì rõ ràng tỷ lệ phân lớp chính xác đã tăng lên, đồng thời tỷ lệ chính xác phân lớp trong huấn luyện cũng được cải thiện.

pdf58 trang | Chia sẻ: lylyngoc | Lượt xem: 2817 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Luận văn Áp dụng phương pháp trích chọn thuộc tính đặc trưng để nâng cao hiệu quả phân lớp khi khai phá dữ liệu lớn, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
đã đưa ra bộ khởi tạo đầy đủ đặc biệt mà sản sinh một cách ngẫu nhiên ra những tập con đặc trưng dựa vào thuật toán Las Vegas (LV). Thuật toán LV có thể tìm kiếm trên toàn bộ không gian đáp án rồi sau đó đưa ra kết quả tối ưu đảm bảo. Tuy nhiên khác với những bộ khởi tạo đầy đủ khác, đối với một ứng dụng thực tế, khả năng thực thi của bộ khởi tạo Liu là hoàn toàn thay đổi, nó phụ thuộc nhiều vào quá trình phân chia dữ liệu ngẫu nhiên trong toàn bộ hệ thống học máy.  Kinh nghiệm (Heuristically): Để lược bớt không gian tìm kiếm, bộ khởi tạo kinh nghiệm sản sinh ra các tập con đặc trưng dựa vào những chiến lược dựa theo kinh nghiệm nào đó. Có ba kỹ thuật tìm kiếm tập con điển hình là: 21 - Lựa chọn tiến (Forward Selection): Các tập con đặc trưng được khởi tạo trước hết là rỗng (null), sau đó liên tục gán những tính năng tốt nhất hiện thời cho tập con đó cho đến khi không còn tính năng nào nữa hay các điều kiện thực thi đưa ra đã được tiếp nhận hết. - Lược bỏ lùi (Backward Elimination): Các tập con đặc trưng được khởi tạo trước hết là đầy đủ các đặc trưng, sau đó loại bỏ lần lượt những đặc trưng kém nhất hiện thời từ các tập con đó, cho đến khi không còn đặc trưng nào hoặc các điều kiện thực thi đưa ra đã được triệt tiêu hết. - Lựa chọn hai hướng (Bi – direction Selection): Các tập con đặc trưng được khởi tạo trước hết là rỗng, đầy, hoặc sản sinh ngẫu nhiên một tập con đặc trưng, sau đó liên tục hoặc là gán tính năng tốt nhất hiện thời cho tập con đó hoặc là triệt tiêu tính năng kém nhất từ các tập con đó. Để từ đó đưa ra những giá trị định hướng tốt nhất ở mỗi lần lặp lại đó. Quá trình tiếp tục cho tới khi tất cả điều kiện được đưa ra từ trước đã được tiếp nhận hết. Bộ phận khởi tạo dựa trên kinh nghiệm giảm thiểu phạm vi tìm kiếm đa thức số mũ, do đó giảm thời gian thực hiện thuật toán phức tạp trong phương pháp trích chọn. Tuy nhiên, thuật toán chỉ đưa ra một lượng nhỏ kết quả tối ưu, khi thực hiện tìm đường và tìm kiếm phạm vi của bộ phận khởi tạo, kết quả này được đảm bảo thông qua những thuật toán này. 2.3.2. Bộ đánh giá tập con đặc trưng (Feature Subset Evaluator) Hiệu suất của một tập con đặc trưng được đánh giá dựa trên cơ sở nào đó mà bộ đánh giá đạt được. Bộ đánh giá của những mô hình thuật toán khác nhau là khác nhau. Bộ đánh giá của mô hình Filter thường là các hàm đánh giá, trong khi của mô hình Wrapper là độ học chính xác đạt được bởi quá trình thực thi thuật toán học máy điều khiển trên hệ thống học.  Hàm đánh giá Những hàm đánh giá điển hình dùng để đo đạc và phân biệt khả năng phân lớp của những đặc điểm khác nhau trên các mẫu. Thực tế, các hàm đánh giá khác nhau thường được dùng hiện nay như: xấp xỉ chất lượng (Approximation Quality), độ quan trọng của thuộc tính (Feature Importance), trọng số của thuộc tính (Feature Weight).  Học chính xác 22 Trong mô hình Wrapper, để ước lượng độ học máy chính xác, trước hết, các mẫu của huấn luyện phải được chia ngẫu nhiên làm hai tập dữ liệu, bao gồm: tập huấn luyện và tập kiểm tra, trong đó, cấu trúc của hai hệ thống con có cùng đặc điểm và được tạo ra bởi bộ sinh; sau đó mô hình được huấn luyện (training) để tìm ra tham số tối ưu và các tham số này được kiểm chứng lại nhờ quá trình kiểm tra kết quả học thông qua tập kiểm tra (Validation set). Hiển nhiên, độ chính xác đạt được trong trường hợp này là giá trị ngẫu nhiên, nó phụ thuộc lớn vào kết quả của việc chia mẫu. Để tăng mức độ ổn định của việc ước lượng độ chính xác học máy, bộ đánh giá của mô hình Wrapper thường được sử dụng cùng kỹ thuật kiểm tra chéo (Cross Validation) [11]. 2.3.3. Thuật toán học điều khiển (Central machine learning algorithm) Trong mô hình Wrapper, thuật toán học máy điều khiển có ảnh hưởng lớn tới ước lượng độ chính xác học của một tập con đặc trưng. Do vậy, thuật toán đóng vài trò quyết định trong mô hình Wrapper. Thuật toán thường được chọn ở ví trí trung tâm mô hình thường là: ID3, CN2, C4.5 … 2.4. Kết luận Trích chọn được xem như bước tiền xử lý dữ liệu. Phương pháp này lọc ra những đặc trưng tốt nhất, đồng thời loại bỏ nhiễu, giảm bớt chiều trong dữ liệu. Hai mô hình phổ biến trong phương pháp trích chọn thuộc tính đặc trưng là Filter và Wrapper. Mỗi mô hình đều có những ưu điểm và nhược điểm riêng. Tùy từng yêu cầu và trường hợp cụ thể mà ta có thể áp dụng một trong hai mô hình này. 23 Chương 3: Genetic algorithms 3.1. Giới thiệu Thuật toán di truyền là thuật toán tối ưu ngẫu nhiên dựa trên cơ chế chọn lọc tự nhiên và tiến hóa di truyền. Thuật toán di truyền được ứng dụng đầu tiên trong hai lĩnh vực chính: tối ưu hóa và học máy. Trong lĩnh vực tối ưu hóa thuật toán di truyền được phát triển nhanh chóng và ứng dụng trong nhiều lĩnh vực khác nhau như tối ưu hàm, xử lý ảnh, bài toán hành trình người bán hàng, nhận dạng hệ thống và điều khiển. Thuật toán di truyền cũng như các thuật toán tiến hóa nói chung, hình thành dựa trên quan niệm cho rằng, quá trình tiến hóa tự nhiên là quá trình hoàn hảo nhất, hợp lý nhất và tự nó đã mang tính tối ưu. Quan niệm này có thể xem như một tiên đề đúng, không chứng minh được, nhưng phù hợp với thực tế khách quan. Quá trình tiến hóa thể hiện tính tối ưu ở chỗ, thế hệ sau bao giờ cũng tốt hơn (phát triển hơn, hoàn thiện hơn) thế hệ trước bởi tính kế thừa và đấu tranh sinh tồn. 3.2. Động lực Thuật giải di truyền cung cấp một phương pháp học được thúc đẩy bởi sự tương tự với sự tiến hóa sinh học. Thay vì tìm kiếm các giả thuyết từ tổng quát đến cụ thể hoặc từ đơn giản đến phức tạp, GAs tạo ra các giả thuyết kế tiếp bằng cách lặp việc đột biến và việc tái hợp các phần của giả thuyết được biết hiện tại là tốt nhất. Ở mỗi bước, một tập các giả thuyết được gọi là quần thể hiện tại được cập nhật bằng cách thay thế vài phần nhỏ quần thể bởi cá thể con của các giả thuyết tốt nhất ở thời điểm hiện tại. Sự phổ biến của GAs được thúc đẩy bởi các yếu tố sau:  Tiến hóa là một phương pháp mạnh và thành công cho sự thích nghi bên trong các hệ thống sinh học.  GA có thể tìm kiếm trên các không gian giả thuyết có các phần tương tác phức tạp, ở đó ảnh hưởng của mỗi phần lên toàn thể độ thích nghi giả thuyết khó có thể mô hình hóa.  Thuật giải GA có thể được thực hiện song song và có thể tận dụng thành tựu của phần cứng máy tính. 24 3.3. Thuật giải di truyền 3.3.1. Nội dung thuật toán Bài toán dành cho GAs là tìm kiếm trên không gian các giả thuyết ứng cử để xác định giả thuyết tốt nhất. Trong GAs “giả thuyết tốt nhất” được định nghĩa như là một giả thuyết tối ưu hóa một đại lượng số được định nghĩa trước cho bài toán sắp tới, được gọi là độ thích nghi của giả thuyết. Ví dụ, nếu tác vụ học hỏi là bài toán xấp xỉ một hàm chưa biết cho tập mẫu huấn luyện gồm dữ liệu đầu vào và dữ liệu đầu ra, thì độ thích nghi có thể được định nghĩa như là độ chính xác của giả thuyết trên dữ liệu huấn luyện này. Nếu tác vụ là học chiến lược chơi cờ, độ thích nghi có thể là số ván thắng của chiến lược này khi đấu với các chiến lược khác trong quần thể hiện tại. Mặc dù các thuật giải di truyền được thực hiện thay đổi theo bài toán cụ thể, nhưng chúng chia sẻ chung cấu trúc tiêu biểu sau: Thuật giải hoạt động bằng cách cập nhật liên tục tập giả thuyết – được gọi là quần thể. Ở mỗi lần lặp, tất cả các cá thể trong quần thể được ước lượng tương ứng với hàm thích nghi. Rồi quần thể mới được tạo ra bằng cách lựa chọn có xác suất các cá thể thích nghi tốt nhất từ quần thể hiện tại. Một số trong những cá thể được chọn được đưa nguyên vẹn vào quần thể kế tiếp. Những cá thể khác được dùng làm cơ sở để tạo ra các cá thể con bằng cách áp dụng các tác động di truyền: lai ghép và đột biến. Bảng 3.1: Thuật giải di truyền mẫu. [20] GA (Fitness, Fitness_threshold, p, r, m) { // Fitness: hàm gán thang điểm ước lượng cho một giả thuyết. // Fitness_threshold: Ngưỡng xác định tiêu chuẩn dừng giài thuật tìm kiếm. // p: Số cá thể trong quần thể giả thuyết. // r: Phân số cá thể trong quần thể được áp dụng toán tử lai ghép ở mỗi bước. // m: Tỉ lệ cá thể bị đột biến.  Khởi tạo quần thể: P  Tạo ngẫu nhiên p cá thể giả thuyết  Ước lượng: Ứng với mỗi h trong P, tính Fitness(h)  while [max Fitness(h)] < Fitness_threshold do Tạo thế hệ mới, PS 1. Chọn cá thể: chọn theo xác suất (1 – r)p cá thể trong quần thể P thêm vào PS. Xác suất Pr(hi) của giả thuyết hi thuộc P được tính bởi công thức: 25 𝐏𝐫 hi = Fitness(hi) Fitness(hj) p j=1 2. Lai ghép: chọn lọc theo xác suất 2 r p cặp giả thuyết từ quần thể P, theo Pr(hi) đã tính ở bước trên. Ứng với mỗi cặp , tạo ra hai con bằng cách áp dụng toán tử lai ghép. Thêm tất các các con vào PS. 3. Đột biến: Chọn m% cá thể của PS với xác suất cho mỗi cá thể là như nhau. Ứng với mỗi cá thể biến đổi một bit được chọn ngẫu nhiên trong cách thể hiện của nó. 4. Cập nhật: P  PS. 5. Ước lượng: Ứng với mỗi h trong P, tính Fitness(h)  Trả về giả thuyết trong P có độ thích nghi cao nhất. } Quần thể gồm p cá thể. Ở mỗi lần lặp, quần thể kế tiếp PS được hình thành từ việc lựa chọn theo xác suất các giả thuyết hiện tại theo độ thích nghi của chúng và bằng cách thêm vào các giả thuyết mới. Các giả thuyết mới được tạo ra bằng cách áp dụng toán tử lai ghép cho cặp giả thuyết thích nghi nhất và bằng cách tạo ra các đột biến điểm đơn trong thế hệ giả thuyết kết quả. Quá trình này được lặp cho đến khi các giả thuyết thích hợp được phát hiện. Các toán tử lai ghép và đột biến tiêu biểu được định nghĩa trong bảng kế tiếp. Một thuật giải di truyền mẫu được mô tả trong bảng 3.1. Các đầu vào cho thuật giải này bao gồm hàm tính độ thích nghi để tính hạng cho các giả thuyết ứng cử, một giá trị ngưỡng được định nghĩa cấp độ thích nghi có thể chấp nhận để kết thúc thuật giải, kích thước quần thể, và các tham số quyết định các quần thể kế tiếp được tạo ra như thế nào: phần quần thể bị thay thế ở mỗi thế hệ và tỉ lệ đột biến. Lưu ý trong thuật giải này, ở mỗi bước lặp qua vòng lặp chính tạo ra một thế hệ mới các giả thuyết dựa vào quần thế hệ hiện tại. Trước tiên, một số giả thuyết được chọn từ quần thể hiện tại để đưa vào thế hệ kế tiếp. Những giả thuyết này được chọn theo xác suất, ở đây xác suất của giả thuyết được tính bởi [20]: Pr 𝑕𝑖 = 𝐹𝑖𝑡𝑛𝑒𝑠𝑠 𝑕𝑖 𝐹𝑖𝑡𝑛𝑒𝑠𝑠 𝑕𝑗 𝑝 𝑗=1 Vì vậy, xác suất để giả thuyết được chọn tỉ lệ với độ thích nghi của nó và tỉ lệ nghịch với độ thích nghi của các giả thuyết cạnh tranh khác trong quần thể hiện tại. Một khi các cá thể này của thế hệ hiện tại đã được chọn để đưa vào quần thể thế hệ kế tiếp, các cá thể thêm vào được tạo ra dùng toán tử lai ghép. Lai ghép, được định nghĩa chi 26 tiết trong phần kế tiếp, lấy hai giả thuyết từ thế hệ hiện tại và tạo ra hai giả thuyết con bằng cách kết hợp các phần của hai giả thuyết cha. Các giả thuyết cha được chọn theo xác suất từ quần thể hiện tại, sử dụng hàm xác suất được định nghĩa ở trên. Sau khi các cá thể mới được tạo ra từ hoạt động lai ghép này, quần thế thế hệ mới bây giờ có đủ số lượng thành viên mong muốn. Lúc này, một phân số m nào đó các cá thể này được chọn một cách ngẫu nhiên và tất cả các đột biến ngẫu nhiên được thực hiện để thay đổi các cá thể này. 3.3.2. Thể hiện các giả thuyết Các giả thuyết trong GAs thường được thể hiện dưới dạng chuỗi các bit, để chúng có thể dễ dàng được thực hiện bởi các toán tử di truyền là đột biến và lai ghép [14]. Các giả thuyết được thể hiện bởi chuỗi bit này có thể khá phức tạp. Ví dụ, tập các luật if-then có thể dễ dàng được thể hiện theo cách này, bằng cách chọn một cách thức mã hóa các luật để phân bố các chuỗi con riêng cho mỗi điều kiện trước và điều kiện sau của luật. Để thấy các luật if-then có thể được mã hóa bằng các chuỗi bit như thế nào, trước tiên hãy xem chúng ta có thể sử dụng chuỗi bit như thế nào để mô tả ràng buộc trên giá trị của thuộc tính đơn. Lấy một ví dụ [20], hãy xem xét thuộc tính Outlook, thuộc tính này có thể lấy bất kì giá trị nào trong ba giá trị: Sunny, Overcast hoặc Rain. Một cách rõ ràng để thể hiện ràng buộc cho Outlook là dùng một chuỗi bit có chiều dài 3, mỗi vị trí bit tương ứng với một trong ba giá trị có thể của nó. Đặt giá trị 1 ở một vài vị trí để chỉ ra rằng thuộc tính được phép lấy giá trị tương ứng. Ví dụ, chuỗi 010 thể hiện ràng buộc Outlook phải lấy giá trị thứ hai trong các giá trị này, hay là Outlook = Overcast. Một cách tương tự, chuỗi 011 thể hiện ràng buộc tổng quát hơn là cho phép hai giá trị có thể, hay là Outlook = Overcast ∪ Rain. Chú ý 111 thể hiện ràng buộc có thể tổng quát nhất, chỉ ra rằng chúng ta không quan tâm giá trị nào trong các giá trị có thể của nó mà thuộc tính giữ. Đưa ra phương pháp này để thể hiện các ràng buộc trên thuộc tính đơn, các liên kết của các ràng buộc trên nhiều thuộc tính có thể dễ dàng được thể hiện bằng cách nối các chuỗi bit tương ứng. Ví dụ, xem xét thuộc tính thứ hai, Wind có thể lấy giá trị Strong hoặc Weak. Điều kiện trước của luật chẳng hạn như: 𝑂𝑢𝑡𝑙𝑜𝑜𝑘 = 𝑂𝑣𝑒𝑟𝑐𝑎𝑠𝑡 ∪ 𝑅𝑎𝑖𝑛 ∩ (𝑊𝑖𝑛𝑑 = 𝑆𝑡𝑟𝑜𝑛𝑔) Có thể được biểu diễn bởi chuỗi bit có chiều dài là 5 sau: Outlook Wind 27 011 10 Các điều kiện sau của luật (chẳng hạn như PlayTennis = yes) có thể được thể hiện theo kiểu tương tự. Vì vậy, toàn bộ luật có thể được mô tả bởi móc nối các chuỗi bit mô tả các điều kiện đầu, cùng với chuỗi bit mô tả điều kiện sau của luật. Ví dụ, luật IF Wind = Strong THEN PlayTennis = yes sẽ được thể hiện bởi chuỗi: Outlook Wind PlayTennis 111 10 10 ở đây 3 bit đầu tiên mô tả ràng buộc “không quan tâm” trên Outlook , hai bit kế tiếp mô tả ràng buộc trên Wind, và hai bit cuối cùng mô tả điều kiện sau của luật (ở đây chúng ta giả sử PlayTennis có thể lấy giá trị Yes hoặc No). Chú ý chuỗi bit thể hiện luật chứa một chuỗi con cho mỗi thuộc tính trong không gian giả thuyết, thậm chí thuộc tính không bị ràng buộc bởi các điều kiện trước. Điều này tạo ra một chuỗi bit có chiều dài cố định để thể hiện các luật, trong đó các chuỗi con ở các vị trí cụ thể mô tả các ràng buộc trên các thuộc tính cụ thể. Đưa ra cách thể hiện này cho các luật đơn, chúng ta có thể thể hiện tập các luật bằng cách móc nối các thể hiện chuỗi bit của các luật riêng biệt. Trong thiết kế mã hóa chuỗi bit cho một vài không gian giả thuyết, thật là hữu ích để sắp xếp cho mọi chuỗi bit tuân thủ theo cú pháp để thể hiện một giả thuyết được định nghĩa tốt. Để mô tả, chú ý cách mã hóa luật ở đoạn trên, chuỗi bit 111 10 11 thể hiện luật có điều kiện trước không ràng buộc thuộc tính mục tiêu PlayTennis. Nếu tránh xem xét giả thuyết này, chúng ta có thể mượn một cách mã hóa khác (ví dụ phân bố chỉ một bit cho điều kiện sau để chỉ định giá trị là Yes hoặc No), thay đổi các toán tử di truyền để tránh một cách tường minh việc xây dựng các chuỗi bit như thế, hoặc đơn giản gán một độ thích nghi rất thấp cho các chuỗi bit như vậy. 3.3.3. Các toán tử di truyền Những thế hệ sau trong GAs được quyết định bởi tập các toán tử tái hợp và đột biến các cá thể được chọn từ quần thể hiện tại. Các toán tử GAs tiêu biểu để thực hiện các giả thuyết chuỗi bit được mô tả trong bảng 3.1. Các toán tử này tương ứng với các phiên bản được ý tưởng hóa của các hoạt động di truyền trong tiến hóa sinh học. Hai toán tử phổ biến nhất là lai ghép và đột biến. 28 Toán tử lai ghép tạo ra hai con từ hai chuỗi cha bằng cách sao chép các bit được chọn lựa từ mỗi cha. Bit ở vị trí i trong mỗi con được sao chép từ bit ở vị trí i của một trong hai cha. Chọn lựa cha nào phân phối bit cho vị trí i được quyết định bởi thêm vào một chuỗi mặt nạ lai ghép. Hình 3.1: Các toán tử chung cho thuật giải di truyền [20]. Để minh họa, xem xét toán tử lai ghép điểm đơn (single-point) ở đầu hình 3.1. Xem xét hai con trên nhất trong trường hợp này. Con này lấy năm bit đầu tiên của nó từ cha thứ nhất và sáu bit còn lại từ cha thứ hai, bởi mặt nạ lai ghép là 11111000000 xác định các lựa chọn này cho mỗi vị trí bit. Con thứ hai dùng cùng mặt nạ lai ghép, nhưng đổi vai trò của hai cha. Do đó, nó chứa các bit không được dùng bởi con đầu tiên. Trong lai ghép điểm đơn, mặt nạ lai ghép luôn luôn được xây dựng sao cho nó bắt đầu với chuỗi chứa n giá trị 1 liên tục, được theo sau một số giá trị 0 cần thiết để hoàn chỉnh chuỗi. Cách này tạo ra cá thể con có n bit đầu được phân phối bởi một cha và các bit còn lại bởi cha thứ hai. Mỗi 11101001000 00001010101 11101010101 00001001000 11111000000 11101001000 00001010101 11001011000 00101000101 00111110000 11101001000 00001010101 10001000100 01101011001 00111110000 11101001000 11101011000 Các chuỗi ban đầu Mặt nạ lai ghép Các cá thể con Lai ghép điểm đơn: Lai ghép điểm kép: Lai ghép đồng nhất: Đột biến điểm: 29 lần toán tử lai ghép điểm đơn được áp dụng, điểm lai ghép n được chọn ngẫu nhiên, rồi mặt nạ lai ghép được tạo và áp dụng. Trong lai ghép hai điểm (điểm kép), cá thể con được tạo ra bởi thay thế các đoạn trung gian của một cá thể cha vào giữa của chuỗi cha thứ hai. Nói một cách khác, mặt nạ lai ghép là một chuỗi bắt đầu với n0 trị 0, được theo sau bởi chuỗi liên tục n1 trị 1, được theo sau bởi một số trị 0 cần thiết để hoàn chỉnh chuỗi. Mỗi lần toán tử lai ghép hai điểm được áp dụng, một mặt nạ được tạo ra bằng cách chọn ngẫu nhiên các số nguyên n0 và n1. Ví dụ, ở hình 3.1 cá thể con được tạo ra dùng một mặt nạ với n0 = 2 và n1 = 5. Như lai ghép trước, hai cá thể con được tạo ra bằng cách hoán đổi vai trò của hai cá thể cha. Lai ghép đồng nhất kết hợp các bit được lấy mẫu đồng nhất từ hai cá thể cha, như được minh họa trong trong hình 3.1. Trong trường hợp này, mặt nạ lai ghép được tạo ra như là một chuỗi bit ngẫu nhiên với mỗi bit được chọn ngẫu nhiên và độc lập với các bit khác. Thêm vào các toán tử tái kết hợp - tạo ra cá thể con bằng cách kết hợp các phần của hai cá thể cha, một loại toán tử thứ hai tạo ra cá thể con từ một cá thể cha. Cụ thể là toán tử đột biến tạo ra những thay đổi ngẫu nhiên nhỏ cho chuỗi bit bằng cách chọn một bit ở vị trí ngẫu nhiên, rồi thay đổi giá trị của nó. Đột biến thường được thực hiện sau khi lai ghép được áp dụng như trong giải thuật mẫu trong bảng 3.1. Một vài hệ thống GAs mượn thêm một vài toán tử, các toán tử đặc biệt được chuyên biệt hóa cho biểu diễn giả thuyết cụ thể được sử dụng bởi hệ thống. Ví dụ, John J. Grefenstette [15] mô tả hệ thống học tập luật điều khiển robot. Nó sử dụng đột biến và lai ghép cùng với một toán tử để chuyên biệt hóa các luật. 3.3.4. Hàm thích nghi và sự chọn lọc Hàm thích nghi định nghĩa tiêu chuẩn để xếp hạng các giả thuyết tiềm ẩn và để chọn lọc chúng theo xác suất để đưa vào quần thể thế hệ kế tiếp. Nếu tác vụ là học các luật phân loại, thì hàm thích nghi thông thường có một thành phần cho điểm độ chính xác phân loại của luật trên tập mẫu huấn luyện được cho. Thường các tiêu chuẩn khác có thể được bao hàm, chẳng hạn như độ phức tạp và mức độ tổng quát của luật. Một cách tổng quát hơn, khi giả thuyết chuỗi bit được hiểu như là một thủ tục phức tạp (ví dụ, khi chuỗi bit thể hiện tập chọn lọc, các luật if-then sẽ được móc xích với nhau, để điều khiển thiết bị robot), hàm thích nghi có thể đo hiệu suất tổng của thủ tục kết quả hơn là hiệu suất của các luật riêng biệt. 30 Trong thuật giải GA mẫu được chỉ trong bảng 3.1, xác suất để một giả thuyết được chọn được cho bởi tỉ số của độ thích nghi của nó với độ thích nghi của các thành viên khác của quần thể hiện tại, như đã thấy trong phương trình tính giá trị thích nghi. Phương pháp này thỉnh thoảng thường được gọi là sự chọn lọc tỉ lệ độ thích nghi, hoặc sự chọn lọc vòng roulette. Các phương pháp khác dùng độ thích nghi để chọn lọc các giả thuyết cũng sẽ được đề xuất. Ví dụ, sự chọn lọc kiểu vòng thi đấu, hai giả thuyết đầu tiên được chọn ngẫu nhiên từ quần thể hiện tại. Với một vài xác suất p được định nghĩa trước hai cá thể này càng phù hợp càng được chọn và với xác suất (1 – p) giả thuyết càng ít phù hợp càng được chọn. Sự chọn lọc theo vòng thi đấu thường tạo ra quần thể khác nhau nhiều hơn so với sự chọn lọc tỉ lệ với độ thích nghi (Goldberg và Deb 1991). Trong phương pháp sự chọn lọc theo hạng, các giả thuyết trong quần thể hiện tại đầu tiên sẽ được sắp xếp theo độ thích nghi. Xác suất để giả thuyết sẽ được chọn tỉ lệ với hạng của nó trong danh sách đã sắp xếp hơn là độ thích nghi của nó. 31 Chương 4: Minimax probability machine 4.1. Giới thiệu Xuất phát từ bài toán phân lớp, giả sử cho tập dữ liệu trong đó các thuộc tính của các phần tử là các triệu chứng của bệnh nhân bị bệnh ung thư chẳng hạn . Nhiệm vụ chính là phân biệt được người bị bệnh và người không bị bệnh . Ở đây gọi lớp X là nhóm người không bị bệnh và lớp Y là nhóm người bị bệnh. Minimax probability machine là một thuật toán phân hai lớp dữ liệu, cung cấp một giới hạn cho xác suất phân loại sai trong trường hợp xấu nhất dựa trên những đánh giá đáng tin cậy về giá trị trung bình và ma trận hiệp phương sai của các lớp trong tập dữ liệu huấn luyện. 4.2. Nội dung thuật toán Trong bài toán phân lớp ta cần đi tìm một siêu phẳng (nếu hiểu trong mặt phẳng thì nó là một đường thẳng) chia tập dữ liệu ra làm hai, siêu phẳng cụ thể có dạng tổng quát là [16]: 𝑎𝑇𝑧 = 𝑏(𝑎, 𝑧 ∈ 𝑅𝑛 ,𝑎 ≠ 0, 𝑏 ∈ 𝑅) Để tìm được một siêu phẳng tối ưu nhất (tức là phân chia tốt nhất) cần thực hiện quá trình huấn luyện (training). Như vậy tập dữ liệu sẽ phải c hia ra làm tập training và tập test. Tập training dùng để tìm ra siêu phẳng . Sau đó ta dùng tập test để xem rằng độ chính xác của siêu phẳng đó là bao nhiêu và có tốt hay không? Trong MPM dữ liệu được phân ra làm hai lớp bằng cách cực tiểu hóa xác suất phân lớp sai của dữ liệu tương lai trong trường hợp xấu nhất [16]: 𝐦𝐚𝐱 𝛼 ,𝑎≠0,𝑏 𝛼 𝑠. 𝑡 inf𝑃𝑟 𝑎𝑇𝑥 ≥ 𝑏 ≥ 𝛼 , inf𝑃𝑟 𝑎𝑇𝑦 ≤ 𝑏 ≥ 𝛼 Trong đó: 𝛼 đại diện cho cận dưới của độ chính xác đối với dữ liệu tương lại, được gọi là độ chính xác trong trường hợp xấu nhất. Như vậy MPM sẽ có các yếu tố a, b, 𝛼 được xác định. Bài toán phân lớp đặt ra trong hai trường hợp:  Tập dữ liệu là tuyến tính, khi đó các điểm dữ liệu mới sẽ được phân chia bởi dấu hiệu 𝑠𝑖𝑔𝑛(𝑎∗ 𝑇𝑧𝑛𝑒𝑤 − 𝑏∗) nếu dấu này là +1, khi đó 𝑧𝑛𝑒𝑤 ∈ 𝑋 , ngược lại thì 𝑧𝑛𝑒𝑤 ∈ 𝑌. 32  Tập dữ liệu là phi tuyến, khi đó sử dụng một hàm kernel để đưa không gian gốc về một không gian đặc biệt, ở đó dữ liệu là tuyến tính, khi đó việc phân lớp sẽ được thực hiện trên không gian đặc biệt đó , chiếu tới một không gian đặc biệt 𝑅𝑓 qua ánh xạ sau 𝜑:𝑅𝑛 → 𝑅𝑓 , hàm kernel 𝐾 𝑧1, 𝑧2 = 𝜑 𝑧1 𝑇𝜑(𝑧2) thỏa mãn điều kiện Mercer (điều kiện để một hàm là Kernel). Khi đó việc phân lớp điểm dữ liệu mới 𝑧𝑛𝑒𝑤 được thực hiện bằng cách đánh giá: 𝑠𝑖𝑔𝑛 𝑎∗ 𝑇𝜑 𝑧𝑛𝑒𝑤 − 𝑏∗ = 𝑠𝑖𝑔𝑛 𝑟∗ 𝐾 𝑧𝑖 , 𝑧𝑛𝑒𝑤 𝑁𝑥+𝑁𝑦 𝑖=1 − 𝑏∗ Nếu giá trị này bằng +1 khi đó 𝑧𝑛𝑒𝑤 ∈ 𝑋, ngược lại thì 𝑧𝑛𝑒𝑤 ∈ 𝑌. 4.3. Ưu điểm và nhược điểm của minimax probability machine  Ưu điểm: - Phi phân phối (distribution-free): không cần đưa ra một giả thuyết phân phối cụ thể, bộ phân lớp được xây dựng trực tiếp từ bộ dữ liệu. - Trong các trường hợp tổng quát, độ chính xác của việc phân lớp được giới hạn bởi giá trị 𝛼.  Nhược điểm: - Trong các trường hợp cụ thể, tầm quan trọng của hai phân lớp không phải luôn luôn ngang nhau, do vậy việc đặt cận dưới 𝛼 như nhau cho cả hai lớp là không cần thiết → sự ra đời của Biased Minimax Probability Machine. - Mặt khác, không có gì chứng tỏ hai cận dưới này phải bằng nhau. Do đó, mô hình thu được trong trường hợp này là không tối ưu → sự ra đời của Minimum Error Minimax Probability Machine. 4.4. Các phiên bản cải tiến của minimax probability machine Phần này sẽ giới thiệu tổng quan về hai mô hình cải tiến của minimax probability machine là: Minimum error minimax probability machine và Biased minimax probability machine. 4.4.1. Minimum error minimax probability machine (MEMPM) Minimum error minimax probability machine là mô hình phân lớp tối ưu Bayes phi phân phối (distribution-free), được mở rộng từ MPM. [17] Xuất phát từ việc MPM giả sử độ chính xác trong trường hợp xấu nhất đối với hai lớp là như nhau, và điều này có vẻ không hợp lý. Dẫn đến, siêu phẳng do MPM sinh ra không 33 nhất thiết phải cực tiểu hóa tỉ lệ lỗi trong trường hợp xấu nhất, do vậy chưa tối ưu. MEMPM loại bỏ ràng buộc trên, đưa ra mô hình tổng quát sau [17]: 𝐦𝐚𝐱 𝛼 ,𝛽 ,𝑎≠0,𝑏 𝜃𝛼 + 1− 𝜃 𝛽 , 𝒔. 𝒕 inf x~ x , x 𝑃𝑟 𝑎𝑇𝑥 ≥ 𝑏 ≥ 𝛼 , inf y~ y , y 𝑃𝑟 𝑎𝑇𝑦 ≤ 𝑏 ≥ 𝛽. Tương tự như MPM, 𝛼 và 𝛽 là độ độ chính xác của việc phân lớp trong trường hợp xấu nhất, tương ứng với đó, 𝜃 ∈ 0,1 là xác suất tiên nghiệm của lớp x và 1− 𝜃 là xác suất tiên nghiệm của lớp y. Ta thấy việc cực đại hóa 𝜃𝛼 + (1− 𝜃)𝛽 chính là cực đại hóa độ chính xác trong trường hợp xấu nhất. Nói cách khác, nếu chúng ta thay 𝑚𝑎𝑥 𝜃𝛼 + (1 − 𝜃)𝛽 bằng 𝑚𝑖𝑛 𝜃 1− 𝛼 + 1 − 𝜃 (1− 𝛽) và coi 1− 𝛼 là xác suất cận trên mà một điểm dữ liệu thuộc lớp x được xếp vào lớp y (tương tự với 1− 𝛽), thì mô hình MEMPM chính xác là cực tiểu hóa lỗi Bayes cực đại và do đó thu được siêu phẳng tối ưu Bayes trong trường hợp xấu nhất. Đặc biệt, khi giả sử 𝛼 = 𝛽 thì MEMPM chính là MPM. (h.1) 34 (h.2) Hình 4.1: Mô tả sự khác nhau giữa MEMPM (h.1) và MPM (h.2) với cùng xác suất tiên nghiệm cho 2 lớp. [17] Trong hình 4.1, mặt phẳng quyết định tối ưu ứng với điểm giao nhau, tại đó lỗi error (1-a)+(1-b) là cực tiểu (độ chính xác a+b là cực đại) như trong MEMPM. 4.4.2. Biased minimax probability machine (BMPM) Biased minimax probability machine cũng là mô hình được mở rộng từ MPM bằng cách loại bỏ giả thuyết về trọng số đối xứng cho mỗi phân lớp trong MPM [18]. BMPM dùng để giải quyết các bài toán phân lớp bất đối xứng, đặc biệt là trong các ứng dụng chẩn đoán y học. Mục tiêu của bộ phân lớp kiểu này là đảm bảo độ chính xác của các lớp quan trọng càng cao càng tốt, còn độ chính xác của các lớp ít quan trọng hơn thì chỉ cần ở mức độ chấp nhận được. Công thức của BMPM: [18] 𝐦𝐚𝐱 𝛼 ,𝛽 ,𝑎≠0,𝑏 𝛼 𝒔. 𝒕. inf x~ x , x 𝑃𝑟 𝑎𝑇𝑥 ≥ 𝑏 ≥ 𝛼 , inf y~ y , y 𝑃𝑟 𝑎𝑇𝑦 ≤ 𝑏 ≥ 𝛽. 𝛽 ≥ 𝛾 Trong đó các ký hiệu có ý nghĩa giống như trên đã nói, 𝛾 là một hằng số dương xác định trước, thể hiện mức độ chính xác chấp nhận được đối với lớp ít quan trọng. 35 Chương 5: Phương pháp đề nghị 5.1. Tổng quan về phương pháp Bước quan trọng đầu tiên trong việc xây dựng mô hình dự đoán là làm sao chọn được tập giá trị đầu vào thích hợp. Hầu hết các kỹ thuật khai phá dữ liệu hiện nay đều không đạt hiệu quả cao với tập dữ liệu có số chiều lớn, độ chính xác và hiệu quả truy vấn giảm nhanh chóng khi số chiều tăng lên. Ngoài ra việc thu thập dữ liệu cũng tốn nhiều thời gian, công sức và tiền bạc, nhưng số chiều bên trong dữ liệu cần sử dụng trên thực tế là nhỏ (ví dụ: số lượng các Gen tương ứng cho một loại bệnh là rất nhỏ). Việc chọn lựa dữ liệu thích hợp làm đầu vào cho mô hình dự đoán sẽ giúp đưa ra kết quả có tính chính xác cao và giúp tối ưu thời gian thực hiện công việc. 5.1.1. Mô tả phương pháp Theo ý tưởng trên, trong bài toán cụ thể là chuẩn đoán bệnh ung thư, dữ liệu về bệnh nhân được trình bày dưới dạng một ma trận, trong đó mỗi cột là một dấu hiệu (thuộc tính) của bệnh ung thư, mỗi dòng sẽ biểu diễn những số liệu về một bệnh nhân cụ thể. Ở bước đầu tiên, chúng ta sử dụng thuật toán di truyền (GA) để giải quyết vấn đề tối ưu tập thuộc tính từ tập dữ liệu ban đầu. Bước thứ hai, phương pháp phân lớp MPM sẽ thực hiện phân lớp với tập thuộc tính đã được chọn lọc để đưa ra kết luận bệnh nhân đó có khả năng bị ung thư hay không? Ở đây ta áp dụng GA như một công cụ tối ưu hóa đầu vào cho quá trình phân lớp, nhằm tăng hiệu năng và tính chính xác của quá trình phân lớp. Trước tiên, GA được áp dụng để chọn ra tập con thuộc tính tốt nhất từ tập dữ liệu ban đầu. Dữ liệu của chúng ta bao gồm n cột số liệu sẽ được mô tả dưới dạng một vector nhị phân 01110…11101 có độ dài ứng với số thuộc tính và có ý nghĩa như sau: 0 là không chọn cột đó, còn 1 là chọn cột có số thứ tự tương ứng. Cách biểu diễn này sẽ mô tả được bộ dữ liệu với số cột được lựa chọn theo một thứ tự ngẫu nhiên. Một chuỗi nhị phân được coi là một chromosome trong thuật toán di truyền. Tiếp đó, tìm các chuỗi nhị phân này được thực hiện thông qua các phép toán của GA như chọn lọc, lai ghép và đột biến dựa trên hàm mục tiêu là MPM hay MPM dùng để tính toán giá trị thích nghi (fitness function) cho GA. Với tập thuộc tính được coi là tối ưu, chúng ta sẽ sử dụng phương pháp MPM để chuẩn đoán bệnh nhân đó 36 thuộc về lớp bị bệnh hay không bị bệnh và so sánh kết quả phân lớp với kết quả thực tế nhằm đánh giá mức độ tốt của hệ thống. 5.1.2. Mô hình bài toán Hình 5.1: Mô hình kết hợp thuật toán di truyền và phương pháp phân lớp MPM. Trong đó, bộ dữ liệu Test chiếm 30% dữ liệu gốc, bộ dữ liệu Train chiếm 70% dữ liệu gốc. Tiếp tục chia theo dữ liệu Train thành hai phần trong đó dữ liệu Validation chiếm 30% bộ dữ liệu Train và 70% còn lại của dữ liệu Train là Training set. 5.2. Mô tả dữ liệu sử dụng Dữ liệu sử dụng để đánh giá và kiểm thử mô hình là một bộ dữ liệu phi tuyến về bệnh ung thư. Bộ dữ liệu bao gồm 311 hàng và 120 cột, trong đó cột cuối cùng là nhãn. Nó có 2 lớp nhãn, ký hiệu nhãn +1 tương ứng với không bị bệnh và nhãn -1 là bị bệnh ung thư. GA > MPM > Training Set Validation Set Error Training Model MPM đã được tối ưu Test Set Best chromosome Kết quả phân lớp 37 Như vậy, bộ dữ liệu có 311 phần tử và mỗi phần tử có 119 thuộc tính. Bảng 5.1: Mô tả bảng dữ liệu sử dụng (file Stomach_Full.mat) 1 2 3 … 119 Nhãn 1 642.48 835.28 615.65 … 329.66 1 2 587.21 786.04 380.87 … 131.73 -1 3 1006 1325.7 330.09 … 252.63 -1 4 524.47 646.16 417.86 … 314.33 -1 … … … … … … … 310 648.43 1155.9 230.35 … 236.92 1 311 496.06 1413.8 293.8 … 335.01 1 312 1060 1205.4 177.06 … 224.09 1 5.3. Các module trong hệ thống và giao diện của chương trình Chương trình được xây dựng và chạy trên MATLAB 7.0. MATLAB (Matrix Laboratory) là một phần mềm khá mạnh trong việc giải quyết các bài toán kỹ thuật và thống kê như xử lý tín hiệu số, hệ thống điều khiển, mô phỏng hay mạng neuron. 5.3.1. Chi tiết các module của Genetic Algorithm Để nâng cao tính chính xác của bộ phân lớp, chương trình sử dụng gói “Genetic Algorithm Tool” trong Matlab 7.0 để thực hiện việc tối ưu hóa tập dữ liệu đầu vào cho bộ phân lớp MPM. Dữ liệu của ta bao gồm 119 cột thuộc tính sẽ được mã hóa ở dạng chuỗi nhị phân 0101…011 với ý nghĩa như sau: 0 là không chọn và 1 là chọn cột thuộc tính có số thứ tự tương ứng. Mỗi chuỗi nhị phân có độ dài cố định là 119 được xem như một chromosome trong thuật toán di truyền. Tiếp theo ta sẽ sử dụng MPM là hàm đánh giá (fitness function) để tìm ra chromosome tốt nhất ở thế hệ cuối cùng bằng cách cực tiểu hóa tỷ lệ lỗi. Để tìm ra chromosome tốt nhất từ tập dữ liệu ban đầu, thuật toán di truyền cần thực hiện quá trình chọn lựa, lai ghép và đột biến. 38 Hình 5.2: 6 bước thực hiện để tìm ra chromosome tốt nhất.  Chương trình gồm các hàm sau: - Gói Genetic Tool của Matlab 7.0. - funtion tinhloi: trả về số lỗi tìm ra bằng cách so sánh nhãn mới của tập test sau khi đưa vào bộ phân lớp MPM với nhãn ban đầu. - function fitness: sử dụng MPM là hàm đánh giá của thuật giải di truyền.  input: vector nhị phân có độ dài cố định 119.  output: phần trăm lỗi được theo công thức sau 𝐸𝑟𝑟𝑜𝑟𝑅𝑎𝑡𝑒 = 𝑒𝑟𝑟𝑜𝑟 𝑛𝑢𝑚𝑏𝑒𝑟 𝑜𝑓 𝑡𝑒𝑠𝑡 𝑝𝑜𝑖𝑛𝑡𝑠 ∗ 100 Trong đó: error: là số lỗi tìm ra bằng cách so sánh nhãn mới của tập test sau khi đưa vào bộ phân lớp MPM với nhãn ban đầu. Thực hiện đột biến Thế hệ = 0 Tạo quần thể gồm các chromosome Xác định giá trị của hàm đánh giá với mỗi cá thể Chọn thế hệ kế tiếp Thực hiện lai ghép Chromosome tốt nhất Thế hệ tiếp theo >N thế hệ 39 Hình 5.3: Giá trị của hàm đánh giá tại mỗi thế hệ. Giải thích: o Generation: số thế hệ. o f-count: Giá trị tích lũy số lần đánh giá hàm fitness. o Best f(x): giá trị tốt nhất của fitness function tại thế hệ hiện tại. o Mean f(x): giá trị trung bình của fitness function tại thế hệ hiện tại. o Stall Generations: số lượng thế hệ tính từ thời điểm cuối cùng có sự cải thiện trong giá trị của hàm fitness. 40 Hình 5.4: Hình ảnh biểu diễn hàm đánh giá của GA tại mỗi thế hệ. Giải thích: o Hình vẽ biểu diễn giá trị của hàm đánh giá (fitness function) tại mỗi thế hệ: trục tung – fitness value (chiều dọc) thể hiện giá trị của hàm đánh giá; trục hoành – Generation (chiều ngang) thể hiện số thế hệ trong thuật toán di truyền. o Chấm màu xanh và chấm màu đen tương ứng thể hiện giá trị tốt nhất và trung bình mà fitness function tính toán được tại mỗi thế hệ. o Best: 10.7692 là giá trị tốt nhất của fitness function tính toán được tại thế hệ cuối cùng (ở ví dụ này thế hệ cuối cùng là 60). o Mean: 11.5385 là giá trị trung bình của fitness function tính toán được tại thế hệ cuối cùng (ở ví dụ này thế hệ cuối cùng là 60). 41 Hình 5.5: Kết quả quá trình tối ưu tập thuộc tính của dữ liệu ban đầu. Giải thích: o Current generation: Thế hệ tại thời điểm hiện tại. o Status and results: Cửa sổ hiển thị trạng thái của thuật toán di truyền, giá trị của hàm đánh giá tại thế hệ cuối cùng và nguyên nhân thuật toán kết thúc. o Final point: hiển thị chromosome tốt nhất (dạng nhị phân). - function DataSelection:  input: vector nhị phân, ma trận dữ liệu ban đầu.  output: ma trận mới gồm các cột thuộc tính được chọn tương ứng với vị trí có bit 1 trong chuỗi nhị phân. 5.3.2. Chi tiết các module của minimax probability machine Thuật toán MPM viết bởi Matlab được dùng để phân chia một tập dữ liệu phi tuyến thành 2 lớp. Chương trình gồm các hàm sau: - function build_MPM_k_binclass_Lsreg: có chức năng là tìm ra 𝑎∗ 𝑇 , 𝑏∗ và 𝛼. 42 - function eval_MPM_k_binclass: dựa trên các kết quả tìm được trên để đưa ra kết luận về tập test xem khả năng chính xác là bao nhiêu. - function run: thực hiện phân lớp MPM trên bộ dữ liệu giảm chiều và đưa ra tỷ lệ phân lớp chính xác của tập training và tập test. - function example: thực hiện phân lớp MPM trên bộ dữ liệu gốc và đưa ra tỷ lệ phân lớp chính xác của tập training và tập test. Hình 5.6: Giao diện kết quả của bộ phân lớp minimax probability machine. 43 Giải thích: o Number of features: số lượng thuộc tính của dữ liệu. o Training set accuracy: Tỷ lệ đúng của tập huấn luyện. o Test set accuracy: Kết quả của tập kiểm tra. 5.4. Thực nghiệm và phân tích kết quả 5.4.1. Phương pháp đánh giá  Các bước thực hiện quá trình đánh giá mô hình xây dựng: - Bước 1: Bộ dữ liệu gốc (Stomach_Full.mat) được chia làm 2 phần: dữ liệu train chiếm 70% dữ liệu ban đầu và dữ liệu test chiếm 30% dữ liệu ban đầu. Thực hiện phân lớp bằng MPM trên bộ dữ liệu đã được chia như trên  kết quả phân lớp của MPM trên bộ dữ liệu gốc. - Bước 2: Sử dụng bộ dữ liệu Train (Training_Validation.mat) chiếm 70% bộ dữ liệu gốc (trong đó dữ liệu Validation chiếm 30% dữ liệu Train) để thực hiện quá trình trích chọn thuộc tính bằng GA tool trong Matlab 7.0, với các tham số tùy chọn như sau:  Fitness function: @fitness.  Number of variables: 119.  Population type: Bit string.  Population size: 20.  Selection function: Stochastic uniform.  Crossover function: Scattered – khởi tạo ngẫu nhiên một vector nhị phân. Chọn các gen mà vector có giá trị là 1 từ cha thứ nhất và những gen mà vector có gí trị 0 từ cha thứ hai, rồi kết hợp các gen đó thành con. Ví dụ: cha1 = [a b b d e f g h] cha2 = [1 2 3 4 5 6 7 8] vector lai ghép ngẫu nhiên = [1 1 0 0 1 0 0 0] con = [a b 3 4 e 6 7 8]  Mutation function: Gaussian – thêm một số ngẫu nhiên vào mỗi vector đầu vào của một cá thể. Số ngẫu nhiên này được lấy từ phân bố Gauss. 44 - Bước 3: Chạy hàm DataSelection với đầu vào là chromosome tốt nhất vừa tìm được và bộ dữ liệu Test (TestSet.mat) chiếm 30% dữ liệu gốc để sinh ra tập dữ liệu mới (outData.mat) là bộ dữ liệu giảm chiều làm đầu vào cho bộ phân lớp MPM. - Bước 4: chạy bộ phân lớp MPM với tập dữ liệu là “outData”. Bộ dữ liệu giảm chiều cũng được chia làm 2 phần với tỷ lệ như phân chia 70% là Training và 30% Test để thực hiện phân lớp  kết quả phân lớp của bộ dữ liệu giảm chiều. Lặp lại bước 2 đến 4 nhiều lần với những điều kiện dừng ở bước 2 là “Generations” để thu được số liệu phục vụ cho quá trình phân tích. - Bước 5: thống kê số liệu các lần thực hiện bước 2 đến 4 và so sánh kết quả thu được từ bước 1. 5.4.2. Phân tích kết quả 5.4.2.1. Kết quả thực hiện phân lớp trên bộ dữ liệu ban đầu Stomach_Full (311x120) được chia thành bộ Training (218x120) và bộ Test (93x120). Bảng 5.2: Kết quả phân lớp trên bộ dữ liệu ban đầu Số lượng thuộc tính Tỷ lệ đúng của tập huấn luyện Kết quả của tập kiểm tra 1 119 98.17 70.9677 2 119 97.2477 72.043 3 119 97.2477 75.2688 4 119 95.8716 77.4194 5 119 96.3303 76.3441 6 119 97.2477 65.5914 7 119 96.3303 69.8925 8 119 95.8716 68.8172 9 119 99.0826 73.1183 10 119 99.0826 65.5914 11 119 98.1651 67.7419 12 119 95.8716 70.9677 13 119 98.1651 76.3441 14 119 99.0826 74.1935 15 119 96.789 64.5161 MAX 119 99.0826 77.4194 Phương sai 0 1.19 4.21 Trung bình 97.37 71.25 45 5.4.2.2. Kết quả thực hiện phân lớp trên bộ dữ liệu giảm chiều (outData.mat) Chúng ta sử dụng điều kiện dừng cho quá trình tìm kiếm chromosome tốt nhất của thuật toán di truyền là “Generations”.  Trường hợp 1: Generations = 30 với 15 lần chạy thử. Bảng 5.3: Kết quả phân lớp trong trường hợp 1 Số lượng thuộc tính Tỷ lệ đúng của tập huấn luyện Kết quả của tập kiểm tra 1 55 100 85.7143 2 57 100 57.1429 3 54 100 64.2857 4 60 100 82.1429 5 54 100 75 6 54 100 85.7143 7 60 100 71.4286 8 65 100 82.1429 9 63 100 85.7143 10 61 100 78.5714 11 51 98.4615 89.2857 12 48 100 71.4286 13 50 100 85.7143 14 56 100 89.2857 15 59 100 89.2857 MAX 65 100 89.2857 Phương sai 4.87 0.40 9.78 Trung bình 99.90 79.52 46 Hình 5.7: So sánh tỷ lệ phân lớp chính xác của tập dữ liệu gốc và dữ liệu mới (trường hợp 1). Nhận xét: o Số chiều của tập dữ liệu mới giảm xấp xỉ 1.8 lần so với tập dữ liệu ban đầu. o Tỷ lệ phân lớp chính xác được cải thiện rõ rệt: tăng từ 71.25 lên 79.52, tuy nhiên phương sai lại tăng (từ 4.21 lên 9.78) nên mô hình kiểm tra không ổn định bằng. o Tỷ lệ chính xác của bộ dữ liệu huấn luyện cũng tăng lên: từ 97.37 lên 99.9, đồng thời phương sai cũng giảm (từ 1.19 còn 0.4) nên mô hình huấn luyện có tính ổn định hơn.  Trường hợp 2: Generations = 40 với 15 lần chạy thử. Bảng 5.4: Kết quả phân lớp trong trường hợp 2 Số lượng thuộc tính Tỷ lệ đúng của tập huấn luyện Kết quả của tập kiểm tra 1 63 100 92.8571 2 63 100 53.5714 3 52 100 60.7143 4 55 98.4615 82.1429 0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 T ỷ l ệ đ ú n g Số lần thực hiện Tập DL mới Tập DL gốc 47 5 64 100 78.5714 6 62 100 50 7 62 100 75 8 54 100 82.1429 9 66 100 96.4286 10 58 100 78.5714 11 53 100 57.1429 12 54 100 75 13 56 100 89.2857 14 58 100 85.7143 15 45 100 53.5714 MAX 66 100 96.4286 Phương sai 5.70 0.38 15.30 Trung bình 99.90 74.05 Hình 5.8: So sánh tỷ lệ phân lớp chính xác của tập dữ liệu gốc và dữ liệu mới (trường hợp 2). Nhận xét: o Số chiều của tập dữ liệu mới giảm xấp xỉ 1.8 lần so với tập dữ liệu ban đầu. 0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 T ỷ l ệ đ ú n g Số lần thực hiện Tập DL mới Tập DL gốc 48 o Tỷ lệ phân lớp chính xác được cải thiện rõ rệt: tăng từ 71.25 lên 74.05, tuy nhiên phương sai lại tăng (từ 4.21 lên 15.3) nên mô hình kiểm tra không ổn định bằng. o Tỷ lệ chính xác của bộ dữ liệu huấn luyện cũng tăng lên: từ 97.37 lên 99.9, đồng thời phương sai cũng giảm (từ 1.19 còn 0.38) nên mô hình huấn luyện có tính ổn định hơn.  Trường hợp 3: Generations = 50 với 15 lần chạy thử. Bảng 5.5: Kết quả phân lớp trong trường hợp 3 Số lượng thuộc tính Tỷ lệ đúng của tập huấn luyện Kết quả của tập kiểm tra 1 55 100 75 2 58 100 75 3 48 100 71.4286 4 62 100 85.7143 5 51 100 71.4286 6 57 100 53.5714 7 52 100 78.5714 8 52 100 78.5714 9 49 100 75 10 57 100 89.2857 11 57 100 92.8571 12 63 100 67.8571 13 49 100 92.8571 14 59 100 75 15 63 100 89.2857 MAX 63 100 92.8571 Phương sai 5.11 0 10.62 Trung bình 100 78.10 49 Hình 5.9: So sánh tỷ lệ phân lớp chính xác của tập dữ liệu gốc và dữ liệu mới (trường hợp 3). Nhận xét: o Số chiều của tập dữ liệu mới giảm xấp xỉ 1.9 lần so với tập dữ liệu ban đầu. o Tỷ lệ phân lớp chính xác được cải thiện rõ rệt: tăng từ 71.25 lên 78.1, tuy nhiên phương sai lại tăng (từ 4.21 lên 10.62) nên mô hình kiểm tra không ổn định bằng. o Tỷ lệ chính xác của bộ dữ liệu huấn luyện cũng tăng lên: từ 97.37 lên 100, đồng thời phương sai cũng giảm (từ 1.19 còn 0) nên mô hình huấn luyện có tính ổn định cao.  Trường hợp 4: Generations = 60 với 15 lần chạy thử. Bảng 5.6: Kết quả phân lớp trong trường hợp 4. Số lượng thuộc tính Tỷ lệ đúng của tập huấn luyện Kết quả của tập kiểm tra 1 52 100 89.2857 2 54 100 53.5714 3 48 100 75 4 60 100 82.1429 0 10 20 30 40 50 60 70 80 90 100 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 T ỷ l ệ đ ú n g Số lần thực hiện Tập DL mới Tập DL gốc 50 5 59 100 50 6 58 100 78.5714 7 43 98.4615 96.4286 8 65 100 67.8571 9 64 100 78.5714 10 57 100 96.4286 11 63 100 85.7143 12 65 100 75 13 67 100 50 14 57 100 85.7143 15 54 100 60.7143 MAX 67 100 96.4286 Phương sai 6.76 0.40 15.57 Trung bình 99.90 75.00 Hình 5.10: So sánh tỷ lệ phân lớp chính xác của tập dữ liệu gốc và dữ liệu mới (trường hợp 4). Nhận xét: o Số chiều của tập dữ liệu mới giảm xấp xỉ 1.8 lần so với tập dữ liệu ban đầu. 0 20 40 60 80 100 120 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 T ỷ l ệ đ ú n g Số lần thực hiện Tập DL mới Tập DL gốc 51 o Tỷ lệ phân lớp chính xác được cải thiện rõ rệt: tăng từ 71.25 lên 75, tuy nhiên phương sai lại tăng (từ 4.21 lên 15.57) nên mô hình kiểm tra không ổn định bằng. o Tỷ lệ chính xác của bộ dữ liệu huấn luyện cũng tăng lên: từ 97.37 lên 99.9, đồng thời phưưng sai cũng giảm (từ 1.19 còn 0.4) nên mô hình huấn luyện có tính ổn định hơn. 5.4.2.3. So sánh kết quả 4 trường hợp kiểm thử Điều kiện dừng là Generations sẽ được tăng dần trong mỗi trường hợp. Hình 5.11: So sánh kết quả phân lớp trung bình trong 4 trường hợp kiểm thử và kết quả phân lớp của dữ liệu gốc. Nhận xét: o Tỷ lệ phân lớp chính xác đối với bộ dữ liệu huấn luyện với tập thuộc tính mới không thay đổi nhiều khi ta tăng dần giá trị của Generations và tỷ lệ 0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 Tỷ lệ đúng của tập huấn luyện Kết quả của tập kiểm tra Generations=30 Generations=40 Generations=50 Generations=60 Dữ liệu gốc 52 này lớn hơn so với tỷ lệ phân lớp chính xác cho bộ dữ liệu huấn luyện gốc (119 thuộc tính). o Khi ta tăng dần giá trị của Generations, thì tỷ lệ phân lớp chính xác đối với bộ dữ liệu test không có sự cải thiện rõ ràng, nhưng mô hình huấn luyện lại có tính ổn định hơn. 5.4.2.4. Kết luận o Sử dụng hàm kernel Poly (kernel tuyến tính) trong thuật toán phân lớp MPM vẫn chưa thực sự hiệu quả với tập dữ liệu phi tuyến chúng ta sử dụng để đánh giá mô hình. o Số lượng các đặc trưng giữ lại sau khi giảm chiều không làm ảnh hưởng nhiều tới kết quả phân lớp thu được. o Khi tiến hành giảm chiều tập dữ liệu ban đầu (311x119), rồi sử dụng bộ phân lớp MPM thì rõ ràng tỷ lệ phân lớp chính xác đã tăng lên, đồng thời tỷ lệ chính xác phân lớp trong huấn luyện cũng được cải thiện. o Khi ta tăng số thế hệ trong thuật toán di truyền nhằm tìm ra chromosome tốt nhất ở thế hệ cuối cùng làm dữ liệu đầu vào cho bộ phân lớp, thì tỷ lệ phân lớp chính xác của MPM cũng tăng lên nhưng độ ổn định của kết quả không thực sự tốt hơn. Tuy nhiện tỷ lệ chính xác trong huấn luyện được cải thiện rõ ràng và ổn định hơn. 53 Chương 6: Tổng kết Trong khóa luận này, bước đầu tôi đã tìm hiểu cơ sở lý thuyết và thuật toán cho việc giải bài toán trích chọn thuộc tính phù hợp dựa trên các kỹ thuật giảm chiều dữ liệu. Tôi đã trình bày ý tưởng kết hợp thuật toán di truyền (Genetic Algorithm) trong cải tiến hiệu quả phân lớp của thuật toán phân lớp minimax probability machine. Các kết quả thực nghiệm của phương pháp này đã cải thiện hiệu quả phân lớp so với thuật toán nguyên gốc, tuy nhiên ta cũng nhận thấy sự kết hợp này vẫn còn những điểm hạn chế như:  Chưa cải thiện rõ rệt tốc độ xử lý của bộ phân lớp kết hợp so với bộ phân lớp gốc.  Số lượng chiều của dữ liệu cần giảm là bao nhiêu để vừa giảm được thuộc tính dư thừa vừa cải thiện được hiệu quả phân lớp tốt nhất.  Trong quá trình giảm chiều không thể tránh khỏi những mất mát hay sai sót, do đó sự mất mát thông tin quan trọng dẫn đến hiệu quả của giảm chiều đối với phương pháp phân lớp là không ổn định.  Kết quả phân lớp chính xác vẫn chưa thực sự làm hài lòng. Để giải quyết những vấn đề còn tồn tại trong phương pháp này, tôi sẽ thử nghiệm kết hợp các hàm đánh giá (fitness function) khác nhau trong thuật toán di truyền, nhằm tìm ra kết quả đầu vào tốt hơn cho thuật toán phân lớp và cũng để cải thiện tốc độ tìm kiếm. Ngoài ra, tôi sẽ thử nghiệm phương pháp tối ưu hàm kernel của thuật toán MPM nhằm thu được kết quả phân lớp chính xác hơn (lớn hơn 95%) và ổn định hơn. Trong khóa luận này tôi hi vọng thử nghiệm giải quyết bài toán phân lớp với dữ liệu nhiều chiều và tạo ra các hệ thống đánh giá và dự đoán để có thể áp dụng một cách thiết thực vào đời sống. 54 Tài liệu tham khảo  Tài liệu tham khảo tiếng Anh [1] Fayyad, Piatesky-Shapiro, Smyth (1996) - From Data Mining to Knowledge Discovery: An Overview. In Fayyad, Piatesky-Shapiro, Smyth, Uthurusamy - Advances in Knowledge Discovery and Data Mining, AAAI Press/ The MIT Press, MenloPark, CA, 1996, 1-34. [2] Jiawei Han and Micheline Kamber (2001) - Data Mining: Concepts and Techniques (second edition). Chapter 1. [3] Boris Kovalerchuk and Evgenii Vityaev (2001) - Data mining in Finance: Advances in Relational and Hybrid Methods, Kluwer Academic Publishers, Boston, Dordrecht – London, 2001. [4] David Taniar, Monash University, Australia - Research and Trends in Data Mining Techonologies and Application, 2007. [5] Ralf Herbrich, the MIT Press, Cambridge, Massachussets, London, England - Learning Kernel Classification and Algorithms. [6] H. Liu and L.Yu, Department of Computer Science and Engineering, Arizona State University, Tempe - Feature Selection for Data mining. [7] H. Liu and H.Motoda - Feature Extraction, Construction and Selection: A Data Mining Perspective. [8] P.A. Devijver and J.Kittler - Pattern Recoginition: A Statistical Approach. [9] Peter Norvig, Palo Alto, California (2006) - Feature Selection Book. [10] JUN ZHAO(a,b), GUO-YIN WANG(b), HONG TANG(a), HUA LI(a) - The study on technologies for feature selection. (a) Department of Computer Science of Chongqing University, Chongqing, 400065, China. (b) Inst. of Computer Sci. & Tech. Of Chongqing Univ. of P. & T., Chongqing, 400065, China. [11] Ricardo Gutierrez-Osuna, Wright State University - Intelligent Sensor Systems (Cross Validation). [12] M. Pei1, E. D. Goodman1, W. F. Punch2 - Feature Extraction Using Genetic Algorithms. 55 1 Case Center for Computer – Aided Engineering and Manufacturing. 2 Department of Computer Science, Genetic Algorithms Research and Application Group (GARAGe), Michigan State University, 2325 Engineering Building, East Lansing, MI 48824. [13] Genetic Algorithm and Direct Search Toolbox 2.1.4 – Help Document. [14] Laetitia Jourdan, Clarisse Dhaenens, El-Ghazali Talbi. LIFL, University of Lille, France - A Genetic Algorithm for Feature Selection in Data-Mining for Genetics. [15] Grefenstette, J. J. (1991) - Strategy acquisition with genetic algorithms, in Handbook of Genetic Algorithms, Davis, L. D. (Ed.), Boston: Van Nostrand Reinhold. [16] Gert R. G. Lanckriet, Lauren El Ghaoui, Chrianjib Bhattacharyya and Micheal I. Jordan. University of California - Minimax Probability Machine. [17] Kaizhu Huang, Haiqin Yang, Irwin King, Michael R. Lyu and Laiwan Chan - The Minimum Error Minimax Probability Machine. [18] Kaizhu Huang, Haiqin Yang, Irwin King, Michael R. Lyu and Laiwan Chan - Biased Minimax Probability Machine for Medical Diagnosis. [19] Zhen-Guo Chen and Shu Wang. Department of Computer Science and Technology, North China Institute of Science and Technology, East Yanjiao, Beijing, China - Minimax Probability Machine with Genetic Feature Optimized for Intrusion Detection. [20] Genetic Algorithm:  Tài liệu tham khảo tiếng Việt [21] Nguyễn Đức Cường, Khoa Công nghệ thông tin, Đại học Bách Khoa, Thành phố Hồ Chí Minh - Tổng quan về khai phá dữ liệu (Reviewing of Data Mining). [22] Vấn đề tri thức và “xã hội tri thức” thuc.html;jsessionid=7D49738B61116C5B527B009CC142141F?zone=2 [23] Giáo sư Hà Quang Thụy, Đại học Công Nghệ, Đại học Quốc Gia Hà Nội - Giáo trình giảng dạy môn Khai phá dữ liệu Web (2008).

Các file đính kèm theo tài liệu này:

  • pdfLUẬN VĂN-ÁP DỤNG PHưƠNG PHÁP TRÍCH CHỌN THUỘC TÍNH ĐẶC TRƯNG ĐỂ NÂNG CAO HIỆU QUẢ PHÂN LỚP KHI KHAI PHÁ DỮ LIỆU LỚN.pdf