Trí tuệ nhân tạo - Học máy

MỤC LỤC NHẬN XÉT CỦA GIÁO VIÊN HƯỚNG DẪN1 Giới thiệu học máy. 2 Phần I: Cây quyết định. 4 1. Giới thiệu chung. 5 2. Các khái niệm cơ bản. 6 3. Các kiểu cây quyết định. 8 4. Ưu điểm cây quyết định. 8 Phần II: Thuật toán ID3. 9 1. Thuật toán:. 10 Phần II: Thuật toán QuinLan. 20 1. Thuật toán:. 20 2. Ví dụ:. 21 Phần IV: Thuật toán học quy nạp (ILA). 24 Phần III: Thuật toán Naïve Bayes. 27 1.Tiếp cận thống kê và Luật Bayes. 27 2.Thuật toán học máy Naïve Bayes. 28 3.Ví dụ. 29 Phần V: Code xây dựng cây quyết định bằng thuật toán ID3. 31 1.Giao diện:. 31 2.Code chương trình:. 31 Phần VI: Tài liệu tham khảo HỌC MÁY Giới thiệu học máy Từ khi trí tuệ nhân tạo ra đời cho đến nay, người ta không ngừng thực hiện các công trình nghiên cứu để đưa tư tưởng nghiên cứu cùng với máy tính để ứng dụng vào việc giải quyết các công việc trong thực tiễn đời sống. Một trong những nguyên nhân làm cho trí tuệ nhân tạo trở thành một trong những lĩnh vực mũi nhọn trong thời đại hiện nay là việc làm cho máy tính trở nên thông minh hơn, nói cụ thể hơn là người ta tìm cách tạo ra các chương trình thông minh hơn có khả năng giải quyết các vấn đề thực tế như cách giải quyết của con người. Một trong những lĩnh vực lý thú của trí tuệ nhân tạo được đề cập trong chuyên đề này là Học máy. Học máy là hướng tiếp cận trong đó thay vì con người phải chỉ ra những tri thức cần thiết để giải quyết bài toán, máy tính sẽ tự động rút trích tri thức này một cách từ những dữ liệu được cung cấp. Học máy mô phỏng quá trình học của con người qua các mức từ đơn giản đến phức tạp: đầu tiên máy tính ghi nhớ những trường họp đã xuất hiện và cuối cùng học những trường hợp tổng quát chưa từng xuất hiện. Trong một bài toán học máy, đầu vào là một tập dữ liệu huấn luyện bao gồm các mẫu dữ liệu. Mỗi mẫu dữ liệu bao gồm một tập giá trị ứng với các thuộc tính. Tập thuộc tính được chia làm hai phần: thuộc tính quan sát và thuộc tính kết quả. Mục tiêu của học máy là tìm một ánh xạ từ thuộc tính quan sát vào thuộc tính kết quả (tìm moi quan hệ giữa thuộc tính quan sát và thuộc tính kết quả) ứng với tập dữ liệu huấn luyện. Ánh xạ này sẽ được áp dụng lên những mẫu quan sát mới để rút ra kết quả tương ứng.

doc40 trang | Chia sẻ: lvcdongnoi | Ngày: 30/06/2013 | Lượt xem: 2763 | Lượt tải: 10download
Bạn đang xem nội dung tài liệu Trí tuệ nhân tạo - Học máy, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
MỤC LỤC NHẬN XÉT CỦA GIÁO VIÊN HƯỚNG DẪN HỌC MÁY Giới thiệu học máy Từ khi trí tuệ nhân tạo ra đời cho đến nay, người ta không ngừng thực hiện các công trình nghiên cứu để đưa tư tưởng nghiên cứu cùng với máy tính để ứng dụng vào việc giải quyết các công việc trong thực tiễn đời sống. Một trong những nguyên nhân làm cho trí tuệ nhân tạo trở thành một trong những lĩnh vực mũi nhọn trong thời đại hiện nay là việc làm cho máy tính trở nên thông minh hơn, nói cụ thể hơn là người ta tìm cách tạo ra các chương trình thông minh hơn có khả năng giải quyết các vấn đề thực tế như cách giải quyết của con người. Một trong những lĩnh vực lý thú của trí tuệ nhân tạo được đề cập trong chuyên đề này là Học máy. Học máy là hướng tiếp cận trong đó thay vì con người phải chỉ ra những tri thức cần thiết để giải quyết bài toán, máy tính sẽ tự động rút trích tri thức này một cách từ những dữ liệu được cung cấp. Học máy mô phỏng quá trình học của con người qua các mức từ đơn giản đến phức tạp: đầu tiên máy tính ghi nhớ những trường họp đã xuất hiện và cuối cùng học những trường hợp tổng quát chưa từng xuất hiện. Trong một bài toán học máy, đầu vào là một tập dữ liệu huấn luyện bao gồm các mẫu dữ liệu. Mỗi mẫu dữ liệu bao gồm một tập giá trị ứng với các thuộc tính. Tập thuộc tính được chia làm hai phần: thuộc tính quan sát và thuộc tính kết quả. Mục tiêu của học máy là tìm một ánh xạ từ thuộc tính quan sát vào thuộc tính kết quả (tìm moi quan hệ giữa thuộc tính quan sát và thuộc tính kết quả) ứng với tập dữ liệu huấn luyện. Ánh xạ này sẽ được áp dụng lên những mẫu quan sát mới để rút ra kết quả tương ứng. Bảng dưới đây trình bày một ví dụ của học máy, bài toán dự đoán việc có chơi tennis hay không. # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Trong bài toán này, học máy sẽ tìm một mối quan hệ giữa các thuộc tính quan sát: Outlook (quang cảnh), Temperature (Nhiệt độ), Humidity (Độ ẩm), Wind (Sức gió) với thuộc tính kết quả Target. Kết quả này sẽ dùng dự đoán giá trị Target khi nhập vào thuộc tính quan sát cho các mẫu mới ví dụ: # Outlook Temperature Humidity Wind Target 15 Sunny Mild Normal Strong ? 16 Rain Cool High Strong ? Việc dự đoán cho mẫu 15 có thể tương đối dễ dàng, vì mẫu này có các giá trị quan sát tương tự mẫu số 11 nên giá trị Target cũng tương tự là Yes (trường hợp học máy đơn giản -ghi nhớ). Tuy nhiên việc dự đoán cho mẫu 16 sẽ khó khăn hơn vì mẫu này không giống bất kỳ một trong những mẫu đã biết. Đây là trường hợp tổng quát của học máy - gặp những trường hợp chưa từng xuất hiện. Các phương pháp học máy đưa ra nhằm giải quyết bài toán trong trường hợp tổng quát. Phần I: Cây quyết định Trong lý thuyết quyết định (chẳng hạn quản lí rủi ro), một cây quyết định (decision tree) là một đồ thị của các quyết định và các hậu quả có thể của nó (bao gồm rủi ro và hao phí tài nguyên). Cây quyết định được sử dụng để xây dựng một kế hoạch nhằm đạt được mục tiêu mong muốn. Các cây quyết định được dùng để hỗ trợ quá trình ra quyết định. Cây quyết định là một dạng đặc biệt của cấu trúc cây. Giới thiệu chung Trong lĩnh vực học máy, cây quyết định là một kiểu mô hình dự báo (predictive model), nghĩa là một ánh xạ từ các quan sát về một sự vật/hiện tượng tới các kết luận về giá trị mục tiêu của sự vật/hiện tượng. Mỗi một nút trong (internal node) tương ứng với một biến; đường nối giữa nó với nút con của nó thể hiện một giá trị cụ thể cho biến đó. Mỗi nút lá đại diện cho giá trị dự đoán của biến mục tiêu, cho trước các giá trị của các biến được biểu diễn bởi đường đi từ nút gốc tới nút lá đó. Kỹ thuật học máy dùng trong cây quyết định được gọi là học bằng cây quyết định, hay chỉ gọi với cái tên ngắn gọn là cây quyết định. Học bằng cây quyết định cũng là một phương pháp thông dụng trong khai phá dữ liệu. Khi đó, cây quyết định mô tả một cấu trúc cây, trong đó, các lá đại diện cho các phân loại còn cành đại diện cho các kết hợp của các thuộc tính dẫn tới phân loại đó. Một cây quyết định có thể được học bằng cách chia tập hợp nguồn thành các tập con dựa theo một kiểm tra giá trị thuộc tính . Quá trình này được lặp lại một cách đệ qui cho mỗi tập con dẫn xuất. Quá trình đệ qui hoàn thành khi không thể tiếp tục thực hiện việc chia tách được nữa, hay khi một phân loại đơn có thể áp dụng cho từng phần tử của tập con dẫn xuất. Một bộ phân loại rừng ngẫu nhiên (random forest) sử dụng một số cây quyết định để có thể cải thiện tỉ lệ phân loại. Cây quyết định cũng là một phương tiện có tính mô tả dành cho việc tính toán các xác suất có điều kiện. Cây quyết định có thể được mô tả như là sự kết hợp của các kỹ thuật toán học và tính toán nhằm hỗ trợ việc mô tả, phân loại và tổng quát hóa một tập dữ liệu cho trước. Dữ liệu được cho dưới dạng các bản ghi có dạng: Biến phụ thuộc (dependant variable) y là biến mà chúng ta cần tìm hiểu, phân loại hay tổng quát hóa. là các biến sẽ giúp ta thực hiện công việc đó. Các khái niệm cơ bản 2.1. Cây quyết định: Là một mô hình dữ liệu mã hóa phân bố của nhãn lớp (cũng là y) theo các thuộc tính dùng để dự đoán. Đây là một đồ thị có hướng phi chu trình dưới dạng một cây. Nút gốc (nút nằm trên đỉnh) đại diện cho toàn bộ dữ liệu. Cây quyết định thông thường được sử dụng cho việc đạt được thông tin cho mục đính tạo quyết định. Cây quyết định bắt đầu với một nút gốc từ đó user nhận được những hành động. Từ nút này, user chia ra mỗi nút theo cách đệ qui theo giải thuật học cây quyết định. Kết quả cuối cùng là một cây quyết định trong đó mỗi nhánh thể hiện một trường hợp có thể của quyết định và hệ quả của quyết định đó. 2.2. Ví dụ bài toán chơi tennis để giải thích cây quyết định Người quản lý của một câu lạc bộ chơi tennis gặp rắc rối chuyện các thành viên đến hay không đến. Có ngày ai cũng muốn chơi tennis nhưng số nhân viên câu lạc bộ lại không đủ phục vụ. Có hôm thì chẳng ai đến chơi, và câu lạc bộ lại thừa nhân viên. Mục tiêu của Người quản lý là tối ưu hóa số nhân viên phục vụ mỗi ngày bằng cách dựa vào thời tiết để đoán xem khi nào người ta sẽ đến chơi tennis. Để thực hiện điều đó, anh cần hiểu được tại sao khách hàng quyết định chơi và tìm hiểu xem có cách giải thích nào cho việc đó hay không. Vậy là trong hai tuần, anh ta thu thập thông tin về: Trời Outlook (quang cảnh), Temperature (Nhiệt độ), Humidity (Độ ẩm), Wind (Sức gió) với thuộc tính kết quả Target. Dữ liệu như sau: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Sau đó, để giải quyết bài toán, người ta đã đưa ra một mô hình cây quyết định. Kết luận thứ nhất: nếu trời nhiều mây, người ta luôn luôn chơi tennis. Tiếp theo, ta lại chia nhóm trời nắng thành hai nhóm con. Ta thấy rằng khách hàng không muốn chơi golf nếu độ ẩm cao. Cuối cùng, ta chia nhóm trời có gió thành hai và thấy rằng khách hàng sẽ không chơi tennis nếu trời nhiều gió. Và đây là lời giải ngắn gọn cho bài toán mô tả bởi cây phân loại. Người quản lý phần lớn cho nhân viên nghỉ vào những ngày trời nắng và ẩm, hoặc những ngày gió mạnh. Vì hầu như sẽ chẳng có ai chơi trong những ngày đó. Vào những hôm khác, khi nhiều người sẽ đến chơi tennis, anh ta có thể thuê thêm nhân viên thời vụ để phụ giúp công việc. Kết luận là cây quyết định giúp ta biến một biểu diễn dữ liệu phức tạp thành một cấu trúc đơn giản hơn rất nhiều. Các kiểu cây quyết định Cây quyết định còn có hai tên khác: Cây hồi quy (Regression tree): ước lượng các hàm có giá trị là số thực thay vì được sử dụng cho các nhiệm vụ phân loại. (ví dụ: ước tính giá một ngôi nhà hoặc khoảng thời gian một bệnh nhân nằm viện) Cây phân loại (Classification tree): là một biến phân loại như: giới tính (nam hay nữ), kết quả của một trận đấu (thắng hay thua). Ưu điểm cây quyết định Cây quyết định dễ hiểu. Người ta có thể hiểu mô hình cây quyết định sau khi được giải thích ngắn. Việc chuẩn bị dữ liệu cho một cây quyết định là cơ bản hoặc không cần thiết. Các kỹ thuật khác thường đòi hỏi chuẩn hóa dữ liệu, cần tạo các biến phụ (dummy variable) và loại bỏ các giá trị rỗng. Cây quyết định có thể xử lý cả dữ liệu có giá trị bằng số và dữ liệu có giá trị là tên thể loại. Các kỹ thuật khác thường chuyên để phân tích các bộ dữ liệu chỉ gồm một loại biến. Chẳng hạn, các luật quan hệ chỉ có thể dùng cho các biến tên, trong khi mạng nơ-ron chỉ có thể dùng cho các biến có giá trị bằng số. Cây quyết định là một mô hình hộp trắng. Nếu có thể quan sát một tình huống cho trước trong một mô hình, thì có thể dễ dàng giải thích điều kiện đó bằng logic Boolean. Mạng nơ-ron là một ví dụ về mô hình hộp đen, do lời giải thích cho kết quả quá phức tạp để có thể hiểu được. Có thể thẩm định một mô hình bằng các kiểm tra thống kê. Điều này làm cho ta có thể tin tưởng vào mô hình. Cây quyết định có thể xử lý tốt một lượng dữ liệu lớn trong thời gian ngắn. Có thể dùng máy tính cá nhân để phân tích các lượng dữ liệu lớn trong một thời gian đủ ngắn để cho phép các nhà chiến lược đưa ra quyết định dựa trên phân tích của cây quyết định. Phần II: Thuật toán ID3 1. Thuật toán: Thuật toán ID3 do Ross Quinlan đề xuất dùng để xây dựng những cây quyết định thỏa các tính chất trên. Thuật toán tuân theo nguyên tắc dao cạo Occam để xây dựng những cây quyết định bằng cách ở mỗi bước kiểm tra, cố gắng chọn thuộc tính (nút nhánh) đơn giản nhất. Để xác định độ đơn giản của thuộc tính, ID3 sử dụng giá trị độ đo là entropy thông tin (độ hỗn loạn thông tin). Với một thuộc tính cho trước, một tập dữ liệu được chia thành n tập con với các tỷ lệ Pi tương ứng (ví dụ, với thuộc tính Target, tập dữ liệu huấn luyện được chia thành 2 tập con Yes với Po = 9/14 và tập con No với P;=5/14). Khi đó, entropy của tập dữ liệu trên thuộc tính được chọn là: n H Ví dụ, entropy của tập dữ liệu tennis theo thuộc tính kết quả là: H = - 9/14 * log29/14 - 5/14 * log25/14 = 0,94 Entropy đo độ hỗn loạn của một tập. Entropy càng cao thì độ hỗn loạn của tập đó càng cao. Tập dữ liệu là hoàn toàn đồng nhất khi entropy = 0. Và trong trường hợp tập dữ liệu có 2 lớp, tập dữ liệu hoàn toàn hỗn loạn sẽ có entropy = 1. Thuật toán ID3: Bắt đầu với nút gốc, 1. Chọn A ß thuộc tính quyết định "tốt nhất" cho nút kế tiếp Gán A là thuộc tính quyết định cho nút Với mỗi giá trị của A, tạo nhánh con mới của nút Phân loại các mẫu huấn luyện cho các nhánh Nếu các mẫu huấn luyện trong một nhánh được phân loại hoàn toàn (đồng nhất một loại) thì NGƯNG, ta được một nút lá. Ngược lại, lặp với các nút nhánh mới. Thuộc tính tốt nhất ở đây là thuộc tính có entropy trung bình thấp nhất theo thuộc tính kết quả. Entropy trung bình của một thuộc tính bằng trung bình theo tỉ lệ của entropy các nhánh: 2. Ví dụ: Áp dụng thuật toán ID3 cho bài toán học chơi tennis: * Lưu ý: Các số khoan tròn của tất cả hình bên dưới đều có thuộc tính Target là Yes, ngược lại là No. Ÿ Lặp lần 1: Xét lần lượt các thuộc tính Outlook: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Outlook Rain Overcast Sunny 6 10 5 14 4 3 7 12 13 1 2 11 8 9 HRain = - 3/5 * log23/5 - 2/5 * log22/5 = 0,97 HOvercast = - 4/4 * log24/4 - 0/4 * log20/4 = 0 HSunny = - 2/5 * log22/5 - 3/5 * log23/5 = 0,97 AE (Outlook) = 5/14 * 0,97 + 4/14 * 0 + 5/14 * 0,97 = 0,693 Temperature: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Temperature Hot Mid Cool 13 3 4 5 10 11 12 9 7 1 2 8 14 6 HHot = - 2/4 * log22/4 - 2/4 * log22/4 = 1 HMid = - 4/6 * log24/6 - 2/6 * log22/6 = 0,918 HCool = - 3/4 * log23/4 - 1/4 * log21/4 = 0,811 AE (Temperature) = 4/14 * 1 + 6/14 * 0,918 + 4/14 * 0,811 = 0,911 Humidity: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No HHigh = - 3/7 * log23/7 - 4/7 * log24/7 = 0,985 HNormal = - 6/7 * log26/7 - 1/7 * log21/7 = 0,592 AE (Humidity) = 7/14 * 0,985 + 7/14 * 0,592 = 0,79 Humidity High Normal 13 3 4 5 10 11 12 9 7 1 2 8 14 6 Wind: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Wind Weak Strong 13 3 4 5 10 11 12 9 7 1 2 8 14 6 Hweak = - 2/8 * log22/8 - 6/8 * log26/8 = 0,81 HStrong = - 3/6 * log23/6 - 3/6 * log23/6 = 1 AE (Wind) = 8/14 * 0,81 + 6/14 * 1 = 0,89 So sánh ta thấy thuộc tính Outlook có entropy trung bình thấp nhất nên ta chọn thuộc tính này làm gốc. Lặp lần 2: Xét nhánh Rain Xét các thuộc tính Temperature # Outlook Temperature Humidity Wind Target 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 10 Rain Mild Normal Weak Yes 14 Rain Mild High Strong No Temperature Hot Cool 4 5 10 14 6 Entropy trung bình: HMid = - 2/3 * log22/3 - 1/3 * log21/3 = 0,918 HCool = - 1/2 * log21/2 - 1/2 * log21/2 = 1 AE (Temperature) = 3/5 * 0,918 + 2/5 * 1 = 0,8308 Xét các thuộc tính Humidity # Outlook Temperature Humidity Wind Target 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 10 Rain Mild Normal Weak Yes 14 Rain Mild High Strong No Humidity High Normal 4 5 10 14 6 Entropy trung bình: HHigh = - 1/2 * log21/2 - 1/2 * log21/2 = 1 HNormal = - 2/3 * log22/3 - 1/3 * log21/3 = 0,918 AE (Humidity) = 2/5 * 1 + 3/5 * 0,918 = 0,9508 Xét các thuộc tính Wind: # Outlook Temperature Humidity Wind Target 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 10 Rain Mild Normal Weak Yes 14 Rain Mild High Strong No Wind Weak Strong 4 5 10 14 6 Entropy trung bình: HHigh = - 3/3 * log23/3 – 0/3 * log20/3 = 0 HNormal = - 0/2 * log20/2 – 2/2 * log22/2 = 0 AE (Humidity) = 0 Thuộc tính Wind có entropy trang bình thấp nhất nên chọn làm nút nhánh. Lặp lần 3: Xét nhánh Sunny Xét các thuộc tính Temperature # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 11 Sunny Mild Normal Strong Yes Temperature Mid Hot Cool 9 11 1 8 2 HMid = - 1/2 * log21/2 – 1/2 * log21/2 = 1 HHot = - 0/2 * log20/2 – 2/2 * log20/2 = 0 HCool = - 1 * log21 – 0 * log20 = 0 AE (Temperature) = 2/5 * 1 + 0 + 0 = 0,4 Xét các thuộc tính Humidity # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 11 Sunny Mild Normal Strong Yes Humidity High Normal 9 8 11 1 2 Entropy trung bình: HHigh = - 0/3 * log20/3 – 3/3 * log23/3 = 0 HNormal = - 2/2 * log22/2 – 0 = 0 AE (Humidity) = 0 Thuộc tính Humidity có entropy trung bình thấp nhất nên chọn làm nút nhánh. à Cây quyết định kết quả: • Sau khi xây dựng cây, ta có thể rút ra các luật tương ứng bằng cách duyệt các đường đi trên cây từ nút gốc đến nút lá, mỗi đường đi ứng với một luật: L1: Nếu Outlook = Overcast thì chơi tennis. L2: Nếu Outlook = Rain và Wind = Weak thì chơi tennis. L3: Nếu Outlook = Rain và Wind = Strong thì không chơi tennis. L4: Nếu Outlook = Sunny và Hub = High thì không chơi tennis. L5: Nếu Outlook = Sunny và Hub = Normal thì chơi tennis. Lưu ý: Một phiên bản khác của thuật toán ID3 sử dụng Informatic Gain thay cho entropy để chọn thuộc tính quyết định. Công thức tính Informatic Gain như sau: Gain(A) = Entropy(S) – Entropy(A) Trong đó: S là tập mẫu và A là một thuộc tính. Entropy(S): độ hỗn loạn của tập S. Entropy(A): độ hỗn loạn trung bình của thuộc tính A (cách tính như trên) Nguyên tắc thực hiện: tương tự trên ngoại trừ Gain lớn nhất. Phần II: Thuật toán QuinLan 1. Thuật toán: Quinlan quyết định thuộc tính phân hoạch bằng cách xây dựng các vector đặc trưng cho mỗi giá trị của từng thuộc tính dẫn xuất và thuộc tính mục tiêu. Cách tính cụ thể như sau : Với mỗi thuộc tính dẫn xuất A còn có thể sử dụng để phân hoạch, tính : VA(j) = ( T(j , r1), T(j , r2) ,…, T(j , rn) ) T(j, ri) = (tổng số phần tử trong phân hoạch có giá trị thuộc tính dẫn xuất A là j và có giá trị thuộc tính mục tiêu là ri ) / ( tổng số phần tử trong phân hoạch có giá trị thuộc tính dẫn xuất A là j ) * Trong đó:  r1, r2, … , rn là các giá trị của thuộc tính mục tiêu *  Như vậy nếu một thuộc tính A có thể nhận một trong 5 giá trị khác nhau thì nó sẽ có 5 vector đặc trưng. Một vector V(Aj ) được gọi là vector đơn vị nếu nó chỉ có duy nhất một thành phần có giá trị 1 và những thành phần khác có giá trị 0. Thuộc tính được chọn để phân hoạch là thuộc tính có nhiều vector đơn vị nhất. 2. Ví dụ: Bài toán dự đoán việc chơi tennis # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Phân hoạch lần 1: VOutlook(Sunny) = (2/5, 3/5) VOutlook(Overcast) = (4/4, 0/4) = (1, 0) { vector đơn vị} VOutlook(Sunny) = (2/5, 3/5) VTemperature(Hot) = (2/4, 2/4) VTemperature(Mid) = (4/6, 2/6) = (2/3, 1/3) VTemperature(Cool) = (3/4, 1/4) VHumidity(High) = (3/7, 4/7) VHumidity(Normal) = (6/7, 6/7) VWind(Weak) = (3/7, 4/7) VWind(Strong) = (6/8, 2/8) = (3/4, 1/4) Ta chọn thuộc tính Outlook vì có vector đơn vị nên ta chọn làm nhánh gốc. Trong Outlook còn có thuộc tính Rain và Sunny là chứa những người chơi tennis hoặc không chơi. Vì vậy ta sẽ phân hoạch tiếp hai nhánh này. Dữ liệu còn lại là: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 14 Rain Mild High Strong No Phân hoạch lần 2: - Nhánh Sunny # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 11 Sunny Mild Normal Strong Yes VTemperature(Hot) = (0/2, 2/2) = (1, 0) { vector đơn vị} VTemperature(Mid) = (1/2, 1/2) VTemperature(Cool) = (1, 0) { vector đơn vị} VHumidity(High) = (0/3, 3/3) = (0, 1) { vector đơn vị} VHumidity(Normail) = (2/2, 0/2) = (1, 0) { vector đơn vị} VWind(Weak) = (2/3, 1/3) VWind(Strong) = (0/2, 2/2) = (0, 1) { vector đơn vị} è Hai thuộc tính Temperature và Humidity đều có 2 vector đơn vị. Tuy nhiên, số phân hoạch của thuộc tính Humidity là ít hơn nên ta chọn phân hoạch theo thuộc tính Humidity. Phân hoạch lần 3: - Nhánh Rain # Outlook Temperature Humidity Wind Target 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 10 Rain Mild Normal Weak Yes 14 Rain Mild High Strong No VTemperature(Mild) = (2/3, 1/3) VTemperature(Cool) = (1/2, 1/2) VHumidity(High) = (1/2, 1/2) VHumidity(Normal) = (2/3, 1/3) VWind(Weak) = (2/3, 1/3) VWind(Strong) = (0/2, 2/2) = (0, 1) { vector đơn vị} è Thuộc tính Wind có vector đơn vị nên ta chọn phân hoạch. Vậy, cây định danh cuối cùng của chúng ta sẽ như sau : Phần IV: Thuật toán học quy nạp (ILA) Thuật toán học quy nạp ILA đưa ra hướng tiếp cận ngược lại so với thuật toán ID3. Trong toán ID3, quá trình rút tri thức từ dữ liệu được xuất phát từ các thuộc tính quan sát của tập dữ liệu. Từ việc kiểm tra trên các thuộc tính quan sát, ID3 chọn những thuộc tính có các giá trị mà chúng chia tập huấn luyện thành những tập con một cách tốt nhất. Các thuộc tính này sẽ được chọn để rút ra luật cho dữ liệu. Ngược lại, trong ILA, quá trình học xuất phát từ các thuộc tính quyết định. ILA chia tập dữ liệu huấn luyện thành các tập con rời nhau, mỗi tập con là một phân lớp dựa trên thuộc tính quyết định. Tiếp đến ILA sẽ xem xét trong từng phân lớp xem có thuộc tính nào (hoặc tổ hợp thuộc tính nào) có giá trị chỉ xuất hiện trong lớp đó mà không xuất hiện trong các lớp khác hay không. Nếu có, những (tổ hợp) thuộc tính và giá trị đó sẽ được chọn làm đặc trưng phân lớp cho lớp đó. Thuật toán ILA 1. Chia tập mẫu thành các bảng con ứng với thuộc tính quyết định 2. Với mỗi bảng con 3. Với mỗi tổ hợp thuộc tính có thể có (bắt đầu với số lượng = 1) 4. Tìm các giá trị chỉ xuất hiện ở bảng con này mà không xuất hiện ở các bảng con khác 5. (Nếu có nhiều tổ hợp thì chọn tổ hợp có số lượng mẫu tin nhiều nhất) 6. Sử dụng tổ hợp thuộc tính, giá trị vừa tìm được để tạo luật 7. Đánh dấu các dòng đã xét 8. Nếu còn dòng chưa xét, lặp lại bước 3 9. Lặp lại từ bước 2 với các bảng còn lại Áp dụng ILA cho bảng bài toán tennis: 1. Chia tập dữ liệu ban đầu thành 2 bảng con: # Outlook Temperature Hudmidity Wind Target 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 7 Overcast Cool Normal Strong Yes 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes # Outlook Temperature Hudmidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 6 Rain Cool Normal Strong No 8 Sunny Mild High Weak No 14 Rain Mild High Strong No 2. Với bảng Yes: các giá trị sau không xuất hiện trong bảng No: • Tổ hợp 1 thuộc tính: Outlook = Overcast, các mẫu: 3, 7, 12, 13 ⇒ Luật L1: Nếu Outlook = Overcast thì Target = Yes (xoá các mẫu 3, 7, 12, 13) • Tổ hợp 2 thuộc tính: # Outlook Temperature Hudmidity Wind Target 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes O = S ∧ T= C, mẫu: 9 O = S ∧ H = N, mẫu: 11, 9 O=R ∧ W = W, mẫu: 5, 4, 10 H = N∧ T = M, mẫu: 11, 10 T = C∧ W = W, mẫu: 5, 9 H = N ∧ W = W, mẫu: 5, 9, 10 ⇒ Luật L2: Nếu O = R ∧ W = W thì Target = Yes (xoá các mẫu 4, 5, 10) còn lại o O = S ∧ T = C, mẫu: 9 o O = S ∧ H = N, mẫu: 9, 11 o T = M ∧ H = N, mẫu: 11 o T = C ∧ W = W, mẫu: 9 ⇒ Luật L3: Nếu O = S ∧ H = N thì Target = Yes (xoá các mẫu_9, 11) Với bảng No: • Tổ hợp 1 thuộc tính: không có • Tổ hợp 2 thuộc tính: o O = S ∧ T= H, mẫu: 1, 2 o O = S ∧ H = H, mẫu: 1, 2, 8 o O = R ∧ W = S, mẫu: 6, 14 o T = H ∧ W = S, mẫu: 2 ⇒ Luật L4: Nếu O = S ∧ H = H thì Target = Yes (xoá các mẫu 1, 2, 8) còn lại o O = R ∧ W= S, mẫu: 6 ⇒ Luật L5: Nếu O = R ∧ W = S thì Target = Yes (xoá các mẫu_6) è Kết luận: vậy các luật phân lớp là L1 à L5. Phần III: Thuật toán Naïve Bayes Tiếp cận thống kê và Luật Bayes Trong cách tiếp cận thống kê, lý thuyết quyết định được sử dụng để chọn giá trị kết xuất cho mẫu mới. Theo lý thuyết quyết định, khi một mẫu mới x được cung cấp, giá trị của thuộc tính quyết định y là giá tri yk sao cho xác suất P(y = yk|x) là lớn nhất. Ví dụ trong bài toán tennis, với mẫu #16 ta cần xác định hai giá trị xác xuất P(Target = Yes|#16) và P(Target = No|#16) và chọn phân lớp ứng với giá trị lớn nhất trong hai giá trị này. Giá trị P(y = yk|x) thường khó tính được (do phải có rất nhiều mẫu huấn luyện mới có thể xấp xỉ chính xác). Công thức Bayes giúp đưa giá trị trên về dạng dễ tính hơn: Giá trị P(x) là như nhau đối với mọi phân lớp nên ta chỉ cần so sánh từ số của phân số trên. Một lần nữa, giá trị P(x|y=yk) (gọi là phân số của dữ liệu trong phân lớp) cũng khó tính toán. Giả định độc lập có điều kiện giữa các thuộc tính (Naïve) cho phép ta tính phân bố xác suất của mẫu dữ liệu thông qua phân bố xác suất của từng giá trị thuộc tính thành phần: Ví dụ với #16, ta có thể tính: P(#16| Target=Yes)= P(Outlook=Rain| Target=Yes) x P(Temp=Cool| Target=Yes) x P(Humidity=High| Target=Yes) x P(Wind=Strong| Target=Yes) và tính tương tự cho mẫu P(#16| Target=No). Thuật toán học máy Naïve Bayes Thuật toán học máy Naïve Bayes biểu diễn ánh xạ học dưới dạng một tập các giá trị phân bố xác suất. Các giá trị phân bố xác xuất được tính trong giai đoạn huấn luyện và được sử dụng để xác định giá trị quyết định cho những mẫu mới. Thuật toán Naïve Bayes 1. Huấn luyện Thống kê (đếm) xác suất của các lớp yk P(yk) và các giá trị phân bố xác suất P(Ai=vij|yk). Để đơn giản ta ký hiệu RAi(vij, yk) là tỷ lệ các mẫu có thuộc tính Ai = vij thuộc phân lớp yk: Sử dụng Với mỗi mẫu mới x, tính khả năng x rơi vào các phân lớp yk và chọn phân lớp có giá trị S lớn nhất. Sửa lỗi Laplace: khi dữ liệu ít, một trong những giá trị R có thể = 0 do bị nhiễu. Nếu R = 0 các thì giá trị S tương ứng cũng = 0. Để tránh trường hợp đó, phép sửa lỗi được đưa ra nhằm đảm bảo các giá trị xác suất luôn > 0. Sửa lỗi Laplace thực hiện như sau: Các giá trị P và R sau khi sửa lỗi được sử dụng như bình thường. Ví dụ Áp dụng thuật toán Naïve Bayes vào ví dụ tennis, ta thực hiện các bước sau: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Huấn luyện: P(Yes) = 9/14 sửa lỗi: P(Yes) = 10/16 P(No) = 5/14 sửa lỗi: P(No) = 6/16 ROverlook(Sunny, Yes) = 2/9, (sửa lỗi) = 3/12 {Tử + 1, Mẫu + 3 (S, O, R)} ROverlook(Overcast, Yes) = 4/9, (sửa lỗi) = 5/12 ROverlook(Rain, Yes) = 3/9 = 4/12 (sửa lỗi) ROverlook(Sunny, No) = 3/5 = 4/8 (sửa lỗi) ROverlook(Overcast, No) = 0/5 = 1/8 (sửa lỗi) ROverlook(Rain, No) = 2/5 = 3/8 (sửa lỗi) RTemperature (sửa lỗi) RHumidity (sửa lỗi) RWind (sửa lỗi) Weak Strong Yes 7/11 4/11 No 3/7 4/7 Hot Mild Cool Yes 3/12 5/12 4/12 No 3/8 3/8 2/8 Normal High Yes 7/11 4/11 No 2/7 5/7 Dự đoán cho mẫu #16: S(Yes) = P(Yes) x RO(Rain, Yes) x RT(Cool, Yes) x RH(Hum, Yes) x RW(Sunny, Yes) = 10/16 * 4/12 * 4/12 * 4/11 * 4/11 = 0,009 S(No) = P(No) x RO(Rain,No) x RT(Cool,No) x RH(Hum,No) x RW(S,No) = 6/12 * 3/8 * 2/8 * 5/7 * 4/7 = 0,019 Vậy #16 thuộc về lớp No vì S(No) > S(Yes). Phần V: Code xây dựng cây quyết định bằng thuật toán ID3 Kết quả cây định danh Giao diện: Chọn dữ liệu khác Tạo cây định danh Dữ liệu có sẵn từ file input.txt Code chương trình: using System; using System.Collections; using System.Data; using System.IO; using System.Collections.Generic; namespace ExemploID3 { public class Attribute { ArrayList mValues; string mName; object mLabel; public Attribute(string name, string[] values) { mName = name; mValues = new ArrayList(values); mValues.Sort(); } public Attribute(object Label) { mLabel = Label; mName = string.Empty; mValues = null; } public string AttributeName { get { return mName; } } public string[] values { get { if (mValues != null) return (string[])mValues.ToArray(typeof(string)); else return null; } } public bool isValidValue(string value) { return indexValue(value) >= 0; } public int indexValue(string value) { if (mValues != null) return mValues.BinarySearch(value); else return -1; } public override string ToString() { if (mName != string.Empty) { return mName; } else { return mLabel.ToString(); } } } // Tạo Treeview public class TreeNode { private ArrayList mChilds = null; private Attribute mAttribute; public TreeNode(Attribute attribute) { if (attribute.values != null) { mChilds = new ArrayList(attribute.values.Length); for (int i = 0; i < attribute.values.Length; i++) mChilds.Add(null); } else { mChilds = new ArrayList(1); mChilds.Add(null); } mAttribute = attribute; } public void AddTreeNode(TreeNode treeNode, string ValueName) { int index = mAttribute.indexValue(ValueName); mChilds[index] = treeNode; } public int totalChilds { get { return mChilds.Count; } } public TreeNode getChild(int index) { return (TreeNode)mChilds[index]; } public Attribute attribute { get { return mAttribute; } } public TreeNode getChildByBranchName(string branchName) { int index = mAttribute.indexValue(branchName); return (TreeNode)mChilds[index]; } } //Xây dựng cây public class DecisionTreeID3 { private DataTable mSamples; private int mTotalPositives = 0; private int mTotal = 0; private string mTargetAttribute = "Target"; private double mEntropySet = 0.0; private int countTotalPositives(DataTable samples) { int result = 0; foreach (DataRow aRow in samples.Rows) { if ((bool)aRow[mTargetAttribute] == true) result++; } return result; } private double calcEntropy(int positives, int negatives) { int total = positives + negatives; double ratioPositive = (double)positives/total; double ratioNegative = (double)negatives/total; if (ratioPositive != 0) ratioPositive = -(ratioPositive) * System.Math.Log(ratioPositive, 2); if (ratioNegative != 0) ratioNegative = - (ratioNegative) * System.Math.Log(ratioNegative, 2); double result = ratioPositive + ratioNegative; return result; } private void getValuesToAttribute(DataTable samples, Attribute attribute, string value, out int positives, out int negatives) { positives = 0; negatives = 0; foreach (DataRow aRow in samples.Rows) { if ( ((string)aRow[attribute.AttributeName] == value) ) if ( (bool)aRow[mTargetAttribute] == true) positives++; else negatives++; } } //Tính Gain private double gain(DataTable samples, Attribute attribute) { string[] values = attribute.values; double sum = 0.0; for (int i = 0; i < values.Length; i++) { int positives, negatives; positives = negatives = 0; getValuesToAttribute(samples, attribute, values[i], out positives, out negatives); double entropy = calcEntropy(positives, negatives); sum += -(double)(positives + negatives)/mTotal * entropy; } return mEntropySet + sum; } //Tìm Gain lớn nhất private Attribute getBestAttribute(DataTable samples, Attribute[] attributes) { double maxGain = 0.0; Attribute result = null; foreach (Attribute attribute in attributes) { double aux = gain(samples, attribute); if (aux > maxGain) { maxGain = aux; result = attribute; } } return result; } private bool allSamplesPositives(DataTable samples, string targetAttribute) { foreach (DataRow row in samples.Rows) { if ( (bool)row[targetAttribute] == false) return false; } return true; } private bool allSamplesNegatives(DataTable samples, string targetAttribute) { foreach (DataRow row in samples.Rows) { if ( (bool)row[targetAttribute] == true) return false; } return true; } private ArrayList getDistinctValues(DataTable samples, string targetAttribute) { ArrayList distinctValues = new ArrayList(samples.Rows.Count); foreach(DataRow row in samples.Rows) { if (distinctValues.IndexOf(row[targetAttribute]) == -1) distinctValues.Add(row[targetAttribute]); } return distinctValues; } private object getMostCommonValue(DataTable samples, string targetAttribute) { ArrayList distinctValues = getDistinctValues(samples, targetAttribute); int[] count = new int[distinctValues.Count]; foreach(DataRow row in samples.Rows) { int index = distinctValues.IndexOf(row[targetAttribute]); count[index]++; } int MaxIndex = 0; int MaxCount = 0; for (int i = 0; i < count.Length; i++) { if (count[i] > MaxCount) { MaxCount = count[i]; MaxIndex = i; } } return distinctValues[MaxIndex]; } private TreeNode internalMountTree(DataTable samples, string targetAttribute, Attribute[] attributes) { if (allSamplesPositives(samples, targetAttribute) == true) return new TreeNode(new Attribute(true)); if (allSamplesNegatives(samples, targetAttribute) == true) return new TreeNode(new Attribute(false)); if (attributes.Length == 0) return new TreeNode(new Attribute(getMostCommonValue(samples, targetAttribute))); mTotal = samples.Rows.Count; mTargetAttribute = targetAttribute; mTotalPositives = countTotalPositives(samples); mEntropySet = calcEntropy(mTotalPositives, mTotal - mTotalPositives); Attribute bestAttribute = getBestAttribute(samples, attributes); TreeNode root = new TreeNode(bestAttribute); DataTable aSample = samples.Clone(); foreach(string value in bestAttribute.values) { aSample.Rows.Clear(); DataRow[] rows = samples.Select(bestAttribute.AttributeName + " = " + "'" + value + "'"); foreach(DataRow row in rows) { aSample.Rows.Add(row.ItemArray); } ArrayList aAttributes = new ArrayList(attributes.Length - 1); for(int i = 0; i < attributes.Length; i++) { if (attributes[i].AttributeName != bestAttribute.AttributeName) aAttributes.Add(attributes[i]); } if (aSample.Rows.Count == 0) { return new TreeNode(new Attribute(getMostCommonValue(aSample, targetAttribute))); } else { DecisionTreeID3 dc3 = new DecisionTreeID3(); TreeNode ChildNode = dc3.mountTree(aSample, targetAttribute, (Attribute[])aAttributes.ToArray(typeof(Attribute))); root.AddTreeNode(ChildNode, value); } } return root; } public TreeNode mountTree(DataTable samples, string targetAttribute, Attribute[] attributes) { mSamples = samples; return internalMountTree(mSamples, targetAttribute, attributes); } } class ID3Sample { public static void printNode(TreeNode root, string tabs) { Console.WriteLine(tabs + '|' + root.attribute + '|'); if (root.attribute.values != null) { for (int i = 0; i < root.attribute.values.Length; i++) { Console.WriteLine(tabs + "\t" + ""); TreeNode childNode = root.getChildByBranchName(root.attribute.values[i]); printNode(childNode, "\t" + tabs); } } } static DataTable getDataTableFromFile() { DataTable rs = new DataTable("samples"); DataColumn column = new DataColumn(); StreamReader sr = new StreamReader("input.txt"); string record; int i = 1; int n, k = 0; string[] samples = null; List list = new List(); while ((record = sr.ReadLine()) != null) { string[] words = record.Split('\t'); if (i == 1) { n = int.Parse(words[0]); k = int.Parse(words[1]); } else if (i == 2) { samples = words; for (int j = 0; j < k - 1; j++) { column = rs.Columns.Add(words[j]); column.DataType = typeof(string); } column = rs.Columns.Add(words[k-1]); column.DataType = typeof(bool); } else { object[] ob = new object[5]; for (int j = 0; j < k - 1; j++) { ob[j] = (object)words[j]; } if (words[k-1] == "Yes") ob[k - 1] = true; else ob[k - 1] = false; rs.Rows.Add(ob); } i++; } return rs; } static Attribute[] getAttibute(DataTable rs) { string bk; string tmp = ""; int mattr = 0; int k = rs.Columns.Count; Attribute[] attr = new Attribute[k - 1]; for (int i = 0; i < k - 1; i++) { for (int j = 0; j < rs.Rows.Count; j++) { bk = (string)rs.Rows[j][i]; if (tmp.IndexOf(bk) == -1) { tmp += (string)rs.Rows[j][i] + ","; } } tmp = tmp.Substring(0, tmp.Length - 1); attr[mattr] = new Attribute(rs.Columns[i].ColumnName, tmp.Split(',')); mattr++; tmp = ""; } return attr; } [STAThread] static void Main(string[] args) { DataTable samples = getDataTableFromFile(); Attribute[] attributes = getAttibute(samples); DecisionTreeID3 id3 = new DecisionTreeID3(); TreeNode root = id3.mountTree(samples, "Target", attributes); printNode(root, ""); Console.ReadKey(); } } } Phần VI: Tài liệu tham khảo [1]. Bài giảng: Trí Tuệ Nhân Tao – Học Máy Tác giả: Ths. Tô Hoài Việt [2]. Wikipedia - Bách khoa toàn thư mở - Cây quyết định. tree [3]. Tom M. Mitchell, (1997). Machine Learning, Singapore, McGraw - Hill. [4]. Google, …

Các file đính kèm theo tài liệu này:

  • docTrí tuệ nhân tạo - học máy.doc
Luận văn liên quan