Luận án Phát triển một số phương pháp rút gọn thuộc tính trong bảng quyết định không đầy đủ theo tiếp cận filter - Wrapper

Trong trường hợp tốt nhất, thuật toán kết thúc ở câu lệnh 6 (tập rút gọn không thay đổi). Khi đó, độ phức tạp thuật toán IDS_IFW_AO là O U U U     * . Ngược lại, độ phức tạp tính khoảng cách theo công thức gia tăng trong câu lệnh 9 khi biết ma trận dung sai là O U U U    * . Xét vòng lặp While từ câu lệnh 10 đến 20, để tính SIG a B   ta phải tính D B a B a d U U       ,     vì D B B d U U   ,   đã được tính ở bước trước. Độ phức tạp tính gia tăng D B a B a d U U       ,     là O U U U     * . Do đó, độ phức tạp của vòng lặp While là O C B U U U      2 *  và độ phức tạp của giai đoạn filter trong trường hợp xấu nhất là O C B U U U      2 * . Độ phức tạp của giai đoạn wrapper phụ thuộc vào độ phức tạp của bộ phân lớp được sử dụng. Giả sử độ phức tạp của bộ phân lớp là O T  , khi đó độ phức tạp của giai đoạn wrapper là O C B T   *  . Vì vậy, độ phức tạp của thuật toán IDS_IFW_AO là O C B U U U O C B T        2 * * *     .

pdf132 trang | Chia sẻ: tueminh09 | Ngày: 24/01/2022 | Lượt xem: 466 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Luận án Phát triển một số phương pháp rút gọn thuộc tính trong bảng quyết định không đầy đủ theo tiếp cận filter - Wrapper, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
3 Mệnh đề 3.7. Cho bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u . Giá sử tập thuộc tính điều kiện B được bổ sung vào C với B C  . Đặt ij( ) n nM B b     là ma trận dung sai trên B. Khi đó ta có: 1) Nếu ij 1b  với mọi i=1..n, j=1..n (hay  ( )K B K  ) thì      , ,D C B C B d D C C d     2) Nếu ij 0,b i j  với mọi i=1..n, j=1..n (hay  ( )K B K  ) thì   , 0D C B C B d    . 3) Trường hợp còn lại,     2 1 1 1 , . . . n n ij ij ij ij i j D C B C B d b c c d n        Chứng minh. Từ Mệnh đề 2.3 tính độ đo khoảng cách, ta có:            2 1 1 , . n C B i C B i id i D C B C B d S u S u S u n                      2 1 1 . n C i B i C i B i id i S u S u S u S u S u n          2 2 1 1 1 1 1 1 . . . . . . . n n n n ij ij ij ij ij ij ij ij ij i j i j c b c b d b c c d n n         Dễ thấy rằng, nếu ij 1b  với mọi i=1..n, j=1..n thì        2 1 1 1 , . . , n n ij ij ij i j D C B C B d c c d D C C d n          và nếu ij 0,b i j  với mọi i=1..n, j=1..n thì   , 0D C B C B d    . 3.2.2. Thuật toán gia tăng filter-wrapper tìm tập rút gọn khi bổ sung tập thuộc tính Từ công thức gia tăng tính khoảng cách trong Mệnh đề 3.7 ta có Mệnh đề 3.8 sau đây: 94 Mệnh đề 3.8. Cho bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u và R C là tập rút gọn dựa trên khoảng cách. Giá sử tập thuộc tính điều kiện B được bổ sung vào C với B C  . Đặt ij( ) n nM B b     là ma trận dung sai trên B. Khi đó, nếu ij 1b  với mọi i=1..n, j=1..n thì R là tập rút gọn của   1 ,IDS U C B d   Chứng minh. Nếu ij 1b  với mọi i=1..n, j=1..n, từ Mệnh đề 3.7 ta có:      , ,D C B C B d D C C d     . Do R là tập rút gọn của IDS nên         , , ,D R R d D C C d D C B C B d       và           , , ,r R D R r R r d D C C d       Từ đó ta có: R là tập rút gọn của   1 ,IDS U C B d   . Ý tưởng của thuật toán gia tăng theo hướng tiếp cận kết hợp filter- wrapper bao gồm hai giai đoạn. Trong giai đoạn filter (giống như tiếp cận truyền thống), thuật toán tìm các ứng viên của tập rút gọn, là các tập thuộc tính khi lần lượt bổ sung vào các thuộc tính có độ quan trọng lớn nhất. Trong giai đoạn wrappper, ta sử dụng một bộ phân lớp để tính độ chính xác phân lớp trên từng ứng viên của tập rút gọn và lựa chọn ứng viên có độ chính xác phân lớp tốt nhất làm tập rút gọn. Như vậy, với cách tiếp cận này, ta phải trả giá về thời gian tính toán độ chính xác phân lớp trong giai đoạn wrapper. Tuy nhiên, tập rút gọn thu được có thể có số thuộc tính nhỏ hơn, do đó tập luật phân lớp trên tập rút gọn sẽ có hiệu quả cao hơn về thời gian thực hiện và độ chính xác. Trong bối cảnh tăng trưởng không ngừng của dữ liệu lớn (Big Data), các bảng quyết định ngày càng có số thuộc tính rất lớn và chúng luôn thay đổi, cập nhật. Việc tìm kiếm tập rút gọn có số thuộc tính nhỏ nhất đặc biệt quan trọng. Do đó, chi phí về mặt thời gian để có tập rút gọn giảm thiểu số lượng thuộc 95 tính nhằm thu được tập luật hiệu quả là chấp nhận được. Dựa trên Mệnh đề 3.8, thuật toán gia tăng filter-wrapper tìm tập rút gọn trong bảng quyết định không đầy đủ sử dụng khoảng cách khi bổ sung tập thuộc tính B như sau: Thuật toán IDS_IFW_AA: Thuật toán gia tăng filter- wrapper tìm tập rút gọn khi bổ sung tập thuộc tính. Đầu vào: 1) Bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u , tập rút gọn R C , các ma trận dung sai  ( ) , ( )ij U ijn n n nM C c M d d         , khoảng cách   ,D C C d ; 2) Tập thuộc tính bổ sung B với B C ; Đầu ra: Tập rút gọn 1R của   1 ,IDS U C B d   Bước 1: Khởi tạo 1. :T ; //Chứa các ứng viên tập rút gọn 2. Tính ma trận dung sai ( ) ij n n M B b      ; Bước 2: Kiểm tra tập thuộc tính bổ sung 3. If 1ijb  với mọi  , 1..i j n then Return R ; Bước 3: Thực hiện thuật toán tìm tập rút gọn // Giai đoạn filter, tìm các ứng viên cho tập rút gọn xuất phát từ tập R. 4. While      , ,D R R d D C B C B d     do 5. Begin 6. For each a B do 7. Begin 8. Tính       ,D R a R a d   bởi công thức cập nhật khoảng cách ở Mệnh đề 3.7; 9. Tính            , ,RSIG a D R R d D R a R a d      ; 10. End; 11. Chọn a B sao cho     R m R a B SIG a Max SIG a   ; 12.  : mR R a  ; 13. :T T R  ; 14. End; 96 // Giai đoạn Wrapper,tìm tập rút gọn có độ chính xác phân lớp cao nhất 15. Đặt :t T //t là số phần tử của T, T chứa các chuỗi thuộc tính được chọn, nghĩa là        1 1 2 1 2 , , ,..., , ,..., ti i i i i i T R a R a a R a a a    ; 16. Đặt       1 1 2 1 21 2 : ; : , ;...; : , ,..., ti i i t i i i T R a T R a a T R a a a      17. For j = 1 to t 18. Begin 19. Tính độ chính xác phân lớp trên jT bằng một bộ phân lớp sử dụng phương pháp 10-fold; 20. End 21. 1 : joR T với joT có độ chính xác phân lớp lớn nhất. 22. Return 1R ; Tiếp theo, ta đánh giá độ phức tạp của thuật toán IDS_IFW_AA. Ký hiệu , ,C U B tương ứng là số thuộc tính điều kiện, số đối tượng và số thuộc tính điều kiện bổ sung thêm. Ở câu lệnh 2, độ phức tạp tính ma trận dung sai ( )M B là  2O B U . Trong trường hợp tốt nhất, thuật toán kết thúc ở câu lệnh 3 (tập rút gọn không thay đổi). Khi đó, độ phức tạp thuật toán IDS_IFW_AA là  2O B U . Ngược lại xét vòng lặp While từ câu lệnh 4 đến 14, để tính  BSIG a ta phải tính       ,D R a R a d   vì   ,D R R d đã được tính ở bước trước. Độ phức tạp tính gia tăng       ,D R a R a d   ở câu lệnh số 8 là  2O U . Do đó, độ phức tạp của vòng lặp While là  2 2O B U và độ phức tạp của giai đoạn filter trong trường hợp xấu nhất là  2 2O B U . Độ phức tạp của giai đoạn wrapper phụ thuộc vào độ phức tạp của bộ phân lớp được sử dụng. Giả sử độ phức tạp của bộ phân lớp là  O T , khi đó độ phức tạp của giai đoạn wrapper là 97  *O B T . Vì vậy, độ phức tạp của thuật toán IDS_IFW_AA là    2 2 *O B U O B T . Nếu thực hiện thuật toán không gia tăng filter-wrapper trực tiếp trên bảng quyết định có số thuộc tính C B , độ phức tạp là      2 2* *O C B U O C B T   . Do đó, thuật toán gia tăng IDS_IFW_AA giảm thiểu đáng kể độ phức tạp thời gian thực hiện, đặc biệt trong trường hợp B nhỏ. Tiếp theo, sẽ trình bày thuật toán filter-wrapper tìm tập rút gọn sử dụng khoảng cách khi loại bỏ tập thuộc tính theo hướng tiếp cận tính toán gia tăng. Trước hết, ta xây dựng các công thức cập nhật khoảng cách khi loại bỏ tập thuộc tính. 3.2.3. Công thức cập nhật khoảng cách khi loại bỏ tập thuộc tính Cho bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u và   ij n nM C c     ,    ij n nM d d     tương ứng là ma trận dung sai trên C và d. Theo Mệnh đề 2.3 ở Chương 2, khoảng cách giữa hai tập thuộc tính C và  C d được xác định như sau:              2 2 1 1 1 1 1 , . n n n C i C i i ij ij ijd i i j D C C d S u S u S u c c d n n          Mệnh đề 3.9. Cho bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u . Giá sử tập thuộc tính điều kiện B loại bỏ khỏi C với B C và A C B  là tập thuộc tính còn lại. Đặt ij( ) n nM B b     và ij( ) n nM A a     tương ứng là ma trận dung sai trên B và A . Khi đó,     2 1 1 1 , . . n n ij ij ij i j D A A d a a d n      với các phần tử ija của ma trận ( )M A được tính như sau: 98 1) Nếu ij 1c  thì ij 1a  với i=1..n, j=1..n 2) Nếu ij 0c  và ij 1b  thì ij 0a  với i=1..n, j=1..n 3) Nếu ij 0c  và ij 0b  thì ij 1a  nếu  j A iu S u và ij 0a  nếu  j A iu S u với i=1..n, j=1..n. Chứng minh. Dễ thấy rằng: 1) Do A C nên    C i A iS u S u , từ ij 1c  ta có ij 1a  . 2) Do ij ij ij.c a b , nếu ij 0c  và ij 1b  thì ij 0a  3) Theo định nghĩa ma trận dung sai, nếu  j A iu S u thì ij 1a  , nếu  j A iu S u thì ij 1a  Mệnh đề 3.9 cho phép tính toán khoảng cách   ,D A A d dựa vào các ma trận dung sai đầu vào ij( ) n n M C c      , ij( ) n nM B b     . Trong trường hợp ma trận ij( ) n n M C c      chứa nhiều phần tử bằng 1 (Phủ sinh bởi C là thô) thì công thức tính   ,D A A d bởi Mệnh đề 3.9 là hiệu quả. 3.2.4. Thuật toán gia tăng filter-wrapper cập nhật tập rút gọn khi loại bỏ tập thuộc tính Dựa trên Mệnh đề 3.9, thuật toán gia tăng filter-wrapper tìm tập rút gọn trong bảng quyết định không đầy đủ sử dụng khoảng cách khi loại bỏ tập thuộc tính B như sau: Thuật toán IDS_IFW_DA: Thuật toán gia tăng filter- wrapper tìm tập rút gọn khi loại bỏ tập thuộc tính. Đầu vào: 1) Bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u , tập rút gọn R C , các ma trận dung sai  ( ) , ( )ij U ijn n n nM C c M d d         , khoảng cách   ,D C C d ; 2) Tập thuộc tính B loại bỏ khỏi C với B C ; 99 Đầu ra: Tập rút gọn 1R của     1 ,IDS U C B d   1) Trường hợp 1: Tập thuộc tính bị loại bỏ B không thuộc tập rút gọn (các thuộc tính dư thừa), tập rút gọn không thay đổi. Nếu B C R  thì Retturn (R); 2) Trường hợp 2: Tập thuộc tính bị loại bỏ B chứa tập rút gọn R, khi đó thực hiện lại thuật toán filter-wrapper IDS_FW_DAR ở Chương 2 tìm tập rút gọn. Nếu R B thì thực hiện thuật toán IDS_FW_DAR; 3) Trường hợp 3: Trường hợp còn lại B R , thực hiện các bước của thuật toán tìm tập rút gọn. Bước 1: Khởi tạo 1. Đặt : ;A C B  :T  ; // Chứa các ứng viên tập rút gọn 2. Tính ma trận dung sai ( ) ij n n M B b      , tính ma trận dung sai ij( ) n n M A a      bởi công thức trong Mệnh đề 3.9. 3. Đặt : ;R R B  //Xét các thuộc tính trong tập rút gọn Bước 2: Thực hiện thuật toán tìm tập rút gọn // Giai đoạn filter, tìm các ứng viên cho tập rút gọn xuất phát từ tập R. 4. While      , ,D R R d D A A d   do 5. Begin 6. For each a R do 7. Begin 8. Tính khoảng cách        ,D R a R a d   bởi công thức trong Mệnh đề 3.9; 9. Tính             , ,RSIG a D R a R a d D R R d      10. End; 11. Chọn ma R sao cho     R m R a R SIG a Min SIG a   ; 12.  : mR R a  ; 13. :T T R  ; 14. End; 100 // Giai đoạn Wrapper,tìm tập rút gọn có độ chính xác phân lớp cao nhất 15. Đặt :t T //t là số phần tử của T, T chứa các chuỗi thuộc tính được chọn, nghĩa là        1 1 2 1 , , ,..., ,..., ti i i i i T R a R a a R a a    ; 16. Đặt       1 1 2 11 2 , , ,..., ,..., ti i i t i i T R a T R a a T R a a      17. For j = 1 to t 18. Begin 19. Tính độ chính xác phân lớp trên jT bằng một bộ phân lớp sử dụng phương pháp 10-fold; 20. End 21. 1 : joR T với joT có độ chính xác phân lớp lớn nhất. 22. Return 1R ; Tiếp theo, ta đánh giá độ phức tạp của thuật toán IDS_IFW_DA. Ký hiệu , ,C U B tương ứng là số thuộc tính điều kiện, số đối tượng và số thuộc tính điều kiện xóa khỏi C. Trường hợp tốt nhất, thuật toán rơi vào Trường hợp 1, nghĩa là tập rút gọn không thay đổi. Trường hợp xấu nhất, thuật toán rơi vào Trường hợp 2, thực hiện lại thuật toán IDS_FW_DAR ở Chương 2 tìm tập rút gọn trên bảng quyết định sau khi xóa tập thuộc tính B với độ phức tạp là:    2 2* *O C B U O C B T   . Ta xét độ phức tạp trong trường hợp còn lại (Trường hợp 3). Xét vòng lặp While từ câu lệnh 4 đến 14, để tính  RSIG a ta phải tính        ,D R a R a d   vì   ,D R R d đã được tính ở bước trước. Độ phức tạp tính        ,D R a R a d   ở câu lệnh số 8 là   2 O U . Do đó, độ phức 101 tạp của vòng lặp While là  2 2*O R B U và độ phức tạp của giai đoạn filter là  2 2*O R B U . Độ phức tạp của giai đoạn wrapper phụ thuộc vào độ phức tạp của bộ phân lớp được sử dụng. Giả sử độ phức tạp của bộ phân lớp là  O T , khi đó độ phức tạp của giai đoạn wrapper là  *O R B T . Vì vậy, độ phức tạp của thuật toán IDS_IFW_DA là    2 2* *O R B U O R B T   . Nếu thực hiện thuật toán không gia tăng filter-wrapper trực tiếp trên bảng quyết định có số thuộc tính C B , độ phức tạp là    2 2* *O C B U O C B T   . Do đó, với Trường hợp 3 thì thuật toán IDS_IFW_DA hiệu quả. Nếu R càng nhỏ thì thuật toán IDS_IFW_DA càng hiệu quả. Nếu thuật toán rơi vào Trường hợp 2 (tính lại tập rút gọn) thì độ phức tạp thuật toán IDS_IFW_DA tương đương thuật toán IDS_FW_DAR ở chương 2. Còn nếu thuật toán rơi vào Trường hợp 1 thì thu được luôn tập rút gọn mà không phải tính toán gì cả. 3.2.5. Thực nghiệm và đánh giá các thuật toán Trong phần này trình bày kết quả thực nghiệm nhằm đánh giá tính hiệu quả của thuật toán gia tăng filter-wrapper IDS_IFW_AA đề xuất với thuật toán gia tăng filter UARA [83] về số lượng thuộc tính tập rút gọn và độ chính xác của mô hình phân lớp. UARA [83] là thuật toán gia tăng filter tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp bổ sung tập thuộc tính sử dụng miền dương. Việc thực nghiệm được thực hiện trên 06 tập dữ liệu mẫu lấy từ kho dữ liệu UCI [118] được mô tả ở Bảng 3.10, đây là các tập dữ liệu thiếu giá trị (missing value) trên miền giá trị thuộc tính điều kiện. Mỗi tập thuộc tính điều kiện được chia ngẫu nhiên thành hai phần: tập thuộc tính ban đầu (cột 4 Bảng 3.10) ký hiệu là C0, và tập thuộc tính gia tăng (cột 5 Bảng 3.10). Tập thuộc tính gia tăng được chia ngẫu nhiên thành 5 phần bằng nhau, ký hiệu tương ứng là C1, C2, C3, C4, C5. 102 Bảng 3.10. Bộ dữ liệu thực nghiệm của thuật toán IDS_IFW_AA STT Tập dữ liệu Số đối tượng Số thuộc tính điều kiện Số thuộc tính ban đầu Số thuộc tính gia tăng Số lớp quyết định (1) (2) (3) (6) (4) (5) (7) 1 Audiology 226 69 34 35 24 2 Soybean -large 307 35 20 15 2 3 Cong. Voting Records 435 16 6 10 2 4 Arrhythmia 452 279 139 140 16 5 Anneal 798 38 18 20 6 6 Advers. 3279 1558 778 780 2 Để tiến hành thực nghiệm hai thuật toán IDS_IFW_AA và UARA, trước hết ta thực hiện hai thuật toán trên tập dữ liệu với tập thuộc tính ban đầu (coi tập thuộc tính ban đầu là tập gia tăng). Tiếp theo, thực hiện hai thuật toán khi lần lượt bổ sung từ phần thứ nhất đến phần thứ năm của tập thuộc tính gia tăng. Với các thuật toán filter-wrapper, việc lựa chọn bộ phân lớp trong giai đoạn wrapper sẽ ảnh hưởng đến kết quả thực hiện của thuật toán về thời gian thực hiện và độ chính xác phân lớp. Tuy nhiên, việc lựa chọn bộ phân lớp sẽ không ảnh hưởng đến kết quả so sánh, đánh giá giữa các thuật toán khác vì chúng đều thực hiện trên một bộ phân lớp cụ thể. Do đó, ta sử dụng bộ phân lớp C4.5 để tính độ chính xác phân lớp của hai thuật toán và phương pháp kiểm tra chéo 10-fold. Sở dĩ ta chọn bộ phân lớp C4.5 vì đây là bộ phân lớp thông dụng, được sử dụng phổ biến trong các nghiên cứu khác khi so sánh, đánh giá các phương pháp rút gọn thuộc tính. Công cụ thực hiện thử nghiệm là Matlab R2016a. Môi trường thử nghiệm là máy tính PC với cấu hình Intel(R) Core(TM) 2 i3-2120 CPU, 3.3 GHz và 4 GB bộ nhớ. 103 Bảng 3.11 trình bày kết quả so sánh về số lượng thuộc tính tập rút gọn (ký hiệu là R ) và độ chính xác phân lớp của hai thuật toán IDS_IFW_AA và UARA. Kết quả Bảng 3.11 cho thấy, với mỗi bước lặp khi bổ sung tập dữ liệu gia tăng và trên toàn bộ tập dữ liệu, độ chính xác phân lớp của IDS_IFW_AA cao hơn UARA một chút trên tất cả các tập dữ liệu. Hơn nữa, số thuộc tính tập rút gọn của IDS_IFW_AA nhỏ hơn khá nhiều UARA, đặc biệt trên tập rút gọn có số thuộc tính lớn như Arrhythmia, Advertisements. Do đó, thời gian thực hiện và tính khái quát hóa của tập luật phân lớp trên tập rút gọn của IDS_IFW_AA tốt hơn so với UARA. Bảng 3.11. Số lượng thuộc tính tập rút gọn và độ chính xác phân lớp của thuật toán IDS_IFW_AA và UARA STT Tập dữ liệu Tập thuộc tính Số thuộc tính Tổng số thuộc tính IDS_IFW_AA UARA R Độ chính xác R Độ chính xác 1 Audiology 0C 34 34 4 64.26 8 62.18 1C 7 41 5 68.19 9 65.17 2C 7 48 5 68.19 10 69.26 3C 7 55 6 72.36 12 72.35 4C 7 62 7 78.26 14 74.18 5C 7 69 7 78.26 15 78.02 2 Soybean – large 0C 20 20 4 82.34 8 81.16 1C 3 23 4 82.34 8 81.16 2C 3 26 5 86.92 9 82.08 3C 3 29 5 86.92 10 85.14 4C 3 32 7 90.27 11 90.26 5C 3 35 8 92.85 12 92.18 104 STT Tập dữ liệu Tập thuộc tính Số thuộc tính Tổng số thuộc tính IDS_IFW_AA UARA R Độ chính xác R Độ chính xác 3 Cong. Voting Records 0C 6 6 4 81.36 5 81.04 1C 2 8 5 86.24 7 85.52 2C 2 10 6 89.18 8 89.18 3C 2 12 6 89.18 9 89.18 4C 2 14 7 91.15 11 90.29 5C 2 16 8 94.06 12 93.68 4 Arrhythmia 0C 139 139 5 62.14 9 62.86 1C 28 167 6 69.27 14 68.15 2C 28 195 7 70.48 16 69.84 3C 28 223 7 70.48 17 69.84 4C 28 251 9 71.37 24 70.92 5C 28 279 10 76.24 25 75.68 5 Anneal 0C 18 18 3 68.24 5 68.24 1C 4 22 4 72.46 7 71.62 2C 4 26 4 72.46 7 71.62 3C 4 30 5 79.88 8 76.85 4C 4 34 6 86.13 9 85.19 5C 4 38 7 91.28 10 90.84 6 Advers. 0C 778 778 9 71.18 15 70.68 1C 156 934 12 76.64 22 72.85 2C 156 1090 15 79.14 29 78.94 3C 156 1246 19 86.18 35 83.17 4C 156 1402 20 89.24 38 86.26 5C 156 1558 21 92.85 44 91.46 Bảng 3.12 trình bày kết quả so sánh thời gian thực hiện hai thuật toán IDS_IFW_AA và UARA (tính bằng giây - s). Kết quả Bảng 3.12 cho thấy, 105 thời gian thực hiện của IDS_IFW_AA cao hơn UARA trên tất cả các tập dữ liệu, nguyên nhân là IDS_IFW_AA mất thêm chi phí thời gian thực hiện bộ phân lớp trong giai đoạn wrapper, đây cũng là nhược điểm chung của các thuật toán theo tiếp cận filter-wrapper. Bảng 3.12. Thời gian thực hiện của thuật toán IDS_IFW_AA và UARA (s) STT Tập dữ liệu Tập thuộc tính Số thuộc tính Tổng số thuộc tính IFWA_ IDS _AA UARA Thời gian Tổng thời gian Thời gian Tổng thời gian 1 Audiology 0C 34 34 5.36 5.36 4.28 4.28 1C 7 41 0.48 5.84 0.39 4.67 2C 7 48 0.45 6.29 0.41 5.08 3C 7 55 0.52 6.81 0.38 5.46 4C 7 62 0.44 7.25 0.39 5.85 5C 7 69 0.59 7.84 0.34 6.19 2 Soybean – large 0C 20 20 2.84 2.84 2.18 2.18 1C 3 23 0.14 2.98 0.36 2.54 2C 3 26 0.21 3.19 0.22 2.76 3C 3 29 0.16 3.35 0.15 2.91 4C 3 32 0.33 3.68 0.21 3.12 5C 3 35 0.28 3.96 0.16 3.28 3 Cong. Voting Records 0C 6 6 4.12 4.12 3.08 3.08 1C 2 8 0.54 4.66 0.54 3.62 2C 2 10 0.32 4.98 0.43 4.05 3C 2 12 0.63 5.61 0.54 4.59 4C 2 14 0.51 6.12 0.53 5.12 5C 2 16 0.72 6.84 0.56 5.68 4 Arrhythmia 0C 139 139 24.68 24.68 20.78 20.78 1C 28 167 3.04 27.72 2.06 22.84 2C 28 195 3.24 30.96 2.33 25.17 3C 28 223 3.69 34.65 2.89 28.06 4C 28 251 2.07 36.72 2.06 30.12 5C 28 279 2.12 38.84 1.16 31.28 106 STT Tập dữ liệu Tập thuộc tính Số thuộc tính Tổng số thuộc tính IFWA_ IDS _AA UARA Thời gian Tổng thời gian Thời gian Tổng thời gian 5 Anneal 0C 18 18 6.84 6.84 5.19 5.19 1C 4 22 0.48 7.32 0.55 5.74 2C 4 26 0.43 7.75 0.55 6.29 3C 4 30 0.44 8.19 0.53 6.82 4C 4 34 0.45 8.64 0.36 7.18 5C 4 38 0.42 9.06 0.24 7.42 6 Advers. 0C 778 778 77.24 77.24 68.35 68.35 1C 156 934 6.51 83.75 4.54 72.89 2C 156 1090 6.09 89.84 5.35 78.24 3C 156 1246 6.13 95.97 4.94 83.18 4C 156 1402 5.26 101.23 4.58 87.76 5C 156 1558 5.55 106.78 4.52 92.28 3.3. Kết luận chương 3 Trong Chương 3, luận án trình bày kết quả xây dựng các công thức gia tăng tính khoảng cách đề xuất ở Chương 2 trong trường hợp bổ sung, loại bỏ tập đối tượng và bổ sung, loại bỏ tập thuộc tính. Dựa vào các công thức gia tăng được xây dựng, luận án trình bày kết quả đề xuất bốn thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ thay đổi theo tiếp cận filter- wrapper: 1) Thuật toán gia tăng filter-wrapper IDS_IFW_AO tìm tập rút gọn trong trường hợp bổ sung tập đối tượng. 2) Thuật toán filter-wrapper IDS_IFW_DO tìm tập rút gọn trong trường hợp loại bỏ tập đối tượng. 3) Thuật toán gia tăng filter-wrapper IDS_IFW_AA tìm tập rút gọn trong trường hợp bổ sung tập thuộc tính. 107 4) Thuật toán gia tăng filter-wrapper IDS_IFW_DA tìm tập rút gọn trong trường hợp loại bỏ tập thuộc tính. Luận án tiến hành thực nghiệm hai thuật toán đề xuất IDS_IFW_AO, IDS_IFW_AA trên các bộ dữ liệu mẫu từ kho dữ liệu UCI [118] để đánh giá tính hiệu quả của thuật toán gia tăng đã đề xuất. Trong trường hợp bổ sung tập đối tượng, thuật toán gia tăng filter- wrapper đề xuất IDS_IFW_AO hiệu quả hơn thuật toán không gia tăng filter- wrapper IDS_FW_DAR (được trình bày ở Chương 2) về thời gian thực hiện. Với hướng tiếp cận truyền thống filter, số lượng thuộc tính tập rút gọn của thuật toán IDS_IFW_AO nhỏ hơn đáng kể thuật toán filter IARM-I [86], hơn nữa độ chính xác phân lớp của thuật toán IDS_IFW_AO cao hơn so với IARM-I. Do đó, mô hình phân lớp trên tập rút gọn của thuật toán IDS_IFW_AO hiệu quả hơn so với các thuật toán filter khác. Tuy nhiên, thuật toán IDS_IFW_AO phải mất thêm chi phí về thời gian thực hiện do phải thực hiện các bộ phân lớp. Trong trường hợp bổ sung tập thuộc tính, số lượng thuộc tính tập rút gọn của thuật toán gia tăng filter-wrapper IDS_IFW_AA cũng nhỏ hơn đáng kể thuật toán gia tăng filter UARA [83]. Hơn nữa, độ chính xác phân lớp của thuật toán IDS_IFW_AA cũng cao hơn so với UARA. Với trường hợp này, mô hình phân lớp trên tập rút gọn của thuật toán IDS_IFW_AA cũng hiệu quả hơn so với các thuật toán filter khác. Tuy nhiên, thuật toán IDS_IFW_AA cũng phải trả giá về thời gian thực hiện do phải thực hiện các bộ phân lớp. 108 KẾT LUẬN A. Các kết quả đạt được của luận án Luận án nghiên cứu hướng tiếp cận kết hợp filter-wrapper tìm tập rút gọn của bảng quyết định không đầy đủ nhằm giảm thiểu số lượng thuộc tính tập rút gọn, từ đó giảm thiểu độ phức tạp của mô hình phân lớp. Kết quả chính của luận án bao gồm: 1. Xây dựng một độ đo khoảng cách mới và đề xuất thuật toán theo tiếp cận kết hợp filter-wrapper IDS_FW_DAR tìm tập rút gọn của bảng quyết định không đầy đủ sử dụng độ đo khoảng cách. 2. Xây dựng các công thức gia tăng tính khoảng cách mới và đề xuất 04 thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp bảng quyết định bổ sung, loại bỏ tập đối tượng và tập thuộc tính (các thuật toán IDS_IFW_AO, IDS_IFW_DO, IDS_IFW_AA, IDS_IFW_DA) 3. Cài đặt, thử nghiệm, so sánh, đánh giá các thuật toán đề xuất với các thuật toán khác đã công bố trên các tập dữ liệu mẫu từ kho dữ liệu UCI [118]. Kết quả thử nghiệm trên các bộ số liệu mẫu từ kho dữ liệu UCI [118] cho thấy, các thuật toán đề xuất theo tiếp cận filter-wrapper IDS_FW_DAR đề xuất giảm thiểu đáng kể số lượng thuộc tính tập rút gọn so với các thuật toán filter khác. Hơn nữa, các thuật toán gia tăng filter-wrapper duy trì và nâng cao độ chính xác của mô hình phân lớp so với các thuật toán gia tăng filter. Do đó, các thuật toán filter-wrapper đề xuất giảm thiểu đáng kể độ phức tạp của mô hình phân lớp. Tuy nhiên, nhược điểm chung của các thuật toán filter-wrapper đề xuất là mất thêm chi phí về thời gian thực hiện các bộ phân lớp so với các thuật toán filter khác. Với mục tiêu nâng cao hiệu quả của mô hình phân lớp thì nhược điểm này có thể chấp nhận được vì rút gọn thuộc tính chỉ là bước tiền xử lý trong quá trình xây dựng các mô hình khai phá dữ liệu. 109 B. Những đóng góp mới của luận án 1. Xây dựng một độ đo khoảng cách mới và đề xuất thuật toán theo tiếp cận kết hợp filter-wrapper IDS_FW_DAR tìm tập rút gọn của bảng quyết định không đầy đủ sử dụng độ đo khoảng cách. 2. Xây dựng các công thức gia tăng tính khoảng cách mới và đề xuất 04 thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp bảng quyết định bổ sung, loại bỏ tập đối tượng và tập thuộc tính (các thuật toán IDS_IFW_AO, IDS_IFW_DO, IDS_IFW_AA, IDS_IFW_DA). C. Hướng nghiên cứu tiếp theo 1. Triển khai các thuật toán đề xuất vào việc giải quyết các lớp bài toán trong thực tiễn, đặc biệt các bài toán có dữ liệu với số thuộc tính lớn (high dimention data) trong các lĩnh vực khác nhau như dữ liệu gen trong tin sinh học 2. Tiếp tục nghiên cứu, đề xuất các thuật toán gia tăng filter-wrapper hiệu quả nhằm giảm thiểu thời gian thực hiện dựa trên các mô hình tập thô mở rộng khác phù hợp với các lớp bài toán trong thực tiễn. 110 DANH MỤC CÁC CÔNG TRÌNH KHOA HỌC ĐÃ CÔNG BỐ 1 Nguyen Ba Quang, Nguyen Long Giang, Dang Thi Oanh “A Distance based Incremental Filter-Wrapper Algorithm for Fingding Reduct in Incomplete Decision Tables”, Vietnam Journal of Science and Technology - Vietnam Academy of Science and Technology, Vol 57, No 4, 2019, pp. 499-512. 2 Nguyễn Bá Quảng, Nguyễn Long Giang, Trần Thanh Đại, Nguyễn Ngọc Cương, “Phương pháp Filter-Wrapper rút gọn thuộc tính trong bảng quyết định không đầy đủ sử dụng khoảng cách”, Kỷ yếu Hội thảo quốc gia lần thứ XXII: Một số vấn đề chọn lọc của Công nghệ thông tin và truyền thông, Thái Bình, 28-29/06/2019, Tr. 246-252. 3 Nguyễn Bá Quảng, Nguyễn Long Giang, Nguyễn Thị Lan Hương, Nguyễn Ngọc Cương, “Phương pháp gia tăng rút gọn thuộc tính trong bảng quyết định không đầy đủ sử dụng khoảng cách”, Kỷ yếu Hội thảo quốc gia lần thứ XXII: Một số vấn đề chọn lọc của Công nghệ thông tin và truyền thông, Thái Bình, 28-29/06/2019, Tr. 253-259. 4 Phạm Minh Ngọc Hà, Nguyễn Long Giang, Nguyễn Văn Thiện, Nguyễn Bá Quảng, “Về một thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ”, Chuyên san các công trình nghiên cứu phát triển CNTT&TT, Tạp chí Công nghệ thông tin và truyền thông - Bộ TT&TT, Tập 2019, Số 1, Tháng 9, Tr. 11-18. 5 Nguyễn Bá Quảng, Nguyễn Long Giang, “Về một thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp bổ sung tập thuộc tính”, Tạp chí Nghiên cứu KH&CN Quân sự, Số 63, 10-2019, Tr. 171-183. 111 TÀI LIỆU THAM KHẢO Tiếng Việt: [1] Vũ Văn Định, “Rút gọn thuộc tính trong bảng quyết định không đầy đủ theo tiếp cận tập thô dung sai”, Luận án Tiến sĩ Toán học, Học viện Khoa học và Công nghệ, Viện Hàn lâm Khoa học và Công nghệ Việt Nam, 2016. [2] Nguyễn Thị Lan Hương, “Rút gọn thuộc tính trong bảng quyết định động theo tiếp cận tập thô”, Luận án Tiến sĩ Toán học, Học viện Khoa học và Công nghệ-Viện Hàn lâm Khoa học và Công nghệ Việt Nam, 2016. [3] Nguyễn Văn Thiện, “Một số phương pháp lai ghép trong rút gọn thuộc tính theo tiếp cận tập thô mờ”, Luận án Tiến sĩ Máy tính, Học viện Khoa học và Công nghệ, Viện Hàn lâm Khoa học và Công nghệ Việt Nam, 2018. [4] Nguyễn Văn Thiện, Nguyễn Long Giang, Nguyễn Như Sơn, “Phương pháp gia tăng rút gọn thuộc tính trong bảng quyết định sử dụng khoảng cách mờ”, Hội thảo Quốc gia lần thứ XXI - Một số vấn đề chọn lọc của CNTT và TT, Thanh Hóa, 27-28/07/2018, Tr. 296- 302. Tiếng Anh: [5] A.K. Das, S. Sengupta, S. Bhattacharyya, “A Group Incremental Feature Selection for Classification using Rough Set Theory based Genetic Algorithm”, Applied Soft Computing 65, pp. 400-411, 2018. [6] A.P. Zeng, T.R. Li, D. Liu, J.B. Zhang, H.M. Chen, “A fuzzy rough set approach for incremental feature selection on hybrid information systems”, Fuzzy Sets and Systems, Volume 258, pp. 39-60, 1 January 2015. [7] A.P. Zeng , T.R. Li, J. Hu, H.M. Chen, Chuan Luo, “Dynamical updating fuzzy rough approximations for hybrid data under the variation of attribute values”, Information Sciences 000, pp. 1-26, 2016. 112 [8] Cao Chinh Nghia, Demetrovics Janos, Nguyen Long Giang, Vu Duc Thi, “About a fuzzy distance between two fuzzy partitions and attribute reduction problem”, Cybernetics and Information Technologies, Vol 16, No 4, pp. 13-28, 2016. [9] C. C. Zhang, J. H. Dai, “An incremental attribute reduction approach based on knowledge granularity for incomplete decision systems”, Granular Computing, pp. 1-15, 2019. [10] C.J. Yang, H. Ge, L.S. Li, J. Ding, “A unified incremental reduction with the variations of the object for decision tables”, Soft Computing, Vol. 23, Iss. 15, pp. 64076427, 2019. [11] C. Luo, T. R. Li and H. M. Chen, “Dynamic maintenance of approximations in setvalued ordered decision systems under the attribute generalization”, Information Sciences 257, pp. 210 - 228, 2014. [12] C. Luo, T.R. Li, H.M. Chen, H. Fujita, Z. Yi, “Efficient updating of probabilistic approximations with incremental objects”, Knowledge-Based Systems 109, pp. 71-83, 2017. [13] C. Luo, T.R. Li, Y. Yao, “Dynamic probabilistic rough sets with incomplete data”, Information Sciences 417, pp. 39–54, 2017. [14] C. Luo, T.R. Li, Y.Y. Huang, H. Fujita, “Updating three-way decisions in incomplete multi-scale information systems”, Information Sciences 476, pp. 274-289, 2019. [15] C.X. Hu, S.X. Liu, G.X. Liu, “Matrix-based approaches for dynamic updating approximations in multigranulation rough sets”, Knowl Based Syst 122, pp. 51-63, 2017. [16] C.Z. Wang, Y. Qi, Q. He, Attribute reduction using distance-based fuzzy rough sets, 2015 International Conference on Machine Learning and Cybernetics , IEEE, 2015. [17] C.Z. Wang, Y.Huang, M.W. Shao, X.D.Fan, Fuzzy rough set-based attribute reduction using distance measures, Knowledge-Based Systems, Volume 164, 15 January 2019, pp. 205-212. 113 [18] D.D. Zhang, R.P. Li, X.T. Tang, Y.S. Zhao, “An incremental reduct algorithm based on generalized decision for incomplete decision tables”, IEEE 3rd International Conference on Intelligent System and Knowledge Engineering, pp. 340-344, 2008. [19] Demetrovics Janos, Nguyen Thi Lan Huong, Vu Duc Thi, Nguyen Long Giang, “Metric Based Attribute Reduction Method in Dynamic Decision Tables”, Cybernetics and Information Technologies, Vol.16, No.2, pp. 3- 15, 2016. [20] D.G. Chen, Y. Yang, Z. Dong, “An incremental algorithm for attribute reduction with variable precision rough sets”, Appl. Soft Comput., vol. 45, pp. 129-149, 2016. [21] D. Liu, T.R. Li, D. Ruan, W.L. Zou, “An incremental approach for inducing knowledge from dynamic information systems”, Fundam. Inform. 94, pp. 245-260, 2009. [22] D. Liu, T.R. Li, G.R. Liu, P. Hu, “An incremental approach for inducing interesting knowledge based on the change of attribute values”, in: Proceedings of the2009 IEEE International Conference on Granular Computing, Nanchang, China, pp.415–418, 2009. [23] D. Liu, T.R. Li, J.B. Zhang, “A rough set-based incremental approach for learning knowledge in dynamic incomplete information systems”, International Journal of Approximate Reasoning 55, pp. 1764-1786, 2014. [24] D. Liu, T.R. Li, J.B. Zhang, “Incremental updating approximations in probabilistic rough sets under the variation of attributes”, Knowledge- Based Systems 73, pp. 81-96, 2015. [25] D.X. Peng, X.D. Hong, “Research on Heuristic Knowledge Reduction Algorithm for Incomplete Decision Table”, IEEE International Conference on Internet Technology and Applications, 2010. [26] D. Yue, Z. Xu, C.D. Mei, W.Y. Mei, “Analysis of Attribute Reduction of Incomplete Decision Table Based on Information Entropy”, 8th International Conference on Intelligent Computation Technology and Automation (ICICTA), 2015. 114 [27] F. Hu, G. Wang, H. Huang, “Incremental attribute reduction based on elementary sets”, International Conference on Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, Springer-Verlag, pp.185-193, 2005. [28] F.M. Ma, J.W. Chen, W. Han, “A Positive Region Based Incremental Attribute Reduction Algorithm for Incomplete System”, International Conference on Electronic Information Technology and Intellectualization (ICEITI 2016), pp. 153-158, 2016. [29] F.M. Ma, T.F. Zhang, “Generalized binary discernibility matrix for attribute reduction in incomplete information systems”, The Journal of China Universities of Posts and Telecommunications, Volume 24, Issue 4, pp. 57-75, 2017. [30] F.M. Ma, M.W. Ding , T.F. Zhang, J. Cao, “Compressed binary discernibility matrix based incremental attribute reduction algorithm for group dynamic data”, Neurocomputing, 2019. [31] F. Wang, J.Y. Liang, C.Y. Dang, “Attribute reduction for dynamic data sets”, Applied Soft Computing, 13(1), pp. 676-689, 2013. [32] F. Wang, J.Y. Liang, Y.H. Qian, “Attribute reduction: A dimension incremental strategy”, Knowledge-Based Systems, Volume 39, pp. 95- 108, 2013. [33] G. Hao, L.L. Shu, Y.C. jian, D. Jian, “Incremental reduction algorithm with acceleration strategy based on conflict region”, Artif Intell Rev, Springer, 2017. [34] G.M. Lang, D.Q. Miao, T. Yang, M.J. Cai, “Knowledge reduction of dynamic covering decision information systems when varying covering cardinalities”, Information Sciences 346-47, pp. 236-260, 2016. [35] G.M. Lang, Q. Li, M.J. Cai, T. Yang, Q.M. Xiao, Incremental approaches to knowledge reduction based on characteristic matrices, Int. J. Mach. Learn. Cybern. 8 (1) pp. 203-222, 2017. [36] G.M. Lang, D.Q. Miao , M.J. Cai, Z.F. Zhang, “ Incremental approaches for updating reducts in dynamic covering information systems, Knowledge Based Systems 134, pp. 85..104, 2017. 115 [37] G.M. Lang, M.J. Cai, H. Fujita, Q.M. Xiao, “Related families- based attribute reduction of dynamic covering decision information systems”, Knowledge-Based Systems, Volume 162, 15 December, pp. 161-173, 2018. [38] G. Q. Wang, “Valid Incremental Attribute Reduction Algorithm Based on Attribute Generalization for an Incomplete Information System”, Chinese Journal of Electronics, Vol.28, No.4, 2019. [39] Guyon, Isabelle; Elisseeff, André, “An Introduction to Variable and Feature Selection”, Journal of Machine Learning Research, pp. 1157- 1182, 2003. [40] H. Liu, L. Yu, “Toward integrating feature selection algorithms for classification and clustering”, IEEE Transactions on knowledge and data engineering, 17(4), pp. 491-502, 2005. [41] H.M. Chen, T.R. Li, S.J. Qiao, D. Ruan, “A rough set based dynamic maintenance approach for approximations in coarsening and refining attribute values”, Int. J. Intell. Syst. 25, pp. 1005-1026, 2010. [42] H.M. Chen, T.R. Li, R. Da, “Maintenance of approximations in incomplete ordered decision systems while attribute values coarsening or refining”, Knowl.-Based Syst. 31, pp. 140-161, 2012. [43] H.M. Chen, T.R. Li, R. Da, et al., “A rough-set-based incremental approach for updating approximations under dynamic maintenance environments”, IEEE Trans. Knowl. Data Eng. 25, pp. 274-284, 2013. [44] H. M. Chen, T. R. Li, D. Ruan, J. H. Lin and C. X. Hu, “A rough-set based incremental approach for updating approximations under dynamic maintenance environments”, IEEE Transactions on Knowledge and Data Engineering. 25 (2), 274 - 284, 2013. [45] H.S. Zou, C.S. Zhang, “Efficient Algorithm for Knowledge Reduction in Incomplete Information System”, Journal of Computational Information Systems 8: 6, pp. 2531–2538, 2012. [46] Huyen Tran, Thinh Cao, Koichi Yamada, Do Van Nguyen, “Incremental Updating Methods with Three-way Decision Models in Incomplete 116 Information Systems”, IEEE Joint 10th International Conference on Soft Computing and Intelligent Systems, pp. 27-32, 2018. [47] H.X. Li, X.H. Zhou, M.M. Zhu, “A Heuristic Reduction Algorithm in IIS Based on Binary Matrix”, RSKT, pp. 143-150, 2010. [48] H. Zhao, K.Y. Qin, “Mixed feature selection in incomplete decision table” Knowledge-Based Systems, Volume 57, pp. 181-190, 2014. [49] J.C. Xu, L. Sun, “Knowledge Entropy and Feature Selection in Incomplete Decision Systems,” Applied Mathematics & Information Sciences, vol. 7, no. 2, pp. 829-837, 2013. [50] J.H. Dai, W.T. Wang, H.W. Tian, L. Liu, “Attribute selection based on a new conditional entropy for incomplete decision systems”, Knowledge- Based Systems, Volume 39, pp. 207-213, 2013. [51] J. Hu, K. Wang, H. Yu, “Attribute Reduction on Distributed Incomplete Decision Information System”, IJCRS 2017, pp 289-305, 2017. [52] J. Qian, C.Y. Dang, X.D. Yue, N. Zhang, “Attribute reduction for sequential three-way decisions under dynamic granulation”, International Journal of Approximate Reasoning 85(2017) 196-216. [53] J. Xie, X.F. Shen, H.F. Liu, X.Y. Xu, “Research on an Incremental Attribute Reduction Based on Relative Positive Region”, Journal of Computational Information Systems 9:16, pp. 6621-6628, 2013. [54] J.Y. Liang, R. Li, Y. H. Qian, “Distance: A more comprehensible perspective for measures in rough set theory”, Knowledge-Based Systems, Volume 27, pp. 126-136, 2012. [55] J.Y. Liang, F. Wang, C.Y. Dang, Y.H. Qian, “A group incremental approach to feature selection applying rough set technique”, IEEE Transactions on Knowledge and Data Engineering, 26(2), pp. 294-308, 2014. [56] J. Yu, L. Sang, H. Dong, “Based on Attribute Order for Dynamic Attribute Reduction in the Incomplete Information System”, IEEE IMCEC 2018, pp. 2475-2478, 2018. 117 [57] J. Zhou, E. Xu, Y.H. Li, Z. Wang, Z.X. Liu, X.Y. Bai , “A New Attribute Reduction Algorithm Dealing With The Incomplete Information System”, 2009 International Conference on Cyber-Enabled Distributed Computing and Knowledge Discovery, 2009. [58] J. Zhang, T. Li, D. Ruan, “Rough sets based matrix approaches with dynamic attribute variation in set-valued information systems”, Int. J. Approx. Reason, Vol.53, pp. 620-635, 2012. [59] L.H Guan, “An incremental updating algorithm of attribute reduction set in decision tables”, FSKD'09 Proceedings of the 6th international conference on Fuzzy systems and knowledge discovery, Vol 2, pp. 421- 425, 2009. [60] L.N. Wang , X. Yang , Y. Chen , L. Liu , S.Y. An , P. Zhuo , “Dynamic composite decision-theoretic rough set under the change of attributes”, Int. J. Comput. Intell.Syst. 11 (2018) 355–370 . [61] Long Giang Nguyen, “Metric Based Attribute Reduction in Decision Tables”, Federated Conference on Computer Science and Information System (FEDCSIS), Wroclaw, Poland, IEEE, pp. 311-316, 2012. [62] Long Giang Nguyen, Hung Son Nguyen, “Metric Based Attribute Reduction in Incomplete Decision Tables”, Proceedings of 14th International Conference, Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, RSFDGrC 2013, Halifax, NS, Canada, Lecture Notes in Computer Science, SpingerLink, Vol. 8170, pp. 99-110, 2013. [63] Long Giang Nguyen, Thien Nguyen, Nhu Son Nguyen , “Fuzzy Partition Distance based Attribute Reduction in Decision Tables”, IJCRS 2018: International Joint Conference on Rough Sets 2018, LNCS, Vol. 11103, Springer Link, 2018, pp. 614-627. [64] L. Sun, J.C. Xu, Y. Tian, “Feature selection using rough entropy-based uncertainty measures in incomplete decision systems”, Knowledge-Based Systems, Volume 36, pp. 206-216, 2012. [65] M.J. Cai, Q.G. Li, J.M. Ma, “Knowledge reduction of dynamic covering decision information systems caused by variations of attribute values”, 118 International Journal of Machine Learning and Cybernetics 8(4), pp. 1131-1144, 2017. [66] M.J. Cai, G.M. Lang, H. Fujita, Z.Y. Li, T. Yang, Incremental approaches to updating reducts under dynamic covering granularity, Knowledge-Based Systems, 2019. [67] M. Kryszkiewicz (1998), “Rough set approach to incomplete information systems”, Information Science, Vol. 112, pp. 39-49. [68] M.S. Raza,U. Qamar, “An incremental dependency calculation technique for feature selection using rough sets”, Information Sciences 343–344, pp. 41–65, 2016. [69] Nguyen Long Giang, Vu Van Dinh, Relationships Among the Concepts of Reduct in Incomplete Decision Tables, Frontiers in Artificial Intelligence and Applications (FAIA), Volume 252: Advanced Methods and Technologies for Agent and Multi-Agent Systems, IOS Press, 2013, pp. 417-426. [70] Nguyen Thi Lan Huong, Nguyen Long Giang, “Incremental algorithms based on metric for finding reduct in dynamic decision tables”, Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9 (13), pp. 26-39, 2016. [71] R.P. Li, D.D. Zhang, Y.S. Zhao, X.T. Tang, “Incremental Core Computing for Incomplete Decision Tables, International Symposium on Computational Intelligence and Design”, IEEE ISCID, pp. 270-273, 2008. [72] Sai Prasad P.S.V.S, Raghavendra Rao Chillarige, Novel Granular Framework for Attribute Reduction in Incomplete Decision Systems, Multi-disciplinary Trends in Artificial In Artificial Intelligence, 2012. [73] S. Li, T. Li, D. Liu, “Incremental updating approximations in dominance-based rough sets approach under the variation of the attribute set”, Knowledge-Based Systems, Vol.40, pp. 17-26, 2013. [74] S. Li, T. Li, “Incremental update of approximations in dominance-based rough sets approach under the variation of attribute values”, Inf. Sci. 294, pp.348-361, 2015. 119 [75] S. Wang , T. Li , C. Luo , H. Fujita , Efficient updating rough approximations with multi-dimensional variation of ordered data, Inf. Sci. 372, pp. 690-708, 2016. [76] T.R. Li, D. Ruan, W. Geert, J. Song, Y. Xu, A rough sets based characteristic relation approach for dynamic attribute generalization in data mining, Knowl.-Based Syst. 20, pp. 485-494, 2007. [77] Vu Van Dinh, Nguyen Long Giang, Duc Thi Vu, Generalized Discernibility Function based Attribute Reduction in Incomplete Decision Systems, Serdica Journal of Computing 7 (2013), Institute of Mathematics and Informatics, Bulgarian Academy of Sciences, No 4, 2013, pp. 375-388. [78] Vu Van Dinh, Vu Duc Thi, Ngo Quoc Tao, Nguyen Long Giang, “Partition Distance Based Attribute Reduction in Incomplete Decision Tables”, Journal on Information Communications Technology, Research and Development on Information & Communications Technology, Vol. V-2, No. 14(34), pp. 23-32, 12-2015. [79] W.B. Qian, W.H. Shu, “Mutual information criterion for feature selection from incomplete data”, Neurocomputing, Volume 168, pp. 210- 220, 2015. [80] W.D. Tan, E. Xu, F. Shi, Y.C. Ren, L.J. Fan, “A Novel Method of Attribute Reduction for Incomplete Information System”, IEEE International Conference on Innovative Computing and Communication, pp. 352-354, 2010. [81] W.H. Shu, H. Shen, “Incremental Attribute Reduction in Incomplete Decision systems”, IEEE Fifth International Symposium on Parallel Architectures, Algorithms and Programming, pp. 250-254, 2012. [82] W.H. Shu, H. Shen, “A rough-set based incremental approach for updating attribute reduction under dynamic incomplete decision systems”, IEEE International Conference on Fuzzy Systems (FUZZ-IEEE), pp. 1-7, 2013. 120 [83] W.H. Shu, H. Shen, “Updating attribute reduction in incomplete decision systems with the variation of attribute set”, International Journal of Approximate Reasoning, vol. 55, no.3, pp. 867-884, 2014. [84] W.H. Shu, H. Shen, “Incremental feature selection based on rough set in dynamic incomplete data”, Pattern Recognition 47, pp.3890-3906, 2014. [85] W.H. Shu, W.B. Qian, “A fast approach to attribute reduction from perspective of attribute measures in incomplete decision systems”, Knowledge-Based Systems, V.72, pp. 60-71, 2014. [86] W.H. Shu, W.B. Qian, “An incremental approach to attribute reduction from dynamic incomplete decision systems in rough set theory”, Data & Knowledge Engineering 100, pp. 116-132, 2015. [87] W.H. Shua, W.B. Qian, Y.H. Xie, “Incremental approaches for feature selection from dynamic data with the variation of multiple objects”, Knowledge-Based Systems, Volume 163, pp. 320-331, 2019. [88] W.J. Liu, “An incremental approach to obtaining attribute reduction for dynamic decision systems”, Open Math 2016, 14, pp. 875–888, 2016. [89] W. Wei, P. Song, J.Y. Liang, X.Y. Wu, “Accelerating incremental attribute reduction algorithm by compacting a decision table”, International Journal of Machine Learning and Cybernetics, Springer, 2018. [90] W. Wei, X.Y. Wu, J.Y. Liang, J.B. Cui, Y.J. Sun, “Discernibility matrix based incremental attribute reduction for dynamic data”, Knowledge- Based Systems, Volume 140, pp. 142-157, 15 January 2018. [91] X. Guo, Y.Z. Xiang, L. Shu, “An Information Quantity-Based Uncertainty Measure to Incomplete Numerical Systems”, International Conference on Fuzzy Information & Engineering, pp. 23-29, 2019. [92] X.J. Xie, X. L. Qin, “A novel incremental attribute reduction approach for dynamic incomplete decision systems”, International Journal of Approximate Reasoning 93, pp. 443-462, 2018. [93] X.P. Dai, D.H. Xiong, “Research on Heuristic Knowledge Reduction Algorithm for Incomplete Decision Table”, IEEE 121 2010 International Conference on Internet Technology and Applications, pp. 1-3, 2010. [94] Xu E, Y.Q. Yang, Y.C. Ren, “A New Method of Attribute Reduction Based On Information Quantity in An Incomplete System”, JOURNAL OF SOFTWARE, VOL. 7, NO. 8, pp. 1881-1888, 2012. [95] X. Yang, T.R. Li, D. Liu, H.M. Chen, C. Luo, “A unified framework of dynamic three-way probabilistic rough sets”, Information Sciences 420, pp. 126-147, 2017. [96] X. Yang, T.R. Li, H. Fujita, D. Liu, Y.Y. Yao, “A unified model of sequential three-way decisions and multilevel incremental processing”, Knowledge-Based Systems 134, pp. 172-188, 2017. [97] Y. Cheng, “The incremental method for fast computing the rough fuzzy approximations”, Data Knowl. Eng. 70, pp. 84-100, 2011. [98] Y.H. Qian, J.Y. Liang, D.Y. Li, F. Wang, N.N. Ma, “Approximation reduction in inconsistent incomplete decision tables”, Knowledge-Based Systems, Volume 23, Issue 5, pp. 427-433, 2010. [99] Y.H. Qian, J.Y. Liang, W. Pedrycz, C.Y. Dang, “An efficient accelerator for attribute reduction from incomplete data in rough set framework”, Pattern Recognition 44, pp. 1658-1670, 2011. [100] Y. Jing, T. Li, C. Luo, S.J. Horng, G. Wang, Z. Yu, “An incremental approach for attribute reduction based on knowledge granularity”, Knowledge-Based Systems, Vol.104, pp. 24-38, 2016. [101] Y. Jing, T. Li, J. Huang, et al., “An incremental attribute reduction approach based on knowledge granularity under the attribute generalization”, Int. J. Approx. Reason. 76, pp.80-95, 2016. [102] Y. Jing, T. Li, H. Fujita, Z. Yu, B. Wang, An incremental attribute reduction approach based on knowledge granularity with a multi- granulation view, Information Sciences 411, pp. 23-38, 2017. [103] Y. Jing, T. Li, J. Huang, H.M. Chen, S.J. Horng, “A Group Incremental Reduction Algorithm with Varying Data Values”, International Journal of Intelligent Systems 32(9), pp. 900-925, 2017. 122 [104] Y. Jing, T. Li, H. Fujita, B.L. Wang, N. Cheng, “An incremental attribute reduction method for dynamic data mining”, Information Sciences 465, pp. 202-218, 2018. [105] Y. Li, Y.F. Jin, X.D. Sun, “Incremental method of updating approximations in DRSA under variations of multiple objects”, Int. J. Mach. Learn. & Cyber, 2015. [106] Y.M. Liu, S.Y. Zhao, H. Chen, C.P. Li, Y.M. Lu, “Fuzzy Rough Incremental Attribute Reduction Applying Dependency Measures”, APWeb-WAIM 2017: Web and Big Data, pp 484-492, 2017. [107] Y. Tao, H.C. Zhao, “Entropy based attribute reduction approach for incomplete decision table”, 20th International Conference on Information Fusion (Fusion), pp. 1-8, 2017. [108] Y.Y. Huang, T.R. Li, C. Luo, H. Fujita, S.J. Horng, “Dynamic variable precision rough set approach for probabilistic set-valued information systems”, Knowledge-Based Systems 122, pp. 131-147,2017. [109] Y.Y. Huang , T.R. Li , C. Luo , H. Fujita , S.J. Horng , Matrix-based dynamic updating rough fuzzy approximations for data mining, Knowl. Based Syst. 119, pp. 273-283, 2017. [110] Y.Y. Yang, D.G. Chen, H. Wang, “Active Sample Selection Based Incremental Algorithm for Attribute Reduction With Rough Sets”, IEEE Transactions on Fuzzy Systems, 25(4), pp. 825–838, 2017. [111] Y.Y. Yang, D.G. Chen, H. Wang, Eric C.C.Tsang, D.L. Zhang, “Fuzzy rough set based incremental attribute reduction from dynamic data with sample arriving”, Fuzzy Sets and Systems, Volume 312, 1, Pages 66-86, April 2017. [112] Y.Y. Yang, D.G. Chen, H. Wang, X.H. Wang, “Incremental perspective for feature selection based on fuzzy rough sets”, IEEE TRANSACTIONS ON FUZZY SYSTEMS, TFS-2016-0916, 27 June 2017. [113] Z. Pawlak, Rough sets: Theoretical Aspects of Reasoning about Data, Kluwer Academic Publisher, London, 1991. 123 [114] Z.Q. Meng, Z.Z. Shi, “A fast approach to attribute reduction in incomplete decision systems with tolerance relation-based rough sets”, Information Sciences, Vol. 179, pp. 2774-2793, 2009. [115] Z.Q. Meng, Z.Z. Shi, “Extended rough set-based attribute reduction in inconsistent incomplete decision systems”, Information Sciences, Volume 204, pp. 44-69, 2012. [116] Z.Y. Xu, B. Yang, W.H. Shu, "Efficient Algorithm for Attribute Reduction of Incomplete Information Systems Based on Assignment Matrix”, Fuzzy Information and Engineering, Volume 2, 2009. [117] Z.Y. Xu, J.H. Zhou, C.G. Zhang, “A Quick Attribute Reduction Algorithm Based on Incomplete Decision Table”, Information Computing and Applications, 2013. [118] The UCI machine learning repository.

Các file đính kèm theo tài liệu này:

  • pdfluan_an_phat_trien_mot_so_phuong_phap_rut_gon_thuoc_tinh_tro.pdf
  • docThongTin KetLuanMoi LuanAn NCS NguyenBaQuang.doc
  • docTrichYeu LuanAn NCS NguyenBaQuang.doc
Luận văn liên quan