Trong trường hợp tốt nhất, thuật toán kết thúc ở câu lệnh 6 (tập rút gọn
không thay đổi). Khi đó, độ phức tạp thuật toán IDS_IFW_AO là
O U U U     * .
Ngược lại, độ phức tạp tính khoảng cách theo công thức gia tăng trong
câu lệnh 9 khi biết ma trận dung sai là O U U U    * . Xét vòng lặp While
từ câu lệnh 10 đến 20, để tính SIG a B   ta phải tính D B a B a d U U       ,     vì
D B B d U U   ,   đã được tính ở bước trước. Độ phức tạp tính gia tăng
D B a B a d U U       ,     là O U U U     * . Do đó, độ phức tạp của vòng lặp
While là O C B U U U      2 *  và độ phức tạp của giai đoạn filter trong
trường hợp xấu nhất là O C B U U U      2 * . Độ phức tạp của giai đoạn
wrapper phụ thuộc vào độ phức tạp của bộ phân lớp được sử dụng. Giả sử độ
phức tạp của bộ phân lớp là O T  , khi đó độ phức tạp của giai đoạn wrapper là
O C B T   *  . Vì vậy, độ phức tạp của thuật toán IDS_IFW_AO là
O C B U U U O C B T        2 * * *     .
                
              
                                            
                                
            
 
            
                 132 trang
132 trang | 
Chia sẻ: tueminh09 | Lượt xem: 684 | Lượt tải: 0 
              
            Bạn đang xem trước 20 trang tài liệu Luận án Phát triển một số phương pháp rút gọn thuộc tính trong bảng quyết định không đầy đủ theo tiếp cận filter - Wrapper, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
3 
Mệnh đề 3.7. Cho bảng quyết định không đầy đủ   ,IDS U C d  với 
 1 2, ,..., nU u u u . Giá sử tập thuộc tính điều kiện B được bổ sung vào C với 
B C  . Đặt ij( ) n nM B b     là ma trận dung sai trên B. Khi đó ta có: 
1) Nếu ij 1b  với mọi i=1..n, j=1..n (hay  ( )K B K  ) thì 
     , ,D C B C B d D C C d    
2) Nếu ij 0,b i j  với mọi i=1..n, j=1..n (hay  ( )K B K  ) thì 
  , 0D C B C B d    . 
3) Trường hợp còn lại,     2
1 1
1
, . . .
n n
ij ij ij ij
i j
D C B C B d b c c d
n  
     
Chứng minh. Từ Mệnh đề 2.3 tính độ đo khoảng cách, ta có: 
           2
1
1
, .
n
C B i C B i id
i
D C B C B d S u S u S u
n
 
      
            2
1
1
.
n
C i B i C i B i id
i
S u S u S u S u S u
n 
     
   2 2
1 1 1 1
1 1
. . . . . . .
n n n n
ij ij ij ij ij ij ij ij ij
i j i j
c b c b d b c c d
n n   
    
Dễ thấy rằng, nếu ij 1b  với mọi i=1..n, j=1..n thì 
       2
1 1
1
, . . ,
n n
ij ij ij
i j
D C B C B d c c d D C C d
n  
       và nếu ij 0,b i j  
với mọi i=1..n, j=1..n thì   , 0D C B C B d    . 
3.2.2. Thuật toán gia tăng filter-wrapper tìm tập rút gọn khi bổ sung tập 
thuộc tính 
Từ công thức gia tăng tính khoảng cách trong Mệnh đề 3.7 ta có Mệnh 
đề 3.8 sau đây: 
94 
Mệnh đề 3.8. Cho bảng quyết định không đầy đủ   ,IDS U C d  với 
 1 2, ,..., nU u u u và R C là tập rút gọn dựa trên khoảng cách. Giá sử tập 
thuộc tính điều kiện B được bổ sung vào C với B C  . Đặt ij( ) n nM B b     
là ma trận dung sai trên B. Khi đó, nếu ij 1b  với mọi i=1..n, j=1..n thì R là 
tập rút gọn của   1 ,IDS U C B d   
Chứng minh. 
Nếu ij 1b  với mọi i=1..n, j=1..n, từ Mệnh đề 3.7 ta có: 
     , ,D C B C B d D C C d     . Do R là tập rút gọn của IDS nên 
        , , ,D R R d D C C d D C B C B d       và 
          , , ,r R D R r R r d D C C d       Từ đó ta có: R là tập rút gọn của 
  1 ,IDS U C B d   . 
Ý tưởng của thuật toán gia tăng theo hướng tiếp cận kết hợp filter-
wrapper bao gồm hai giai đoạn. Trong giai đoạn filter (giống như tiếp cận 
truyền thống), thuật toán tìm các ứng viên của tập rút gọn, là các tập thuộc 
tính khi lần lượt bổ sung vào các thuộc tính có độ quan trọng lớn nhất. Trong 
giai đoạn wrappper, ta sử dụng một bộ phân lớp để tính độ chính xác phân lớp 
trên từng ứng viên của tập rút gọn và lựa chọn ứng viên có độ chính xác phân 
lớp tốt nhất làm tập rút gọn. Như vậy, với cách tiếp cận này, ta phải trả giá về 
thời gian tính toán độ chính xác phân lớp trong giai đoạn wrapper. Tuy nhiên, 
tập rút gọn thu được có thể có số thuộc tính nhỏ hơn, do đó tập luật phân lớp 
trên tập rút gọn sẽ có hiệu quả cao hơn về thời gian thực hiện và độ chính xác. 
Trong bối cảnh tăng trưởng không ngừng của dữ liệu lớn (Big Data), các bảng 
quyết định ngày càng có số thuộc tính rất lớn và chúng luôn thay đổi, cập 
nhật. Việc tìm kiếm tập rút gọn có số thuộc tính nhỏ nhất đặc biệt quan trọng. 
Do đó, chi phí về mặt thời gian để có tập rút gọn giảm thiểu số lượng thuộc 
95 
tính nhằm thu được tập luật hiệu quả là chấp nhận được. 
Dựa trên Mệnh đề 3.8, thuật toán gia tăng filter-wrapper tìm tập rút gọn 
trong bảng quyết định không đầy đủ sử dụng khoảng cách khi bổ sung tập 
thuộc tính B như sau: 
Thuật toán IDS_IFW_AA: Thuật toán gia tăng filter-
wrapper tìm tập rút gọn khi bổ sung tập thuộc tính. 
Đầu vào: 
1) Bảng quyết định không đầy đủ   ,IDS U C d  với 
 1 2, ,..., nU u u u , tập rút gọn R C , các ma trận dung 
sai  ( ) , ( )ij U ijn n n nM C c M d d         , khoảng cách 
  ,D C C d ; 
2) Tập thuộc tính bổ sung B với B C ; 
Đầu ra: Tập rút gọn 
1R của   1 ,IDS U C B d   
Bước 1: Khởi tạo 
1. :T ; //Chứa các ứng viên tập rút gọn 
2. Tính ma trận dung sai ( ) ij n n
M B b
    ; 
 Bước 2: Kiểm tra tập thuộc tính bổ sung 
3. If 1ijb  với mọi  , 1..i j n then Return R ; 
 Bước 3: Thực hiện thuật toán tìm tập rút gọn 
// Giai đoạn filter, tìm các ứng viên cho tập rút 
gọn xuất phát từ tập R. 
4. While      , ,D R R d D C B C B d     do 
5. Begin 
6. For each a B do 
7. Begin 
8. Tính       ,D R a R a d   bởi công thức cập 
nhật khoảng cách ở Mệnh đề 3.7; 
9. Tính
           , ,RSIG a D R R d D R a R a d      ; 
10. End; 
11. Chọn a B sao cho     R m R
a B
SIG a Max SIG a
 ; 
12.  : mR R a  ; 
13. :T T R  ; 
14. End; 
96 
// Giai đoạn Wrapper,tìm tập rút gọn có độ chính 
xác phân lớp cao nhất 
15. Đặt :t T //t là số phần tử của T, T chứa các 
chuỗi thuộc tính được chọn, nghĩa là 
      
1 1 2 1 2
, , ,..., , ,...,
ti i i i i i
T R a R a a R a a a    ; 
16. Đặt      
1 1 2 1 21 2
: ; : , ;...; : , ,...,
ti i i t i i i
T R a T R a a T R a a a      
17. For j = 1 to t 
18. Begin 
19. Tính độ chính xác phân lớp trên jT bằng 
một bộ phân lớp sử dụng phương pháp 
10-fold; 
20. End 
21. 1 : joR T với joT có độ chính xác phân lớp lớn 
nhất. 
22. Return 1R ; 
Tiếp theo, ta đánh giá độ phức tạp của thuật toán IDS_IFW_AA. Ký hiệu 
, ,C U B tương ứng là số thuộc tính điều kiện, số đối tượng và số thuộc tính 
điều kiện bổ sung thêm. Ở câu lệnh 2, độ phức tạp tính ma trận dung sai 
( )M B
là  2O B U . Trong trường hợp tốt nhất, thuật toán kết thúc ở câu lệnh 
3 (tập rút gọn không thay đổi). Khi đó, độ phức tạp thuật toán IDS_IFW_AA 
là  2O B U . 
 Ngược lại xét vòng lặp While từ câu lệnh 4 đến 14, để tính  BSIG a ta 
phải tính       ,D R a R a d   vì   ,D R R d đã được tính ở bước trước. Độ 
phức tạp tính gia tăng       ,D R a R a d  
 ở câu lệnh số 8 là  2O U . Do đó, 
độ phức tạp của vòng lặp While là  2 2O B U và độ phức tạp của giai đoạn filter 
trong trường hợp xấu nhất là  2 2O B U . Độ phức tạp của giai đoạn wrapper 
phụ thuộc vào độ phức tạp của bộ phân lớp được sử dụng. Giả sử độ phức tạp 
của bộ phân lớp là  O T , khi đó độ phức tạp của giai đoạn wrapper là 
97 
 *O B T . Vì vậy, độ phức tạp của thuật toán IDS_IFW_AA là 
   2 2 *O B U O B T . Nếu thực hiện thuật toán không gia tăng filter-wrapper 
trực tiếp trên bảng quyết định có số thuộc tính C B , độ phức tạp là 
     2 2* *O C B U O C B T   . Do đó, thuật toán gia tăng IDS_IFW_AA 
giảm thiểu đáng kể độ phức tạp thời gian thực hiện, đặc biệt trong trường hợp 
B nhỏ. 
Tiếp theo, sẽ trình bày thuật toán filter-wrapper tìm tập rút gọn sử dụng 
khoảng cách khi loại bỏ tập thuộc tính theo hướng tiếp cận tính toán gia tăng. 
Trước hết, ta xây dựng các công thức cập nhật khoảng cách khi loại bỏ tập 
thuộc tính. 
3.2.3. Công thức cập nhật khoảng cách khi loại bỏ tập thuộc tính 
Cho bảng quyết định không đầy đủ   ,IDS U C d  với  1 2, ,..., nU u u u 
và   ij n nM C c     ,    ij n nM d d     tương ứng là ma trận dung sai trên C và 
d. Theo Mệnh đề 2.3 ở Chương 2, khoảng cách giữa hai tập thuộc tính C và 
 C d được xác định như sau: 
             2 2
1 1 1
1 1
, .
n n n
C i C i i ij ij ijd
i i j
D C C d S u S u S u c c d
n n  
       
Mệnh đề 3.9. Cho bảng quyết định không đầy đủ   ,IDS U C d  với 
 1 2, ,..., nU u u u . Giá sử tập thuộc tính điều kiện B loại bỏ khỏi C với B C và 
A C B  là tập thuộc tính còn lại. Đặt ij( ) n nM B b     và ij( ) n nM A a     tương 
ứng là ma trận dung sai trên B và A . Khi đó, 
    2
1 1
1
, . .
n n
ij ij ij
i j
D A A d a a d
n  
   với các phần tử ija
của ma trận ( )M A 
được tính như sau: 
98 
1) Nếu ij 1c  thì ij 1a  với i=1..n, j=1..n 
2) Nếu ij 0c  và ij 1b  thì ij 0a 
với i=1..n, j=1..n 
3) Nếu ij 0c  và ij 0b  thì ij 1a 
nếu  j A iu S u
và ij 0a 
nếu  j A iu S u
với i=1..n, j=1..n. 
Chứng minh. Dễ thấy rằng: 
1) Do A C nên    C i A iS u S u , từ ij 1c 
ta có ij 1a  . 
2) Do ij ij ij.c a b , nếu ij 0c  và ij 1b  thì ij 0a  
3) Theo định nghĩa ma trận dung sai, nếu  j A iu S u thì ij 1a  , nếu 
 j A iu S u thì ij 1a  
Mệnh đề 3.9 cho phép tính toán khoảng cách   ,D A A d dựa vào các 
ma trận dung sai đầu vào 
ij( ) n n
M C c
    , ij( ) n nM B b     . Trong trường hợp ma 
trận 
ij( ) n n
M C c
    chứa nhiều phần tử bằng 1 (Phủ sinh bởi C là thô) thì công 
thức tính   ,D A A d bởi Mệnh đề 3.9 là hiệu quả. 
3.2.4. Thuật toán gia tăng filter-wrapper cập nhật tập rút gọn khi loại bỏ 
tập thuộc tính 
Dựa trên Mệnh đề 3.9, thuật toán gia tăng filter-wrapper tìm tập rút gọn 
trong bảng quyết định không đầy đủ sử dụng khoảng cách khi loại bỏ tập 
thuộc tính B như sau: 
Thuật toán IDS_IFW_DA: Thuật toán gia tăng filter-
wrapper tìm tập rút gọn khi loại bỏ tập thuộc tính. 
Đầu vào: 
1) Bảng quyết định không đầy đủ   ,IDS U C d  với 
 1 2, ,..., nU u u u , tập rút gọn R C , các ma trận dung 
sai  ( ) , ( )ij U ijn n n nM C c M d d         , khoảng cách 
  ,D C C d ; 
2) Tập thuộc tính B loại bỏ khỏi C với B C ; 
99 
Đầu ra: Tập rút gọn 
1R của     1 ,IDS U C B d   
1) Trường hợp 1: Tập thuộc tính bị loại bỏ B 
không thuộc tập rút gọn (các thuộc tính dư 
thừa), tập rút gọn không thay đổi. 
Nếu B C R  thì Retturn (R); 
2) Trường hợp 2: Tập thuộc tính bị loại bỏ B chứa 
tập rút gọn R, khi đó thực hiện lại thuật toán 
filter-wrapper IDS_FW_DAR ở Chương 2 tìm tập 
rút gọn. 
Nếu R B thì thực hiện thuật toán IDS_FW_DAR; 
3) Trường hợp 3: Trường hợp còn lại B R , thực 
hiện các bước của thuật toán tìm tập rút gọn. 
Bước 1: Khởi tạo 
1. Đặt : ;A C B 
:T  ; // Chứa các ứng viên tập 
rút gọn 
2. Tính ma trận dung sai ( ) ij n n
M B b
    , tính ma trận 
dung sai
ij( ) n n
M A a
    bởi công thức trong Mệnh đề 
3.9. 
3. Đặt : ;R R B  //Xét các thuộc tính trong tập rút 
gọn 
Bước 2: Thực hiện thuật toán tìm tập rút gọn 
 // Giai đoạn filter, tìm các ứng viên cho tập rút 
gọn xuất phát từ tập R. 
4. While      , ,D R R d D A A d   do 
5. Begin 
6. For each a R do 
7. Begin 
8. Tính khoảng cách        ,D R a R a d   bởi 
công thức trong Mệnh đề 3.9; 
9. Tính             , ,RSIG a D R a R a d D R R d      
10. End; 
11. Chọn ma R sao cho     R m R
a R
SIG a Min SIG a
 ; 
12.  : mR R a  ; 
13. 
:T T R  ; 
14. End; 
100 
// Giai đoạn Wrapper,tìm tập rút gọn có độ chính 
xác phân lớp cao nhất 
15. Đặt :t T //t là số phần tử của T, T chứa các 
chuỗi thuộc tính được chọn, nghĩa là 
      
1 1 2 1
, , ,..., ,...,
ti i i i i
T R a R a a R a a    ; 
16. Đặt      
1 1 2 11 2
, , ,..., ,...,
ti i i t i i
T R a T R a a T R a a      
17. For j = 1 to t 
18. Begin 
19. Tính độ chính xác phân lớp trên jT bằng 
một bộ phân lớp sử dụng phương pháp 
10-fold; 
20. End 
21. 1 : joR T với joT có độ chính xác phân lớp lớn 
nhất. 
22. Return 1R ; 
Tiếp theo, ta đánh giá độ phức tạp của thuật toán IDS_IFW_DA. Ký hiệu 
, ,C U B tương ứng là số thuộc tính điều kiện, số đối tượng và số thuộc tính 
điều kiện xóa khỏi C. 
Trường hợp tốt nhất, thuật toán rơi vào Trường hợp 1, nghĩa là tập rút 
gọn không thay đổi. 
Trường hợp xấu nhất, thuật toán rơi vào Trường hợp 2, thực hiện lại 
thuật toán IDS_FW_DAR ở Chương 2 tìm tập rút gọn trên bảng quyết định 
sau khi xóa tập thuộc tính B với độ phức tạp là:    2 2* *O C B U O C B T   . 
Ta xét độ phức tạp trong trường hợp còn lại (Trường hợp 3). Xét vòng 
lặp While từ câu lệnh 4 đến 14, để tính  RSIG a ta phải tính 
       ,D R a R a d   vì   ,D R R d đã được tính ở bước trước. Độ phức 
tạp tính        ,D R a R a d   ở câu lệnh số 8 là  
2
O U . Do đó, độ phức 
101 
tạp của vòng lặp While là  2 2*O R B U và độ phức tạp của giai đoạn filter là 
 2 2*O R B U . Độ phức tạp của giai đoạn wrapper phụ thuộc vào độ phức tạp 
của bộ phân lớp được sử dụng. Giả sử độ phức tạp của bộ phân lớp là  O T , 
khi đó độ phức tạp của giai đoạn wrapper là  *O R B T . Vì vậy, độ phức tạp 
của thuật toán IDS_IFW_DA là    2 2* *O R B U O R B T   . Nếu thực hiện 
thuật toán không gia tăng filter-wrapper trực tiếp trên bảng quyết định có số 
thuộc tính C B , độ phức tạp là    2 2* *O C B U O C B T   . Do đó, với 
Trường hợp 3 thì thuật toán IDS_IFW_DA hiệu quả. Nếu R càng nhỏ thì 
thuật toán IDS_IFW_DA càng hiệu quả. Nếu thuật toán rơi vào Trường hợp 
2 (tính lại tập rút gọn) thì độ phức tạp thuật toán IDS_IFW_DA tương đương 
thuật toán IDS_FW_DAR ở chương 2. Còn nếu thuật toán rơi vào Trường 
hợp 1 thì thu được luôn tập rút gọn mà không phải tính toán gì cả. 
3.2.5. Thực nghiệm và đánh giá các thuật toán 
Trong phần này trình bày kết quả thực nghiệm nhằm đánh giá tính hiệu 
quả của thuật toán gia tăng filter-wrapper IDS_IFW_AA đề xuất với thuật 
toán gia tăng filter UARA [83] về số lượng thuộc tính tập rút gọn và độ chính 
xác của mô hình phân lớp. UARA [83] là thuật toán gia tăng filter tìm tập rút 
gọn của bảng quyết định không đầy đủ trong trường hợp bổ sung tập thuộc 
tính sử dụng miền dương. Việc thực nghiệm được thực hiện trên 06 tập dữ 
liệu mẫu lấy từ kho dữ liệu UCI [118] được mô tả ở Bảng 3.10, đây là các tập 
dữ liệu thiếu giá trị (missing value) trên miền giá trị thuộc tính điều kiện. Mỗi 
tập thuộc tính điều kiện được chia ngẫu nhiên thành hai phần: tập thuộc tính 
ban đầu (cột 4 Bảng 3.10) ký hiệu là C0, và tập thuộc tính gia tăng (cột 5 
Bảng 3.10). Tập thuộc tính gia tăng được chia ngẫu nhiên thành 5 phần bằng 
nhau, ký hiệu tương ứng là C1, C2, C3, C4, C5. 
102 
Bảng 3.10. Bộ dữ liệu thực nghiệm của thuật toán IDS_IFW_AA 
STT Tập dữ liệu 
Số đối 
tượng 
Số thuộc 
tính điều 
kiện 
Số thuộc 
tính ban 
đầu 
Số thuộc 
tính gia 
tăng 
Số lớp 
quyết 
định 
(1) (2) (3) (6) (4) (5) (7) 
1 Audiology 226 69 34 35 24 
2 Soybean -large 307 35 20 15 2 
3 Cong. Voting 
Records 
435 16 6 10 2 
4 Arrhythmia 452 279 139 140 16 
5 Anneal 798 38 18 20 6 
6 Advers. 3279 1558 778 780 2 
Để tiến hành thực nghiệm hai thuật toán IDS_IFW_AA và UARA, trước 
hết ta thực hiện hai thuật toán trên tập dữ liệu với tập thuộc tính ban đầu (coi 
tập thuộc tính ban đầu là tập gia tăng). Tiếp theo, thực hiện hai thuật toán khi 
lần lượt bổ sung từ phần thứ nhất đến phần thứ năm của tập thuộc tính gia 
tăng. 
Với các thuật toán filter-wrapper, việc lựa chọn bộ phân lớp trong giai 
đoạn wrapper sẽ ảnh hưởng đến kết quả thực hiện của thuật toán về thời gian 
thực hiện và độ chính xác phân lớp. Tuy nhiên, việc lựa chọn bộ phân lớp sẽ 
không ảnh hưởng đến kết quả so sánh, đánh giá giữa các thuật toán khác vì 
chúng đều thực hiện trên một bộ phân lớp cụ thể. Do đó, ta sử dụng bộ phân 
lớp C4.5 để tính độ chính xác phân lớp của hai thuật toán và phương pháp 
kiểm tra chéo 10-fold. Sở dĩ ta chọn bộ phân lớp C4.5 vì đây là bộ phân lớp 
thông dụng, được sử dụng phổ biến trong các nghiên cứu khác khi so sánh, 
đánh giá các phương pháp rút gọn thuộc tính. 
Công cụ thực hiện thử nghiệm là Matlab R2016a. Môi trường thử 
nghiệm là máy tính PC với cấu hình Intel(R) Core(TM) 2 i3-2120 CPU, 3.3 
GHz và 4 GB bộ nhớ. 
103 
Bảng 3.11 trình bày kết quả so sánh về số lượng thuộc tính tập rút gọn 
(ký hiệu là R ) và độ chính xác phân lớp của hai thuật toán IDS_IFW_AA và 
UARA. Kết quả Bảng 3.11 cho thấy, với mỗi bước lặp khi bổ sung tập dữ 
liệu gia tăng và trên toàn bộ tập dữ liệu, độ chính xác phân lớp của 
IDS_IFW_AA cao hơn UARA một chút trên tất cả các tập dữ liệu. Hơn nữa, 
số thuộc tính tập rút gọn của IDS_IFW_AA nhỏ hơn khá nhiều UARA, đặc 
biệt trên tập rút gọn có số thuộc tính lớn như Arrhythmia, Advertisements. Do 
đó, thời gian thực hiện và tính khái quát hóa của tập luật phân lớp trên tập rút 
gọn của IDS_IFW_AA tốt hơn so với UARA. 
Bảng 3.11. Số lượng thuộc tính tập rút gọn và độ chính xác phân lớp của thuật toán 
IDS_IFW_AA và UARA 
STT Tập dữ liệu 
Tập 
thuộc 
tính 
Số 
thuộc 
tính 
Tổng số 
thuộc 
tính 
IDS_IFW_AA UARA 
R 
Độ chính 
xác 
R 
Độ 
chính 
xác 
1 Audiology 
0C 34 34 4 64.26 8 62.18 
1C 7 41 5 68.19 9 65.17 
2C 7 48 5 68.19 10 69.26 
3C 7 55 6 72.36 12 72.35 
4C 7 62 7 78.26 14 74.18 
5C 7 69 7 78.26 15 78.02 
2 Soybean –
large 
0C 20 20 4 82.34 8 81.16 
1C 3 23 4 82.34 8 81.16 
2C 3 26 5 86.92 9 82.08 
3C 3 29 5 86.92 10 85.14 
4C 3 32 7 90.27 11 90.26 
5C 3 35 8 92.85 12 92.18 
104 
STT Tập dữ liệu 
Tập 
thuộc 
tính 
Số 
thuộc 
tính 
Tổng số 
thuộc 
tính 
IDS_IFW_AA UARA 
R 
Độ chính 
xác 
R 
Độ 
chính 
xác 
3 
Cong. 
Voting 
Records 
0C 6 6 4 81.36 5 81.04 
1C 2 8 5 86.24 7 85.52 
2C 2 10 6 89.18 8 89.18 
3C 2 12 6 89.18 9 89.18 
4C 2 14 7 91.15 11 90.29 
5C 2 16 8 94.06 12 93.68 
4 Arrhythmia 
0C 139 139 5 62.14 9 62.86 
1C 28 167 6 69.27 14 68.15 
2C 28 195 7 70.48 16 69.84 
3C 28 223 7 70.48 17 69.84 
4C 28 251 9 71.37 24 70.92 
5C 28 279 10 76.24 25 75.68 
5 Anneal 
0C 18 18 3 68.24 5 68.24 
1C 4 22 4 72.46 7 71.62 
2C 4 26 4 72.46 7 71.62 
3C 4 30 5 79.88 8 76.85 
4C 4 34 6 86.13 9 85.19 
5C 4 38 7 91.28 10 90.84 
6 Advers. 
0C 778 778 9 71.18 15 70.68 
1C 156 934 12 76.64 22 72.85 
2C 156 1090 15 79.14 29 78.94 
3C 156 1246 19 86.18 35 83.17 
4C 156 1402 20 89.24 38 86.26 
5C 156 1558 21 92.85 44 91.46 
Bảng 3.12 trình bày kết quả so sánh thời gian thực hiện hai thuật toán 
IDS_IFW_AA và UARA (tính bằng giây - s). Kết quả Bảng 3.12 cho thấy, 
105 
thời gian thực hiện của IDS_IFW_AA cao hơn UARA trên tất cả các tập dữ 
liệu, nguyên nhân là IDS_IFW_AA mất thêm chi phí thời gian thực hiện bộ 
phân lớp trong giai đoạn wrapper, đây cũng là nhược điểm chung của các 
thuật toán theo tiếp cận filter-wrapper. 
Bảng 3.12. Thời gian thực hiện của thuật toán IDS_IFW_AA và UARA (s) 
STT Tập dữ liệu 
Tập 
thuộc 
tính 
Số 
thuộc 
tính 
Tổng số 
thuộc 
tính 
IFWA_ IDS 
_AA 
UARA 
Thời 
gian
Tổng 
thời 
gian 
Thời 
gian
Tổng 
thời 
gian 
1 Audiology 
0C 34 34 5.36 5.36 4.28 4.28 
1C 7 41 0.48 5.84 0.39 4.67 
2C 7 48 0.45 6.29 0.41 5.08 
3C 7 55 0.52 6.81 0.38 5.46 
4C 7 62 0.44 7.25 0.39 5.85 
5C 7 69 0.59 7.84 0.34 6.19 
2 
Soybean –
large 
0C 20 20 2.84 2.84 2.18 2.18 
1C 3 23 0.14 2.98 0.36 2.54 
2C 3 26 0.21 3.19 0.22 2.76 
3C 3 29 0.16 3.35 0.15 2.91 
4C 3 32 0.33 3.68 0.21 3.12 
5C 3 35 0.28 3.96 0.16 3.28 
3 
Cong. 
Voting 
Records 
0C 6 6 4.12 4.12 3.08 3.08 
1C 2 8 0.54 4.66 0.54 3.62 
2C 2 10 0.32 4.98 0.43 4.05 
3C 2 12 0.63 5.61 0.54 4.59 
4C 2 14 0.51 6.12 0.53 5.12 
5C 2 16 0.72 6.84 0.56 5.68 
4 Arrhythmia 
0C 139 139 24.68 24.68 20.78 20.78 
1C 28 167 3.04 27.72 2.06 22.84 
2C 28 195 3.24 30.96 2.33 25.17 
3C 28 223 3.69 34.65 2.89 28.06 
4C 28 251 2.07 36.72 2.06 30.12 
5C 28 279 2.12 38.84 1.16 31.28 
106 
STT Tập dữ liệu 
Tập 
thuộc 
tính 
Số 
thuộc 
tính 
Tổng số 
thuộc 
tính 
IFWA_ IDS 
_AA 
UARA 
Thời 
gian
Tổng 
thời 
gian 
Thời 
gian
Tổng 
thời 
gian 
5 Anneal 
0C 18 18 6.84 6.84 5.19 5.19 
1C 4 22 0.48 7.32 0.55 5.74 
2C 4 26 0.43 7.75 0.55 6.29 
3C 4 30 0.44 8.19 0.53 6.82 
4C 4 34 0.45 8.64 0.36 7.18 
5C 4 38 0.42 9.06 0.24 7.42 
6 Advers. 
0C 778 778 77.24 77.24 68.35 68.35 
1C 156 934 6.51 83.75 4.54 72.89 
2C 156 1090 6.09 89.84 5.35 78.24 
3C 156 1246 6.13 95.97 4.94 83.18 
4C 156 1402 5.26 101.23 4.58 87.76 
5C 156 1558 5.55 106.78 4.52 92.28 
3.3. Kết luận chương 3 
Trong Chương 3, luận án trình bày kết quả xây dựng các công thức gia 
tăng tính khoảng cách đề xuất ở Chương 2 trong trường hợp bổ sung, loại bỏ 
tập đối tượng và bổ sung, loại bỏ tập thuộc tính. Dựa vào các công thức gia 
tăng được xây dựng, luận án trình bày kết quả đề xuất bốn thuật toán gia tăng 
tìm tập rút gọn của bảng quyết định không đầy đủ thay đổi theo tiếp cận filter-
wrapper: 
1) Thuật toán gia tăng filter-wrapper IDS_IFW_AO tìm tập rút gọn 
trong trường hợp bổ sung tập đối tượng. 
2) Thuật toán filter-wrapper IDS_IFW_DO tìm tập rút gọn trong trường 
hợp loại bỏ tập đối tượng. 
3) Thuật toán gia tăng filter-wrapper IDS_IFW_AA tìm tập rút gọn 
trong trường hợp bổ sung tập thuộc tính. 
107 
4) Thuật toán gia tăng filter-wrapper IDS_IFW_DA tìm tập rút gọn 
trong trường hợp loại bỏ tập thuộc tính. 
Luận án tiến hành thực nghiệm hai thuật toán đề xuất IDS_IFW_AO, 
IDS_IFW_AA trên các bộ dữ liệu mẫu từ kho dữ liệu UCI [118] để đánh giá 
tính hiệu quả của thuật toán gia tăng đã đề xuất. 
Trong trường hợp bổ sung tập đối tượng, thuật toán gia tăng filter- 
wrapper đề xuất IDS_IFW_AO hiệu quả hơn thuật toán không gia tăng filter-
wrapper IDS_FW_DAR (được trình bày ở Chương 2) về thời gian thực hiện. 
Với hướng tiếp cận truyền thống filter, số lượng thuộc tính tập rút gọn của 
thuật toán IDS_IFW_AO nhỏ hơn đáng kể thuật toán filter IARM-I [86], hơn 
nữa độ chính xác phân lớp của thuật toán IDS_IFW_AO cao hơn so với 
IARM-I. Do đó, mô hình phân lớp trên tập rút gọn của thuật toán 
IDS_IFW_AO hiệu quả hơn so với các thuật toán filter khác. Tuy nhiên, thuật 
toán IDS_IFW_AO phải mất thêm chi phí về thời gian thực hiện do phải thực 
hiện các bộ phân lớp. 
Trong trường hợp bổ sung tập thuộc tính, số lượng thuộc tính tập rút gọn 
của thuật toán gia tăng filter-wrapper IDS_IFW_AA cũng nhỏ hơn đáng kể 
thuật toán gia tăng filter UARA [83]. Hơn nữa, độ chính xác phân lớp của 
thuật toán IDS_IFW_AA cũng cao hơn so với UARA. Với trường hợp này, 
mô hình phân lớp trên tập rút gọn của thuật toán IDS_IFW_AA cũng hiệu quả 
hơn so với các thuật toán filter khác. Tuy nhiên, thuật toán IDS_IFW_AA 
cũng phải trả giá về thời gian thực hiện do phải thực hiện các bộ phân lớp. 
108 
KẾT LUẬN 
A. Các kết quả đạt được của luận án 
Luận án nghiên cứu hướng tiếp cận kết hợp filter-wrapper tìm tập rút gọn 
của bảng quyết định không đầy đủ nhằm giảm thiểu số lượng thuộc tính tập rút 
gọn, từ đó giảm thiểu độ phức tạp của mô hình phân lớp. Kết quả chính của luận 
án bao gồm: 
1. Xây dựng một độ đo khoảng cách mới và đề xuất thuật toán theo tiếp 
cận kết hợp filter-wrapper IDS_FW_DAR tìm tập rút gọn của bảng quyết định 
không đầy đủ sử dụng độ đo khoảng cách. 
2. Xây dựng các công thức gia tăng tính khoảng cách mới và đề xuất 04 
thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng quyết định không 
đầy đủ trong trường hợp bảng quyết định bổ sung, loại bỏ tập đối tượng và tập 
thuộc tính (các thuật toán IDS_IFW_AO, IDS_IFW_DO, IDS_IFW_AA, 
IDS_IFW_DA) 
3. Cài đặt, thử nghiệm, so sánh, đánh giá các thuật toán đề xuất với các 
thuật toán khác đã công bố trên các tập dữ liệu mẫu từ kho dữ liệu UCI [118]. 
Kết quả thử nghiệm trên các bộ số liệu mẫu từ kho dữ liệu UCI [118] cho 
thấy, các thuật toán đề xuất theo tiếp cận filter-wrapper IDS_FW_DAR đề 
xuất giảm thiểu đáng kể số lượng thuộc tính tập rút gọn so với các thuật toán 
filter khác. Hơn nữa, các thuật toán gia tăng filter-wrapper duy trì và nâng 
cao độ chính xác của mô hình phân lớp so với các thuật toán gia tăng filter. 
Do đó, các thuật toán filter-wrapper đề xuất giảm thiểu đáng kể độ phức tạp 
của mô hình phân lớp. 
Tuy nhiên, nhược điểm chung của các thuật toán filter-wrapper đề xuất 
là mất thêm chi phí về thời gian thực hiện các bộ phân lớp so với các thuật 
toán filter khác. Với mục tiêu nâng cao hiệu quả của mô hình phân lớp thì 
nhược điểm này có thể chấp nhận được vì rút gọn thuộc tính chỉ là bước tiền 
xử lý trong quá trình xây dựng các mô hình khai phá dữ liệu. 
109 
B. Những đóng góp mới của luận án 
1. Xây dựng một độ đo khoảng cách mới và đề xuất thuật toán theo tiếp 
cận kết hợp filter-wrapper IDS_FW_DAR tìm tập rút gọn của bảng quyết định 
không đầy đủ sử dụng độ đo khoảng cách. 
2. Xây dựng các công thức gia tăng tính khoảng cách mới và đề xuất 04 
thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng quyết định không 
đầy đủ trong trường hợp bảng quyết định bổ sung, loại bỏ tập đối tượng và tập 
thuộc tính (các thuật toán IDS_IFW_AO, IDS_IFW_DO, IDS_IFW_AA, 
IDS_IFW_DA). 
C. Hướng nghiên cứu tiếp theo 
1. Triển khai các thuật toán đề xuất vào việc giải quyết các lớp bài toán 
trong thực tiễn, đặc biệt các bài toán có dữ liệu với số thuộc tính lớn (high 
dimention data) trong các lĩnh vực khác nhau như dữ liệu gen trong tin sinh 
học 
2. Tiếp tục nghiên cứu, đề xuất các thuật toán gia tăng filter-wrapper 
hiệu quả nhằm giảm thiểu thời gian thực hiện dựa trên các mô hình tập thô 
mở rộng khác phù hợp với các lớp bài toán trong thực tiễn. 
110 
DANH MỤC CÁC CÔNG TRÌNH KHOA HỌC ĐÃ CÔNG BỐ 
1 Nguyen Ba Quang, Nguyen Long Giang, Dang Thi Oanh “A Distance 
based Incremental Filter-Wrapper Algorithm for Fingding Reduct in 
Incomplete Decision Tables”, Vietnam Journal of Science and 
Technology - Vietnam Academy of Science and Technology, Vol 57, No 
4, 2019, pp. 499-512. 
2 Nguyễn Bá Quảng, Nguyễn Long Giang, Trần Thanh Đại, Nguyễn Ngọc 
Cương, “Phương pháp Filter-Wrapper rút gọn thuộc tính trong bảng 
quyết định không đầy đủ sử dụng khoảng cách”, Kỷ yếu Hội thảo quốc 
gia lần thứ XXII: Một số vấn đề chọn lọc của Công nghệ thông tin và 
truyền thông, Thái Bình, 28-29/06/2019, Tr. 246-252. 
3 Nguyễn Bá Quảng, Nguyễn Long Giang, Nguyễn Thị Lan Hương, 
Nguyễn Ngọc Cương, “Phương pháp gia tăng rút gọn thuộc tính trong 
bảng quyết định không đầy đủ sử dụng khoảng cách”, Kỷ yếu Hội thảo 
quốc gia lần thứ XXII: Một số vấn đề chọn lọc của Công nghệ thông tin 
và truyền thông, Thái Bình, 28-29/06/2019, Tr. 253-259. 
4 Phạm Minh Ngọc Hà, Nguyễn Long Giang, Nguyễn Văn Thiện, Nguyễn 
Bá Quảng, “Về một thuật toán gia tăng tìm tập rút gọn của bảng quyết 
định không đầy đủ”, Chuyên san các công trình nghiên cứu phát triển 
CNTT&TT, Tạp chí Công nghệ thông tin và truyền thông - Bộ TT&TT, 
Tập 2019, Số 1, Tháng 9, Tr. 11-18. 
5 Nguyễn Bá Quảng, Nguyễn Long Giang, “Về một thuật toán gia tăng tìm 
tập rút gọn của bảng quyết định không đầy đủ trong trường hợp bổ sung 
tập thuộc tính”, Tạp chí Nghiên cứu KH&CN Quân sự, Số 63, 10-2019, 
Tr. 171-183. 
111 
TÀI LIỆU THAM KHẢO 
Tiếng Việt: 
[1] Vũ Văn Định, “Rút gọn thuộc tính trong bảng quyết định không đầy đủ 
theo tiếp cận tập thô dung sai”, Luận án Tiến sĩ Toán học, Học viện Khoa 
học và Công nghệ, Viện Hàn lâm Khoa học và Công nghệ Việt Nam, 
2016. 
[2] Nguyễn Thị Lan Hương, “Rút gọn thuộc tính trong bảng quyết định động 
theo tiếp cận tập thô”, Luận án Tiến sĩ Toán học, Học viện Khoa học và 
Công nghệ-Viện Hàn lâm Khoa học và Công nghệ Việt Nam, 2016. 
[3] Nguyễn Văn Thiện, “Một số phương pháp lai ghép trong rút gọn thuộc 
tính theo tiếp cận tập thô mờ”, Luận án Tiến sĩ Máy tính, Học viện Khoa 
học và Công nghệ, Viện Hàn lâm Khoa học và Công nghệ Việt Nam, 
2018. 
[4] Nguyễn Văn Thiện, Nguyễn Long Giang, Nguyễn Như Sơn, “Phương 
pháp gia tăng rút gọn thuộc tính trong bảng quyết định sử dụng khoảng 
cách mờ”, Hội thảo Quốc gia lần thứ XXI - Một số vấn đề chọn lọc của 
CNTT và TT, Thanh Hóa, 27-28/07/2018, Tr. 296- 302. 
Tiếng Anh: 
[5] A.K. Das, S. Sengupta, S. Bhattacharyya, “A Group Incremental Feature 
Selection for Classification using Rough Set Theory based Genetic 
Algorithm”, Applied Soft Computing 65, pp. 400-411, 2018. 
[6] A.P. Zeng, T.R. Li, D. Liu, J.B. Zhang, H.M. Chen, “A fuzzy rough set 
approach for incremental feature selection on hybrid information 
systems”, Fuzzy Sets and Systems, Volume 258, pp. 39-60, 1 January 
2015. 
[7] A.P. Zeng , T.R. Li, J. Hu, H.M. Chen, Chuan Luo, “Dynamical updating 
fuzzy rough approximations for hybrid data under the variation of 
attribute values”, Information Sciences 000, pp. 1-26, 2016. 
112 
[8] Cao Chinh Nghia, Demetrovics Janos, Nguyen Long Giang, Vu Duc Thi, 
“About a fuzzy distance between two fuzzy partitions and attribute 
reduction problem”, Cybernetics and Information Technologies, Vol 16, 
No 4, pp. 13-28, 2016. 
[9] C. C. Zhang, J. H. Dai, “An incremental attribute reduction approach 
based on knowledge granularity for incomplete decision systems”, 
Granular Computing, pp. 1-15, 2019. 
[10] C.J. Yang, H. Ge, L.S. Li, J. Ding, “A unified incremental reduction 
with the variations of the object for decision tables”, Soft Computing, Vol. 
23, Iss. 15, pp. 64076427, 2019. 
[11] C. Luo, T. R. Li and H. M. Chen, “Dynamic maintenance of 
approximations in setvalued ordered decision systems under the attribute 
generalization”, Information Sciences 257, pp. 210 - 228, 2014. 
[12] C. Luo, T.R. Li, H.M. Chen, H. Fujita, Z. Yi, “Efficient updating of 
probabilistic approximations with incremental objects”, Knowledge-Based 
Systems 109, pp. 71-83, 2017. 
[13] C. Luo, T.R. Li, Y. Yao, “Dynamic probabilistic rough sets with 
incomplete data”, Information Sciences 417, pp. 39–54, 2017. 
[14] C. Luo, T.R. Li, Y.Y. Huang, H. Fujita, “Updating three-way decisions 
in incomplete multi-scale information systems”, Information Sciences 
476, pp. 274-289, 2019. 
[15] C.X. Hu, S.X. Liu, G.X. Liu, “Matrix-based approaches for dynamic 
updating approximations in multigranulation rough sets”, Knowl Based 
Syst 122, pp. 51-63, 2017. 
[16] C.Z. Wang, Y. Qi, Q. He, Attribute reduction using distance-based 
fuzzy rough sets, 2015 International Conference on Machine Learning 
and Cybernetics , IEEE, 2015. 
[17] C.Z. Wang, Y.Huang, M.W. Shao, X.D.Fan, Fuzzy rough set-based 
attribute reduction using distance measures, Knowledge-Based Systems, 
Volume 164, 15 January 2019, pp. 205-212. 
113 
[18] D.D. Zhang, R.P. Li, X.T. Tang, Y.S. Zhao, “An incremental reduct 
algorithm based on generalized decision for incomplete decision tables”, 
IEEE 3rd International Conference on Intelligent System and Knowledge 
Engineering, pp. 340-344, 2008. 
[19] Demetrovics Janos, Nguyen Thi Lan Huong, Vu Duc Thi, Nguyen Long 
Giang, “Metric Based Attribute Reduction Method in Dynamic Decision 
Tables”, Cybernetics and Information Technologies, Vol.16, No.2, pp. 3-
15, 2016. 
[20] D.G. Chen, Y. Yang, Z. Dong, “An incremental algorithm for attribute 
reduction with variable precision rough sets”, Appl. Soft Comput., vol. 
45, pp. 129-149, 2016. 
[21] D. Liu, T.R. Li, D. Ruan, W.L. Zou, “An incremental approach for 
inducing knowledge from dynamic information systems”, Fundam. 
Inform. 94, pp. 245-260, 2009. 
[22] D. Liu, T.R. Li, G.R. Liu, P. Hu, “An incremental approach for inducing 
interesting knowledge based on the change of attribute values”, in: 
Proceedings of the2009 IEEE International Conference on Granular 
Computing, Nanchang, China, pp.415–418, 2009. 
[23] D. Liu, T.R. Li, J.B. Zhang, “A rough set-based incremental approach 
for learning knowledge in dynamic incomplete information systems”, 
International Journal of Approximate Reasoning 55, pp. 1764-1786, 2014. 
[24] D. Liu, T.R. Li, J.B. Zhang, “Incremental updating approximations in 
probabilistic rough sets under the variation of attributes”, Knowledge-
Based Systems 73, pp. 81-96, 2015. 
[25] D.X. Peng, X.D. Hong, “Research on Heuristic Knowledge Reduction 
Algorithm for Incomplete Decision Table”, IEEE International 
Conference on Internet Technology and Applications, 2010. 
[26] D. Yue, Z. Xu, C.D. Mei, W.Y. Mei, “Analysis of Attribute Reduction 
of Incomplete Decision Table Based on Information Entropy”, 8th 
International Conference on Intelligent Computation Technology and 
Automation (ICICTA), 2015. 
114 
[27] F. Hu, G. Wang, H. Huang, “Incremental attribute reduction based on 
elementary sets”, International Conference on Rough Sets, Fuzzy Sets, 
Data Mining, and Granular Computing, Springer-Verlag, pp.185-193, 
2005. 
[28] F.M. Ma, J.W. Chen, W. Han, “A Positive Region Based Incremental 
Attribute Reduction Algorithm for Incomplete System”, International 
Conference on Electronic Information Technology and Intellectualization 
(ICEITI 2016), pp. 153-158, 2016. 
[29] F.M. Ma, T.F. Zhang, “Generalized binary discernibility matrix 
for attribute reduction in incomplete information systems”, The Journal of 
China Universities of Posts and Telecommunications, Volume 24, Issue 
4, pp. 57-75, 2017. 
[30] F.M. Ma, M.W. Ding , T.F. Zhang, J. Cao, “Compressed binary 
discernibility matrix based incremental attribute reduction algorithm for 
group dynamic data”, Neurocomputing, 2019. 
[31] F. Wang, J.Y. Liang, C.Y. Dang, “Attribute reduction for dynamic data 
sets”, Applied Soft Computing, 13(1), pp. 676-689, 2013. 
[32] F. Wang, J.Y. Liang, Y.H. Qian, “Attribute reduction: A dimension 
incremental strategy”, Knowledge-Based Systems, Volume 39, pp. 95-
108, 2013. 
[33] G. Hao, L.L. Shu, Y.C. jian, D. Jian, “Incremental reduction algorithm 
with acceleration strategy based on conflict region”, Artif Intell Rev, 
Springer, 2017. 
[34] G.M. Lang, D.Q. Miao, T. Yang, M.J. Cai, “Knowledge reduction of 
dynamic covering decision information systems when varying covering 
cardinalities”, Information Sciences 346-47, pp. 236-260, 2016. 
[35] G.M. Lang, Q. Li, M.J. Cai, T. Yang, Q.M. Xiao, Incremental 
approaches to knowledge reduction based on characteristic matrices, Int. 
J. Mach. Learn. Cybern. 8 (1) pp. 203-222, 2017. 
[36] G.M. Lang, D.Q. Miao , M.J. Cai, Z.F. Zhang, “ Incremental approaches 
for updating reducts in dynamic covering information systems, 
Knowledge Based Systems 134, pp. 85..104, 2017. 
115 
[37] G.M. Lang, M.J. Cai, H. Fujita, Q.M. Xiao, “Related families-
based attribute reduction of dynamic covering decision information 
systems”, Knowledge-Based Systems, Volume 162, 15 December, pp. 
161-173, 2018. 
[38] G. Q. Wang, “Valid Incremental Attribute Reduction Algorithm Based 
on Attribute Generalization for an Incomplete Information System”, 
Chinese Journal of Electronics, Vol.28, No.4, 2019. 
[39] Guyon, Isabelle; Elisseeff, André, “An Introduction to Variable and 
Feature Selection”, Journal of Machine Learning Research, pp. 1157-
1182, 2003. 
[40] H. Liu, L. Yu, “Toward integrating feature selection algorithms for 
classification and clustering”, IEEE Transactions on knowledge and data 
engineering, 17(4), pp. 491-502, 2005. 
[41] H.M. Chen, T.R. Li, S.J. Qiao, D. Ruan, “A rough set based dynamic 
maintenance approach for approximations in coarsening and refining 
attribute values”, Int. J. Intell. Syst. 25, pp. 1005-1026, 2010. 
[42] H.M. Chen, T.R. Li, R. Da, “Maintenance of approximations in 
incomplete ordered decision systems while attribute values coarsening or 
refining”, Knowl.-Based Syst. 31, pp. 140-161, 2012. 
[43] H.M. Chen, T.R. Li, R. Da, et al., “A rough-set-based incremental 
approach for updating approximations under dynamic maintenance 
environments”, IEEE Trans. Knowl. Data Eng. 25, pp. 274-284, 2013. 
[44] H. M. Chen, T. R. Li, D. Ruan, J. H. Lin and C. X. Hu, “A rough-set 
based incremental approach for updating approximations under dynamic 
maintenance environments”, IEEE Transactions on Knowledge and Data 
Engineering. 25 (2), 274 - 284, 2013. 
[45] H.S. Zou, C.S. Zhang, “Efficient Algorithm for Knowledge Reduction 
in Incomplete Information System”, Journal of Computational 
Information Systems 8: 6, pp. 2531–2538, 2012. 
[46] Huyen Tran, Thinh Cao, Koichi Yamada, Do Van Nguyen, “Incremental 
Updating Methods with Three-way Decision Models in Incomplete 
116 
Information Systems”, IEEE Joint 10th International Conference on Soft 
Computing and Intelligent Systems, pp. 27-32, 2018. 
[47] H.X. Li, X.H. Zhou, M.M. Zhu, “A Heuristic Reduction Algorithm in 
IIS Based on Binary Matrix”, RSKT, pp. 143-150, 2010. 
[48] H. Zhao, K.Y. Qin, “Mixed feature selection 
in incomplete decision table” Knowledge-Based Systems, Volume 57, pp. 
181-190, 2014. 
[49] J.C. Xu, L. Sun, “Knowledge Entropy and Feature Selection in 
Incomplete Decision Systems,” Applied Mathematics & Information 
Sciences, vol. 7, no. 2, pp. 829-837, 2013. 
[50] J.H. Dai, W.T. Wang, H.W. Tian, L. Liu, “Attribute selection based on 
a new conditional entropy for incomplete decision systems”, Knowledge-
Based Systems, Volume 39, pp. 207-213, 2013. 
[51] J. Hu, K. Wang, H. Yu, “Attribute Reduction on Distributed Incomplete 
Decision Information System”, IJCRS 2017, pp 289-305, 2017. 
[52] J. Qian, C.Y. Dang, X.D. Yue, N. Zhang, “Attribute reduction for 
sequential three-way decisions under dynamic granulation”, International 
Journal of Approximate Reasoning 85(2017) 196-216. 
[53] J. Xie, X.F. Shen, H.F. Liu, X.Y. Xu, “Research on an Incremental 
Attribute Reduction Based on Relative Positive Region”, Journal of 
Computational Information Systems 9:16, pp. 6621-6628, 2013. 
[54] J.Y. Liang, R. Li, Y. H. Qian, “Distance: A more comprehensible 
perspective for measures in rough set theory”, Knowledge-Based Systems, 
Volume 27, pp. 126-136, 2012. 
[55] J.Y. Liang, F. Wang, C.Y. Dang, Y.H. Qian, “A group incremental 
approach to feature selection applying rough set technique”, IEEE 
Transactions on Knowledge and Data Engineering, 26(2), pp. 294-308, 
2014. 
[56] J. Yu, L. Sang, H. Dong, “Based on Attribute Order for Dynamic 
Attribute Reduction in the Incomplete Information System”, IEEE 
IMCEC 2018, pp. 2475-2478, 2018. 
117 
[57] J. Zhou, E. Xu, Y.H. Li, Z. Wang, Z.X. Liu, X.Y. Bai , “A New 
Attribute Reduction Algorithm Dealing With The Incomplete Information 
System”, 2009 International Conference on Cyber-Enabled Distributed 
Computing and Knowledge Discovery, 2009. 
[58] J. Zhang, T. Li, D. Ruan, “Rough sets based matrix approaches with 
dynamic attribute variation in set-valued information systems”, Int. J. 
Approx. Reason, Vol.53, pp. 620-635, 2012. 
[59] L.H Guan, “An incremental updating algorithm of attribute reduction set 
in decision tables”, FSKD'09 Proceedings of the 6th international 
conference on Fuzzy systems and knowledge discovery, Vol 2, pp. 421-
425, 2009. 
[60] L.N. Wang , X. Yang , Y. Chen , L. Liu , S.Y. An , P. Zhuo , “Dynamic 
composite decision-theoretic rough set under the change of attributes”, 
Int. J. Comput. Intell.Syst. 11 (2018) 355–370 . 
[61] Long Giang Nguyen, “Metric Based Attribute Reduction in Decision 
Tables”, Federated Conference on Computer Science and Information 
System (FEDCSIS), Wroclaw, Poland, IEEE, pp. 311-316, 2012. 
[62] Long Giang Nguyen, Hung Son Nguyen, “Metric Based Attribute 
Reduction in Incomplete Decision Tables”, Proceedings of 14th 
International Conference, Rough Sets, Fuzzy Sets, Data Mining, and 
Granular Computing, RSFDGrC 2013, Halifax, NS, Canada, Lecture 
Notes in Computer Science, SpingerLink, Vol. 8170, pp. 99-110, 2013. 
[63] Long Giang Nguyen, Thien Nguyen, Nhu Son Nguyen , “Fuzzy 
Partition Distance based Attribute Reduction in Decision Tables”, IJCRS 
2018: International Joint Conference on Rough Sets 2018, LNCS, Vol. 
11103, Springer Link, 2018, pp. 614-627. 
[64] L. Sun, J.C. Xu, Y. Tian, “Feature selection using rough entropy-based 
uncertainty measures in incomplete decision systems”, Knowledge-Based 
Systems, Volume 36, pp. 206-216, 2012. 
[65] M.J. Cai, Q.G. Li, J.M. Ma, “Knowledge reduction of dynamic covering 
decision information systems caused by variations of attribute values”, 
118 
International Journal of Machine Learning and Cybernetics 8(4), pp. 
1131-1144, 2017. 
[66] M.J. Cai, G.M. Lang, H. Fujita, Z.Y. Li, T. Yang, Incremental 
approaches to updating reducts under dynamic covering granularity, 
Knowledge-Based Systems, 2019. 
[67] M. Kryszkiewicz (1998), “Rough set approach to incomplete 
information systems”, Information Science, Vol. 112, pp. 39-49. 
[68] M.S. Raza,U. Qamar, “An incremental dependency calculation 
technique for feature selection using rough sets”, Information Sciences 
343–344, pp. 41–65, 2016. 
[69] Nguyen Long Giang, Vu Van Dinh, Relationships Among the Concepts 
of Reduct in Incomplete Decision Tables, Frontiers in Artificial 
Intelligence and Applications (FAIA), Volume 252: Advanced Methods 
and Technologies for Agent and Multi-Agent Systems, IOS Press, 2013, 
pp. 417-426. 
[70] Nguyen Thi Lan Huong, Nguyen Long Giang, “Incremental algorithms 
based on metric for finding reduct in dynamic decision tables”, Journal on 
Research and Development on Information & Communications 
Technology, Vol.E-3, No.9 (13), pp. 26-39, 2016. 
[71] R.P. Li, D.D. Zhang, Y.S. Zhao, X.T. Tang, “Incremental Core 
Computing for Incomplete Decision Tables, International Symposium on 
Computational Intelligence and Design”, IEEE ISCID, pp. 270-273, 2008. 
[72] Sai Prasad P.S.V.S, Raghavendra Rao Chillarige, Novel Granular 
Framework for Attribute Reduction in Incomplete Decision Systems, 
Multi-disciplinary Trends in Artificial In Artificial Intelligence, 2012. 
[73] S. Li, T. Li, D. Liu, “Incremental updating approximations in 
dominance-based rough sets approach under the variation of the attribute 
set”, Knowledge-Based Systems, Vol.40, pp. 17-26, 2013. 
[74] S. Li, T. Li, “Incremental update of approximations in dominance-based 
rough sets approach under the variation of attribute values”, Inf. Sci. 294, 
pp.348-361, 2015. 
119 
[75] S. Wang , T. Li , C. Luo , H. Fujita , Efficient updating rough 
approximations with multi-dimensional variation of ordered data, Inf. Sci. 
372, pp. 690-708, 2016. 
[76] T.R. Li, D. Ruan, W. Geert, J. Song, Y. Xu, A rough sets based 
characteristic relation approach for dynamic attribute generalization in 
data mining, Knowl.-Based Syst. 20, pp. 485-494, 2007. 
[77] Vu Van Dinh, Nguyen Long Giang, Duc Thi Vu, Generalized 
Discernibility Function based Attribute Reduction in Incomplete Decision 
Systems, Serdica Journal of Computing 7 (2013), Institute of 
Mathematics and Informatics, Bulgarian Academy of Sciences, No 4, 
2013, pp. 375-388. 
[78] Vu Van Dinh, Vu Duc Thi, Ngo Quoc Tao, Nguyen Long Giang, 
“Partition Distance Based Attribute Reduction in Incomplete Decision 
Tables”, Journal on Information Communications Technology, Research 
and Development on Information & Communications Technology, Vol. 
V-2, No. 14(34), pp. 23-32, 12-2015. 
[79] W.B. Qian, W.H. Shu, “Mutual information criterion for feature 
selection from incomplete data”, Neurocomputing, Volume 168, pp. 210-
220, 2015. 
[80] W.D. Tan, E. Xu, F. Shi, Y.C. Ren, L.J. Fan, “A Novel Method of 
Attribute Reduction for Incomplete Information System”, IEEE 
International Conference on Innovative Computing and Communication, 
pp. 352-354, 2010. 
[81] W.H. Shu, H. Shen, “Incremental Attribute Reduction in Incomplete 
Decision systems”, IEEE Fifth International Symposium on Parallel 
Architectures, Algorithms and Programming, pp. 250-254, 2012. 
[82] W.H. Shu, H. Shen, “A rough-set based incremental approach for 
updating attribute reduction under dynamic incomplete decision systems”, 
IEEE International Conference on Fuzzy Systems (FUZZ-IEEE), pp. 1-7, 
2013. 
120 
[83] W.H. Shu, H. Shen, “Updating attribute reduction in incomplete 
decision systems with the variation of attribute set”, International Journal 
of Approximate Reasoning, vol. 55, no.3, pp. 867-884, 2014. 
[84] W.H. Shu, H. Shen, “Incremental feature selection based on rough set in 
dynamic incomplete data”, Pattern Recognition 47, pp.3890-3906, 2014. 
[85] W.H. Shu, W.B. Qian, “A fast approach to attribute reduction from 
perspective of attribute measures in incomplete decision systems”, 
Knowledge-Based Systems, V.72, pp. 60-71, 2014. 
[86] W.H. Shu, W.B. Qian, “An incremental approach to attribute reduction 
from dynamic incomplete decision systems in rough set theory”, Data & 
Knowledge Engineering 100, pp. 116-132, 2015. 
[87] W.H. Shua, W.B. Qian, Y.H. Xie, “Incremental approaches for feature 
selection from dynamic data with the variation of multiple objects”, 
Knowledge-Based Systems, Volume 163, pp. 320-331, 2019. 
[88] W.J. Liu, “An incremental approach to obtaining attribute reduction for 
dynamic decision systems”, Open Math 2016, 14, pp. 875–888, 2016. 
[89] W. Wei, P. Song, J.Y. Liang, X.Y. Wu, “Accelerating incremental 
attribute reduction algorithm by compacting a decision table”, 
International Journal of Machine Learning and Cybernetics, Springer, 
2018. 
[90] W. Wei, X.Y. Wu, J.Y. Liang, J.B. Cui, Y.J. Sun, “Discernibility matrix 
based incremental attribute reduction for dynamic data”, Knowledge-
Based Systems, Volume 140, pp. 142-157, 15 January 2018. 
[91] X. Guo, Y.Z. Xiang, L. Shu, “An Information Quantity-Based 
Uncertainty Measure to Incomplete Numerical Systems”, International 
Conference on Fuzzy Information & Engineering, pp. 23-29, 2019. 
[92] X.J. Xie, X. L. Qin, “A novel incremental attribute reduction approach 
for dynamic incomplete decision systems”, International Journal of 
Approximate Reasoning 93, pp. 443-462, 2018. 
[93] X.P. Dai, D.H. Xiong, “Research on Heuristic 
Knowledge Reduction Algorithm for Incomplete Decision Table”, IEEE 
121 
2010 International Conference on Internet Technology and Applications, 
pp. 1-3, 2010. 
[94] Xu E, Y.Q. Yang, Y.C. Ren, “A New Method of Attribute Reduction 
Based On Information Quantity in An Incomplete System”, JOURNAL 
OF SOFTWARE, VOL. 7, NO. 8, pp. 1881-1888, 2012. 
[95] X. Yang, T.R. Li, D. Liu, H.M. Chen, C. Luo, “A unified framework of 
dynamic three-way probabilistic rough sets”, Information Sciences 420, 
pp. 126-147, 2017. 
[96] X. Yang, T.R. Li, H. Fujita, D. Liu, Y.Y. Yao, “A unified model of 
sequential three-way decisions and multilevel incremental processing”, 
Knowledge-Based Systems 134, pp. 172-188, 2017. 
[97] Y. Cheng, “The incremental method for fast computing the rough fuzzy 
approximations”, Data Knowl. Eng. 70, pp. 84-100, 2011. 
[98] Y.H. Qian, J.Y. Liang, D.Y. Li, F. Wang, N.N. Ma, “Approximation 
reduction in inconsistent incomplete decision tables”, Knowledge-Based 
Systems, Volume 23, Issue 5, pp. 427-433, 2010. 
[99] Y.H. Qian, J.Y. Liang, W. Pedrycz, C.Y. Dang, “An efficient 
accelerator for attribute reduction from incomplete data in rough set 
framework”, Pattern Recognition 44, pp. 1658-1670, 2011. 
[100] Y. Jing, T. Li, C. Luo, S.J. Horng, G. Wang, Z. Yu, “An incremental 
approach for attribute reduction based on knowledge granularity”, 
Knowledge-Based Systems, Vol.104, pp. 24-38, 2016. 
[101] Y. Jing, T. Li, J. Huang, et al., “An incremental attribute reduction 
approach based on knowledge granularity under the attribute 
generalization”, Int. J. Approx. Reason. 76, pp.80-95, 2016. 
[102] Y. Jing, T. Li, H. Fujita, Z. Yu, B. Wang, An incremental attribute 
reduction approach based on knowledge granularity with a multi-
granulation view, Information Sciences 411, pp. 23-38, 2017. 
[103] Y. Jing, T. Li, J. Huang, H.M. Chen, S.J. Horng, “A Group Incremental 
Reduction Algorithm with Varying Data Values”, International Journal 
of Intelligent Systems 32(9), pp. 900-925, 2017. 
122 
[104] Y. Jing, T. Li, H. Fujita, B.L. Wang, N. Cheng, “An incremental 
attribute reduction method for dynamic data mining”, Information 
Sciences 465, pp. 202-218, 2018. 
[105] Y. Li, Y.F. Jin, X.D. Sun, “Incremental method of updating 
approximations in DRSA under variations of multiple objects”, Int. J. 
Mach. Learn. & Cyber, 2015. 
[106] Y.M. Liu, S.Y. Zhao, H. Chen, C.P. Li, Y.M. Lu, “Fuzzy Rough 
Incremental Attribute Reduction Applying Dependency Measures”, 
APWeb-WAIM 2017: Web and Big Data, pp 484-492, 2017. 
[107] Y. Tao, H.C. Zhao, “Entropy based attribute reduction approach 
for incomplete decision table”, 20th International Conference on 
Information Fusion (Fusion), pp. 1-8, 2017. 
[108] Y.Y. Huang, T.R. Li, C. Luo, H. Fujita, S.J. Horng, “Dynamic variable 
precision rough set approach for probabilistic set-valued information 
systems”, Knowledge-Based Systems 122, pp. 131-147,2017. 
[109] Y.Y. Huang , T.R. Li , C. Luo , H. Fujita , S.J. Horng , Matrix-based 
dynamic updating rough fuzzy approximations for data mining, Knowl. 
Based Syst. 119, pp. 273-283, 2017. 
[110] Y.Y. Yang, D.G. Chen, H. Wang, “Active Sample Selection Based 
Incremental Algorithm for Attribute Reduction With Rough Sets”, IEEE 
Transactions on Fuzzy Systems, 25(4), pp. 825–838, 2017. 
[111] Y.Y. Yang, D.G. Chen, H. Wang, Eric C.C.Tsang, D.L. Zhang, “Fuzzy 
rough set based incremental attribute reduction from dynamic data with 
sample arriving”, Fuzzy Sets and Systems, Volume 312, 1, Pages 66-86, 
April 2017. 
[112] Y.Y. Yang, D.G. Chen, H. Wang, X.H. Wang, “Incremental perspective 
for feature selection based on fuzzy rough sets”, IEEE TRANSACTIONS 
ON FUZZY SYSTEMS, TFS-2016-0916, 27 June 2017. 
[113] Z. Pawlak, Rough sets: Theoretical Aspects of Reasoning about Data, 
Kluwer Academic Publisher, London, 1991. 
123 
[114] Z.Q. Meng, Z.Z. Shi, “A fast approach to attribute reduction in 
incomplete decision systems with tolerance relation-based rough sets”, 
Information Sciences, Vol. 179, pp. 2774-2793, 2009. 
[115] Z.Q. Meng, Z.Z. Shi, “Extended rough set-based attribute reduction in 
inconsistent incomplete decision systems”, Information Sciences, Volume 
204, pp. 44-69, 2012. 
[116] Z.Y. Xu, B. Yang, W.H. Shu, "Efficient Algorithm for Attribute 
Reduction of Incomplete Information Systems Based on Assignment 
Matrix”, Fuzzy Information and Engineering, Volume 2, 2009. 
[117] Z.Y. Xu, J.H. Zhou, C.G. Zhang, “A Quick Attribute Reduction 
Algorithm Based on Incomplete Decision Table”, Information Computing 
and Applications, 2013. 
[118] The UCI machine learning repository.