Chương này trình bày giải pháp nâng cao chất lượng của FLRBC được thiết kế
trên cơ sở ĐSGT sử dụng kỹ thuật tính toán mềm và giảm thời gian sinh tập luật
khởi đầu. Một số quả và kết luận như sau:
- Đề xuất ứng dụng của hai thuật toán tối ưu bầy đàn đa mục tiêu MOPSO
(công trình CT2) và thuật toán lai MOPSO-SA (công trình CT6) để tối ưu các tham
số ngữ nghĩa và tìm kiếm hệ luật tối ưu đối với phương pháp thiết kế FLRBC với
ngữ nghĩa tính toán của từ ngôn ngữ được xác định dựa trên ĐSGT thay thế thuật
toán di truyền lai GSA được sử dụng trong [5, 57]. Các thực nghiệm được thực hiện
trên cùng một phương pháp luận ĐSGT được áp dụng để thiết kế FLRBC, chỉ khác
nhau về thuật toán tối ưu được áp dụng. Các kết quả thực nghiệm cho thấy, chất
lượng của mô hình phân lớp dựa trên luật ngôn ngữ mờ với ngữ nghĩa tính toán của
từ ngôn ngữ được xác định dựa trên ĐSGT phụ thuộc vào chất lượng của thuật toán114
tiến hóa tối ưu được áp dụng. Do vậy, ta có một kết luận quan trọng là để so sánh
một phương pháp thiết kế hệ phân lớp dựa trên luật mờ nói chung và phương pháp
thiết kế hệ phân lớp dựa trên luật mờ với ngữ nghĩa tính toán của từ ngôn ngữ được
xác định dựa trên ĐSGT nói riêng có sử dụng thuật toán tối ưu tốt hơn phương pháp
khác thì hai phương pháp được so sánh phải sử dụng cùng một thuật toán tối ưu.
- Trình bày ứng dụng kỹ thuật lựa chọn đặc trưng trong phương pháp thiết kế
FLRBC với ngữ nghĩa tính toán của các từ ngôn ngữ được xác định dựa trên ĐSGT
như một kỹ thuật tiền xử lý nhằm giảm thời gian sinh tập luật khởi đầu từ các tập dữ
liệu có số chiều lớn và không làm giảm chất lượng của hệ phân lớp. Hiệu quả của
việc áp dụng kỹ thuật này cho ta kết luận là để giảm thời gian sinh tập luật khởi đầu
từ các tập dữ liệu có số chiều lớn, kỹ thuật lựa chọn đặc trưng cần được áp dụng.
Nội dung này của luận án được công bố trong các công trình [CT7, CT8].
153 trang |
Chia sẻ: yenxoi77 | Lượt xem: 530 | Lượt tải: 0
Bạn đang xem trước 20 trang tài liệu Luận án Phát triển một số phương pháp thiết kế hệ phân lớp trên cơ sở lý thuyết tập mờ và đại số gia tử - Phạm Đình Phong, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
ng tiếp cận thiết kế hệ phân lớp dựa trên ĐSGT tồn tại những hạn chế cần có
những nghiên cứu tiếp theo cũng như mở rộng ứng dụng ĐSGT như sau:
- Các phương pháp thiết kế hệ phân lớp dựa trên luật ngôn ngữ mờ với ngữ
nghĩa tính toán của các từ ngôn ngữ được xác định dựa trên ĐSGT được đề xuất từ
trước đến nay đều được thực hiện dựa trên hai giai đoạn là thiết kế tối ưu các từ
ngôn ngữ và tìm kiếm hệ luật tối ưu. Việc chia giai đoạn này có thể chưa đảm bảo
tìm được bộ tham số ngữ nghĩa và hệ luật tốt nhất. Giải pháp có thể được cải tiến ở
đây là nghiên cứu áp dụng kỹ thuật đồng tối ưu các tham số ngữ nghĩa và tìm kiếm
hệ luật tối ưu.
- Tiếp cận thiết kế hệ phân lớp dựa trên luật ngôn ngữ mờ trong luận án sử
dụng ĐSGT để trích rút hệ luật ngôn ngữ mờ cho hệ phân lớp với ngữ nghĩa của các
từ ngôn ngữ trong cơ sở luật là ngữ nghĩa dựa trên tập mờ. Do đó, khi lập luận phân
lớp sử dụng phương pháp lập luận Single winner rule hay Weighted vote đều phải
116
sử dụng các phép toán trên tập mờ và kết quả phụ thuộc vào việc lựa chọn các phép
toán này. Với ĐSGT, ta có thể xây dựng phương pháp lập luận riêng mà không cần
sử dụng tập mờ. Một trong các hướng nghiên cứu tiếp theo là xây dựng phương
pháp lập luận cho hệ phân lớp dựa trên luật ngôn ngữ mờ hoàn toàn sử dụng ĐSGT.
- Trong thực tế tồn tại nhiều dạng bài toán phân lớp khác nhau đang được các
nhà nghiên cứu quan tâm giải quyết bằng hệ phân lớp dựa trên luật ngôn ngữ mờ
như: Bài toán phân lớp đối với tập dữ liệu lớn, bài toán phân lớp đối với các tập dữ
liệu thiếu thông tin, bài toán phân lớp đối với các tập dữ liệu có số mẫu dữ liệu
không cân bằng đối với các nhãn lớp, bài toán học nửa giám sát, bài toán học trực
tuyến, Đây là các bài toán cần những kỹ thuật xử lý khác nhau và có thể được
giải quyết hiệu quả kết hợp với phương pháp luận ĐSGT.
Luận án đã chứng tỏ khả năng ứng dụng hiệu quả của ĐSGT mở rộng trong
thiết kế tự động hệ phân lớp dựa trên luật ngôn ngữ mờ. ĐSGT mở rộng cần được
ứng dụng trong việc giải quyết các bài toán ứng dụng khác nhau như các bài toán
điều khiển, thao tác cơ sở dữ liệu mờ và nhận dạng hệ mờ nhằm tăng tính hiệu quả
và tính linh hoạt trong biểu diễn ngữ nghĩa.
117
DANH MỤC CÔNG TRÌNH KHOA HỌC CỦA TÁC GIẢ
LIÊN QUAN ĐẾN LUẬN ÁN
[CT1] Nguyễn Cát Hồ, Trần Thái Sơn, Phạm Đình Phong (2012), “Định lượng
ngữ nghĩa khoảng của đại số gia tử với việc bổ sung một gia tử đặc biệt”,
Tạp chí Tin học và Điều khiển học Tập 28 (4), tr. 346 – 358.
[CT2] Phong Pham Dinh, Ho Nguyen Cat, Thuy Nguyen Thanh (2013), “Multi-
objective Particle Swarm Optimization Algorithm and its Application to the
Fuzzy Rule Based Classifier Design Problem with the Order Based
Semantics of Linguistic Terms”, In proceeding of The 10th IEEE RIVF
International Conference on Computing and Communication Technologies
(RIVF-2013), Hanoi, Vietnam, pp. 12 – 17.
[CT3] Phạm Đình Phong, Nguyễn Cát Hồ, Nguyễn Thanh Thủy (2013), “Nghiên
cứu phương pháp xây dựng thể hạt với ngữ nghĩa tập mờ tam giác của các từ
ngôn ngữ cho bài toán phân lớp”, Kỷ yếu Hội nghị Quốc gia lần thứ VI về
Nghiên cứu cơ bản và ứng dụng Công nghệ thông tin, Thừa Thiên – Huế, tr.
385 – 393.
[CT4] Phạm Đình Phong, Nguyễn Cát Hồ, Trần Thái Sơn, Nguyễn Thanh Thủy
(2013), “Một phương pháp thiết kế hệ phân lớp mờ dựa trên việc mở rộng
lượng hóa Đại số gia tử”, Tạp chí Tin học và Điều khiển học Tập 29 (4), tr.
325 – 337.
[CT5] Cat Ho Nguyen, Thai Son Tran, Dinh Phong Pham (2014), “Modeling of a
semantics core of linguistic terms based on an extension of hedge algebra
semantics and its application”, Knowledge-Based Systems 67, pp. 244 – 262
(SCI indexed).
[CT6] Phong Pham Dinh, Thuy Nguyen Thanh, Thanh Tran Xuan (2014), “A
Hybrid Multi-objective PSO-SA Algorithm for the Fuzzy Rule Based
Classifier Design Problem with the Order Based Semantics of Linguistic
Terms”, VNU Journal of Science: Computer Science and Communication
Engineering 30 (4), pp. 44–56.
[CT7] Pham Dinh Phong (2015), “An application of feature selection for the fuzzy
rule based classifier design with the order based semantics of linguistic terms
for high-dimensional datasets”, Journal of Computer Science and
Cybernetics 31 (2), pp. 171 – 184.
118
[CT8] Pham Dinh Phong (2015), “An application of feature selection for the fuzzy
rule based classifier design based on an enlarged hedge algebras for high-
dimensional datasets”, Journal of Science and Technology, VAST, ISSN:
0866-708X 53 (5), pp. 583–597.
119
TÀI LIỆU THAM KHẢO
Tiếng Việt
1. Phạm Thanh Hà (2009), Phát triển các phương pháp lập luận mờ sử dụng đại số gia
tử và ứng dụng, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm
Khoa học và Công nghệ Việt Nam.
2. Nguyễn Công Hào (2008), Cơ sở dữ liệu mờ với thao tác dữ liệu dựa trên đại số gia
tử, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và
Công nghệ Việt Nam.
3. Nguyễn Cát Hồ, Hoàng Văn Thông, Nguyễn Văn Long (2013), “Một phương pháp
tiến hóa sinh hệ luật mờ cho bài toán phân lớp với ngữ nghĩa thứ tự ngôn ngữ”, Tạp
chí Tin học và Điều khiển học Tập 28 (4), tr. 333–345.
4. Bùi Hải Lê (2011), Điều khiển các tham số dao động của kết cấu và ứng dụng, Luận
án tiến sĩ kỹ thuật, Trường Đại học Bách khoa Hà Nội.
5. Dương Thăng Long (2010), Phương pháp xây dựng hệ mờ dạng luật với ngữ nghĩa
dựa trên Đại số gia tử và ứng dụng trong bài toán phân lớp, Luận án tiến sĩ toán học,
Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam.
6. Vũ Minh Lộc (2005), Phương pháp lập luận xấp xỉ và ứng dụng vào một số bài toán
trợ giúp quyết định trong giáo dục, Luận án tiến sĩ toán học, Viện Công nghệ thông
tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam.
7. Nguyễn Duy Minh (2013), Tiếp cận đại số gia tử trong điều khiển mờ, Luận án tiến sĩ
toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt
Nam.
8. Huỳnh Văn Nam (1999), Một cơ sở đại số cho logic mờ Zadeh và tính toán trên các
từ, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và
Công nghệ Việt Nam.
9. Trần Thái Sơn, Đỗ Nam Tiến, Phạm Đình Phong (2011), “Luật kết hợp theo cách tiếp
cận đại số gia tử”, Tạp chí Tin học và Điều khiển học Tập 27 (4), tr. 341–352.
10. Hoàng Văn Thông, Nguyễn Cát Hồ, Nguyễn Văn Long (2014), “Một phương pháp
sinh hệ luật mờ Mamdani cho bài toán hồi qui với ngữ nghĩa Đại số gia tử”, Tạp chí
Tin học và Điều khiển học Tập 30 (3), tr. 227–238.
Tiếng Anh
11. Abe S., Lan M. S. (1995), “A method for fuzzy rules extraction directly from
numerical data and its application to pattern classification”, IEEE Transactions on
Fuzzy Systems 3 (1), pp. 18-28.
12. Abonyi J., Roubos J. A., Szeifert F. (2003), "Data-driven generation of compact,
accurate, and linguistically sound fuzzy classifiers based on a decision-tree
initialization", International Journal of Approximate Reasoning 32, pp. 1–21
120
13. Alcalá R., Ducange P., Herrera F., Lazzerini B. (2009), “A Multiobjective
Evolutionary Approach to Concurrently Learn Rule and Data Bases of Linguistic
Fuzzy-Rule-Based Systems”, IEEE Transactions on fuzzy systems 17 (5), pp. 1106–
1122.
14. Alcalá R., Nojima Y., Herrera F., Ishibuchi H. (2011), “Multi-objective genetic fuzzy
rule selection of single granularity-based fuzzy classification rules and its interaction
with the lateral tuning of membership functions”, Soft Computing 15 (12), pp. 2303–
2318.
15. Antonelli M., Ducange P., Marcelloni F. (2013), “An efficient multi-objective
evolutionary fuzzy system for regression problems”, International Journal of
Approximate Reasoning 54 (9), pp. 1434–1451.
16. Antonelli M., Ducange P., Marcelloni F. (2014), “A fast and efficient multi-objective
evolutionary learning scheme for fuzzy rule-based classifiers”, Information Sciences
283, pp. 36–54.
17. Ballings M., Poel D. V., Hespeels N., Gryp R. (2015), “Evaluating multiple classifiers
for stock price direction prediction”, Expert Systems with Applications 42, pp. 7046–
7056.
18. Battaini M., Casciati F., Faravelli L. (1999), “Fuzzy control of structural vibration: an
active mass system driven by a fuzzy controller”, Earthquake Eng. Struct. Dynam. 27
(11), pp. 1267–1276.
19. Berenji R. H., Khedkar P. (1992), “Learning and tuning fuzzy logic controller through
reinforcements”, IEEE Transactions on neural networks 3 (3), pp. 724-740.
20. Burges C. (1998), “A tutorial on Support Vector Machines for pattern recognition”,
Proceedings of Int Conference on Data Mining and Knowledge Discovery 2 (2), pp.
121–167.
21. Butnariu D. (1983), “Additive fuzzy measures and integrals”, Journal of
Mathematical Analysis and Applications 93 (2), pp. 436–452.
22. Chen C. C. (2006), “Design of PSO-based Fuzzy Classication Systems”, Tamkang
Journal of Science and Engineering 9 (1), pp. 63–70.
23. Coello C. A. C., Lechuga M. S. (2002), “MOPSO: A proposal for multiple objective
particle swarm optimization”, in: Proceedings of the 2002 Congress on Evolutionary
Computation, IEEE Press, Hawaii, pp. 1051–1056.
24. Coello C. A. C., Pulido G. T., Lechuga M. S. (2004), “Handling multiple objectives
with particle swarm optimization”, IEEE Transactions on Evolutionary Computation,
8 (3), pp. 256–279.
25. Cohen W. W. (1995), “Fast effective rule induction”, Proceedings of the 12th
International Conference on Machine Learning, Morgan Kaufmann, pp. 115–123.
121
26. Cordon O., Jesus M. J., Herrera F. (1999), “A proposal on reasoning methods in fuzzy
rule-based classification systems”, Int. J. Approx. Reason. 20 (1), pp. 21–45.
27. Cordon O., Herrera F., Hoffmann F., Magdalena L. (2001), Genetic Fuzzy Systems:
Evolutionary Tuning and Learning of Fuzzy Knowledge Bases, World Scientific
Publishing, Singapore.
28. Deb K., Pratap A., Agarwal S., Meyarivan T. (2002), “A fast and elitist multiobjective
genetic algorithm: NSGA-II”, IEEE Transactions on Evolutionary Computation 6 (2),
pp. 182–197.
29. DelaOssa L., Gámez J. A., Puerta J. M. (2009), “Learning weighted linguistic fuzzy
rules by using specifically-tailored hybrid estimation of distribution algorithms”,
International Journal of Approximate Reasoning 50 (3), pp. 541–560.
30. Demˇsar J. (2006), “Statistical Comparisons of Classifiers over Multiple Data Sets”,
Journal of Machine Learning Research 7, pp. 1–30.
31. Dinko V., Mateo B., Ho. N. C., Lan V. N., Duy N. T. (2014), “Hedge-algebra-based
voltage controller for a self-excited induction generator”, Control Engineering
Practice 30, pp. 78–90.
32. Dong D. K., Khang T. D., Phong P. A. (2010), “Fuzzy clustering with hedge algebra”,
Proceedings of the 2010 Symposium on Information and Communication Technology,
SoICT 2010, Hanoi, Viet Nam, pp. 49–54.
33. Eberhart, R. C. , Kennedy J., “A new optimizer using particle swarm theory”,
Proceedings of the Sixth International Symposium on Micro Machine and Human
Science”, Nagoya, Japan, pp. 39-43.
34. Fakhrahmad S.M., Jahromi M. Z. (2009), “A New Rule-weight Learning Method
based on Gradient Descent”, Proceedings of the World Congress on Engineering,
London, U.K, Vol I WCE 2009, July 1–3.
35. Fazzolari M., Alcalá R., Nojima Y., Ishibuchi H., Herrera F. (2013), “Improving a
Fuzzy Association Rule-Based Classification Model by Granularity Learning based
on Heuristic Measures over Multiple Granularities”, 2013 IEEE Int. Workshop on
Genetic and Evolutionary Fuzzy Systems, pp. 44–51.
36. Fazzolari M., Alcalá R., Herrera F. (2014), “A multi-objective evolutionary method
for learning granularities based on fuzzy discretization to improve the accuracy-
complexity trade-off of fuzzy rule-based classification systems: D-MOFARC
algorithm”, Applied Soft Computing 24, pp. 470–481.
37. Fernández A., García S., Jesus M. J., Herrera F. (2008), “A study of the behaviour of
linguistic fuzzy rule based classification systems in the framework of imbalanced
data-sets”, Fuzzy Sets and Systems 159, pp. 2378–2398.
122
38. Fernández A., Jesus M. J., Herrera F. (2009), “Hierarchical fuzzy rule based
classification systems with genetic rule selection for imbalanced data-sets”,
International Journal of Approximate Reasoning 50, pp. 561–577.
39. Fernández A., Jesus M. J., Herrera F. (2009), “On the influence of an adaptive
inference system in fuzzy rule based classification systems for imbalanced data-sets”,
Expert Systems with Applications 36, pp. 9805–9812.
40. Fernández A., Jesus M. J., Herrera F. (2010), “On the 2-tuples based genetic tuning
performance for fuzzy rule based classification systems in imbalanced data-sets”,
Information Sciences 180, pp. 1268–1291.
41. Fdez J. A., Alcalá R., Herrera F. (2011), “A Fuzzy Association Rule-Based
Classification Model for High-Dimensional Problems With Genetic Rule Selection
and Lateral Tuning”, IEEE Transactions on Fuzzy Systems 19 (5), pp. 857–872.
42. Gabrys B., Bargiela A. (2000), “General Fuzzy Min-Max Neural Network for
Clustering and Classification”, IEEE Transactions on Neural Networks 11 (3), pp.
769–783.
43. Gacto M.J. , Alcalá R. , Herrera F. (2011), “Interpretability of Linguistic Fuzzy Rule-
Based Systems: An Overview of Interpretability Measures”, Information Science 181
(20), pp. 4340–4360.
44. Gacto M. J., Galende M., Alcalá R., Herrera F. (2014), “METSK-HDe: A
multiobjective evolutionary algorithm to learn accurate TSK-fuzzy systems in high-
dimensional and large-scale regression problems”, Information Sciences 276, pp. 63–
79.
45. Ghosh A. K. (2012), “A probabilistic approach for semi-supervised nearest neighbor
classification”, Pattern Recognition Letters 33 (9), pp. 1127–1133.
46. González A., Perez R. (1999), “SLAVE: a genetic learning system based on an
iterative approach”, IEEE Transaction on Fuzzy System, 27 (2), pp. 176-191.
47. González A., Perez R. (2001), “Selection of Relevant Features in a Fuzzy Genetic
Learning Algorithm”, IEEE Transaction on Fuzzy System 31 (3), pp. 417-425.
48. González A., Perez R. (2009), “Improving the genetic algorithm of SLAVE”,
Mathware & Soft Computing 16, pp. 59-70.
49. Guo H., Jack LB., Nandi AK. (2005), “Feature generation using genetic programming
with application to fault classification”, IEEE Trans. Syst Man. Cybern., part B 35
(1), pp. 89–99.
50. Ho N. C., Wechle W. (1990), “Hedge algebras: an algebraic approach to structures of
sets of linguistic domains of linguistic truth values”, Fuzzy Sets and Systems 35 (3),
pp. 281–293.
51. Ho N. C., Wechler W. (1992), “Extended algebra and their application to fuzzy
logic”, Fuzzy Sets and Systems 52, pp. 259–281.
123
52. Ho N. C, Nam H. V., Khang T. D., Chau N. H. (1999), “Hedge Algebras, Linguistic-
valued logic and their application to fuzzy reasoning”, Internat. J.Uncertain.
Fuzziness Knowledge-Based Systems 7 (4), pp. 347–361.
53. Ho N. C., Son T. T., Khang T. D., Viet L. X. (2002), “Fuzziness Measure, Quantified
Semantic Mapping And Interpolative Method of Approximate Reasoning in Medical
Expert Systems”, Journal of Computer Science and Cybernetics 18 (3), pp. 237–252.
54. Ho N. C., Long N. V (2007), “Fuzziness measure on complete hedges algebras and
quantifying semantics of terms in linear hedge algebras”, Fuzzy Sets and Systems 158,
pp. 452–471.
55. Ho N. C. (2007), “A topological completion of refined hedge algebras and a model of
fuzziness of linguistic terms and hedges”, Fuzzy Sets and Systems 158, pp. 436–451.
56. Ho N. C., Lan V. N., Viet L. X. (2008), “Optimal hedge-algebras-based controller:
Design and application”, Fuzzy Sets and Systems 159, pp. 968 – 989.
57. Ho N. C., Pedrycz W., Long D. T., Son T. T. (2013), “A genetic design of linguistic
terms for fuzzy rule based classifiers”, International Journal of Approximate
Reasoning 54 (1), pp. 1– 21.
58. Ho N. C., Thong H. V., Long N. V. (2015), A discussion on interpretability of
linguistic rule based systems and its application to solve regression problems,
Knowledge-Based Systems 88, pp. 107–133.
59. Hu X., Eberhart R. (2002), “Multiobjective Optimization Using Dynamic
Neighbourhood Particle Swarm Optimization”, in: Proceedings of the 2002 Congress
on Evolutionary Computation, IEEE Press, Hawaii, pp. 1677-1681.
60. Huhn J., Hullermeier E. (2009), “FURIA: an algorithm for unordered fuzzy rule
induction”, Data Min. Knowl. Discov. 19, pp. 293–319.
61. Ishibuchi H., Nozaki K., Tanaka H. (1992), “Distributed representation of fuzzy rules
and its application to pattern classification”, Fuzzy Sets and Systems 52 (1), pp. 21–
32.
62. Ishibuchi H., Nozaki K., Yamamoto N., Tanaka H. (1995), “Selecting fuzzy if-then
rules for classification problems using genetic algorithms”, IEEE Trans. on Fuzzy
Systems 3 (3), pp. 260–270.
63. Ishibuchi H., Nakashima T., Murata T. (1995), “A fuzzy classifier system that
generates fuzzy if-then rules for pattern classification problems”, IEEE International
Conference on Evolutionary Computation 2, pp. 759–764.
64. Ishibuchi H., Murata T., Türkşen I. B. (1995), “Selecting linguistic classification rules
by two-objective genetic algorithms”, Proc. IEEE-SMC'95,Vancouver, Canada, pp.
1410–1415.
124
65. Ishibuchi H., Murata T., Türkşen I. B. (1997), “Single-objective and two-objective
genetic algorithms for selecting linguistic rules for pattern classification problems”,
Fuzzy Sets and Systems 89 (2), pp. 135–150.
66. Ishibuchi H., Nakashima T., Murata T. (2001), “Three-objective genetics based
machine learning for linguistic rule genetics-extraction”, Information Sciences 136,
pp. 109–133.
67. Ishibuchi H., Yamamoto T. (2004), “Fuzzy Rule Selection by Multi-Objective
Genetic Local Search Algorithms and Rule Evaluation Measures in Data Mining”,
Fuzzy Sets and Systems 141 (1), pp. 59–88.
68. Ishibuchi H., Yamamoto T. (2005), “Rule weight specification in fuzzy rule-based
classification systems”, IEEE Transactions on Fuzzy Systems 13 (4), pp. 428–435.
69. Ishibuchi H., Nojima Y. (2007), “Analysis of interpretability-accuracy tradeoff of
fuzzy systems by multiobjective fuzzy genetics-based machine learning”,
International Journal of Approximate Reasoning 44, pp. 4–31.
70. Ishibuchi H. (2007), "Evolutionary Multiobjective Optimization for Fuzzy
Knowledge Extraction", 8th International Symposium on Advanced Intelligent
Systems, Sokeho, Korea, pp. 58-62.
71. Jahromi M. Z., Taheri M. (2008), “A proposed method for learning rule weights in
fuzzy rule-based classification systems”, Fuzzy Sets and Systems 159 (4), pp. 449–
459.
72. Jang J. S. R. (1993), “ANFIS: Adaptive-network-based fuzzy inference system”,
IEEE Trans. on Systems, Man and Cybernetics 23 (3), pp. 665–685.
73. Jiménez F., Sánchez G., Juárez J. M. (2014), “Multi-objective evolutionary
algorithms for fuzzy classification insurvival prediction”, Artificial Intelligence in
Medicine 60, pp. 197–219.
74. Ji-lin C., Yuan-long H., Zong-y X., Li-min J., Zhong-zhi T. (2006), “A Multi-
objective Genetic-based Method for Design Fuzzy Classification Systems”, IJCSNS
International Journal of Computer Science and Network Security 6 (8A), pp. 110–
118.
75. Kennedy J., Eberhart R. C. (1995), “Particle Swarm Optimization”, In Proceedings of
the IEEE International Conference on Neural Networks, Piscataway, New Jersey.
IEEE Service Center, pp. 1942–1948.
76. Kevin L., Olivier S. (2006), "Fuzzy Histograms and Density Estimation", Advances in
Soft Computing, pp. 45-52.
77. King P. J., Mamdani E. H. (1977), “The application of fuzzy control systems to
industrial processes”, Automatica 13 (3), pp. 235–242.
78. Kirkpatrick S., Gelatt C. D., Vecchi M. P. (1983), "Optimization by simulated
annealing", Science 220 (4598), pp. 671-680.
125
79. Knowles J., Corne D. (1999), “The Pareto Archived Evolution Strategy: A New
Baseline Algorithm for Pareto Multiobjective Optimisation”, In Proceedings of the
Congress on Evolutionary Computation, Mayflower Hotel, Washington D.C., USA.
IEEE Press, volume 1, pp. 98–105.
80. Langseth H., Nielsen T. D. (2006), Classification using Hierarchical Naïve Bayes
models, Machine Learning 63 (2), pp. 135–159.
81. Le B. H., Ho N. C., Pedrycz W., Trung T. D., Lan V. N. (2012), “Active control of
earthquake-excited structures with the use of hedge-algebras-based controllers”,
Journal of Science and Technology 50 (6), pp. 705–734.
82. Le B. H., Ho N. C., Lan V. N., Hung N. C. (2015), “General design method of hedge-
algebras-based fuzzy controlers and an application for structural active control”,
Applied Intelligence 43 (2), pp. 251–275.
83. Lechuga M. S. (2006), Multi-Objective Optimisation using Sharing in Swarm
Optimisation Algorithms, Doctor thesis, School of Computer Science, The University
of Birmingham.
84. Li X. (2003), “A non-dominated sorting particle swarm optimizer for multi-objective
optimization”, in: Proceedings of the Genetic and Evolutionary Computation
Conference, Lecture Notes in Computer Science 2723, pp. 37–48.
85. Liu J., Yu Z., Ma D. (2012), “An Adaptive Fuzzy Min-Max Neural Network
Classifier Based on Principle Component Analysis and Adaptive Genetic Algorithm”,
Mathematical Problems in Engineering 2012, pp. 1–21.
86. López V., Fernández A., delJesus M. J., Herrera F. (2013), “A hierarchical genetic
fuzzy system based on genetic programming for addressing classification with highly
imbalanced and borderline data-sets”, Knowledge-Based Systems 38, pp. 85–104.
87. López V., Triguero I., Carmona C. J., García S., Herrera F. (2014), “Addressing
imbalanced classification with instance generation techniques: IPADE-ID”,
Neurocomputing 126, pp. 15–28.
88. Luengo J., Sáez J. A., Herrera F. (2012), “Missing data imputation for fuzzy rule-
based classification systems”, Soft Computing 16 (5), pp. 863-881.
89. Mamdani E. H. (1974), “Application of fuzzy algorithms for control of simple
dynamic plants”, in: Proceedings of the IEEE 121, pp. 1585–1588.
90. Mamdani E. H., Assilian S. (1975), “An experiment in linguistic synthesis with a
fuzzy logic controller”, International Journal of Man-Machine Studies 7 (1), pp. 1–
13.
91. Mansoori E. G., Zolghadri M. J., Katebi S. D. (2007), “A weighting function for
improving fuzzy classification systems performance”, Fuzzy Sets and Systems 158,
pp. 583– 591.
126
92. Mansoori E. G., Zolghadri M. J., Katebi S. D. (2008), “SGERD: A Steady-State
Genetic Algorithm for Extracting Fuzzy Classification Rules From Data”, IEEE
Transaction on fuzzy systems 16 (4), pp. 1061-1071.
93. Mostaghim S., Teich J. (2003), “Strategies for Finding Good Local Guides in Multi-
objective Particle Swarm Optimization (SIS’03)”, IEEE Service Center, Inidanapolis,
Indiana, USA, pp. 26–33.
94. Miller G. A. (1956), “The magical number seven plus or minus two: some limits on
our capacity for processing information”, The Psychological Review 63, pp. 81–97.
95. Nakashima T., Schaefer G., Yokota Y., Ishibuchi H. (2007), A weighted fuzzy
classifier and its application to image processing tasks, Fuzzy Sets and Systems 158,
pp. 284–294.
96. Nauck D., Kruse R. (1995), “NEFCLASS: A neuro-fuzzy approach for the
classification of data”, In Proc. of the 1995 ACM Symposium on Applied Computing,
Nashville, TN, pp. 461–465.
97. Nauck D., Kruse R. (1997), “A neuro-fuzzy method to learn fuzzy classification rules
from data”, Fuzzy Sets and Systems 89 (3), pp. 277–288.
98. Nauck D., Kruse R. (1998), “How the learning of rule weights affects the
interpretability of fuzzy systems”, in Proc. 7th IEEE Int. Conf. Fuzzy Systems,
Anchorage, AK, pp. 1235–1240.
99. Pakhira M. K., Bandyopadhyay S., Maulik U. (2004), “Validity index for crisp and
fuzzy clusters”, Pattern Recognition 37, pp. 487–501.
100. Pakhira M. K., Bandyopadhyay S., Maulik U. (2005), “A study of some fuzzy cluster
validity indices, genetic clustering and application to pixel classification”, Fuzzy Sets
and Systems 155, pp. 191–214.
101. Prusty M. R., Jayanthi T., Chakraborty J., Seetha H., Velusamy K. (2015),
“Performance analysis of fuzzy rule based classification system for transient
identification in nuclear power plant”, Annals of Nuclear Energy 76, pp. 63–74.
102. Quinlan J. R. (1993), C4.5: Programs for Machine Learning, Morgan Kauffman
Publishers, San Mateo, California, USA.
103. Pulkkinen p., Koivisto H. (2008), "Fuzzy classifier identification using decision tree
and multiobjective evolutionary algorithms", International Journal of Approximate
Reasoning 48, pp. 526–543.
104. Puranik P., Bajaj P., Abraham A., Palsodkar P., Deshmukh P. (2011), “Human
Perception-based Color Image Segmentation Using Comprehensive Learning Particle
Swarm Optimization”, Journal of Information Hiding and Multimedia Signal
Processing 2 (3), pp. 227-235.
127
105. Rao A. R. M., Sivasubramanian K. (2008), “Multi-objective optimal design of fuzzy
logic controller using a self configurable swarm intelligence algorithm”, Comput.
Struct. 86, pp. 2141–2154.
106. Roh S. B., Pedrycz W., Ahn T. C. (2014), “A design of granular fuzzy classifier”,
Expert Systems with Applications 41, pp. 6786–6795.
107. Roubos J. A., Setnes M., Abonyi J. (2003), “Learning fuzzy classification rules from
labeled data”, Information Sciences 150, pp. 77–93.
108. Salehi S., Selamat A., Mashinchi M. R., Fujita H. (2015), "The synergistic
combination of particle swarm optimization and fuzzy sets to design granular
classifier", Knowledge-Based Systems 76, pp. 200–218.
109. Sanjeevi S. G., Nikhila A. N., Khan T., Sumathi G. (2012), “Comparison of Hybrid
PSO-SA Algorithm and Genetic Algorithm for Classification”, Computer
Engineering and Intelligent Systems, 3 (2), pp. 37-45.
110. Sanz J., Fernández A., Bustince H., Herrera F. (2011), “A genetic tuning to improve
the performance of Fuzzy Rule-Based Classification Systems with Interval-Valued
Fuzzy Sets: Degree of ignorance and lateral position”, International Journal of
Approximate Reasoning 52 (6), pp. 751–766.
111. Setiono D. (1999), “Generating concise and accurate classification rules for breast
cancer diagnosis”, Artificial Intelligence in Medicine 18, pp. 205–219.
112. Setnes M., Roubos H. (2000), “GA-fuzzy modeling and classification: Complexity
and performance”, IEEE Trans. on Fuzzy Systems 8 (8), pp. 509–522.
113. Shi Y., Eberhart R., Chen Y. (1999), “Implementation of evolutionary fuzzy
systems”, IEEE Trans. on Fuzzy Systems 7 (2), pp. 109–119.
114. Simpson P. K. (1992), “Fuzzy min-max neural networks - I: Classification”, IEEE
Transactions on Neural Networks 3 (5), pp. 776–786.
115. Sun S., Zhang C., Zhang D. (2007), “An experimental evaluation of ensemble
methods for EEG signal classification”, Pattern Recognition Letters 28 (15), pp.
2157–2163.
116. Sun X., Liu Y., Xu M., Chen H., Han J., Wanga K. (2013), “Feature selection using
dynamic weights for classification”, Knowledge-Based Systems 37, pp. 541–549.
117. Takagi T., Sugeno M. (1985), “Fuzzy identification of systems and its applications to
modeling and control”, IEEE Trans. on Systems, Man, and Cybernetics 15 (1), pp.
116–132.
118. Tao J., Li Q., Zhu C., Li J. (2012), “A hierarchical naive Bayesian network classifier
embedded GMM for textural image”, International Journal of Applied Earth
Observation and Geoinformation 14 (1), pp. 139–148.
128
119. Tripathi P. K., Bandyopadhyay S., Pal S. K. (2007), “Multi-Objective Particle Swarm
Optimization with time variant inertia and acceleration coefficients”, Information
Sciences 177, pp. 5033–5049.
120. Vuorimaa P. (1994), “Fuzzy self-organizing map”, Fuzzy Sets and Systems 66 (2), pp.
223–231.
121. Wang L. X., Mendel J. M. (1992), “Generating fuzzy rules by learning from
examples”, IEEE Trans. on Systems, Man and Cybernetics 22 (6), pp. 1414–1427.
122. Wu C., Lin C. J., Lee C. Y. (2011), “A functional neural fuzzy network for
classification applications”, Expert Systems with Applications 38 (5), pp. 6202–6208.
123. Zadel L. A. (1965), “Fuzzy sets”, Information and Control 8, pp. 338–353.
124. Zadeh L. A. (1975), “The concept of a linguistic variable and its application to
approximate reasoning – I–III”, Inf. Sci. 8 (3), pp. 199–249;
Zadeh L. A. (1975), “The concept of a linguistic variable and its application to
approximate reasoning – I–III”, Inf. Sci. 8 (4), pp. 301–357;
Zadeh L. A. (1975), “The concept of a linguistic variable and its application to
approximate reasoning – I–III”, Inf. Sci. 9 (1), pp. 43–80.
125. Zhang Y., Lu Z., Li J. (2010), “Fabric defect classification using radial basis function
network”, Pattern Recognition Letters 31 (13), pp. 2033–2042.
126. Zhao Z., Wang G., Zhao W., Chen H., Zhao W., Li L. (2011), “A Fuzzy Adaptive
Multi-Population Parallel Genetic Algorithm for Spam Filtering”, Journal of
Convergence Information Technology 6 (2), pp. 172–182.
127. Zhou E., Khotanzad A. (2007), “Fuzzy classifier design using genetic algorithms”,
Pattern Recognition 40 (12), pp. 3401–3414.
128.
A
PHỤ LỤC
PHỤ LỤC 1. Thuật toán sinh tập luật khởi đầu.
Thuật toán 2.2. E_IFRG [57, CT4] //Thuật toán sinh tập luật khởi đầu.
Input: Tập mẫu dữ liệu D = {(dl, Cl) | l = 1, , mt}, M lớp kết luận, n thuộc tính
Các tham số ngữ nghĩa Л, NR số luật khởi đầu, K giới hạn độ dài các từ ngôn
ngữ, λ độ dài tối đa của luật.
Output: Tập luật khởi đầu S0 = {R1, , RNR}
Begin
//Bước 1: Xây dựng tập các từ ngôn ngữ, khoảng tính mờ, giá trị định lượng
khoảng và tập mờ hình thang của Xj,(kj)
For j = 1 to n do begin
Sinh tập các từ ngôn ngữ có độ dài tối đa kj ≤ K;
For k = 1 to kj do begin
For each x Xj,k do begin // Xj,k được sắp theo thứ tự ngữ nghĩa
Tính độ đo tính mờ của fm(x); //Tính chất (2) của Mệnh đề 2.1
Xây dựng khoảng tính mờ j,k(x) của x;
Tính ánh xạ định lượng khoảng f(x) của x; // Định lý 2.6
End;
End;
For each x ࢄ,(ೕ) do Xây dựng tập mờ hình thang cho x; //Mục 2.6.1
End;
//Bước 2: Xây dựng tập luật ứng viên từ D dựa trên các khoảng tính mờ mức kj
Rcnd = Ø; //Khởi tạo tập luật ứng viên là rỗng
For each pl = (dl, Cl) D do begin
Atn = Ø;//Khởi tạo tập các tiền đề luật là rỗng
For j = 1 to n do begin
B
Tìm từ ngôn ngữ ݔ, ∈ ࢄ,ೕ mà ݀, ∈ ℑ,ೕ൫ݔ,൯;
Sinh một điều kiện tiền đề luật aj,i = “Xj is xj,i”;
Atn = Atn aj,i ; //Thêm aj,i vào tập tiền đề Atn;
End;
Sinh luật cơ sở Rb: ࢚ ⇒ ܥ; //Rb có độ dài n
For k = 1 to λ do begin
Sinh tất cả các k-tổ hợp của n phần tử và lưu vào tập Comb;
For each Combq Comb do begin
Sinh luật r: Aq ⇒ Cl có tiền đề luật là tổ hợp Combq từ tiền đề của Rb;
Tính độ tin cậy và độ hỗ trợ của luật r; //công thức (1.3), (1.4);
Xác định lại nhãn lớp của luật r: Aq ⇒ Cq;//công thức (1.6);
Tính trọng số của luật r; //công thức (1.7), (1.8), (1.9), (1.10);
Rcnd = Rcnd r;
End;
End;
End;
//Bước 3: Sàng luật theo tiêu chuẩn sàng
S0 = Ø; //Khởi tạo tập luật khởi tạo là rỗng
For i =1 to M do begin
Ri = {Rcnd: Aq Cq, Cq = Ci}; //Nhóm các luật ứng viên theo nhãn lớp
Sắp xếp Ri giảm dần theo tiêu chuẩn sàng;
Thêm NR/M luật đầu tiên trong Ri vào S0;
End;
Return S0;
End.
C
PHỤ LỤC 2. Mô tả các tập dữ liệu thực nghiệm
Bảng 2.1. Các tập dữ liệu mẫu được sử dụng trong các thực nghiệm
STT Tập dữ liệu Ký hiệu Số thuộc tính Số lớp Số mẫu dữ liệu
1 Appendicitis App 7 2 106
2 Australian Aus 14 2 690
3 Bands Ban 19 2 365
4 Bupa Bup 6 2 345
5 Cleveland Cle 13 5 297
6 Dermatology Der 34 6 358
7 Glass Gla 9 6 214
8 Haberman Hab 3 2 306
9 Hayes-roth Hay 4 3 160
10 Heart Hea 13 2 270
11 Hepatitis Hep 19 2 80
12 Ionosphere Ion 34 2 351
13 Iris Iri 4 3 150
14 Mammographic Mam 5 2 830
15 Newthyroid New 5 3 215
16 Pima Pim 8 2 768
17 Saheart Sah 9 2 462
18 Sonar Son 60 2 208
19 Tae Tae 5 3 151
20 Vehicle Veh 18 4 846
21 Wdbc Wdb 30 2 569
22 Wine Win 13 3 178
23 Wisconsin Wis 9 2 683
Sau đây là mô tả ngắn gọn các đặc điểm chính của các tập dữ liệu trong bảng trên:
- Tập dữ liệu Appendicitis có 7 thuộc tính (có giá trị từ 0,0 đến 1,0) biểu diễn 7
tiêu chuẩn y tế được thực hiện qua 106 bệnh nhân, trong đó nhãn lớp 1 và 0
tương ứng biểu thị bệnh nhân bị và không bị việm ruột thừa.
- Australian là tập dữ liệu ứng dụng thẻ tín dụng. Tất cả các thuộc tính đã được
chuyển thành các ký hiệu không có nghĩa nhằm bảo vệ dữ liệu mật.
- Tập dữ liệu Bands liên quan đến in quay với nhiệm vụ xác định một phần nhất
định có phải là một dải hình trụ hay không.
D
- Tập dữ liệu Bupa liên quan đến việc phân tích một số rối loạn chức năng gan có
thể phát sinh từ uống rượu quá mức. Năm thuộc tính đầu là tất cả các xét
nghiệm máu được cho là nhạy cảm với rối loạn chức năng gan. Thuộc tính cuối
là số lượng panh (tương đương với nửa lít) rượu uống mỗi ngày.
- Tập dữ liệu Cleveland liên quan đến bệnh tim gồm 14 thuộc tính với nhiệm vụ
dò xét sự hiện diện của bệnh tim trong bệnh nhân. Nhãn lớp là các số nguyên từ
0 (không hiện diện) đến 4.
- Dermatology là tập dữ liệu về chẩn đoán bệnh vảy ban đỏ. Bệnh nhân trước
tiên được đánh giá lâm sàng với 12 thuộc tính và sau đó các mẫu da được lấy để
đánh giá với 22 thuộc tính mô học. Thuộc tính về lịch sử gia đình có giá trị 1
nếu các bệnh này được quan sát thấy trong gia đình và có giá trị 0 trong trường
hợp ngược lại. Ngoài thuộc tính tuổi, tất cả các thuộc tính khác có mức độ trong
khoảng từ 0 đến 3. Giá trị 0 chỉ ra rằng thuộc tính này không hiện diện, 3 chỉ
giá trị lớn nhất có thể và 1, 2 chỉ các giá trị trung gian tương đối.
- Tập dữ liệu Glass được dùng để phân lớp 6 loại kính có thể được tìm thấy tại
hiện trường tội phạm và được xác định theo hàm lượng ôxít (K, Na, Fe, Al, ).
- Tập dữ liệu Haberman bao gồm các ca từ một nghiên cứu được thực hiện từ
năm 1958 đến năm 1970 tại Đại học Chicago's Billings Hospital về sự sống sót
của bệnh nhân sau phẫu thuật ung thư vú. Việc phân lớp dữ liệu nhằm xác định
bệnh nhân sẽ sống thêm từ 5 năm trở lên (“positive”) hay dưới 5 năm
(“negative”).
- Hayes-roth là tập dữ liệu nhân tạo có 4 thuộc tính được dùng để thử nghiệm
các hệ phân lớp dựa trên nguyên mẫu (prototype classifier).
- Tập dữ liệu Heart có 13 thuộc tính dùng để phát hiện bệnh nhân bị bệnh tim
(nhãn 2) hay không bị bệnh tim (nhãn 1).
- Tập dữ liệu Hepatitis có 19 thuộc tính chứa đựng các thông tin về các bệnh
nhân bị ảnh hưởng bởi bệnh viêm gan.
- Ionosphere là tập dữ liệu ra đa được thu thập bởi một hệ trong Goose Bay,
Labrador. Hệ này bao gồm một dàn 16 ăng ten mảng pha tần số cao với tổng
công suất phát 6,4KW. Mục tiêu là các electron tự do trên tầng điện ly. Ra đa
trả lại nhãn “Good” cho bằng chứng của vài cấu trúc trong tầng điện ly, ngược
lại nhãn “Bad” thì không, tức các tín hiệu xuyên qua tầng điện ly.
E
- Iris là tập dữ liệu phân loại hoa diên vĩ bao qua 4 thuộc tính về độ dài và độ
rộng của đài hoa và cánh hoa. Mỗi nhãn lớp ứng với một trong các loại hoa Iris
Setosa, Iris Versicolour và Iris Virginica.
- Mammographic là tập dữ liệu được sử dụng để dự đoán mức độ nghiêm trọng
(lành tính hoặc ác tính) của khối X quang vú dựa trên các thuộc tính BI-RADS
và tuổi của bệnh nhân.
- Newthyroid là tập dữ liệu về tuyến giáp được sử dụng để phát hiện bệnh nhân
là bình thường (nhãn 1), có sự hoạt động quá mức (nhãn 2) hay giảm hoạt động
(nhãn 3) của tuyến giáp.
- Pima là tập dữ liệu cho phép phân các phụ nữ có độ tuổi ít nhất là 21 thành hai
nhóm: đã bị đái tháo đường (tested_positive) và chưa bị đái tháo đường
(tested_negative).
- Saheart là tập dữ liệu giúp xác định người nào đó có bị mắc bệnh tim mạch
vành (postive) hay không (negative).
- Sonar là tập dữ liệu chứa các tín hiệu thu được từ nhiều góc độ khác nhau, trải
90 độ cho mỏ quặng và 180 độ cho đá. Mỗi mẫu dữ liệu gồm 60 thuộc tính có
giá trị từ 0,0 đến 1,0, trong đó, mỗi giá trị số biểu thị năng lượng bên trong một
dài tần số nhất định, được tích hợp với nhau qua một quãng thời gian nhất định.
Nhãn R và M lần lượt thể hiện đối tượng được phát hiện là đá và khối kim loại.
- Tae là tập dữ liệu đánh giá hiệu suất giảng dạy qua các học kỳ bình thường và
kỳ hè của 151 trợ lý giảng dạy tại Khoa thống kê, Đại học Wisconsin-Madison.
Kết quả đánh giá gồm 3 loại ứng với các nhãn: low (1), medium (2) và high (3).
- Vehicle là tập dữ liệu dùng để phân loại một hình bóng cụ thể được cho là của
một trong bốn loại xe (van, saab, bus, opel) sử dụng tập các đặc trưng được
trích xuất từ hình bóng. Xe có thể được nhìn từ một trong các góc độ khác nhau.
- Wdbc là tập dữ liệu bao gồm 30 thuộc tính được tính toán từ một ảnh số của
một hút kim nhỏ của một khối vú. Chúng mô tả các đặc điểm của nhân tế bào
xuất hiện trong ảnh nhằm phát hiện một khối u là lành tính (B) hay ác tính (M).
- Wine là tập dữ liệu dùng để phân loại rượu qua việc phân tích định lượng của
13 thành phần được tìm thấy trong một trong ba loại rượu.
- Wisconsin bao gồm dữ liệu về các ca phẫu thuật ung thư vú trong một nghiên
cứu được tiến hành tại Đại học Wisconsin Hospitals, Madison nhằm xác định
khối u được phát hiện là lành tính (nhãn 2) hay ác tính (nhãn 4).
F
PHỤ LỤC 3. Một số bảng kết quả thực nghiệm
Bảng 2.2. Các kết quả thực nghiệm và so sánh giữa hai cấu trúc đa thể hạt và đơn thể hạt được thiết kế trên cơ sở ĐSGT.
Tập dữ
liệu
ĐaTHAX ĐơnTHAX ĐaTHAXmr ĐơnTHAXmr ĐaTHAXmrtp ĐơnTHAXmrtp
#C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte
App 21,32 92,28 87,55 28,85 91,89 85,09 16,91 91,30 88,09 14,97 89,45 85,82 16,77 92,38 88,15 28,91 92,31 88,42
Aus 36,20 88,06 86,38 40,08 87,76 85,65 41,85 87,72 86,86 44,35 87,32 85,07 46,50 88,56 87,15 39,86 87,75 86,23
Ban 52,20 76,17 72,80 51,78 76,55 72,85 78,19 76,28 72,10 71,63 75,12 67,97 58,20 78,19 73,46 53,73 74,84 71,27
Bup 187,20 78,13 68,09 185,12 76,33 66,30 170,70 77,54 69,41 112,23 75,70 70,53 181,19 79,78 72,38 140,55 74,28 67,08
Cle 657,43 72,44 62,19 774,21 70,81 54,92 640,19 69,86 63,40 667,88 68,32 57,47 468,13 66,64 62,39 749,06 70,13 56,84
Der 198,05 98,03 96,07 219,41 97,19 93,93 189,46 96,88 95,52 222,54 91,62 88,25 182,84 96,37 94,40 196,88 95,58 93,46
Gla 343,60 80,45 72,09 429,65 80,48 71,76 488,38 80,26 72,78 322,23 77,99 69,41 474,29 78,78 72,24 364,33 78,64 70,33
Hab 10,20 76,91 75,76 9,30 76,62 75,78 20,00 77,67 77,43 16,00 76,33 76,65 10,80 77,60 77,40 7,84 76,80 76,74
Hay 122,27 90,11 84,17 123,83 90,23 83,33 139,42 89,98 83,33 99,95 84,07 76,46 114,66 89,40 84,17 99,33 86,97 77,08
Hea 122,72 89,63 84,44 144,07 88,15 77,28 120,69 88,07 84,57 101,48 86,54 77,41 123,29 89,19 84,57 100,64 88,50 80,49
Hep 26,16 95,83 88,44 27,20 94,08 83,64 25,75 94,44 89,17 23,08 93,79 85,38 25,53 93,68 89,28 21,32 93,48 87,13
Ion 90,33 95,35 90,22 110,25 95,35 90,33 83,71 94,67 90,98 81,89 94,02 91,08 88,03 94,69 91,56 86,99 93,37 87,65
Iri 26,29 98,40 96,00 35,24 98,72 95,33 34,59 98,35 96,67 24,70 97,75 96,89 30,37 98,25 97,33 35,65 98,49 97,11
Mam 92,25 86,05 84,20 78,55 85,57 82,32 82,08 85,31 84,46 74,82 85,17 83,94 73,84 85,49 84,20 56,24 84,64 81,95
New 45,18 97,02 94,42 40,20 97,04 96,45 30,93 96,30 95,03 44,03 96,86 94,75 39,82 96,76 95,67 41,22 97,12 95,19
Pim 60,89 78,28 76,18 47,40 76,77 73,36 50,33 78,53 76,66 51,00 77,17 75,01 56,12 78,69 77,01 45,42 77,07 74,58
Sah 86,75 76,35 69,33 75,54 75,90 69,70 58,41 74,55 70,27 60,50 74,94 69,32 59,29 75,51 70,05 57,20 75,32 69,84
Son 79,76 88,39 76,80 64,48 87,66 73,37 53,91 86,84 77,29 52,98 85,56 71,78 49,31 87,59 78,61 48,06 84,74 76,05
Tae 261,00 72,11 59,47 259,72 74,00 57,96 163,61 68,36 59,46 160,89 65,49 54,19 210,70 68,97 61,00 223,15 70,32 55,93
Veh 242,79 70,30 67,62 279,66 68,31 64,39 216,19 71,64 68,12 219,09 70,75 65,96 195,07 70,74 68,20 228,82 69,09 65,17
Wdb 37,35 97,62 96,96 42,00 96,88 94,21 23,08 97,16 95,96 39,35 95,83 94,26 25,04 97,08 96,78 35,29 95,46 92,91
Win 35,82 99,88 98,30 54,33 98,77 93,97 42,09 100,00 98,52 4880 98,79 94,95 40,39 99,60 98,49 41,94 98,13 95,34
Wis 74,36 97,81 96,74 92,54 98,17 96,21 59,81 97,20 96,51 63,21 95,07 92,99 69,81 97,78 96,95 72,80 97,29 95,72
TB 126,53 86,77 81,92 139,71 86,23 79,92 123.05 86,04 82,29 113,81 84,51 79,37 114.78 86,16 82,67 120,66 85,23 80,11
Số có chữ đậm thể hiện kết quả tốt hơn giữa cấu trúc đa thể hạt và đơn thể hạt được thiết kế bởi cùng một phương pháp luận ĐSGT.
G
Bảng 2.5. Các kết quả thực nghiệm và so sánh giữa các hệ phân lớp được thiết kế trên cơ sở ĐSGT AXmr và AXmrtp sử dụng phương
pháp lập luận SWR và WV.
Tập dữ
liệu
SWR_AXmr WV_AXmr SWR_AXmrtp WV_AXmrtp
#C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte
App 16,91 91,30 88,09 17,39 93,43 90,03 16,77 92,38 88,15 20,89 92,70 86,85
Aus 41,85 87,72 86,86 48,72 88,33 86,57 46,50 88,56 87,15 48,72 88,32 86,57
Ban 78,19 76,28 72,10 83,53 74,55 67,71 58,20 78,19 73,46 60,42 76,36 69,41
Bup 170,70 77,54 69,41 185,49 75,84 65,50 181,19 79,78 72,38 136,81 77,15 66,32
Cle 640,19 69,86 63,40 825,14 70,79 57,09 468,13 66,64 62,39 836,76 70,55 57,49
Der 189,46 96,88 95,52 205,17 94,81 92,74 182,84 96,37 94,40 197,75 96,05 93,75
Gla 488,38 80,26 72,78 445,64 76,28 66,32 474,29 78,78 72,24 443,84 75,59 66,20
Hab 20,00 77,67 77,43 9,21 74,17 73,42 10,80 77,60 77,40 15,51 78,96 74,35
Hay 139,42 89,98 83,33 88,05 84,28 77,92 114,66 89,40 84,17 92,60 91,27 85,21
Hea 120,69 88,07 84,57 73,72 88,70 83,83 123,29 89,19 84,57 84,61 89,29 84,07
Hep 25,75 94,44 89,17 21,88 96,24 91,35 25,53 93,68 89,28 29,76 94,58 86,84
Ion 83,71 94,67 90,98 72,54 94,11 90,89 88,03 94,69 91,56 100,83 94,60 88,71
Iri 34,59 98,35 96,67 33,81 98,94 94,44 30,37 98,25 97,33 32,99 98,59 94,89
Mam 82,08 85,31 84,46 66,96 85,11 83,34 73,84 85,49 84,20 83,85 85,81 83,16
New 30,93 96,30 95,03 37,15 98,09 97,09 398,15 96,76 95,67 48,95 98,07 96,15
Pim 50,33 78,53 76,66 62,13 78,41 74,58 56,12 78,69 77,01 54,15 79,16 75,61
Sah 58,41 74,55 70,27 64,34 75,12 69,76 592,84 75,51 70,05 66,70 76,58 71,87
Son 53,91 86,84 77,29 52,38 86,04 76,69 49,31 87,59 78,61 67,23 88,12 76,87
Tae 163,61 68,36 59,46 165,53 68,09 57,75 210,70 68,97 61,00 219,99 70,59 57,26
Veh 216,19 71,64 68,12 259,23 70,39 67,41 195,07 70,74 68,20 223,69 68,74 65,25
Wdb 23,08 97,16 95,96 34,15 97,62 95,20 25,04 97,08 96,78 37,00 97,32 95,20
Win 42,09 100,00 98,52 49,16 99,56 94,74 40,39 99,60 98,49 46,81 99,73 96,03
Wis 59,81 97,20 96,51 65,96 97,42 95,43 698,07 97,78 96,95 57,06 97,86 96,22
TB 123.05 86,04 82,29 129,01 85,49 80,43 114,78 86,16 82,67 130,74 86,35 80,62
Số có chữ đậm thể hiện kết quả tốt hơn giữa hai phương pháp lập luận SWR và WV.
H
Bảng 2.8. Các kết quả thực nghiệm và so sánh giữa các hệ phân lớp FRBC_AXmrtp, FRBC_AXmr, FRBC_AX, All Granularities và
Product-1-ALL TUN.
Tập dữ
liệu
FRBC_AXmrtp FRBC_AXmr FRBC_AX All Granularities Product/1-ALL TUN
#C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte
App 16,77 92,38 88,15 16,91 91,30 88,09 21,32 92,28 87,55 8,84 91,86 87,91 20,89 93,47 87,30
Aus 46,50 88,56 87,15 41,85 87,72 86,86 36,20 88,06 86,38 4,00 85,51 85,51 62,43 89,18 85,65
Ban 58,20 78,19 73,46 78,19 76,28 72,10 52,20 76,17 72,80 57,18 71,36 68,73 104,09 71,18 65,80
Bup 181,19 79,78 72,38 170,70 77,54 69,41 187,20 78,13 68,09 112,59 69,50 63,99 210,91 78,59 67,19
Cle 468,13 66,64 62,39 640,19 69,86 63,40 657,43 72,44 62,19 1132,14 73,11 55,11 1020,66 77,21 58,80
Der 182,84 96,37 94,40 189,46 96,88 95,52 198,05 98,03 96,07 220,36 99,07 94,12 185,28 99,28 94,48
Gla 474,29 78,78 72,24 488,38 80,26 72,78 343,60 80,45 72,09 408,83 78,65 60,48 534,88 83,68 71,28
Hab 10,80 77,60 77,40 20,00 77,67 77,43 10,20 76,91 75,76 90,55 79,46 71,89 21,13 76,82 71,88
Hay 114,66 89,40 84,17 139,42 89,98 83,33 122,27 90,11 84,17 140,03 90,88 78,03 158,52 90,99 78,88
Hea 123,29 89,19 84,57 120,69 88,07 84,57 122,72 89,63 84,44 109,45 90,19 83,46 164,61 91,87 82,84
Hep 25,53 93,68 89,28 25,75 94,44 89,17 26,16 95,83 88,44 35,34 96,10 90,44 20,29 97,88 88,53
Ion 88,03 94,69 91,56 83,71 94,67 90,98 90,33 95,35 90,22 141,33 95,64 88,62 86,75 96,25 90,79
Iri 30,37 98,25 97,33 34,59 98,35 96,67 26,29 98,40 96,00 27,40 99,11 95,11 18,54 98,30 97,33
Mam 73,84 85,49 84,20 82,08 85,31 84,46 92,25 86,05 84,20 102,46 83,07 81,04 106,74 83,90 80,49
New 39,82 96,76 95,67 30,93 96,30 95,03 45,18 97,02 94,42 49,40 96,19 91,78 56,47 98,02 94,60
Pim 56,12 78,69 77,01 50,33 78,53 76,66 60,89 78,28 76,18 95,01 77,80 74,92 57,20 79,06 77,05
Sah 59,28 75,51 70,05 58,41 74,55 70,27 86,75 76,35 69,33 76,24 76,70 71,14 110,84 77,73 70,13
Son 49,31 87,59 78,61 53,91 86,84 77,29 79,76 88,39 76,80 70,67 86,54 78,88 47,59 87,91 78,90
Tae 210,70 68,97 61,00 163,61 68,36 59,46 261,00 72,11 59,47 147,09 66,55 54,57 215,92 71,21 60,78
Veh 195,07 70,74 68,20 216,19 71,64 68,12 242,79 70,30 67,62 492,55 69,34 62,81 382,12 71,11 66,16
Wdb 25,04 97,08 96,78 23,08 97,16 95,96 37,35 97,62 96,96 55,74 97,12 94,90 44,27 97,33 94,90
Win 40,39 99,60 98,49 42,09 100,0 98,52 35,82 99,88 98,30 32,10 100,0 96,08 58,99 99,92 93,03
Wis 69,81 97,78 96,95 59,81 97,20 96,51 74,36 97,81 96,74 77,41 98,22 96,07 69,11 98,33 96,35
TB 114,78 86,16 82,67 123,05 86,04 82,29 126,53 86,77 81,92 160,29 85,74 79,37 163,0 87,36 80,57
Số có chữ đậm thể hiện kết quả tốt nhất trong các phương pháp (trên cùng dòng).
I
Bảng 2.13. Các kết quả thực nghiệm và so sánh giữa các hệ phân lớp FRBC_AXmrtp, FRBC_AXmr, PAES-RCS, FURIA và C4.5.
Tập dữ liệu
FRBC_AXmrtp FRBC_AXmr PAES-RCS FURIA C4.5
#C Pte #C Pte #C Pte #C Pte #C Pte
App 16,77 88,15 16,91 88,09 35,28 85,09 19,00 85,18 15,00 85,84
Aus 46,50 87,15 41,85 86,86 329,64 85,80 89,60 85,22 5859,00 84,05
Ban 58,20 73,46 78,19 72,10 756,00 67,56 535,15 64,65 10608,00 63,28
Bup 181,19 72,38 170,70 69,41 256,20 68,67 324,12 69,02 3692,00 67,82
Cle 468,13 62,39 640,19 63,40 1140,00 59,06 134,67 56,20 13938,00 48,48
Der 182,84 94,40 189,46 95,52 389,40 95,43 303,88 95,24 280,00 95,25
Gla 474,29 72,24 488,38 72,78 487,90 72,13 474,81 72,41 5610,00 69,15
Hab 10,80 77,40 20,00 77,43 202,41 72,65 22,04 75,44 15,00 71,56
Hay 114,66 84,17 139,42 83,33 120,00 84,03 188,10 83,13 780,00 83,12
Hea 123,29 84,57 120,69 84,57 300,30 83,21 193,64 80,00 2080,00 77,40
Hep 25,53 89,28 25,75 89,17 300,30 83,21 52,38 84,52 216,00 86,25
Ion 88,03 91,56 83,71 90,98 670,63 90,40 372,68 91,75 1870,00 90,59
Iri 30,37 97,33 34,59 96,67 69,84 95,33 31,95 94,66 45,76 95,20
Mam 73,84 84,20 82,08 84,46 132,54 83,37 16,83 83,89 70,00 83,97
New 39,82 95,67 30,93 95,03 97,75 95,35 100,82 96,30 342,00 92,09
Pim 56,12 77,01 50,33 76,66 270,64 74,66 127,50 74,62 2220,00 74,67
Sah 59,28 70,05 58,41 70,27 525,21 70,92 50,88 69,69 1110,00 70,77
Son 49,31 78,61 53,91 77,29 524,60 77,00 309,96 82,14 1805,00 72,11
Tae 210,70 61,00 163,61 59,46 323,14 60,81 43,00 43,08 7820,00 59,60
Veh 195,07 68,20 216,19 68,12 555,77 64,89 2125,97 71,52 89964,00 75,57
Wdb 25,04 96,78 23,08 95,96 183,70 95,14 356,12 96,31 588,00 94,02
Win 40,39 98,49 42,09 98,52 170,94 93,98 80,00 96,60 60,00 93,82
Wis 69,81 96,95 59,81 96,51 328,02 96,46 521,10 96,35 462,00 95,60
TB 114,78 82,67 123,05 82,29 355,23 80,66 281,49 80,34 6497,82 79,57
Số có chữ đậm thể hiện kết quả tốt nhất trong các phương pháp (trên cùng dòng).
J
Bảng 3.4. Các kết quả thực nghiệm và so sánh giữa hai hệ phân lớp MOPSO-SAAX và MOPSOAX, giữa MOPSO-SAAXmrtp và
MOPSOAXmrtp.
Tập dữ
liệu
MOPSO-SAAX MOPSOAX MOPSO-SAAXmrtp MOPSOAXmrtp
#C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte
App 27,65 92,91 88,21 21,32 92,28 87,55 19,53 92,14 89,03 16,77 92,38 88,15
Aus 46,86 88,27 86,47 36,20 88,06 86,38 41,86 87,89 87,34 46,50 88,56 87,15
Ban 63,00 77,79 73,50 52,20 76,17 72,80 56,00 77,44 73,69 58,20 78,19 73,46
Bup 186,68 80,91 70,02 187,17 78,13 68,09 113,67 75,49 71,61 181,19 79,78 72,38
Cle 686,73 73,83 60,66 657,43 72,44 62,19 650,51 68,74 61,02 468,13 66,64 62,39
Der 179,67 97,90 96,07 198,05 98,03 96,07 164,07 96,29 94,20 182,84 96,37 94,40
Gla 400,31 82,75 72,25 343,60 80,45 72,09 442,93 76,62 72,33 474,29 78,78 72,24
Hab 9,79 76,98 76,72 10,20 76,91 75,76 10,50 76,91 77,49 10,80 77,60 77,40
Hay 126,39 90,23 85,00 122,27 90,11 84,17 120,33 88,89 85,21 114,66 89,40 84,17
Hea 126,15 90,30 84,20 123,49 89,45 84,20 86,12 88,55 84,94 123,29 89,19 84,57
Hep 31,33 96,52 90,31 26,16 95,83 88,44 19,81 93,24 89,37 25,53 93,68 89,28
Ion 110,21 95,74 91,66 90,33 95,35 90,22 72,71 94,44 91,83 88,03 94,69 91,56
Iri 40,35 98,64 96,67 26,29 98,40 96,00 25,77 98,02 97,33 30,37 98,25 97,33
Mam 87,27 85,81 84,18 122,72 89,63 84,44 63,36 85,04 84,26 73,84 85,49 84,20
New 53,40 99,10 97,82 45,18 97,02 94,42 35,07 98,93 97,37 39,82 96,76 95,67
Pim 61,20 79,15 76,35 60,90 78,28 76,18 44,91 77,76 76,35 56,12 78,69 77,01
Sah 96,37 77,03 71,15 86,75 76,35 69,33 24,80 73,65 71,28 59,29 75,51 70,05
Son 64,13 88,48 77,00 79,76 88,39 76,80 37,68 85,38 79,90 49,31 87,59 78,61
Tae 276,83 73,66 59,01 261,00 72,11 59,47 157,41 68,24 61,46 210,7 68,97 61,00
Veh 237,47 71,66 68,01 242,79 70,30 67,62 148,84 69,44 68,44 195,07 70,74 68,20
Wdb 39,67 97,79 96,32 37,35 97,62 96,96 30,63 97,27 96,55 25,04 97,08 96,78
Win 37,40 99,54 98,30 35,82 99,88 98,30 34,48 99,92 98,86 40,39 99,60 98,49
Wis 55,97 97,95 97,22 74,59 97,81 96,74 71,89 97,93 97,73 69,81 97,78 96,95
TB 132,38 87,52 82,48 127,89 86,91 81,92 107,52 85,57 82,94 114,78 86,16 82,67
Số có chữ đậm thể hiện kết quả tốt hơn giữa hai thuật toán tối ưu MOPSO-SA và MOPSO.
Các file đính kèm theo tài liệu này:
- luan_an_phat_trien_mot_so_phuong_phap_thiet_ke_he_phan_lop_t.pdf