Luận án Phát triển một số phương pháp thiết kế hệ phân lớp trên cơ sở lý thuyết tập mờ và đại số gia tử - Phạm Đình Phong

Chương này trình bày giải pháp nâng cao chất lượng của FLRBC được thiết kế trên cơ sở ĐSGT sử dụng kỹ thuật tính toán mềm và giảm thời gian sinh tập luật khởi đầu. Một số quả và kết luận như sau: - Đề xuất ứng dụng của hai thuật toán tối ưu bầy đàn đa mục tiêu MOPSO (công trình CT2) và thuật toán lai MOPSO-SA (công trình CT6) để tối ưu các tham số ngữ nghĩa và tìm kiếm hệ luật tối ưu đối với phương pháp thiết kế FLRBC với ngữ nghĩa tính toán của từ ngôn ngữ được xác định dựa trên ĐSGT thay thế thuật toán di truyền lai GSA được sử dụng trong [5, 57]. Các thực nghiệm được thực hiện trên cùng một phương pháp luận ĐSGT được áp dụng để thiết kế FLRBC, chỉ khác nhau về thuật toán tối ưu được áp dụng. Các kết quả thực nghiệm cho thấy, chất lượng của mô hình phân lớp dựa trên luật ngôn ngữ mờ với ngữ nghĩa tính toán của từ ngôn ngữ được xác định dựa trên ĐSGT phụ thuộc vào chất lượng của thuật toán114 tiến hóa tối ưu được áp dụng. Do vậy, ta có một kết luận quan trọng là để so sánh một phương pháp thiết kế hệ phân lớp dựa trên luật mờ nói chung và phương pháp thiết kế hệ phân lớp dựa trên luật mờ với ngữ nghĩa tính toán của từ ngôn ngữ được xác định dựa trên ĐSGT nói riêng có sử dụng thuật toán tối ưu tốt hơn phương pháp khác thì hai phương pháp được so sánh phải sử dụng cùng một thuật toán tối ưu. - Trình bày ứng dụng kỹ thuật lựa chọn đặc trưng trong phương pháp thiết kế FLRBC với ngữ nghĩa tính toán của các từ ngôn ngữ được xác định dựa trên ĐSGT như một kỹ thuật tiền xử lý nhằm giảm thời gian sinh tập luật khởi đầu từ các tập dữ liệu có số chiều lớn và không làm giảm chất lượng của hệ phân lớp. Hiệu quả của việc áp dụng kỹ thuật này cho ta kết luận là để giảm thời gian sinh tập luật khởi đầu từ các tập dữ liệu có số chiều lớn, kỹ thuật lựa chọn đặc trưng cần được áp dụng. Nội dung này của luận án được công bố trong các công trình [CT7, CT8].

pdf153 trang | Chia sẻ: yenxoi77 | Lượt xem: 530 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Luận án Phát triển một số phương pháp thiết kế hệ phân lớp trên cơ sở lý thuyết tập mờ và đại số gia tử - Phạm Đình Phong, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
ng tiếp cận thiết kế hệ phân lớp dựa trên ĐSGT tồn tại những hạn chế cần có những nghiên cứu tiếp theo cũng như mở rộng ứng dụng ĐSGT như sau: - Các phương pháp thiết kế hệ phân lớp dựa trên luật ngôn ngữ mờ với ngữ nghĩa tính toán của các từ ngôn ngữ được xác định dựa trên ĐSGT được đề xuất từ trước đến nay đều được thực hiện dựa trên hai giai đoạn là thiết kế tối ưu các từ ngôn ngữ và tìm kiếm hệ luật tối ưu. Việc chia giai đoạn này có thể chưa đảm bảo tìm được bộ tham số ngữ nghĩa và hệ luật tốt nhất. Giải pháp có thể được cải tiến ở đây là nghiên cứu áp dụng kỹ thuật đồng tối ưu các tham số ngữ nghĩa và tìm kiếm hệ luật tối ưu. - Tiếp cận thiết kế hệ phân lớp dựa trên luật ngôn ngữ mờ trong luận án sử dụng ĐSGT để trích rút hệ luật ngôn ngữ mờ cho hệ phân lớp với ngữ nghĩa của các từ ngôn ngữ trong cơ sở luật là ngữ nghĩa dựa trên tập mờ. Do đó, khi lập luận phân lớp sử dụng phương pháp lập luận Single winner rule hay Weighted vote đều phải 116 sử dụng các phép toán trên tập mờ và kết quả phụ thuộc vào việc lựa chọn các phép toán này. Với ĐSGT, ta có thể xây dựng phương pháp lập luận riêng mà không cần sử dụng tập mờ. Một trong các hướng nghiên cứu tiếp theo là xây dựng phương pháp lập luận cho hệ phân lớp dựa trên luật ngôn ngữ mờ hoàn toàn sử dụng ĐSGT. - Trong thực tế tồn tại nhiều dạng bài toán phân lớp khác nhau đang được các nhà nghiên cứu quan tâm giải quyết bằng hệ phân lớp dựa trên luật ngôn ngữ mờ như: Bài toán phân lớp đối với tập dữ liệu lớn, bài toán phân lớp đối với các tập dữ liệu thiếu thông tin, bài toán phân lớp đối với các tập dữ liệu có số mẫu dữ liệu không cân bằng đối với các nhãn lớp, bài toán học nửa giám sát, bài toán học trực tuyến, Đây là các bài toán cần những kỹ thuật xử lý khác nhau và có thể được giải quyết hiệu quả kết hợp với phương pháp luận ĐSGT. Luận án đã chứng tỏ khả năng ứng dụng hiệu quả của ĐSGT mở rộng trong thiết kế tự động hệ phân lớp dựa trên luật ngôn ngữ mờ. ĐSGT mở rộng cần được ứng dụng trong việc giải quyết các bài toán ứng dụng khác nhau như các bài toán điều khiển, thao tác cơ sở dữ liệu mờ và nhận dạng hệ mờ nhằm tăng tính hiệu quả và tính linh hoạt trong biểu diễn ngữ nghĩa. 117 DANH MỤC CÔNG TRÌNH KHOA HỌC CỦA TÁC GIẢ LIÊN QUAN ĐẾN LUẬN ÁN [CT1] Nguyễn Cát Hồ, Trần Thái Sơn, Phạm Đình Phong (2012), “Định lượng ngữ nghĩa khoảng của đại số gia tử với việc bổ sung một gia tử đặc biệt”, Tạp chí Tin học và Điều khiển học Tập 28 (4), tr. 346 – 358. [CT2] Phong Pham Dinh, Ho Nguyen Cat, Thuy Nguyen Thanh (2013), “Multi- objective Particle Swarm Optimization Algorithm and its Application to the Fuzzy Rule Based Classifier Design Problem with the Order Based Semantics of Linguistic Terms”, In proceeding of The 10th IEEE RIVF International Conference on Computing and Communication Technologies (RIVF-2013), Hanoi, Vietnam, pp. 12 – 17. [CT3] Phạm Đình Phong, Nguyễn Cát Hồ, Nguyễn Thanh Thủy (2013), “Nghiên cứu phương pháp xây dựng thể hạt với ngữ nghĩa tập mờ tam giác của các từ ngôn ngữ cho bài toán phân lớp”, Kỷ yếu Hội nghị Quốc gia lần thứ VI về Nghiên cứu cơ bản và ứng dụng Công nghệ thông tin, Thừa Thiên – Huế, tr. 385 – 393. [CT4] Phạm Đình Phong, Nguyễn Cát Hồ, Trần Thái Sơn, Nguyễn Thanh Thủy (2013), “Một phương pháp thiết kế hệ phân lớp mờ dựa trên việc mở rộng lượng hóa Đại số gia tử”, Tạp chí Tin học và Điều khiển học Tập 29 (4), tr. 325 – 337. [CT5] Cat Ho Nguyen, Thai Son Tran, Dinh Phong Pham (2014), “Modeling of a semantics core of linguistic terms based on an extension of hedge algebra semantics and its application”, Knowledge-Based Systems 67, pp. 244 – 262 (SCI indexed). [CT6] Phong Pham Dinh, Thuy Nguyen Thanh, Thanh Tran Xuan (2014), “A Hybrid Multi-objective PSO-SA Algorithm for the Fuzzy Rule Based Classifier Design Problem with the Order Based Semantics of Linguistic Terms”, VNU Journal of Science: Computer Science and Communication Engineering 30 (4), pp. 44–56. [CT7] Pham Dinh Phong (2015), “An application of feature selection for the fuzzy rule based classifier design with the order based semantics of linguistic terms for high-dimensional datasets”, Journal of Computer Science and Cybernetics 31 (2), pp. 171 – 184. 118 [CT8] Pham Dinh Phong (2015), “An application of feature selection for the fuzzy rule based classifier design based on an enlarged hedge algebras for high- dimensional datasets”, Journal of Science and Technology, VAST, ISSN: 0866-708X 53 (5), pp. 583–597. 119 TÀI LIỆU THAM KHẢO Tiếng Việt 1. Phạm Thanh Hà (2009), Phát triển các phương pháp lập luận mờ sử dụng đại số gia tử và ứng dụng, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam. 2. Nguyễn Công Hào (2008), Cơ sở dữ liệu mờ với thao tác dữ liệu dựa trên đại số gia tử, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam. 3. Nguyễn Cát Hồ, Hoàng Văn Thông, Nguyễn Văn Long (2013), “Một phương pháp tiến hóa sinh hệ luật mờ cho bài toán phân lớp với ngữ nghĩa thứ tự ngôn ngữ”, Tạp chí Tin học và Điều khiển học Tập 28 (4), tr. 333–345. 4. Bùi Hải Lê (2011), Điều khiển các tham số dao động của kết cấu và ứng dụng, Luận án tiến sĩ kỹ thuật, Trường Đại học Bách khoa Hà Nội. 5. Dương Thăng Long (2010), Phương pháp xây dựng hệ mờ dạng luật với ngữ nghĩa dựa trên Đại số gia tử và ứng dụng trong bài toán phân lớp, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam. 6. Vũ Minh Lộc (2005), Phương pháp lập luận xấp xỉ và ứng dụng vào một số bài toán trợ giúp quyết định trong giáo dục, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam. 7. Nguyễn Duy Minh (2013), Tiếp cận đại số gia tử trong điều khiển mờ, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam. 8. Huỳnh Văn Nam (1999), Một cơ sở đại số cho logic mờ Zadeh và tính toán trên các từ, Luận án tiến sĩ toán học, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam. 9. Trần Thái Sơn, Đỗ Nam Tiến, Phạm Đình Phong (2011), “Luật kết hợp theo cách tiếp cận đại số gia tử”, Tạp chí Tin học và Điều khiển học Tập 27 (4), tr. 341–352. 10. Hoàng Văn Thông, Nguyễn Cát Hồ, Nguyễn Văn Long (2014), “Một phương pháp sinh hệ luật mờ Mamdani cho bài toán hồi qui với ngữ nghĩa Đại số gia tử”, Tạp chí Tin học và Điều khiển học Tập 30 (3), tr. 227–238. Tiếng Anh 11. Abe S., Lan M. S. (1995), “A method for fuzzy rules extraction directly from numerical data and its application to pattern classification”, IEEE Transactions on Fuzzy Systems 3 (1), pp. 18-28. 12. Abonyi J., Roubos J. A., Szeifert F. (2003), "Data-driven generation of compact, accurate, and linguistically sound fuzzy classifiers based on a decision-tree initialization", International Journal of Approximate Reasoning 32, pp. 1–21 120 13. Alcalá R., Ducange P., Herrera F., Lazzerini B. (2009), “A Multiobjective Evolutionary Approach to Concurrently Learn Rule and Data Bases of Linguistic Fuzzy-Rule-Based Systems”, IEEE Transactions on fuzzy systems 17 (5), pp. 1106– 1122. 14. Alcalá R., Nojima Y., Herrera F., Ishibuchi H. (2011), “Multi-objective genetic fuzzy rule selection of single granularity-based fuzzy classification rules and its interaction with the lateral tuning of membership functions”, Soft Computing 15 (12), pp. 2303– 2318. 15. Antonelli M., Ducange P., Marcelloni F. (2013), “An efficient multi-objective evolutionary fuzzy system for regression problems”, International Journal of Approximate Reasoning 54 (9), pp. 1434–1451. 16. Antonelli M., Ducange P., Marcelloni F. (2014), “A fast and efficient multi-objective evolutionary learning scheme for fuzzy rule-based classifiers”, Information Sciences 283, pp. 36–54. 17. Ballings M., Poel D. V., Hespeels N., Gryp R. (2015), “Evaluating multiple classifiers for stock price direction prediction”, Expert Systems with Applications 42, pp. 7046– 7056. 18. Battaini M., Casciati F., Faravelli L. (1999), “Fuzzy control of structural vibration: an active mass system driven by a fuzzy controller”, Earthquake Eng. Struct. Dynam. 27 (11), pp. 1267–1276. 19. Berenji R. H., Khedkar P. (1992), “Learning and tuning fuzzy logic controller through reinforcements”, IEEE Transactions on neural networks 3 (3), pp. 724-740. 20. Burges C. (1998), “A tutorial on Support Vector Machines for pattern recognition”, Proceedings of Int Conference on Data Mining and Knowledge Discovery 2 (2), pp. 121–167. 21. Butnariu D. (1983), “Additive fuzzy measures and integrals”, Journal of Mathematical Analysis and Applications 93 (2), pp. 436–452. 22. Chen C. C. (2006), “Design of PSO-based Fuzzy Classication Systems”, Tamkang Journal of Science and Engineering 9 (1), pp. 63–70. 23. Coello C. A. C., Lechuga M. S. (2002), “MOPSO: A proposal for multiple objective particle swarm optimization”, in: Proceedings of the 2002 Congress on Evolutionary Computation, IEEE Press, Hawaii, pp. 1051–1056. 24. Coello C. A. C., Pulido G. T., Lechuga M. S. (2004), “Handling multiple objectives with particle swarm optimization”, IEEE Transactions on Evolutionary Computation, 8 (3), pp. 256–279. 25. Cohen W. W. (1995), “Fast effective rule induction”, Proceedings of the 12th International Conference on Machine Learning, Morgan Kaufmann, pp. 115–123. 121 26. Cordon O., Jesus M. J., Herrera F. (1999), “A proposal on reasoning methods in fuzzy rule-based classification systems”, Int. J. Approx. Reason. 20 (1), pp. 21–45. 27. Cordon O., Herrera F., Hoffmann F., Magdalena L. (2001), Genetic Fuzzy Systems: Evolutionary Tuning and Learning of Fuzzy Knowledge Bases, World Scientific Publishing, Singapore. 28. Deb K., Pratap A., Agarwal S., Meyarivan T. (2002), “A fast and elitist multiobjective genetic algorithm: NSGA-II”, IEEE Transactions on Evolutionary Computation 6 (2), pp. 182–197. 29. DelaOssa L., Gámez J. A., Puerta J. M. (2009), “Learning weighted linguistic fuzzy rules by using specifically-tailored hybrid estimation of distribution algorithms”, International Journal of Approximate Reasoning 50 (3), pp. 541–560. 30. Demˇsar J. (2006), “Statistical Comparisons of Classifiers over Multiple Data Sets”, Journal of Machine Learning Research 7, pp. 1–30. 31. Dinko V., Mateo B., Ho. N. C., Lan V. N., Duy N. T. (2014), “Hedge-algebra-based voltage controller for a self-excited induction generator”, Control Engineering Practice 30, pp. 78–90. 32. Dong D. K., Khang T. D., Phong P. A. (2010), “Fuzzy clustering with hedge algebra”, Proceedings of the 2010 Symposium on Information and Communication Technology, SoICT 2010, Hanoi, Viet Nam, pp. 49–54. 33. Eberhart, R. C. , Kennedy J., “A new optimizer using particle swarm theory”, Proceedings of the Sixth International Symposium on Micro Machine and Human Science”, Nagoya, Japan, pp. 39-43. 34. Fakhrahmad S.M., Jahromi M. Z. (2009), “A New Rule-weight Learning Method based on Gradient Descent”, Proceedings of the World Congress on Engineering, London, U.K, Vol I WCE 2009, July 1–3. 35. Fazzolari M., Alcalá R., Nojima Y., Ishibuchi H., Herrera F. (2013), “Improving a Fuzzy Association Rule-Based Classification Model by Granularity Learning based on Heuristic Measures over Multiple Granularities”, 2013 IEEE Int. Workshop on Genetic and Evolutionary Fuzzy Systems, pp. 44–51. 36. Fazzolari M., Alcalá R., Herrera F. (2014), “A multi-objective evolutionary method for learning granularities based on fuzzy discretization to improve the accuracy- complexity trade-off of fuzzy rule-based classification systems: D-MOFARC algorithm”, Applied Soft Computing 24, pp. 470–481. 37. Fernández A., García S., Jesus M. J., Herrera F. (2008), “A study of the behaviour of linguistic fuzzy rule based classification systems in the framework of imbalanced data-sets”, Fuzzy Sets and Systems 159, pp. 2378–2398. 122 38. Fernández A., Jesus M. J., Herrera F. (2009), “Hierarchical fuzzy rule based classification systems with genetic rule selection for imbalanced data-sets”, International Journal of Approximate Reasoning 50, pp. 561–577. 39. Fernández A., Jesus M. J., Herrera F. (2009), “On the influence of an adaptive inference system in fuzzy rule based classification systems for imbalanced data-sets”, Expert Systems with Applications 36, pp. 9805–9812. 40. Fernández A., Jesus M. J., Herrera F. (2010), “On the 2-tuples based genetic tuning performance for fuzzy rule based classification systems in imbalanced data-sets”, Information Sciences 180, pp. 1268–1291. 41. Fdez J. A., Alcalá R., Herrera F. (2011), “A Fuzzy Association Rule-Based Classification Model for High-Dimensional Problems With Genetic Rule Selection and Lateral Tuning”, IEEE Transactions on Fuzzy Systems 19 (5), pp. 857–872. 42. Gabrys B., Bargiela A. (2000), “General Fuzzy Min-Max Neural Network for Clustering and Classification”, IEEE Transactions on Neural Networks 11 (3), pp. 769–783. 43. Gacto M.J. , Alcalá R. , Herrera F. (2011), “Interpretability of Linguistic Fuzzy Rule- Based Systems: An Overview of Interpretability Measures”, Information Science 181 (20), pp. 4340–4360. 44. Gacto M. J., Galende M., Alcalá R., Herrera F. (2014), “METSK-HDe: A multiobjective evolutionary algorithm to learn accurate TSK-fuzzy systems in high- dimensional and large-scale regression problems”, Information Sciences 276, pp. 63– 79. 45. Ghosh A. K. (2012), “A probabilistic approach for semi-supervised nearest neighbor classification”, Pattern Recognition Letters 33 (9), pp. 1127–1133. 46. González A., Perez R. (1999), “SLAVE: a genetic learning system based on an iterative approach”, IEEE Transaction on Fuzzy System, 27 (2), pp. 176-191. 47. González A., Perez R. (2001), “Selection of Relevant Features in a Fuzzy Genetic Learning Algorithm”, IEEE Transaction on Fuzzy System 31 (3), pp. 417-425. 48. González A., Perez R. (2009), “Improving the genetic algorithm of SLAVE”, Mathware & Soft Computing 16, pp. 59-70. 49. Guo H., Jack LB., Nandi AK. (2005), “Feature generation using genetic programming with application to fault classification”, IEEE Trans. Syst Man. Cybern., part B 35 (1), pp. 89–99. 50. Ho N. C., Wechle W. (1990), “Hedge algebras: an algebraic approach to structures of sets of linguistic domains of linguistic truth values”, Fuzzy Sets and Systems 35 (3), pp. 281–293. 51. Ho N. C., Wechler W. (1992), “Extended algebra and their application to fuzzy logic”, Fuzzy Sets and Systems 52, pp. 259–281. 123 52. Ho N. C, Nam H. V., Khang T. D., Chau N. H. (1999), “Hedge Algebras, Linguistic- valued logic and their application to fuzzy reasoning”, Internat. J.Uncertain. Fuzziness Knowledge-Based Systems 7 (4), pp. 347–361. 53. Ho N. C., Son T. T., Khang T. D., Viet L. X. (2002), “Fuzziness Measure, Quantified Semantic Mapping And Interpolative Method of Approximate Reasoning in Medical Expert Systems”, Journal of Computer Science and Cybernetics 18 (3), pp. 237–252. 54. Ho N. C., Long N. V (2007), “Fuzziness measure on complete hedges algebras and quantifying semantics of terms in linear hedge algebras”, Fuzzy Sets and Systems 158, pp. 452–471. 55. Ho N. C. (2007), “A topological completion of refined hedge algebras and a model of fuzziness of linguistic terms and hedges”, Fuzzy Sets and Systems 158, pp. 436–451. 56. Ho N. C., Lan V. N., Viet L. X. (2008), “Optimal hedge-algebras-based controller: Design and application”, Fuzzy Sets and Systems 159, pp. 968 – 989. 57. Ho N. C., Pedrycz W., Long D. T., Son T. T. (2013), “A genetic design of linguistic terms for fuzzy rule based classifiers”, International Journal of Approximate Reasoning 54 (1), pp. 1– 21. 58. Ho N. C., Thong H. V., Long N. V. (2015), A discussion on interpretability of linguistic rule based systems and its application to solve regression problems, Knowledge-Based Systems 88, pp. 107–133. 59. Hu X., Eberhart R. (2002), “Multiobjective Optimization Using Dynamic Neighbourhood Particle Swarm Optimization”, in: Proceedings of the 2002 Congress on Evolutionary Computation, IEEE Press, Hawaii, pp. 1677-1681. 60. Huhn J., Hullermeier E. (2009), “FURIA: an algorithm for unordered fuzzy rule induction”, Data Min. Knowl. Discov. 19, pp. 293–319. 61. Ishibuchi H., Nozaki K., Tanaka H. (1992), “Distributed representation of fuzzy rules and its application to pattern classification”, Fuzzy Sets and Systems 52 (1), pp. 21– 32. 62. Ishibuchi H., Nozaki K., Yamamoto N., Tanaka H. (1995), “Selecting fuzzy if-then rules for classification problems using genetic algorithms”, IEEE Trans. on Fuzzy Systems 3 (3), pp. 260–270. 63. Ishibuchi H., Nakashima T., Murata T. (1995), “A fuzzy classifier system that generates fuzzy if-then rules for pattern classification problems”, IEEE International Conference on Evolutionary Computation 2, pp. 759–764. 64. Ishibuchi H., Murata T., Türkşen I. B. (1995), “Selecting linguistic classification rules by two-objective genetic algorithms”, Proc. IEEE-SMC'95,Vancouver, Canada, pp. 1410–1415. 124 65. Ishibuchi H., Murata T., Türkşen I. B. (1997), “Single-objective and two-objective genetic algorithms for selecting linguistic rules for pattern classification problems”, Fuzzy Sets and Systems 89 (2), pp. 135–150. 66. Ishibuchi H., Nakashima T., Murata T. (2001), “Three-objective genetics based machine learning for linguistic rule genetics-extraction”, Information Sciences 136, pp. 109–133. 67. Ishibuchi H., Yamamoto T. (2004), “Fuzzy Rule Selection by Multi-Objective Genetic Local Search Algorithms and Rule Evaluation Measures in Data Mining”, Fuzzy Sets and Systems 141 (1), pp. 59–88. 68. Ishibuchi H., Yamamoto T. (2005), “Rule weight specification in fuzzy rule-based classification systems”, IEEE Transactions on Fuzzy Systems 13 (4), pp. 428–435. 69. Ishibuchi H., Nojima Y. (2007), “Analysis of interpretability-accuracy tradeoff of fuzzy systems by multiobjective fuzzy genetics-based machine learning”, International Journal of Approximate Reasoning 44, pp. 4–31. 70. Ishibuchi H. (2007), "Evolutionary Multiobjective Optimization for Fuzzy Knowledge Extraction", 8th International Symposium on Advanced Intelligent Systems, Sokeho, Korea, pp. 58-62. 71. Jahromi M. Z., Taheri M. (2008), “A proposed method for learning rule weights in fuzzy rule-based classification systems”, Fuzzy Sets and Systems 159 (4), pp. 449– 459. 72. Jang J. S. R. (1993), “ANFIS: Adaptive-network-based fuzzy inference system”, IEEE Trans. on Systems, Man and Cybernetics 23 (3), pp. 665–685. 73. Jiménez F., Sánchez G., Juárez J. M. (2014), “Multi-objective evolutionary algorithms for fuzzy classification insurvival prediction”, Artificial Intelligence in Medicine 60, pp. 197–219. 74. Ji-lin C., Yuan-long H., Zong-y X., Li-min J., Zhong-zhi T. (2006), “A Multi- objective Genetic-based Method for Design Fuzzy Classification Systems”, IJCSNS International Journal of Computer Science and Network Security 6 (8A), pp. 110– 118. 75. Kennedy J., Eberhart R. C. (1995), “Particle Swarm Optimization”, In Proceedings of the IEEE International Conference on Neural Networks, Piscataway, New Jersey. IEEE Service Center, pp. 1942–1948. 76. Kevin L., Olivier S. (2006), "Fuzzy Histograms and Density Estimation", Advances in Soft Computing, pp. 45-52. 77. King P. J., Mamdani E. H. (1977), “The application of fuzzy control systems to industrial processes”, Automatica 13 (3), pp. 235–242. 78. Kirkpatrick S., Gelatt C. D., Vecchi M. P. (1983), "Optimization by simulated annealing", Science 220 (4598), pp. 671-680. 125 79. Knowles J., Corne D. (1999), “The Pareto Archived Evolution Strategy: A New Baseline Algorithm for Pareto Multiobjective Optimisation”, In Proceedings of the Congress on Evolutionary Computation, Mayflower Hotel, Washington D.C., USA. IEEE Press, volume 1, pp. 98–105. 80. Langseth H., Nielsen T. D. (2006), Classification using Hierarchical Naïve Bayes models, Machine Learning 63 (2), pp. 135–159. 81. Le B. H., Ho N. C., Pedrycz W., Trung T. D., Lan V. N. (2012), “Active control of earthquake-excited structures with the use of hedge-algebras-based controllers”, Journal of Science and Technology 50 (6), pp. 705–734. 82. Le B. H., Ho N. C., Lan V. N., Hung N. C. (2015), “General design method of hedge- algebras-based fuzzy controlers and an application for structural active control”, Applied Intelligence 43 (2), pp. 251–275. 83. Lechuga M. S. (2006), Multi-Objective Optimisation using Sharing in Swarm Optimisation Algorithms, Doctor thesis, School of Computer Science, The University of Birmingham. 84. Li X. (2003), “A non-dominated sorting particle swarm optimizer for multi-objective optimization”, in: Proceedings of the Genetic and Evolutionary Computation Conference, Lecture Notes in Computer Science 2723, pp. 37–48. 85. Liu J., Yu Z., Ma D. (2012), “An Adaptive Fuzzy Min-Max Neural Network Classifier Based on Principle Component Analysis and Adaptive Genetic Algorithm”, Mathematical Problems in Engineering 2012, pp. 1–21. 86. López V., Fernández A., delJesus M. J., Herrera F. (2013), “A hierarchical genetic fuzzy system based on genetic programming for addressing classification with highly imbalanced and borderline data-sets”, Knowledge-Based Systems 38, pp. 85–104. 87. López V., Triguero I., Carmona C. J., García S., Herrera F. (2014), “Addressing imbalanced classification with instance generation techniques: IPADE-ID”, Neurocomputing 126, pp. 15–28. 88. Luengo J., Sáez J. A., Herrera F. (2012), “Missing data imputation for fuzzy rule- based classification systems”, Soft Computing 16 (5), pp. 863-881. 89. Mamdani E. H. (1974), “Application of fuzzy algorithms for control of simple dynamic plants”, in: Proceedings of the IEEE 121, pp. 1585–1588. 90. Mamdani E. H., Assilian S. (1975), “An experiment in linguistic synthesis with a fuzzy logic controller”, International Journal of Man-Machine Studies 7 (1), pp. 1– 13. 91. Mansoori E. G., Zolghadri M. J., Katebi S. D. (2007), “A weighting function for improving fuzzy classification systems performance”, Fuzzy Sets and Systems 158, pp. 583– 591. 126 92. Mansoori E. G., Zolghadri M. J., Katebi S. D. (2008), “SGERD: A Steady-State Genetic Algorithm for Extracting Fuzzy Classification Rules From Data”, IEEE Transaction on fuzzy systems 16 (4), pp. 1061-1071. 93. Mostaghim S., Teich J. (2003), “Strategies for Finding Good Local Guides in Multi- objective Particle Swarm Optimization (SIS’03)”, IEEE Service Center, Inidanapolis, Indiana, USA, pp. 26–33. 94. Miller G. A. (1956), “The magical number seven plus or minus two: some limits on our capacity for processing information”, The Psychological Review 63, pp. 81–97. 95. Nakashima T., Schaefer G., Yokota Y., Ishibuchi H. (2007), A weighted fuzzy classifier and its application to image processing tasks, Fuzzy Sets and Systems 158, pp. 284–294. 96. Nauck D., Kruse R. (1995), “NEFCLASS: A neuro-fuzzy approach for the classification of data”, In Proc. of the 1995 ACM Symposium on Applied Computing, Nashville, TN, pp. 461–465. 97. Nauck D., Kruse R. (1997), “A neuro-fuzzy method to learn fuzzy classification rules from data”, Fuzzy Sets and Systems 89 (3), pp. 277–288. 98. Nauck D., Kruse R. (1998), “How the learning of rule weights affects the interpretability of fuzzy systems”, in Proc. 7th IEEE Int. Conf. Fuzzy Systems, Anchorage, AK, pp. 1235–1240. 99. Pakhira M. K., Bandyopadhyay S., Maulik U. (2004), “Validity index for crisp and fuzzy clusters”, Pattern Recognition 37, pp. 487–501. 100. Pakhira M. K., Bandyopadhyay S., Maulik U. (2005), “A study of some fuzzy cluster validity indices, genetic clustering and application to pixel classification”, Fuzzy Sets and Systems 155, pp. 191–214. 101. Prusty M. R., Jayanthi T., Chakraborty J., Seetha H., Velusamy K. (2015), “Performance analysis of fuzzy rule based classification system for transient identification in nuclear power plant”, Annals of Nuclear Energy 76, pp. 63–74. 102. Quinlan J. R. (1993), C4.5: Programs for Machine Learning, Morgan Kauffman Publishers, San Mateo, California, USA. 103. Pulkkinen p., Koivisto H. (2008), "Fuzzy classifier identification using decision tree and multiobjective evolutionary algorithms", International Journal of Approximate Reasoning 48, pp. 526–543. 104. Puranik P., Bajaj P., Abraham A., Palsodkar P., Deshmukh P. (2011), “Human Perception-based Color Image Segmentation Using Comprehensive Learning Particle Swarm Optimization”, Journal of Information Hiding and Multimedia Signal Processing 2 (3), pp. 227-235. 127 105. Rao A. R. M., Sivasubramanian K. (2008), “Multi-objective optimal design of fuzzy logic controller using a self configurable swarm intelligence algorithm”, Comput. Struct. 86, pp. 2141–2154. 106. Roh S. B., Pedrycz W., Ahn T. C. (2014), “A design of granular fuzzy classifier”, Expert Systems with Applications 41, pp. 6786–6795. 107. Roubos J. A., Setnes M., Abonyi J. (2003), “Learning fuzzy classification rules from labeled data”, Information Sciences 150, pp. 77–93. 108. Salehi S., Selamat A., Mashinchi M. R., Fujita H. (2015), "The synergistic combination of particle swarm optimization and fuzzy sets to design granular classifier", Knowledge-Based Systems 76, pp. 200–218. 109. Sanjeevi S. G., Nikhila A. N., Khan T., Sumathi G. (2012), “Comparison of Hybrid PSO-SA Algorithm and Genetic Algorithm for Classification”, Computer Engineering and Intelligent Systems, 3 (2), pp. 37-45. 110. Sanz J., Fernández A., Bustince H., Herrera F. (2011), “A genetic tuning to improve the performance of Fuzzy Rule-Based Classification Systems with Interval-Valued Fuzzy Sets: Degree of ignorance and lateral position”, International Journal of Approximate Reasoning 52 (6), pp. 751–766. 111. Setiono D. (1999), “Generating concise and accurate classification rules for breast cancer diagnosis”, Artificial Intelligence in Medicine 18, pp. 205–219. 112. Setnes M., Roubos H. (2000), “GA-fuzzy modeling and classification: Complexity and performance”, IEEE Trans. on Fuzzy Systems 8 (8), pp. 509–522. 113. Shi Y., Eberhart R., Chen Y. (1999), “Implementation of evolutionary fuzzy systems”, IEEE Trans. on Fuzzy Systems 7 (2), pp. 109–119. 114. Simpson P. K. (1992), “Fuzzy min-max neural networks - I: Classification”, IEEE Transactions on Neural Networks 3 (5), pp. 776–786. 115. Sun S., Zhang C., Zhang D. (2007), “An experimental evaluation of ensemble methods for EEG signal classification”, Pattern Recognition Letters 28 (15), pp. 2157–2163. 116. Sun X., Liu Y., Xu M., Chen H., Han J., Wanga K. (2013), “Feature selection using dynamic weights for classification”, Knowledge-Based Systems 37, pp. 541–549. 117. Takagi T., Sugeno M. (1985), “Fuzzy identification of systems and its applications to modeling and control”, IEEE Trans. on Systems, Man, and Cybernetics 15 (1), pp. 116–132. 118. Tao J., Li Q., Zhu C., Li J. (2012), “A hierarchical naive Bayesian network classifier embedded GMM for textural image”, International Journal of Applied Earth Observation and Geoinformation 14 (1), pp. 139–148. 128 119. Tripathi P. K., Bandyopadhyay S., Pal S. K. (2007), “Multi-Objective Particle Swarm Optimization with time variant inertia and acceleration coefficients”, Information Sciences 177, pp. 5033–5049. 120. Vuorimaa P. (1994), “Fuzzy self-organizing map”, Fuzzy Sets and Systems 66 (2), pp. 223–231. 121. Wang L. X., Mendel J. M. (1992), “Generating fuzzy rules by learning from examples”, IEEE Trans. on Systems, Man and Cybernetics 22 (6), pp. 1414–1427. 122. Wu C., Lin C. J., Lee C. Y. (2011), “A functional neural fuzzy network for classification applications”, Expert Systems with Applications 38 (5), pp. 6202–6208. 123. Zadel L. A. (1965), “Fuzzy sets”, Information and Control 8, pp. 338–353. 124. Zadeh L. A. (1975), “The concept of a linguistic variable and its application to approximate reasoning – I–III”, Inf. Sci. 8 (3), pp. 199–249; Zadeh L. A. (1975), “The concept of a linguistic variable and its application to approximate reasoning – I–III”, Inf. Sci. 8 (4), pp. 301–357; Zadeh L. A. (1975), “The concept of a linguistic variable and its application to approximate reasoning – I–III”, Inf. Sci. 9 (1), pp. 43–80. 125. Zhang Y., Lu Z., Li J. (2010), “Fabric defect classification using radial basis function network”, Pattern Recognition Letters 31 (13), pp. 2033–2042. 126. Zhao Z., Wang G., Zhao W., Chen H., Zhao W., Li L. (2011), “A Fuzzy Adaptive Multi-Population Parallel Genetic Algorithm for Spam Filtering”, Journal of Convergence Information Technology 6 (2), pp. 172–182. 127. Zhou E., Khotanzad A. (2007), “Fuzzy classifier design using genetic algorithms”, Pattern Recognition 40 (12), pp. 3401–3414. 128. A PHỤ LỤC PHỤ LỤC 1. Thuật toán sinh tập luật khởi đầu. Thuật toán 2.2. E_IFRG [57, CT4] //Thuật toán sinh tập luật khởi đầu. Input: Tập mẫu dữ liệu D = {(dl, Cl) | l = 1, , mt}, M lớp kết luận, n thuộc tính Các tham số ngữ nghĩa Л, NR số luật khởi đầu, K giới hạn độ dài các từ ngôn ngữ, λ độ dài tối đa của luật. Output: Tập luật khởi đầu S0 = {R1, , RNR} Begin //Bước 1: Xây dựng tập các từ ngôn ngữ, khoảng tính mờ, giá trị định lượng khoảng và tập mờ hình thang của Xj,(kj) For j = 1 to n do begin Sinh tập các từ ngôn ngữ có độ dài tối đa kj ≤ K; For k = 1 to kj do begin For each x  Xj,k do begin // Xj,k được sắp theo thứ tự ngữ nghĩa Tính độ đo tính mờ của fm(x); //Tính chất (2) của Mệnh đề 2.1 Xây dựng khoảng tính mờ j,k(x) của x; Tính ánh xạ định lượng khoảng f(x) của x; // Định lý 2.6 End; End; For each x  ࢄ௝,(௞ೕ) do Xây dựng tập mờ hình thang cho x; //Mục 2.6.1 End; //Bước 2: Xây dựng tập luật ứng viên từ D dựa trên các khoảng tính mờ mức kj Rcnd = Ø; //Khởi tạo tập luật ứng viên là rỗng For each pl = (dl, Cl)  D do begin Atn = Ø;//Khởi tạo tập các tiền đề luật là rỗng For j = 1 to n do begin B Tìm từ ngôn ngữ ݔ௝,௜ ∈ ࢄ௝,௞ೕ mà ݀௟,௝ ∈ ℑ௝,௞ೕ൫ݔ௝,௜൯; Sinh một điều kiện tiền đề luật aj,i = “Xj is xj,i”; Atn = Atn  aj,i ; //Thêm aj,i vào tập tiền đề Atn; End; Sinh luật cơ sở Rb: ࡭࢚࢔ ⇒ ܥ௟; //Rb có độ dài n For k = 1 to λ do begin Sinh tất cả các k-tổ hợp của n phần tử và lưu vào tập Comb; For each Combq  Comb do begin Sinh luật r: Aq ⇒ Cl có tiền đề luật là tổ hợp Combq từ tiền đề của Rb; Tính độ tin cậy và độ hỗ trợ của luật r; //công thức (1.3), (1.4); Xác định lại nhãn lớp của luật r: Aq ⇒ Cq;//công thức (1.6); Tính trọng số của luật r; //công thức (1.7), (1.8), (1.9), (1.10); Rcnd = Rcnd  r; End; End; End; //Bước 3: Sàng luật theo tiêu chuẩn sàng S0 = Ø; //Khởi tạo tập luật khởi tạo là rỗng For i =1 to M do begin Ri = {Rcnd: Aq  Cq, Cq = Ci}; //Nhóm các luật ứng viên theo nhãn lớp Sắp xếp Ri giảm dần theo tiêu chuẩn sàng; Thêm NR/M luật đầu tiên trong Ri vào S0; End; Return S0; End. C PHỤ LỤC 2. Mô tả các tập dữ liệu thực nghiệm Bảng 2.1. Các tập dữ liệu mẫu được sử dụng trong các thực nghiệm STT Tập dữ liệu Ký hiệu Số thuộc tính Số lớp Số mẫu dữ liệu 1 Appendicitis App 7 2 106 2 Australian Aus 14 2 690 3 Bands Ban 19 2 365 4 Bupa Bup 6 2 345 5 Cleveland Cle 13 5 297 6 Dermatology Der 34 6 358 7 Glass Gla 9 6 214 8 Haberman Hab 3 2 306 9 Hayes-roth Hay 4 3 160 10 Heart Hea 13 2 270 11 Hepatitis Hep 19 2 80 12 Ionosphere Ion 34 2 351 13 Iris Iri 4 3 150 14 Mammographic Mam 5 2 830 15 Newthyroid New 5 3 215 16 Pima Pim 8 2 768 17 Saheart Sah 9 2 462 18 Sonar Son 60 2 208 19 Tae Tae 5 3 151 20 Vehicle Veh 18 4 846 21 Wdbc Wdb 30 2 569 22 Wine Win 13 3 178 23 Wisconsin Wis 9 2 683 Sau đây là mô tả ngắn gọn các đặc điểm chính của các tập dữ liệu trong bảng trên: - Tập dữ liệu Appendicitis có 7 thuộc tính (có giá trị từ 0,0 đến 1,0) biểu diễn 7 tiêu chuẩn y tế được thực hiện qua 106 bệnh nhân, trong đó nhãn lớp 1 và 0 tương ứng biểu thị bệnh nhân bị và không bị việm ruột thừa. - Australian là tập dữ liệu ứng dụng thẻ tín dụng. Tất cả các thuộc tính đã được chuyển thành các ký hiệu không có nghĩa nhằm bảo vệ dữ liệu mật. - Tập dữ liệu Bands liên quan đến in quay với nhiệm vụ xác định một phần nhất định có phải là một dải hình trụ hay không. D - Tập dữ liệu Bupa liên quan đến việc phân tích một số rối loạn chức năng gan có thể phát sinh từ uống rượu quá mức. Năm thuộc tính đầu là tất cả các xét nghiệm máu được cho là nhạy cảm với rối loạn chức năng gan. Thuộc tính cuối là số lượng panh (tương đương với nửa lít) rượu uống mỗi ngày. - Tập dữ liệu Cleveland liên quan đến bệnh tim gồm 14 thuộc tính với nhiệm vụ dò xét sự hiện diện của bệnh tim trong bệnh nhân. Nhãn lớp là các số nguyên từ 0 (không hiện diện) đến 4. - Dermatology là tập dữ liệu về chẩn đoán bệnh vảy ban đỏ. Bệnh nhân trước tiên được đánh giá lâm sàng với 12 thuộc tính và sau đó các mẫu da được lấy để đánh giá với 22 thuộc tính mô học. Thuộc tính về lịch sử gia đình có giá trị 1 nếu các bệnh này được quan sát thấy trong gia đình và có giá trị 0 trong trường hợp ngược lại. Ngoài thuộc tính tuổi, tất cả các thuộc tính khác có mức độ trong khoảng từ 0 đến 3. Giá trị 0 chỉ ra rằng thuộc tính này không hiện diện, 3 chỉ giá trị lớn nhất có thể và 1, 2 chỉ các giá trị trung gian tương đối. - Tập dữ liệu Glass được dùng để phân lớp 6 loại kính có thể được tìm thấy tại hiện trường tội phạm và được xác định theo hàm lượng ôxít (K, Na, Fe, Al, ). - Tập dữ liệu Haberman bao gồm các ca từ một nghiên cứu được thực hiện từ năm 1958 đến năm 1970 tại Đại học Chicago's Billings Hospital về sự sống sót của bệnh nhân sau phẫu thuật ung thư vú. Việc phân lớp dữ liệu nhằm xác định bệnh nhân sẽ sống thêm từ 5 năm trở lên (“positive”) hay dưới 5 năm (“negative”). - Hayes-roth là tập dữ liệu nhân tạo có 4 thuộc tính được dùng để thử nghiệm các hệ phân lớp dựa trên nguyên mẫu (prototype classifier). - Tập dữ liệu Heart có 13 thuộc tính dùng để phát hiện bệnh nhân bị bệnh tim (nhãn 2) hay không bị bệnh tim (nhãn 1). - Tập dữ liệu Hepatitis có 19 thuộc tính chứa đựng các thông tin về các bệnh nhân bị ảnh hưởng bởi bệnh viêm gan. - Ionosphere là tập dữ liệu ra đa được thu thập bởi một hệ trong Goose Bay, Labrador. Hệ này bao gồm một dàn 16 ăng ten mảng pha tần số cao với tổng công suất phát 6,4KW. Mục tiêu là các electron tự do trên tầng điện ly. Ra đa trả lại nhãn “Good” cho bằng chứng của vài cấu trúc trong tầng điện ly, ngược lại nhãn “Bad” thì không, tức các tín hiệu xuyên qua tầng điện ly. E - Iris là tập dữ liệu phân loại hoa diên vĩ bao qua 4 thuộc tính về độ dài và độ rộng của đài hoa và cánh hoa. Mỗi nhãn lớp ứng với một trong các loại hoa Iris Setosa, Iris Versicolour và Iris Virginica. - Mammographic là tập dữ liệu được sử dụng để dự đoán mức độ nghiêm trọng (lành tính hoặc ác tính) của khối X quang vú dựa trên các thuộc tính BI-RADS và tuổi của bệnh nhân. - Newthyroid là tập dữ liệu về tuyến giáp được sử dụng để phát hiện bệnh nhân là bình thường (nhãn 1), có sự hoạt động quá mức (nhãn 2) hay giảm hoạt động (nhãn 3) của tuyến giáp. - Pima là tập dữ liệu cho phép phân các phụ nữ có độ tuổi ít nhất là 21 thành hai nhóm: đã bị đái tháo đường (tested_positive) và chưa bị đái tháo đường (tested_negative). - Saheart là tập dữ liệu giúp xác định người nào đó có bị mắc bệnh tim mạch vành (postive) hay không (negative). - Sonar là tập dữ liệu chứa các tín hiệu thu được từ nhiều góc độ khác nhau, trải 90 độ cho mỏ quặng và 180 độ cho đá. Mỗi mẫu dữ liệu gồm 60 thuộc tính có giá trị từ 0,0 đến 1,0, trong đó, mỗi giá trị số biểu thị năng lượng bên trong một dài tần số nhất định, được tích hợp với nhau qua một quãng thời gian nhất định. Nhãn R và M lần lượt thể hiện đối tượng được phát hiện là đá và khối kim loại. - Tae là tập dữ liệu đánh giá hiệu suất giảng dạy qua các học kỳ bình thường và kỳ hè của 151 trợ lý giảng dạy tại Khoa thống kê, Đại học Wisconsin-Madison. Kết quả đánh giá gồm 3 loại ứng với các nhãn: low (1), medium (2) và high (3). - Vehicle là tập dữ liệu dùng để phân loại một hình bóng cụ thể được cho là của một trong bốn loại xe (van, saab, bus, opel) sử dụng tập các đặc trưng được trích xuất từ hình bóng. Xe có thể được nhìn từ một trong các góc độ khác nhau. - Wdbc là tập dữ liệu bao gồm 30 thuộc tính được tính toán từ một ảnh số của một hút kim nhỏ của một khối vú. Chúng mô tả các đặc điểm của nhân tế bào xuất hiện trong ảnh nhằm phát hiện một khối u là lành tính (B) hay ác tính (M). - Wine là tập dữ liệu dùng để phân loại rượu qua việc phân tích định lượng của 13 thành phần được tìm thấy trong một trong ba loại rượu. - Wisconsin bao gồm dữ liệu về các ca phẫu thuật ung thư vú trong một nghiên cứu được tiến hành tại Đại học Wisconsin Hospitals, Madison nhằm xác định khối u được phát hiện là lành tính (nhãn 2) hay ác tính (nhãn 4). F PHỤ LỤC 3. Một số bảng kết quả thực nghiệm Bảng 2.2. Các kết quả thực nghiệm và so sánh giữa hai cấu trúc đa thể hạt và đơn thể hạt được thiết kế trên cơ sở ĐSGT. Tập dữ liệu ĐaTHAX ĐơnTHAX ĐaTHAXmr ĐơnTHAXmr ĐaTHAXmrtp ĐơnTHAXmrtp #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte App 21,32 92,28 87,55 28,85 91,89 85,09 16,91 91,30 88,09 14,97 89,45 85,82 16,77 92,38 88,15 28,91 92,31 88,42 Aus 36,20 88,06 86,38 40,08 87,76 85,65 41,85 87,72 86,86 44,35 87,32 85,07 46,50 88,56 87,15 39,86 87,75 86,23 Ban 52,20 76,17 72,80 51,78 76,55 72,85 78,19 76,28 72,10 71,63 75,12 67,97 58,20 78,19 73,46 53,73 74,84 71,27 Bup 187,20 78,13 68,09 185,12 76,33 66,30 170,70 77,54 69,41 112,23 75,70 70,53 181,19 79,78 72,38 140,55 74,28 67,08 Cle 657,43 72,44 62,19 774,21 70,81 54,92 640,19 69,86 63,40 667,88 68,32 57,47 468,13 66,64 62,39 749,06 70,13 56,84 Der 198,05 98,03 96,07 219,41 97,19 93,93 189,46 96,88 95,52 222,54 91,62 88,25 182,84 96,37 94,40 196,88 95,58 93,46 Gla 343,60 80,45 72,09 429,65 80,48 71,76 488,38 80,26 72,78 322,23 77,99 69,41 474,29 78,78 72,24 364,33 78,64 70,33 Hab 10,20 76,91 75,76 9,30 76,62 75,78 20,00 77,67 77,43 16,00 76,33 76,65 10,80 77,60 77,40 7,84 76,80 76,74 Hay 122,27 90,11 84,17 123,83 90,23 83,33 139,42 89,98 83,33 99,95 84,07 76,46 114,66 89,40 84,17 99,33 86,97 77,08 Hea 122,72 89,63 84,44 144,07 88,15 77,28 120,69 88,07 84,57 101,48 86,54 77,41 123,29 89,19 84,57 100,64 88,50 80,49 Hep 26,16 95,83 88,44 27,20 94,08 83,64 25,75 94,44 89,17 23,08 93,79 85,38 25,53 93,68 89,28 21,32 93,48 87,13 Ion 90,33 95,35 90,22 110,25 95,35 90,33 83,71 94,67 90,98 81,89 94,02 91,08 88,03 94,69 91,56 86,99 93,37 87,65 Iri 26,29 98,40 96,00 35,24 98,72 95,33 34,59 98,35 96,67 24,70 97,75 96,89 30,37 98,25 97,33 35,65 98,49 97,11 Mam 92,25 86,05 84,20 78,55 85,57 82,32 82,08 85,31 84,46 74,82 85,17 83,94 73,84 85,49 84,20 56,24 84,64 81,95 New 45,18 97,02 94,42 40,20 97,04 96,45 30,93 96,30 95,03 44,03 96,86 94,75 39,82 96,76 95,67 41,22 97,12 95,19 Pim 60,89 78,28 76,18 47,40 76,77 73,36 50,33 78,53 76,66 51,00 77,17 75,01 56,12 78,69 77,01 45,42 77,07 74,58 Sah 86,75 76,35 69,33 75,54 75,90 69,70 58,41 74,55 70,27 60,50 74,94 69,32 59,29 75,51 70,05 57,20 75,32 69,84 Son 79,76 88,39 76,80 64,48 87,66 73,37 53,91 86,84 77,29 52,98 85,56 71,78 49,31 87,59 78,61 48,06 84,74 76,05 Tae 261,00 72,11 59,47 259,72 74,00 57,96 163,61 68,36 59,46 160,89 65,49 54,19 210,70 68,97 61,00 223,15 70,32 55,93 Veh 242,79 70,30 67,62 279,66 68,31 64,39 216,19 71,64 68,12 219,09 70,75 65,96 195,07 70,74 68,20 228,82 69,09 65,17 Wdb 37,35 97,62 96,96 42,00 96,88 94,21 23,08 97,16 95,96 39,35 95,83 94,26 25,04 97,08 96,78 35,29 95,46 92,91 Win 35,82 99,88 98,30 54,33 98,77 93,97 42,09 100,00 98,52 4880 98,79 94,95 40,39 99,60 98,49 41,94 98,13 95,34 Wis 74,36 97,81 96,74 92,54 98,17 96,21 59,81 97,20 96,51 63,21 95,07 92,99 69,81 97,78 96,95 72,80 97,29 95,72 TB 126,53 86,77 81,92 139,71 86,23 79,92 123.05 86,04 82,29 113,81 84,51 79,37 114.78 86,16 82,67 120,66 85,23 80,11 Số có chữ đậm thể hiện kết quả tốt hơn giữa cấu trúc đa thể hạt và đơn thể hạt được thiết kế bởi cùng một phương pháp luận ĐSGT. G Bảng 2.5. Các kết quả thực nghiệm và so sánh giữa các hệ phân lớp được thiết kế trên cơ sở ĐSGT AXmr và AXmrtp sử dụng phương pháp lập luận SWR và WV. Tập dữ liệu SWR_AXmr WV_AXmr SWR_AXmrtp WV_AXmrtp #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte App 16,91 91,30 88,09 17,39 93,43 90,03 16,77 92,38 88,15 20,89 92,70 86,85 Aus 41,85 87,72 86,86 48,72 88,33 86,57 46,50 88,56 87,15 48,72 88,32 86,57 Ban 78,19 76,28 72,10 83,53 74,55 67,71 58,20 78,19 73,46 60,42 76,36 69,41 Bup 170,70 77,54 69,41 185,49 75,84 65,50 181,19 79,78 72,38 136,81 77,15 66,32 Cle 640,19 69,86 63,40 825,14 70,79 57,09 468,13 66,64 62,39 836,76 70,55 57,49 Der 189,46 96,88 95,52 205,17 94,81 92,74 182,84 96,37 94,40 197,75 96,05 93,75 Gla 488,38 80,26 72,78 445,64 76,28 66,32 474,29 78,78 72,24 443,84 75,59 66,20 Hab 20,00 77,67 77,43 9,21 74,17 73,42 10,80 77,60 77,40 15,51 78,96 74,35 Hay 139,42 89,98 83,33 88,05 84,28 77,92 114,66 89,40 84,17 92,60 91,27 85,21 Hea 120,69 88,07 84,57 73,72 88,70 83,83 123,29 89,19 84,57 84,61 89,29 84,07 Hep 25,75 94,44 89,17 21,88 96,24 91,35 25,53 93,68 89,28 29,76 94,58 86,84 Ion 83,71 94,67 90,98 72,54 94,11 90,89 88,03 94,69 91,56 100,83 94,60 88,71 Iri 34,59 98,35 96,67 33,81 98,94 94,44 30,37 98,25 97,33 32,99 98,59 94,89 Mam 82,08 85,31 84,46 66,96 85,11 83,34 73,84 85,49 84,20 83,85 85,81 83,16 New 30,93 96,30 95,03 37,15 98,09 97,09 398,15 96,76 95,67 48,95 98,07 96,15 Pim 50,33 78,53 76,66 62,13 78,41 74,58 56,12 78,69 77,01 54,15 79,16 75,61 Sah 58,41 74,55 70,27 64,34 75,12 69,76 592,84 75,51 70,05 66,70 76,58 71,87 Son 53,91 86,84 77,29 52,38 86,04 76,69 49,31 87,59 78,61 67,23 88,12 76,87 Tae 163,61 68,36 59,46 165,53 68,09 57,75 210,70 68,97 61,00 219,99 70,59 57,26 Veh 216,19 71,64 68,12 259,23 70,39 67,41 195,07 70,74 68,20 223,69 68,74 65,25 Wdb 23,08 97,16 95,96 34,15 97,62 95,20 25,04 97,08 96,78 37,00 97,32 95,20 Win 42,09 100,00 98,52 49,16 99,56 94,74 40,39 99,60 98,49 46,81 99,73 96,03 Wis 59,81 97,20 96,51 65,96 97,42 95,43 698,07 97,78 96,95 57,06 97,86 96,22 TB 123.05 86,04 82,29 129,01 85,49 80,43 114,78 86,16 82,67 130,74 86,35 80,62 Số có chữ đậm thể hiện kết quả tốt hơn giữa hai phương pháp lập luận SWR và WV. H Bảng 2.8. Các kết quả thực nghiệm và so sánh giữa các hệ phân lớp FRBC_AXmrtp, FRBC_AXmr, FRBC_AX, All Granularities và Product-1-ALL TUN. Tập dữ liệu FRBC_AXmrtp FRBC_AXmr FRBC_AX All Granularities Product/1-ALL TUN #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte App 16,77 92,38 88,15 16,91 91,30 88,09 21,32 92,28 87,55 8,84 91,86 87,91 20,89 93,47 87,30 Aus 46,50 88,56 87,15 41,85 87,72 86,86 36,20 88,06 86,38 4,00 85,51 85,51 62,43 89,18 85,65 Ban 58,20 78,19 73,46 78,19 76,28 72,10 52,20 76,17 72,80 57,18 71,36 68,73 104,09 71,18 65,80 Bup 181,19 79,78 72,38 170,70 77,54 69,41 187,20 78,13 68,09 112,59 69,50 63,99 210,91 78,59 67,19 Cle 468,13 66,64 62,39 640,19 69,86 63,40 657,43 72,44 62,19 1132,14 73,11 55,11 1020,66 77,21 58,80 Der 182,84 96,37 94,40 189,46 96,88 95,52 198,05 98,03 96,07 220,36 99,07 94,12 185,28 99,28 94,48 Gla 474,29 78,78 72,24 488,38 80,26 72,78 343,60 80,45 72,09 408,83 78,65 60,48 534,88 83,68 71,28 Hab 10,80 77,60 77,40 20,00 77,67 77,43 10,20 76,91 75,76 90,55 79,46 71,89 21,13 76,82 71,88 Hay 114,66 89,40 84,17 139,42 89,98 83,33 122,27 90,11 84,17 140,03 90,88 78,03 158,52 90,99 78,88 Hea 123,29 89,19 84,57 120,69 88,07 84,57 122,72 89,63 84,44 109,45 90,19 83,46 164,61 91,87 82,84 Hep 25,53 93,68 89,28 25,75 94,44 89,17 26,16 95,83 88,44 35,34 96,10 90,44 20,29 97,88 88,53 Ion 88,03 94,69 91,56 83,71 94,67 90,98 90,33 95,35 90,22 141,33 95,64 88,62 86,75 96,25 90,79 Iri 30,37 98,25 97,33 34,59 98,35 96,67 26,29 98,40 96,00 27,40 99,11 95,11 18,54 98,30 97,33 Mam 73,84 85,49 84,20 82,08 85,31 84,46 92,25 86,05 84,20 102,46 83,07 81,04 106,74 83,90 80,49 New 39,82 96,76 95,67 30,93 96,30 95,03 45,18 97,02 94,42 49,40 96,19 91,78 56,47 98,02 94,60 Pim 56,12 78,69 77,01 50,33 78,53 76,66 60,89 78,28 76,18 95,01 77,80 74,92 57,20 79,06 77,05 Sah 59,28 75,51 70,05 58,41 74,55 70,27 86,75 76,35 69,33 76,24 76,70 71,14 110,84 77,73 70,13 Son 49,31 87,59 78,61 53,91 86,84 77,29 79,76 88,39 76,80 70,67 86,54 78,88 47,59 87,91 78,90 Tae 210,70 68,97 61,00 163,61 68,36 59,46 261,00 72,11 59,47 147,09 66,55 54,57 215,92 71,21 60,78 Veh 195,07 70,74 68,20 216,19 71,64 68,12 242,79 70,30 67,62 492,55 69,34 62,81 382,12 71,11 66,16 Wdb 25,04 97,08 96,78 23,08 97,16 95,96 37,35 97,62 96,96 55,74 97,12 94,90 44,27 97,33 94,90 Win 40,39 99,60 98,49 42,09 100,0 98,52 35,82 99,88 98,30 32,10 100,0 96,08 58,99 99,92 93,03 Wis 69,81 97,78 96,95 59,81 97,20 96,51 74,36 97,81 96,74 77,41 98,22 96,07 69,11 98,33 96,35 TB 114,78 86,16 82,67 123,05 86,04 82,29 126,53 86,77 81,92 160,29 85,74 79,37 163,0 87,36 80,57 Số có chữ đậm thể hiện kết quả tốt nhất trong các phương pháp (trên cùng dòng). I Bảng 2.13. Các kết quả thực nghiệm và so sánh giữa các hệ phân lớp FRBC_AXmrtp, FRBC_AXmr, PAES-RCS, FURIA và C4.5. Tập dữ liệu FRBC_AXmrtp FRBC_AXmr PAES-RCS FURIA C4.5 #C Pte #C Pte #C Pte #C Pte #C Pte App 16,77 88,15 16,91 88,09 35,28 85,09 19,00 85,18 15,00 85,84 Aus 46,50 87,15 41,85 86,86 329,64 85,80 89,60 85,22 5859,00 84,05 Ban 58,20 73,46 78,19 72,10 756,00 67,56 535,15 64,65 10608,00 63,28 Bup 181,19 72,38 170,70 69,41 256,20 68,67 324,12 69,02 3692,00 67,82 Cle 468,13 62,39 640,19 63,40 1140,00 59,06 134,67 56,20 13938,00 48,48 Der 182,84 94,40 189,46 95,52 389,40 95,43 303,88 95,24 280,00 95,25 Gla 474,29 72,24 488,38 72,78 487,90 72,13 474,81 72,41 5610,00 69,15 Hab 10,80 77,40 20,00 77,43 202,41 72,65 22,04 75,44 15,00 71,56 Hay 114,66 84,17 139,42 83,33 120,00 84,03 188,10 83,13 780,00 83,12 Hea 123,29 84,57 120,69 84,57 300,30 83,21 193,64 80,00 2080,00 77,40 Hep 25,53 89,28 25,75 89,17 300,30 83,21 52,38 84,52 216,00 86,25 Ion 88,03 91,56 83,71 90,98 670,63 90,40 372,68 91,75 1870,00 90,59 Iri 30,37 97,33 34,59 96,67 69,84 95,33 31,95 94,66 45,76 95,20 Mam 73,84 84,20 82,08 84,46 132,54 83,37 16,83 83,89 70,00 83,97 New 39,82 95,67 30,93 95,03 97,75 95,35 100,82 96,30 342,00 92,09 Pim 56,12 77,01 50,33 76,66 270,64 74,66 127,50 74,62 2220,00 74,67 Sah 59,28 70,05 58,41 70,27 525,21 70,92 50,88 69,69 1110,00 70,77 Son 49,31 78,61 53,91 77,29 524,60 77,00 309,96 82,14 1805,00 72,11 Tae 210,70 61,00 163,61 59,46 323,14 60,81 43,00 43,08 7820,00 59,60 Veh 195,07 68,20 216,19 68,12 555,77 64,89 2125,97 71,52 89964,00 75,57 Wdb 25,04 96,78 23,08 95,96 183,70 95,14 356,12 96,31 588,00 94,02 Win 40,39 98,49 42,09 98,52 170,94 93,98 80,00 96,60 60,00 93,82 Wis 69,81 96,95 59,81 96,51 328,02 96,46 521,10 96,35 462,00 95,60 TB 114,78 82,67 123,05 82,29 355,23 80,66 281,49 80,34 6497,82 79,57 Số có chữ đậm thể hiện kết quả tốt nhất trong các phương pháp (trên cùng dòng). J Bảng 3.4. Các kết quả thực nghiệm và so sánh giữa hai hệ phân lớp MOPSO-SAAX và MOPSOAX, giữa MOPSO-SAAXmrtp và MOPSOAXmrtp. Tập dữ liệu MOPSO-SAAX MOPSOAX MOPSO-SAAXmrtp MOPSOAXmrtp #C Ptr Pte #C Ptr Pte #C Ptr Pte #C Ptr Pte App 27,65 92,91 88,21 21,32 92,28 87,55 19,53 92,14 89,03 16,77 92,38 88,15 Aus 46,86 88,27 86,47 36,20 88,06 86,38 41,86 87,89 87,34 46,50 88,56 87,15 Ban 63,00 77,79 73,50 52,20 76,17 72,80 56,00 77,44 73,69 58,20 78,19 73,46 Bup 186,68 80,91 70,02 187,17 78,13 68,09 113,67 75,49 71,61 181,19 79,78 72,38 Cle 686,73 73,83 60,66 657,43 72,44 62,19 650,51 68,74 61,02 468,13 66,64 62,39 Der 179,67 97,90 96,07 198,05 98,03 96,07 164,07 96,29 94,20 182,84 96,37 94,40 Gla 400,31 82,75 72,25 343,60 80,45 72,09 442,93 76,62 72,33 474,29 78,78 72,24 Hab 9,79 76,98 76,72 10,20 76,91 75,76 10,50 76,91 77,49 10,80 77,60 77,40 Hay 126,39 90,23 85,00 122,27 90,11 84,17 120,33 88,89 85,21 114,66 89,40 84,17 Hea 126,15 90,30 84,20 123,49 89,45 84,20 86,12 88,55 84,94 123,29 89,19 84,57 Hep 31,33 96,52 90,31 26,16 95,83 88,44 19,81 93,24 89,37 25,53 93,68 89,28 Ion 110,21 95,74 91,66 90,33 95,35 90,22 72,71 94,44 91,83 88,03 94,69 91,56 Iri 40,35 98,64 96,67 26,29 98,40 96,00 25,77 98,02 97,33 30,37 98,25 97,33 Mam 87,27 85,81 84,18 122,72 89,63 84,44 63,36 85,04 84,26 73,84 85,49 84,20 New 53,40 99,10 97,82 45,18 97,02 94,42 35,07 98,93 97,37 39,82 96,76 95,67 Pim 61,20 79,15 76,35 60,90 78,28 76,18 44,91 77,76 76,35 56,12 78,69 77,01 Sah 96,37 77,03 71,15 86,75 76,35 69,33 24,80 73,65 71,28 59,29 75,51 70,05 Son 64,13 88,48 77,00 79,76 88,39 76,80 37,68 85,38 79,90 49,31 87,59 78,61 Tae 276,83 73,66 59,01 261,00 72,11 59,47 157,41 68,24 61,46 210,7 68,97 61,00 Veh 237,47 71,66 68,01 242,79 70,30 67,62 148,84 69,44 68,44 195,07 70,74 68,20 Wdb 39,67 97,79 96,32 37,35 97,62 96,96 30,63 97,27 96,55 25,04 97,08 96,78 Win 37,40 99,54 98,30 35,82 99,88 98,30 34,48 99,92 98,86 40,39 99,60 98,49 Wis 55,97 97,95 97,22 74,59 97,81 96,74 71,89 97,93 97,73 69,81 97,78 96,95 TB 132,38 87,52 82,48 127,89 86,91 81,92 107,52 85,57 82,94 114,78 86,16 82,67 Số có chữ đậm thể hiện kết quả tốt hơn giữa hai thuật toán tối ưu MOPSO-SA và MOPSO.

Các file đính kèm theo tài liệu này:

  • pdfluan_an_phat_trien_mot_so_phuong_phap_thiet_ke_he_phan_lop_t.pdf
Luận văn liên quan