A New Data Clustering Method Using 4-Gray Wolf Algorithm
Subject Areas : electrical and computer engineeringLaleh Ajami Bakhtiarvand 1 , Zahra Beheshti 2
1 -
2 - Faculty of Computer Engineering, Najafabad Branch, Islamic Azad University, Najafabad, Iran
Keywords: Data mining, data clustering, meta-heuristic algorithm, gray wolf optimization (GWO) algorithm, 4-gray wolf optimization (4GWO) algorithm, F-measure,
Abstract :
Nowadays, clustering methods have received much attention because the volume and variety of data are increasing considerably.The main problem of classical clustering methods is that they easily fall into local optima. Meta-heuristic algorithms have shown good results in data clustering. They can search the problem space to find appropriate cluster centers. One of these algorithms is gray optimization wolf (GWO) algorithm. The GWO algorithm shows a good exploitation and obtains good solutions in some problems, but its disadvantage is poor exploration. As a result, the algorithm converges to local optima in some problems. In this study, an improved version of gray optimization wolf (GWO) algorithm called 4-gray wolf optimization (4GWO) algorithm is proposed for data clustering. In 4GWO, the exploration capability of GWO is improved, using the best position of the fourth group of wolves called scout omega wolves. The movement of each wolf is calculated based on its score. The better score is closer to the best solution and vice versa. The performance of 4GWO algorithm for the data clustering (4GWO-C) is compared with GWO, particle swarm optimization (PSO), artificial bee colony (ABC), symbiotic organisms search (SOS) and salp swarm algorithm (SSA) on fourteen datasets. Also, the efficiency of 4GWO-C is compared with several various GWO algorithms on these datasets. The results show a significant improvement of the proposed algorithm compared with other algorithms. Also, EGWO as an Improved GWO has the second rank among the different versions of GWO algorithms. The average of F-measure obtained by 4GWO-C is 82.172%; while, PSO-C as the second best algorithm provides 78.284% on all datasets.
[1] M. Jafarzadegan, F. Safi-Esfahani, and Z. Beheshti, "Combining hierarchical clustering approaches using the PCA method," Expert Syst. Appl., vol. 137, pp. 1-10, Dec 2019.
[2] J. Han, J. Pei, and M. Kamber, Data Mining: Concepts and Techniques, Elsevier, 2011.
[3] D. J. Hand, "Principles of data mining," Drug Saf., vol. 30, no. 7, pp. 621-622, Jul. 2007.
[4] D. T. Dinh and V. N. Huynh, "k-PbC: an improved cluster center initialization for categorical data clustering," Appl. Intell., vol. 50, no. 8, pp. 2610-2632, Aug. 2020.
[5] R. Xu and D. Wunsch, "Survey of clustering algorithms," IEEE Trans. Neural Networks, vol. 16, no. 3, pp. 645-678, May 2005.
[6] Z. Beheshti, "A novel x-shaped binary particle swarm optimization," Soft Comput., vol. 25, no. 4, pp. 3013-3042, Feb. 2021.
[7] Z. Beheshti, "UTF: upgrade transfer function for binary meta-heuristic algorithms," Appl. Soft Comput., vol. 106, Article ID: 107346, 28 pp., Jul. 2021.
[8] R. Salgotra, U. Singh, S. Singh, G. Singh, and N. Mittal, "Self-adaptive salp swarm algorithm for engineering optimization problems," Appl. Math. Model., vol. 89, pp. 188-207, Jul. 2021.
[9] Z. Beheshti, "BMNABC: binary multi-neighborhood artificial bee colony for high-dimensional discrete optimization problems," Cybern. Syst., vol. 49, no. 7-8, pp. 452-474, Nov. 2018.
[10] Z. Beheshti, S. M. Shamsuddin, S. Hasan, and N. E. Wong, "Improved centripetal accelerated particle swarm optimization," Int. J. Adv. Soft Comput. its Appl., vol. 8, no. 2, pp. 1-26, Jul. 2016.
[11] I. Aljarah, M. Mafarja, A. A. Heidari, H. Faris, and S. Mirjalili, "Clustering analysis using a novel locality-informed grey wolf-inspired clustering approach," Knowl. Inf. Syst., vol. 62, no. 2, pp. 507-539, Feb. 2020.
[12] H. D. Menendez, F. E. B. Otero, and D. Camacho, "Medoid-based clustering using ant colony optimization," Swarm Intell., vol. 10, no. 2, pp. 123-145, Jul. 2016.
[13] P. Das, D. K. Das, and S. Dey, "A modified bee colony optimization (MBCO) and its hybridization with k-means for an application to data clustering," Appl. Soft Comput., vol. 70, pp. 590-603, Sept. 2018.
[14] R. J. Kuo and F. E. Zulvia, "An improved differential evolution with cluster decomposition algorithm for automatic clustering," Soft Comput., vol. 23, no. 18, pp. 8957-8973, Sept. 2019.
[15] T. Ashish, S. Kapil, and B. Manju, "Parallel bat algorithm-based clustering using mapreduce," In: G. Perez, K. Mishra, S. Tiwari, and M. Trivedi (eds), Networking Communication and Data Knowledge Engineering, Lecture Notes on Data Engineering and Communications Technologies, vol 4. Springer, pp. 73-82, 2018.
[16] O. Tarkhaneh, A. Isazadeh, and H. J. Khamnei, "A new hybrid strategy for data clustering using cuckoo search based on Mantegna levy distribution, PSO and k-means," Int. J. Comput. Appl. Technol., vol. 58, no. 2, pp. 137-149, Jan. 2018.
[17] H. A. Abdulwahab, A. Noraziah, A. A. Alsewari, and S. Q. Salih, "An enhanced version of black hole algorithm via levy flight for optimization and data clustering problems," IEEE Access, vol. 7, pp. 142085-142096, Aug. 2019.
[18] K. W. Huang, Z. X. Wu, H. W. Peng, M. C. Tsai, Y. C. Hung, and Y. C. Lu, "Memetic particle gravitation optimization algorithm for solving clustering problems," IEEE Access, vol. 7, pp. 80950-80968, Jan. 2019.
[19] H. Yu, Z. Chang, G. Wang, and X. Chen, "An efficient three-way clustering algorithm based on gravitational search," Int. J. Mach. Learn. Cybern., vol. 11, no. 5, pp. 1003-1016, May 2020.
[20] A. Kaur, S. K. Pal, and A. P. Singh, "Hybridization of chaos and flower pollination algorithm over K-means for data clustering," Appl. Soft Comput., vol. 97, Article ID: 105523, 17 pp., Dec. 2019.
[21] Y. Zhou, H. Wu, Q. Luo, and M. Abdel-Baset, "Automatic data clustering using nature-inspired symbiotic organism search algorithm," Knowledge-Based Syst., vol. 163, pp. 546-557, Jan. 2019.
[22] G. Drakopoulos, et al., "A genetic algorithm for spatiosocial tensor clustering," Evol. Syst., vol. 11, no. 3, pp. 1-11, Sept. 2019. [23] M. Alswaitti, M. Albughdadi, and N. A. M. Isa, "Density-based particle swarm optimization algorithm for data clustering," Expert Syst. Appl., vol. 91, pp. 170-186, Jan. 2018.
[24] J. Chen, X. Qi, L. Chen, F. Chen, and G. Cheng, "Quantum-inspired ant lion optimized hybrid k-means for cluster analysis and intrusion detection," Knowledge-Based Syst., vol. 203, Article ID: 106167, 10 pp., Sept. 2020.
[25] L. M. Abualigah, A. T. Khader, E. S. Hanandeh, and A. H. Gandomi, "A novel hybridization strategy for krill herd algorithm applied to clustering techniques," Appl. Soft Comput., vol. 60, pp. 423-435, Nov. 2017.
[26] M. Demri, S. Ferouhat, S. Zakaria, and M. E. Barmati, "A hybrid approach for optimal clustering in wireless sensor networks using cuckoo search and simulated annealing algorithms," in Proc. 2nd Int. Conf. on Mathematics and Information Technology, ICMIT’20, pp. 202-207, Adrar, Algeria, 18-19 Feb. 2020.
[27] S. Gavel, P. Joshi, S. Tiwari, and A. S. Raghuvanshi, "An optimized hybrid clustering method using salp swarm optimization with K-means," In: V. Nath and J. Mandal (eds) Nanoelectronics, Circuits and Communication Systems. Nanoelectronics, Circuits and Communication Systems, Lecture Notes in Electrical Engineering, vol. 692, Springer, pp. 247-254, 2020.
[28] S. K. Majhi, "Fuzzy clustering algorithm based on modified whale optimization algorithm for automobile insurance fraud detection," Evol. Intell., vol. 14, no. 1, pp. 35-46, 2021.
[29] E. Rashedi, H. Nezamabadipour, and S. Saryazdi, "GSA: a gravitational search algorithm," Inf. Sci. (Ny), vol. 179, no. 13, pp. 2232-2248, Jan. 2009.
[30] S. Mirjalili, S. M. Mirjalili, and A. Lewis, "Grey wolf optimizer," Adv. Eng. Softw., vol. 69, pp. 46-61, 2014.
[31] G. P. Gupta and S. Jha, "Integrated clustering and routing protocol for wireless sensor networks using Cuckoo and Harmony Search based metaheuristic techniques," Eng. Appl. Artif. Intell., vol. 68, pp. 101-109, Feb. 2018.
[32] G. P. Gupta and B. Saha, "Load balanced clustering scheme using hybrid metaheuristic technique for mobile sink based wireless sensor networks," J. Ambient Intell. Humaniz. Comput., 12 pp., Apr. 2020. (in Press)
[33] M. Shakil, A. Fuad Yousif Mohammed, R. Arul, A. K. Bashir, and J. K. Choi, "A novel dynamic framework to detect DDoS in SDN using metaheuristic clustering," Trans. Emerg. Telecommun. Technol., 12 pp., Apr. 2019. (in Press)
[34] R. J. Kuo, T. C. Lin, F. E. Zulvia, and C. Y. Tsai, "A hybrid metaheuristic and kernel intuitionistic fuzzy c-means algorithm for cluster analysis," Appl. Soft Comput., vol. 67, pp. 299-308, Jan. 2018.
[35] A. Kaur and Y. Kumar, "A new metaheuristic algorithm based on water wave optimization for data clustering," Evol. Intell., 12 pp., Jan. 2021.
[36] M. Ghobaei-Arani and A. Shahidinejad, "An efficient resource provisioning approach for analyzing cloud workloads: a metaheuristic-based clustering approach," J. Supercomput., vol. 77, no. 1, pp. 711-750, 2021.
[37] ح. املشی و ی. بستانی املشی، "روشی جدید به منظور خوشهبندی دادههای سرعت باد در نیروگاههای بادی با استفاده از الگوریتمهای FCM و PSO،" نشریه مهندسی برق و مهندسی کامپیوتر ایران، سال 8، شماره 3، صص. 214-210، پاییز 1389.
[38] م. ع. نژاد و م. خرد، "استفاده از خوشهبندی BIRCH و الگوریتم بهینهسازی واکنش شیمیایی جهت کشف تقلب در حوزه سلامت،" نشریه مهندسی برق و مهندسی کامپیوتر ایران، ب- مهندسی کامپیوتر، سال 17، شماره 2، صص. 160-153، تابستان 1398.
[39] م. یقینی و ج. لسان، "حل مسأله خوشهبندی ظرفیتدار با استفاده از روشهای مبتنی بر الگوریتمهای شبیهسازی تبریدی و ژنتیک،" نشریه بینالمللی مهندسی صنایع و مدیریت تولید، دوره 21، شماره 3، صص. 54-45، پاییز 1389.
[40] ع. فهمی جعفرقلخانلو و م. شمسی، "بخشبندی تصاویر رنگی چهره مبتنی بر خوشهبند فازی بهینهسازی شده با الگوریتمهای گرگ خاکستری و نهنگ،" مجله علمی رایانش نرم و فناوری اطلاعات، دوره 10، شماره 2، صص. 13-1، تیر 1400.
[41] Y. Li, X. Lin, and J. Liu, "An improved gray wolf optimization algorithm to solve engineering problems," Sustainability, vol. 13, no. 6, Article ID: 3208, 23 pp., 15 Mar. 2021.
[42] M. Kohli and S. Arora, "Chaotic grey wolf optimization algorithm for constrained optimization problems," J. Comput. Des. Eng., vol. 5, no. 4, pp. 458-472, Oct. 2018.
[43] Z. Yue, S. Zhang, and W. Xiao, "A novel hybrid algorithm based on grey wolf optimizer and fireworks algorithm," Sensors, vol. 20, no. 7, Article ID: 2147, 17 pp., Jan. 2020.
[44] ع. محمدزاده، م. مصدری، ف. سلیمانیان قره¬چپق و ا. جعفریان، " ارائه یک الگوریتم بهبودیافته بهینه سازی گرگ های خاکستری برای زمانبندی جریان کار در محیط محاسبات ابری،" مجله علمی رایانش نرم و فناوری اطلاعات، دوره 8، شماره 4، صص. 29-17، بهمن 1398.
[45] W. Long, J. Jiao, X. Liang, and M. Tang, "An exploration-enhanced grey wolf optimizer to solve high-dimensional numerical optimization," Eng. Appl. Artif. Intell., vol. 68, pp. 63-80, Feb. 2018.
[46] M. H. Qais, H. M. Hasanien, and S. Alghuwainem, "Augmented grey wolf optimizer for grid-connected PMSG-based wind energy conversion systems," Appl. Soft Comput., vol. 69, pp. 504-515, Aug. 2018.
[47] K. Luo, "Enhanced grey wolf optimizer with a model for dynamically estimating the location of the prey," Appl. Soft Comput., vol. 77, no. ???, pp. 225-235, Apr. 2019.
[48] E. Akbari, A. Rahimnejad, and S. A. Gadsden, "A greedy non‐hierarchical grey wolf optimizer for real‐world optimization," Electron. Lett., vol. 57, no. 13, pp. 499-501, Jan. 2021.
[49] A. Bahrololoum, H. Nezamabadipour, and S. Saryazdi, "A data clustering approach based on universal gravity rule," Eng. Appl. Artif. Intell., vol. 45, pp. 415-428, Oct. 2015.
[50] D. Dua and C. Graff, {UCI} Machine Learning Repository, 2017.
[51] J. Derrac, S. Garcia, D. Molina, and F. Herrera, "A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms," Swarm Evol. Comput., vol. 1, no. 1, pp. 3-18, Mar. 2011.
نشریه مهندسی برق و مهندسی كامپیوتر ایران، ب- مهندسی کامپیوتر، سال 19، شماره 4، زمستان 1400 261
مقاله پژوهشی
روشی نوین برای خوشهبندی دادهها با استفاده
از الگوریتم بهینهسازی چهارگرگ خاکستری
لاله عجمی بختیاروند و زهرا بهشتی
چكیده: امروزه، خوشهبندی دادهها به دلیل حجم و تنوع دادهها بسیار مورد توجه قرار گرفته است. مشکل اصلی روشهای خوشهبندهای معمول این است که در دام بهینه محلی گرفتار میآیند. الگوریتمهای فراابتکاری به دلیل داشتن توانایی فرار از بهینههای محلی، نتایج موفقی را در خوشهبندی دادهها نشان دادهاند. الگوریتم بهینهسازی گرگ خاکستری از جمله این دسته الگوریتمها است که قابلیت بهرهبرداری خوبی دارد و در برخی از مسایل راه حل مناسبی ارائه داده است، اما اکتشاف آن ضعیف است و در بعضی از مسایل به بهینه محلی همگرا میشود. در این تحقیق برای بهبود خوشهبندی دادهها، نسخه بهبودیافتهای از الگوریتم بهینهسازی گرگ خاکستری به نام الگوریتم بهینهسازی چهارگرگ خاکستری ارائه شده که با استفاده از بهترین موقعیت دسته چهارم گرگها به
نام گرگهای امگای پیشرو در تغییر موقعیت هر گرگ، قابلیت اکتشاف بهبود مییابد. با محاسبه امتیاز هر گرگ نسبت به بهترین راه حل، نحوه حرکت آن مشخص میشود. نتایج الگوریتم پیشنهادی چهارگرگ خاکستری با الگوریتمهای بهینهسازی گرگ خاکستری، بهینهسازی ازدحام ذرات، کلونی زنبور عسل مصنوعی، ارگانیسمهای همزیست و بهینهسازی ازدحام سالپ در مسأله خوشهبندی روی چهارده مجموعه دادگان ارزیابی شده است. همچنین عملکرد الگوریتم پیشنهادی با چند نسخه بهبودیافته از الگوریتم گرگ خاکستری مقایسه شده است. نتایج به دست آمده عملکرد قابل توجه الگوریتم پیشنهادی را نسبت به سایر الگوریتمهای فراابتکاری مورد مقایسه در مسأله خوشهبندی نشان میدهد. بر اساس میانگین معیار F روی تمام مجموعه دادگان، روش پیشنهادی 172/82% و الگوریتم بهینه ذرات 284/78% را نشان میدهد و در مقایسه با نسخههای بهبودیافته الگوریتم گرگ، الگوریتم EGWO که در رتبه بعدی است دارای میانگین معیار F برابر 656/80% میباشد.
کلیدواژه: الگوریتمهای فراابتکاری، الگوریتم بهینهسازی گرگ خاکستری، الگوریتم بهینهسازی چهارگرگ، خوشهبندی.
1- مقدمه
با توجه به تولید حجم بالای اطلاعات در زمینههای مختلف و این حقیقت که ترکیبی از دادههای مفید و غیر مفید در اختیار افراد قرار میگیرد، لزوم استفاده از روشهای دادهکاوی2 جهت استخراج اطلاعات مفید از حجم انبوهی از دادهها به خوبی احساس میگردد [1]. دادهکاوی استخراج دانش از مجموعههای دادهای و تبدیل آن به یک ساختار قابل فهم برای استفادههایی در آینده میباشد [2]. شکاف موجود بین دادهها و اطلاعات، سبب ایجاد نیاز به ابزارهای دادهکاوی شده است تا دادههای بیارزش را به دانشی ارزشمند تبدیل کند [3]. برای این کار الگوریتمهای متعددی وجود دارد که هر یک برای هدف خاصی کاربرد دارند. خوشهبندی از مهمترین الگوریتمهای دادهکاوی است و کاربرد بسیاری دارد. الگوریتمهای خوشهبندی، اطلاعاتی را که ویژگیهای نزدیک به هم و مشابه دارند، در دستههایی که به آنها خوشه گفته میشود قرار میدهند. اکثر الگوریتمها مراکز خوشه را به صورت تصادفی انتخاب میکنند و راه حل نهایی وابستگی به انتخاب اولیه این مراکز دارد [4]. از این رو امکان دارد به جای همگراشدن به بهینه سراسری به بهینه محلی همگرا شود. مسأله خوشهبندی یک مسأله انپی- سخت3 [5] محسوب میشود و الگوریتمهای دقیق4 قادر به حل نمونههایی از آن با ابعاد کوچک هستند. از این رو میتوان از الگوریتمهای فراابتکاری5 که از دسته الگوریتمهای تقریبی هستند و برای حل مسایل پیچیده با ابعاد بالا کاربرد دارند استفاده کرد [6] تا [11].
الگوریتمهای فراابتکاری با انتخاب مراکز خوب در میان حجم وسیعی از دادهها، خوشهبندی را انجام میدهند و از نظر پیچیدگی زمانی و مصرف حافظه، شرایط بهتری را نسبت به الگوریتمهای دقیق فراهم میکنند. از قابلیت جستجوی این الگوریتمها برای جستجوی مراکز خوشههای مناسب در فضای ویژگی دادهشده استفاده میگردد. در این راستا، تحقیقات زیادی روی بهبود کیفیت خوشهبندی با الگوریتمهای فراابتکاری انجام شده است و هر روز نیز کارهای جدیدی به آن اضافه میگردد. الگوریتمهایی مانند بهینهسازی کلونی مورچهها (ACO) [12]، کلونی زنبور عسل (ABC) [13]، تکامل تفاضلی (DE) [14]، خفاش (BA) [15]، فاخته (CA) [16]، سیاهچاله (BH) [17]، ممتیک بهینهسازی گرانش ذرات (MPGO) [18]، جستجوی گرانشی (GSA) [19]، گرگ خاکستری (GWO) [11]، گردهافشانی گل (FPA) [20]، جستجوی ارگانیسم همزیست (SOS) [21]، ژنتیک (GA) [22]، بهینهسازی ازدحام ذرات (PSO) [23]، شیر مورچه (ALO) [24]، گروه میگوها (KHA) [25]، شبیهسازی تبرید (SA) [26]، ازدحام سالپ (SSA) [27] و الگوریتم بهینهسازی نهنگ (WOA) [28] از جمله الگوریتمهای فراابتکاری هستند که در خوشهبندی استفاده شدهاند.
دلیل کاربرد زیاد این الگوریتمها در خوشهبندی آن است که این الگوریتمها راهکارهایی را پیشنهاد میکنند که در فرار از دام بهینههای محلی مؤثر هستند. عامل مهم در یافتن راه حلهای خوب در این الگوریتمها، توازن بین قابلیتهای اکتشاف6 و بهرهبرداری7 است. قابلیت اکتشاف به جستجوی گسترده در فضای جواب اشاره دارد و قابلیت بهرهبرداری، استفاده از تجربیات به دست آمده در فرایند جستجو و تمرکز بر نواحی امیدبخش فضای جواب میباشد [29]. بنابراین با ایجاد توازن پویا بین این دو قابلیت، جستجو به سمت محدودههایی از فضای جواب سوق داده میشود که جوابهای بهتری در آنها یافت شده و از طرف دیگر، موجب عدم اتلاف زمان بیشتر در بخشی از فضای جواب میشود که قبل از این بررسی شده و یا شامل جوابهای نامرغوبی میباشد. اما این الگوریتمها از آنجایی که در دسته الگوریتمهای تقریبی هستند و تمام فضای جواب را جستجو نمیکنند، ممکن است به دام بهینه محلی گرفتار آیند و نتوانند از آن رهایی یابند که در این حالت جواب خوبی را برنمیگردانند. یکی از الگوریتمهایی که در بسیاری از مسایل بهینهسازی استفاده شده است، الگوریتم بهینهسازی گرگهای خاکستری [30] است که قابلیت بهرهبرداری خوبی دارد ولی در اکتشاف و برقراری توازن با بهرهبرداری ضعیف عمل میکند. در این الگوریتم، حرکت گرگها بر اساس سه گرگ برتر جمعیت صورت میگیرد و اگر این سه گرگ
در نقطه بهینه محلی باشند کل جمعیت به سمت آن نقطه حرکت خواهند کرد.
در این تحقیق برای بهبود خوشهبندی دادهها نسخهای از الگویتم بهینهسازی گرگ خاکستری به نام الگوریتم بهینهسازی چهارگرگ 8GWO)4( ارائه میگردد. در الگوریتم بهینهسازی گرگ خاکستری، به منظور شبیهسازی رفتار اجتماعی گرگها، یک جمعیت تصادفی از راه حلها تولید شده و اولین راه حل بهینه به نام آلفا و دومین و سومین راه حلهای بهینه به ترتیب به نام بتا و دلتا معرفی میشود. سایر گرگها با استفاده از موقعیت این سه گرگ تغییر موقعیت میدهند، بنابراین اگر این سه گرگ در بهینه محلی گرفتار شوند سایر اعضای جمعیت را نیز به سمت این موقعیت خواهند کشاند. در الگوریتم پیشنهادی، از عملکرد دسته چهارم که گرگهای امگای پیشرو9 نامیده میشوند برای فرار از بهینههای محلی و بهبود قابلیت اکتشاف استفاده میگردد. به این منظور برای هر گرگ جمعیت، امتیازی محاسبه میگردد و بر اساس آن، نوع حرکت مشخص میشود. هرچه گرگ موقعیت بهتری داشته باشد (یعنی به جواب خوب نزدیک باشد) امتیاز آن بیشتر است. در ابتدای اجرای الگوریتم که گرگها از نقطه بهینه فاصله دارند، امتیاز کمی دارند و بنابراین بر اساس موقعیت بهترین گرگهای امگای پیشرو که موقعیتی تصادفی در فضای جستجو است، تغییر موقعیت میدهند و به اکتشاف میپردازند. گرگها به تدریج که از حالات اکتشاف به سمت بهرهبرداری حرکت میکنند، دارای امتیاز بهتری میگردند و بر اساس حرکت سه گرگ برتر جمعیت حرکت میکنند. این نحوه حرکت، باعث پیمایش بهتر فضای مسأله میگردد و مراکز خوشه دقیقتر انتخاب میشوند.
در ادامه و در بخش 2 پژوهشهای اخیر در زمینه خوشهبندی با الگوریتمهای فراابتکاری شرح داده میشوند و پس از آن، الگوریتم بهینهسازی گرگ خاکستری توضیح داده میشود. روش پیشنهادی شامل الگوریتم بهینهسازی چهارگرگ خاکستری و استفاده از آن در خوشهبندی دادهها در بخش 3 بیان میگردد. در ادامه این بخش با استفاده از مثالی، عملکرد روش پیشنهادی برای خوشهبندی دادهها نشان داده میشود. نتایج و بحث در بخش 4 ارائه میگردد و در بخش 5، نتیجهگیری و تحقیقات آینده شرح داده خواهند شد.
2- پژوهشها و کارهای موجود
2-1پژوهشهای اخیر در زمینه خوشهبندی با استفاده از الگوریتمهای فراابتکاری
در یکی از پژوهشهای اخیر [31]، خوشهبندی بر اساس الگوریتم بهینهسازی فاخته برای شبکههای حسگر بیسیم ارائه شده است. مصرف یکنواخت انرژی و بهینهسازی آن، یک نگرانی عمده برای طراحی پروتکل خوشهبندی و مسیریابی برای شبکههای حسگر بیسیم در مقیاس بزرگ است. اکثر راه حلهای مبتنی بر محاسبات و الگوریتمهای الهام گرفته شده از طبیعت برای مشکل مسیریابی مبتنی بر خوشه برای شبکه سنسور بیسیم، دارای مشکل مصرف انرژی نامتوازن میباشند، به دلیل آن که گرههای نزدیک به سینک از نظر بار ترافیکی بیش از حد بارگیری میشوند. در تحقیق انجامشده، یک روش خوشهبندی متوازن انرژی مبتنی بر الگوریتم جستجوی فاخته ارائه شده که از یک تابع هدف جدید برای توزیع یکنواخت سرخوشهها استفاده میکند.
با استفاده از الگوریتمهای کلونی زنبور مصنوعی و تکامل دیفرانسیل، یک روش ترکیبی ارائه گردید که از آن برای ارزیابی بهترین مجموعه سرخوشهها در توازن بار استفاده شده است [32]. برای خوشهبندی کارامد و توازن بار، یک تابع هدف جدید بر اساس میانگین انرژی، فاصله درون خوشهای و پارامترهای تأخیر طراحی گردیده که از نظر میانگین مصرف انرژی، مصرف کل انرژی، انرژی باقیمانده و طول عمر شبکه دارای عملکرد بهتری نسبت به سایر روشهای مورد مقایسه دارد.
الگوریتمهای امنیتی زیادی برای محافظت از شبکههای تعریفشده توسط نرمافزار 10(SDN) پیشنهاد شده است، با این حال اکثر آنها در برابر حملات مختلف کارایی پایینی دارند. برای این منظور، شکیل و همکاران [33]، یک چارچوب که بتواند ترافیک پویا را اداره کند و شبکه را در
برابر حملات 11DDoS محافظت کند با استفاده از خوشهبندی بر اساس الگوریتم بهینهسازی نهنگ طراحی کردند که برای تشخیص درخواستها از نوع حمله مورد استفاده قرار گرفت.
در پژوهشی دیگر در زمینه خوشهبندی، سه الگوریتم ازدحام ذرات، ژنتیک و زنبور عسل برای مقداردهی اولیه برای الگوریتم خوشهبندی فازی مبتنی بر کرنل استفاده شد [34]. الگوریتمهای پیشنهادی برای حل یک مطالعه موردی برای تقسیمبندی مشتریان در یکی از فروشگاههای فروش لباس در تایوان استفاده گردید که نتایج الگوریتمهای پیشنهادی، ساختار خوشهای بهتری نسبت به سایر الگوریتمهای آزمایششده ارائه میدهد.
با استفاده از الگوریتم بهینهسازی امواج آب 12(WWO)، یک روش خوشهبندی ارائه شد [35] که برای یافتن مراکز خوشه بهتر، در مسایل بهینهسازی محدویتدار و یا بدون محدودیت مورد استفاده قرار گرفت. محققین دیگری نیز الگوریتمهای فراابتکاری دیگری مانند جستجوی گرانشی [19]، گرگ خاکستری [11] و جستجوی ارگانیسم همزیست در خوشهبندی مجموعه دادگان مختلف را مورد ارزیابی قرار دادند.
با پیشرفتهای اخیر در روشهای محاسبات مبتنی بر اینترنت، استفاده از برنامههای مبتنی بر ابر برای تسهیل فعالیتهای روزانه به طور قابل توجهی در حال افزایش است. از آنجا که حجم کار ارسالی توسط کاربران برای استفاده از برنامههای مبتنی بر ابر از نظر معیارهای کیفیت خدمات متفاوت است، نیاز به تجزیه و تحلیل و شناسایی این حجمهای کاری ناهمگن ابر برای منابع کارامد به عنوان یکی از مسایل چالشبرانگیز است. قبایی و شهیدینژاد [36]، روشی برای تأمین منابع کارامد با استفاده از خوشهبندی مبتنی بر الگوریتم فراابتکاری برای تجزیه و تحلیل حجم کار ابر ارائه دادند. روش خوشهبندی پیشنهادی از ترکیبی از الگوریتمهای ژنتیک و خوشهبندی فازی برای یافتن خوشههای مشابه با توجه به نیازهای کیفیت خدمات به کاربر استفاده میکند.
از الگوریتمهای فراابتکاری برای بهبود الگوریتمهای خوشهبندی سنتی مانند میانگین13 که اغلب در دام بهینههای محلی گرفتار میآیند و نرخ همگرایی کندی برای مجموعه دادههای بزرگ دارند، استفاده میشود. با استفاده از الگوریتم ترکیبی بهینهسازی گردهافشانی گل مبتنی بر نقشههای آشوب و میانگین [20] کارایی خوشهبندی روی مجموعه دادگان مختلف بررسی گردید که در مقایسه با سایر روشها، از نظر معیارهای یکپارچگی خوشه، زمان اجرا و تعداد تکرارهای همگرایی کارایی بهتری داشت.
افراخته و بستانی با استفاده از الگوریتم بهینهسازی ازدحام ذرات [37]، به خوشهبندی دادههای سرعت باد در نیروگاههای بادی پرداختند و نتایج به دست آمده را با روشهای خوشهبندی فازی و میانگین مقایسه کردند. نتایج شبیهسازی نشان داد که روش ارائهشده همگرایی بهتری نسبت به دو روش دیگر داشت. در تحقیقی دیگر، از روش خوشهبندی سلسلهمراتبی BIRCH با الگوریتم بهینهسازی واکنش شیمیایی جهت کشف تقلب در حوزه سلامت استفاده شد [38]. نتایج نشان داد که روش پیشنهادی از سرعت و دقت بهتری در تشخیص دادههای تقلب در حوزه سلامت نسبت به سایر الگوریتمهای مورد مقایسه برخوردار است.
یکی دیگر از انواع خوشهبندیها، خوشهبندي ظرفيتدار است که كاربرد وسیعی در دادهكاوي دارد. در اين مسأله، هدف افراز يك مجموعه تايي از عناصر به خوشه ظرفيتدار است به طوري كه تمامي اعضاي يك خوشه به نقطهاي كه به عنوان مركز ثقل آن خوشه تعيين ميشود، تخصيص يابند و عدم تشابه تمامي نقاط يك خوشه از مركز ثقل خوشه با رعايت محدوديت ظرفيت در هر خوشه حداقل گردد، به طوري كه هر عنصر تنها به يك خوشه تخصيص يابد. یقینی و لسان دو روش برای این نوع خوشهبندی با استفاده از الگوریتم شبيهسازي تبريدي و الگوریتم ژنتیک ارائه کردند [39]. در روش اول برای جستجوي جواب از ساختارهاي مختلف همسايگي و در روش دوم از يك رويه ابتكاري جستجوي محلي استفاده شد. نتایج نشان دادند که الگوریتم ژنتیک پیشنهادی کارایی بهتری نسبت به شبیهسازی تبرید در مسایل کوچک و متوسط دارد.
در پژوهشی دیگر، یک روش بخشبندی تصاویر رنگی چهره با استفاده از خوشهبند فازی بهینهشده با الگوریتمهای گرگ خاکستری و نهنگ ارائه شد [40]. نتایج بخشبندی از روش پیشنهادی در بخشبندی تصاویر رنگی چهره با الگوریتمهای ژنتیک، بهینهسازی ازدحام ذرات، الگوریتم بهینهسازی ملخ و الگوریتم جستجوی کلاغ مقایسه شد که روش پیشنهادی، عملکرد و سرعت همگرایی بهتری داشت.
از تحقیقات انجامشده روی خوشهبندی با الگوریتمهای فراابتکاری میتوان چنین نتیجه گرفت که این الگوریتمها میتوانند کارایی خوشهبندی و همچنین خوشهبندیهای سنتی را بهبود دهند. تا کنون الگوریتمهای بسیاری برای مسأله خوشهبندی معرفی شدهاند، اما هنوز نیاز است تا این مسأله با استفاده از الگوریتمهای جدیدتر که کارایی خوبی روی مسایل بهینهسازی با ابعاد بالا داشتهاند و چندان نیازی به اطلاعات زمینهای از مسأله ندارند، مورد بررسی و تجزیه و تحلیل قرار گیرد. از جمله این الگوریتمها میتوان به الگوریتمهای فراابتکاری اشاره کرد که دارای این خصوصیات هستند و از میان این دسته، الگوریتم بهینهسازی گرگ خاکستری برای حل بسیاری از مسایل بهینهسازی با ابعاد بالا مورد استفاده قرار گرفته است. در ادامه به بررسی این الگوریتم پرداخته میشود.
2-2 الگوریتم بهینهسازی گرگ خاکستری
این الگوریتم از رفتار گرگهای خاکستری در شکار و نحوه رهبری اجتماعی آنها در طبیعت الهام گرفته شده است [30] و همانند دیگر الگوریتمهای فراابتکاری، ابتدا با یک جمعیت تصادفی از گرگها (راه حلهای کاندیدا) آغاز میشود. در این الگوریتم، طبقات اجتماعی گرگها به 4 گروه آلفا ، بتا ، دلتا و امگا تقسیم میشوند. در تکرارهای مختلف الگوریتم، سه راه حل برتر هر دور به ترتیب گروه آلفا ، بتا و دلتا نامیده میشوند. در این الگوریتم فرایند شکار (بهترین راه حل) توسط این سه گرگ برتر هدایت میشود. گرگهای امگا برای رسیدن به بهترین راه حلها به دور این سه گرگ حلقه میزنند و تغییر موقعیت گرگها بر اساس روابط زیر میباشد
(1)
(2)
که بردار مکانی طعمه (شکار)، موقعیت فعلی و موقعیت بعدی را نشان میدهد. در روابط فوق، دو بردار و از روابط زیر محاسبه میشوند
(3)
(4)
که در آن یک بردار کاهشی است و در طول اجرای الگوریتم به صورت خطی از 2 به صفر میرسد. و بردار اعداد تصادفی در بازه [0,1] میباشند.
به منظور شبیهسازی ریاضیاتی رفتار گرگهای خاکستری در شکار، همواره موقعیت سه راه حل برتر (آلفا، بتا و دلتا) تا آخرین لحظه ذخیره شده و دیگر گرگها موظف هستند موقعیت خود را با توجه به موقعیت سه گرگ برتر به روز رسانی کنند. مدل ریاضیاتی به روز رسانی موقعیت گرگهای به صورت زیر است
(5)
(6)
(7)
که در آن ، و به ترتیب موقعیت گرگهای آلفا، بتا و دلتا و ، و موقعیت هر گرگ بر اساس این سه گرگ است. ، و و ، و همگی بردارهای تصادفی هستند که مانند (3) و (4) محاسبه میگردند و موقعیت جدید گرگها را نشان میدهد.
تا کنون نسخههای متنوعی از الگوریتم گرگ خاکستری ارائه گردیده که در هر کدام روشی برای بهبود الگوریتم در نظر گرفته شده است. لی و همکاران [41] به طور مساوی جمعیت اولیه گرگ خاکستری را در فضای مسأله توزیع کردند و از جهش گاوسی برای جلوگیری از افتادن الگوریتم در بهینههای محلی استفاده نمودند و نهایتاً یک عامل کنترل کسینوسی برای ایجاد توازن بین قابلیت اکتشاف سراسری و محلی الگوریتم در جهت بهبود سرعت همگرایی الگوریتم معرفی کردند. در پژوهشی دیگر، به منظور بهبود سرعت همگرایی، از نقشههای آشوبی در الگوریتم گرگ 14(CGWO) استفاده شد [42]. یک الگوریتم ترکیبی با استفاده از الگوریتم بهینهساز گرگ خاکستری و الگوریتم آتشبازی که از فرایند انفجار آتشبازی تقلید میکند، ارائه شد [43] و از مزایای این دو الگوریتم برای دستیابی به بهترین نتیجه استفاده گردید. در الگوریتم پیشنهادی از قابلیت اکتشاف بهتر الگوریتم آتشبازی و قابلیت بهرهبرداری بهتر الگوریتم گرگ خاکستری استفاده شد. محمدزاده و همکاران [44]، یک الگوریتم بهبودیافته از گرگ خاکستری ارائه کردند که در آن ضعیفترین گرگها از جمعیت حذف شده و از دیگر گرگها در جمعیت اولیه گنجانده میشوند. انتخاب گرگهای جایگزین به صورت تصادفی یا بر اساس تابع برازندگی خواهد بود. در این الگوریتم، موقعیت هر گرگ در هر تکرار بررسی میگردد و در صورت بهبود، این موقعیت در نظر گرفته میشود و در غیر این صورت گرگها در آخرین حالت مناسب باقی میمانند.
یک الگوریتم بهبودیافته دیگر از الگوریتم گرگ 15(EEGWO) برای افزایش قابلیت اکتشاف گرگ خاکستری ارائه شد [45]. الگوریتم پیشنهادی به منظور بهبود اکتشاف، از یک همسایه تصادفی از جمعیت برای تغییر موقعیت هر گرگ علاوه بر روابط خود الگوریتم استفاده میکند. همچنین به منظور توازن بین اکتشاف و بهرهبرداری، از یک پارامتر کنترل غیر خطی بهره میگیرد و پارامتر کنترلی در طول تکرارها به صورت غیر خطی تغییر مییابد. در تحقیقی دیگر، با بهبود پارامتر کنترلی در الگوریتم گرگ (AGWO) سعی در بهبود قابلیت اکتشاف و بهرهبرداری شد [46]. یک الگوریتم بهبودیافته دیگر 16(EGWO) برای تقلید از سلسلهمراتب رهبری و روش شکار گروهی گرگهای خاکستری در طبیعت پیشنهاد شد [47]. در این الگوریتم، محل شکار توسط گرگهای رهبر تخمین زده میشود، هر گرگ مستقیماً به سمت محل تخمینی شکار حرکت میکند و وزن گرگ آلفا در تغییر موقعیت هر گرگ بیشتر در نظر گرفته میشود. اکبری و همکاران [48] با معرفی یک تغییر مستقیم در الگوریتم اصلی گرگ، یعنی نادیدهگرفتن سلسلهمراتب اجتماعی آن، الگوریتمی از گرگ 17(G-NHGWO) ارائه کردند تا مشکل اکتشاف ضعیف الگوریتم گرگ خاکستری را حل کنند. همان گونه که مشاهده میشود مشکل اصلی الگوریتم بهینهسازی گرگ خاکستری، اکتشاف ضعیف و همگرایی زودرس میباشد که با بهبود آن میتوان راه حلهای بهتری را به دست آورد.
3- روش پیشنهادی
در روش پیشنهادی، ابتدا الگوریتم چهارگرگ خاکستری توضیح داده میشود که در آن با استفاده از موقعیت گرگهای امگا پیشرو و موقعیت سایر گرگها، تصمیمگیری برای یافتن موقعیت بعدی هر گرگ صورت میگیرد. هدف در الگوریتم پیشنهادی، بهبود قابلیت اکتشاف و بهبود توازن بین قابلیت اکتشاف و بهرهبرداری است. در ادامه، نحوه نگاشت الگوریتم پیشنهادی چهارگرگ خاکستری برای یافتن مراکز خوشه در مسأله خوشهبندی بیان میگردد.
3-1 الگوریتم بهینهسازی چهار گرگ خاکستری
در این تحقیق برای حل مشکل همگرایی زودرس و فرار از بهینه محلی الگوریتم بهینهسازی گرگ خاکستری، بهبودی از الگوریتم به نام الگوریتم بهینهسازی چهارگرگ خاکستری ارائه میگردد. ایده اصلی این الگوریتم، استفاده از دستهای از گرگهای خاکستری امگا به نام گرگهای پیشرو در حرکت مؤثر به سمت طعمه است.
در ابتدا جمعیت گرگها به طور تصادفی مقداردهی اولیه میگردند و تابع برازندگی جمعیت ارزیابی میشود. بهترین موقعیت بر اساس این تابع به عنوان گرگ آلفا، بهترین راه حل دوم به عنوان گرگ بتا و بهترین
راه حل سوم، گرگ دلتا در نظر گرفته میشود. موقعیت همه گرگها
در فضای جستجو با توجه موقعیت این سه گرگ برتر به روز رسانی میگردند. بدین صورت که مقدار ، و برای هر گرگ بر اساس موقعیت گرگهای آلفا، بتا و دلتا و موقعیت فعلی گرگها محاسبه میشود و در نهایت موقعیت بعدی گرگ از میانگین مکانی ، و به دست میآید. در بعضی مواقع، الگوریتم در دام بهینه محلی گرفتار میآید و سه گرگ آلفا، بتا و دلتا جمعیت را به سمت بهینه محلی هدایت میکنند. برای حل این مشکل از روابط زیر، موقعیت جدید گرگها نسبت به گرگ آلفا محاسبه میگردد و بر اساس دور یا نزدیکبودن به گرگ آلفا، تصمیمگیرهای بعدی اتخاذ میشود
(8)
(9)
که نشاندهنده گرگ ام است. موقعیت جدید موقت اول و مقدار تابع برازندگی برای آن است. مقدار تابع برازندگی برای بدترین گرگ و مقدار تابع برازندگی برای گرگ آلفاست. میزان نزدیکی یا دوری از گرگ آلفا را نشان میدهد. مقدار در بازه صفر و یک است. در صورتی که برای بدترین گرگ محاسبه گردد، مقدار آن صفر و در صورتی که برای بهترین گرگ (گرگ آلفا) محاسبه شود، مقدار آن یک خواهد بود. با توجه به تعداد گرگهای
شكل 1: ابعاد و ساختار هر گرگ در مسأله خوشهبندی.
امگای پیشرو، این دسته به صورت تصادفی در فضای مسأله، مقداردهی میگردد و بهترین موقعیت گرگهای امگای پیشرو انتخاب و موقعیت موقت دوم برای گرگ ام از رابطه زیر محاسبه میگردد
(10)
که در آن یک عدد تصادفی بین 1 و 1- است. حال بر اساس ، تصمیمگیری برای موقعیت جدید گرگ ام به صورت زیر انجام میگیرد
(11)
اگر باشد، نشاندهنده آن است که موقعیت موقت اول از گرگ آلفا فاصله دارد و موقعیت جدید برابر موقعیت موقت دوم میشود و در غیر این صورت، موقعیت جدید برابر موقعیت موقت اول میگردد.
در ابتدای الگوریتم باید اکتشاف فضاهای جدید صورت گیرد، بنابراین موقعیت جدید گرگ بر اساس موقعیت بهترین گرگ امگای پیشرو (که
به صورت تصادفی مقدار گرفته است) محاسبه میگردد. به تدریج در اواسط اجرای الگوریتم، بایستی گرگها از حالت اکتشاف به سمت بهرهبرداری حرکت کنند. از این رو موقعیت جدید بر اساس موقعیت موقت اول که نزدیک بهترین موقعیت یافتهشده تا کنون (گرگ آلفا) است، محاسبه میگردد. شرط خاتمه در این الگوریتم بر اساس شرایط مسأله مشخص میگردد که میتواند رسیدن به تعداد تکرار مشخص یا خطای مشخصشده در مسأله باشد.
3-2 الگوریتم پیشنهادی چهارگرگ خاکستری در مسأله خوشهبندی
به منظور تطبیق الگوریتم پیشنهادی با خوشهبندی، موقعیت هر گرگ به عنوان راه حلی برای مراکز خوشه در نظر گرفته میشود، یعنی موقعیت هر گرگ شامل مراکز خوشهها میباشد. به عنوان مثال اگر 3 مرکز خوشه در نظر گرفته شود و دادههایی که قرار است خوشهبندی گردند دارای 2 ویژگی باشند، ابعاد هر گرگ به صورت شکل 1 خواهد بود. در این شکل سه مرکز خوشه (1 و 1)، (5 و 2) و (2 و 4) وجود دارد که به یک گرگ اختصاص داده شده است. فاصله دادهها تا این مراکز محاسبه میگردند. بقیه گرگها نیز دارای مراکز دیگر هستند که فاصله دادهها تا آنها محاسبه میشود و از بین آنها کمترین فاصله تا مراکز خوشه محاسبه میگردد.
تابع برازندگی که در اینجا به این منظور در نظر گرفته شده است بر اساس [21] و [49] میباشد که به صورت زیر است
(12)
که هدف در آن حداقلکردن مجموع فاصله بین داده ام و مرکز خوشه ام است. تعداد دادهها و تعداد مراکز خوشههاست. در رابطه فوق، فاصله اقلیدسی بین داده ام و مرکز خوشه ام است که از رابطه زیر محاسبه میگردد
(13)
که در آن تعداد ابعاد دادههاست.
در واقع هدف اصلی، اختصاص دادهها به مراکز خوشهها است به نحوی که فواصل دادههای درون خوشه با مرکز آن کمینه گردند. در روش پیشنهادی، پارامترهای الگوریتم مقداردهی میشوند و بر اساس تعداد ویژگیهای مجموعه دادگان و تعداد مراکز خوشهها، ابعاد هر گرگ مشخص میشود. سپس مراکز خوشه به صورت تصادفی مقداردهی میگردند. موقعیت هر گرگ به عنوان راه حلی برای مراکز خوشه در نظر گرفته میشود. الگوریتم اجرا میشود و فاصله نمونههای مجموعه دادگان تا مراکز خوشهها محاسبه میگردد. دادهها در خوشههایی قرار میگیرند که حداقل فاصله تا مراکز خوشهها را داشته باشند. گرگها راه حلهای جدید را پیدا کرده و با توجه به تابع برازندگی آنها، سه گرگ برتر انتخاب میشوند. بر اساس موقعیت هر گرگ، تصمیمگیری برای تعیین موقعیت بعدی انجام میگردد. در صورتی که موقعیت گرگ از گرگ آلفا دور باشد، حرکت بر اساس موقعیت بهترین گرگ امگای پیشرو و سه گرگ برتر صورت میگیرد و در غیر این صورت فقط بر اساس موقعیت سه گرگ برتر انجام میشود. این روال تا رسیدن به شرط خاتمه الگوریتم ادامه پیدا میکند و در پایان موقعیت گرگ آلفا به عنوان بهترین مراکز خوشه برمیگردد. شبهکد الگوریتم پیشنهادی در شکل 2 نشان داده شده است.
3-3 مثالی از روش خوشهبندی با استفاده از الگوریتم پیشنهادی
در جدول 1 موقعیتهای اعضای جمعیت در الگوریتم بهینهسازی چهارگرگ در تکرارهای مختلف نشان داده شده است. در ابتدا اعضای جمعیت مقداردهی اولیه میشوند و ابعاد هر گرگ به تعداد مراکز خوشه در تعداد ویژگیهای مجموعه دادگان است. مشخصات مجموعه داده در ستون اول جدول 2 نمایش داده شده است. در این مثال مجموعه داده دارای 2 ویژگی است و برچسب دادههای آن (Label) و تعداد نمونههای آن 10 میباشد. در مرحله مقداردهی اولیه (سطر اول جدول 1) ابتدا همه گرگها به صورت تصادفی مقداردهی اولیه میشوند (Initialization) و از بین آنها بهترین گرگ که دارای بهترین تابع برازندگی است به عنوان گرگ آلفا انتخاب میگردد. در جدول 1 در ردیف اول، گرگ 2 )2(GW که دارای بهترین تابع برازندگی (3119/12)
Algorithm: 4GWO algorithm for Clustering (4GWO-C) | |
Function 4GWO-C (problem) | |
2. | Input: Population_size, ScoutOmega_size, dataset |
3. | Output: Best solution (: Cluster centers) |
4. | Set parameters |
5. | Compute the dimension of each wolf |
6. | Initialize |
7. | Repeat |
8. | Evaluate |
9. | Select , , and the worst wolf |
10. | for i1 to Population_size do |
11. | Compute , , |
12. | Compute |
13. | Compute |
14. | Initialize |
15. | Select the best of as |
16. | Compute |
17. | Compute |
18. | End for |
19. | Until stop criteria is met |
20. | Best solution |
21. | Return Best Solution |
شكل 2: شبهکد الگوریتم بهینهسازی چهارگرگ برای خوشهبندی دادهها.
است به عنوان گرگ آلفا انتخاب میشود و همان طور که در جدول 2 و شکل 3 دیده میشود، مرکز خوشه 1 در این مرحله فقط یک عضو دارد. بر اساس حرکت گرگها در اولین تکرار مراکز خوشهها تغییر میکند ولی باز همان گرگ شماره 2 بهترین نتیجه را دارد که تابع برازندگی آن از همه بهتر است. مرکز خوشه 1 در این مرحله دارای دو عضو میگردد، همان طور که در جدول 2 و شکل 3 نشان داده شده است. همان گونه که در جدولهای 1 و 2 و شکل 3 دیده میشود، در تکرارهای 2، 3 و 4، گرگ 1 )1(GW دارای بهترین مراکز خوشه است و پس از پنج تکرار خوشه 1 دارای 5 عضو و خوشه 2 نیز دارای 5 عضو میگردد و بهترین مراکز خوشه توسط گرگ 2 به دست میآید که کمترین مقدار تابع برازندگی را دارد.
در شکل 4، نمودار تابع برازندگی به دست آمده توسط گرگ آلفا در تکرارهای متوالی رسم شده است. تابع برازندگی بر اساس (12) محاسبه میگردد. همان طور که در شکل دیده میشود در تکرارهای متوالی، مجموع فواصل عناصر هر خوشه تا مرکز آن خوشه کم میگردد تا در تکرار پنجم ، مجموع فواصل عناصر هر خوشه تا مراکز به حداقل میرسد. نتایج جدول 2 و شکلهای 3 و 4 نشان میدهد که در این مجموعه داده کوچک پس از پنج تکرار، مراکز خوشهها به درستی انتخاب میشوند و دادهها در خوشههای اصلی قرار میگیرند.
4- ارزیابی الگوریتم پیشنهادی و ارائه نتایج
در این بخش به ارزیابی الگوریتم پیشنهادی پرداخته میشود. الگوریتمها بر روی سیستمی با 5Intel core i، حافظه اصلی GB 8 و سیستم عامل bit 64 و در محیط متلب 2015 پیادهسازی شدهاند. در ابتدا مقدار پارامترها با استفاده از نتایج آزمایشها به دست میآید و سپس روش پیشنهادی بر روی مجموعه دادگان UCI [50] که در [21]، [25] و [49] استفاده شده است، با الگوریتمهایی مانند الگوریتم بهینهساز گرگ خاکستری، بهینهسازی ازدحام ذرات، زنبور عسل مصنوعی، ارگانیسمهای همزیست و سالپ مقایسه میشود. مجموعه دادگان UCI مورد استفاده و ویژگیهای آنها در جدول 3 نشان داده شده است. این مجموعه دادگان دارای تعداد ویژگی کم، متوسط و زیاد میباشند. همچنین در تعداد مراکز خوشه و تعداد نمونه نیز دارای این تنوع میباشند که قرارگرفتن صحیح دادهها در خوشههای مناسب در مجموعه دادگانی با تعداد مراکز بالا نیز از چالشهای خوشهبندی است. علاوه بر آن در این جدول، مجموعه دادگانی با دادههای نامتوازن نیز در نظر گرفته شده که خوشهبندی آنها مشکل میباشد و از جمله آنها میتوان به مجموعه دادگان Zoo و Ecoli اشاره کرد.
شبیهسازی و نتایج پیادهسازی الگوریتم پیشنهادی GWO-C4 بر اساس تعداد اعضای جمعیت، تعداد ابعاد مسأله و حداکثر تعداد تکرار به عنوان متغیرهای مستقل و درصد خطا یا طبقهبندی نادرست 18(MCR)، دقت19، معیار 20 و مجموع فاصله اعضا تا مراکز خوشه (تابع برازندگی)
به عنوان متغیر وابسته برای مشخصنمودن پارامترهای الگوریتم مورد ارزیابی قرار میگیرد که این نتایج در جدول 4 آمده است. سپس با استفاده از معیارهای ارزیابی، کارایی الگوریتمها با یکدیگر مقایسه میشوند. معیارهای ارزیابی به صورت زیر محاسبه میگردند [25] و [49]
(14)
(15)
(16)
که و به ترتیب دقت و فراخوانی، تعداد اعضای درست کلاس در خوشه ، تعداد همه اعضای خوشه و تعداد همه اعضای کلاس است. معیار برای همه خوشهها از رابطه زیر محاسبه میگردد
(17)
که در آن تعداد اعضای همه خوشههاست. همچنین درصد طبقهبندی نادرست از رابطه زیر بر حسب درصد تعداد طبقهبندیهای نادرست به تعداد کل طبقهبندیها محاسبه میگردد که در یک خوشهبندی ایدهآل این مقدار صفر است
(18)
نتایج ارزیابی الگوریتم GWO-C4 در مسأله خوشهبندی روی مجموعه دادگان UCI در مقایسه با الگوریتمهای دیگر، حاصل از 10 بار اجرای مستقل و میانگینگیری روی نتایج، در جدول 5 آمده است. همان گونه
[1] این مقاله در تاریخ 18 آذر ماه ماه 1399 دریافت و در تاریخ 2 مهر ماه 1400 بازنگری شد.
لاله عجمی بختیاروند، دانشكده مهندسي كامپيوتر، واحد نجفآباد، دانشگاه آزاد اسلامی، نجفآباد، ایران، (email: l_ajami_b@sco.iaun.ac.ir).
زهرا بهشتی (نویسنده مسئول)، دانشكده مهندسي كامپيوتر، واحد نجفآباد، دانشگاه آزاد اسلامی، نجفآباد، ایران، (email: z-beheshti@iaun.ac.ir).
[2] . Data Mining
[3] . NP-Hard
[4] . Exact Algorithm
[5] . Meta-Heuristic Algorithm
[6] . Exploration
[7] . Exploitation
[8] . 4-Gray Wolf Optimization Algorithm
[9] . Scout Omega Wolf
[10] . Software-Defined Network
[11] . Distributed Denial of Service
[12] . Water Wave Optimization
[13] . K-Means
[14] . Chaotic Grey Wolf Optimization
[15] . Exploration-Enhanced Grey Wolf Optimizer
[16] . Enhanced Grey Wolf Optimizer
[17] . Greedy Non-Hierarchical Grey Wolf Optimizer
[18] . Misclassification Rate
[19] . Precision
[20] . F-Measure
جدول 1: مقادیر موقعیتهای اعضای جمعیت در الگوریتم بهینهسازی چهارگرگ در تکرارهای مختلف.
Iteration | 1GW | 2GW | 3GW | 4GW |
| Best result | |||||
Initialization | 7383/0- | 4640/0 | 5894/1 | 0030/0 | 6343/1 | 5368/0 | 6874/1 | 2030/0 | 5894/1 | 0030/0 | 3119/12 |
0104/0 | 1562/0 | 0651/1 | 7534/0 | 6757/0- | 7344/1 | 1631/0 | 0534/1 | 0651/1 | 7534/0 | ||
1 | 6755/0- | 1947/0 | 3324/1 | 2264/0 | 3773/1 | 3091/0 | 3524/0 | 7464/1 | 3324/1 | 2264/0 | 893/11 |
2674/0 | 4255/0 | 8081/0 | 6819/0 | 4187/0- | 4650/1 | 8091/1 | 6229/0 | 8081/0 | 6819/0 | ||
2 | 4185/0- | 0009/0- | 0754/1 | 1514/0 | 1203/1 | 0398/0 | 4195/0 | 9009/0 | 4185/0- | 0009/0- | 0075/11 |
5244/0 | 6949/0 | 5511/0 | 6301/0 | 1618/0- | 1957/1 | 5744/0- | 0049/1 | 5244/0 | 6949/0 | ||
3 | 2310/0- | 1436/0- | 8185/0 | 1180/0- | 8634/0 | 1586/0- | 2310/1- | 1436/0- | 2310/0- | 1436/0- | 9895/9 |
7119/0 | 8915/0 | 6036/0 | 8436/0 | 0952/0 | 9263/0 | 9229/0 | 0915/0 | 7119/0 | 8915/0 | ||
4 | 0941/0- | 1586/0- | 5615/0 | 1586/0- | 6064/0 | 0261/0 | 0941/1- | 1586/0- | 0941/0- | 1586/0- | 2647/9 |
8488/0 | 0350/1 | 8606/0 | 0965/1 | 3521/0 | 7642/0 | 8488/0 | 0350/1 | 8488/0 | 0350/1 | ||
5 | 0058/0 | 0826/0- | 3046/0 | 1107/0 | 3495/0 | 1705/0 | 3042/1 | 6117/0 | 3046/0 | 1107/0 | 9342/7 |
9487/0 | 1397/1 | 1176/1 | 3316/1 | 6091/0 | 0336/1 | 2176/0 | 3426/1- | 1176/1 | 3316/1 |
جدول 2: مراکز خوشههای به دست آمده در تکرارهای متوالی.
Step Dataset | Data Clustering | |||||||
1Feature | 2Feature | Label | Initialization |
|
|
|
|
|
291/0 | 091/0- | 1 | 2 | 2 | 1 | 1 | 1 | 1 |
182/1 | 021/0 | 1 | 1 | 1 | 2 | 2 | 2 | 1 |
905/0- | 242/0 | 1 | 2 | 2 | 1 | 1 | 1 | 1 |
023/0 | 642/0 | 1 | 2 | 2 | 2 | 2 | 1 | 1 |
086/0 | 159/0- | 1 | 2 | 2 | 1 | 1 | 1 | 1 |
659/1 | 535/2 | 2 | 2 | 2 | 2 | 2 | 2 | 2 |
271/1 | 635/0 | 2 | 2 | 1 | 2 | 2 | 2 | 2 |
665/1 | 379/2 | 2 | 2 | 2 | 2 | 2 | 2 | 2 |
536/0 | 262/2 | 2 | 2 | 2 | 2 | 2 | 2 | 2 |
414/1 | 583/1 | 2 | 2 | 2 | 2 | 2 | 2 | 2 |
جدول 3: مجموعه دادگان مورد استفاده.
No. | Dataset | Number of features | Number of cluster | Number of instances |
1 | Iris | 4 | 3 | 150 |
2 | Breast Cancer Wisconsin (Original) | 9 | 2 | 683 |
3 | Balance scale | 4 | 3 | 625 |
4 | Seeds | 7 | 3 | 210 |
5 | Statlog (Heart) | 13 | 2 | 270 |
6 | Wine | 13 | 3 | 178 |
7 | Glass | 9 | 7 | 214 |
8 | Zoo | 16 | 7 | 101 |
9 | Solar | 60 | 2 | 208 |
10 | Tae | 5 | 3 | 151 |
11 | PenglungEW | 325 | 7 | 73 |
12 | Parkinson Disease | 22 | 2 | 195 |
13 | Ecoli | 7 | 8 | 336 |
14 | Vehicle | 18 | 4 | 846 |
که مشاهده میشود، الگوریتمها بر اساس درصد طبقهبندی نادرست (خطا)، انحراف معیار، دقت و معیار حاصل از نتایج خوشهبندی با یکدیگر مقایسه شدهاند. تعداد جمعیت اولیه 50 و حداکثر تکرار 150 در نظر گرفته شده و هر کدام از الگوریتمها 10 بار اجرا شدهاند و میانگین نتایج آنها در جدول قرار گرفته است. مجموعه دادگان در نظر گرفته شده، دارای ویژگیها، مراکز خوشه و تعداد متفاوتی نمونه هستند. همچنین برخی از این مجموعه دادگان، دادههای نامتوازن هستند که نمونههای یک یا چند کلاس، چند برابر کلاسهای دیگر است که کار خوشهبندی را مشکل میسازد. از طرفی تعداد زیاد خوشهها، چالش دیگری است که در جهت عکس بهبود معیارهای ارزیابی است.
شکل 3: مراحل تغییر مراکز خوشهها.
شکل 4: نمودار تغییرات تابع برازندگی گرگ آلفا (بهترین راه حل).
الگوریتمهای مورد مقایسه، الگوریتم پیشنهادی GWO-C4، الگوریتم گرگ خاکستری، الگوریتم زنبور عسل مصنوعی، الگوریتم ارگانیسمهای همزیست، الگوریتم سالپ و الگوریتم ازدحام ذرات میباشند.
همان طور که در جدول 5 قابل مشاهده است در بین این الگوریتمها، نتایج الگوریتم پیشنهادی بسیار قابل توجه است و راه حلهای بهتری را ارائه داده است. در مجموعه دادگان Iris و Breast Cancer نتایج الگوریتمها مشابه یکدیگر میباشد، هرچند که الگوریتم پیشنهادی و SOS نتایج بهتری را ارائه میدهند. الگوریتم گرگ خاکستری در تمام مجموعه دادگان به غیر از دو مجموعه دادگان Balance scale و Seeds، نتایج بسیار ضعیفی از خود ارائه میدهد. دلیل این امر آن است که در الگوریتم گرگ خاکستری، جمعیت دنبالهرو سه عضو بهتر هستند و چنانچه این سه عضو به بهینه محلی همگرا گردند، تمام جمعیت به سمت آن بهینه کشیده
شکل 5: رفتار الگوریتمها بر اساس خطای دستهبندی روی مجموعه دادگان Seeds، Ecoli، Solar و PenglungEW.
جدول 4: تعیین پارامترهای الگوریتم GWO-C4.
Metric Variable | MCR | STD | Precision | F-Measure |
50Population-Size | ||||
100Iter | %069/3 | 0136/0 | %642/90 | %069/91 |
150Iter | %881/1 | 0158/0 | %137/96 | %440/95 |
200Iter | %970/2 | 0175/0 | %883/89 | %580/90 |
150Max-Iteration | ||||
20Population-Size | %960/3 | 0256/0 | %177/85 | %759/86 |
30Population-Size | %970/2 | 0192/0 | %427/93 | %693/92 |
50Population-Size | %881/1 | 0158/0 | %137/96 | %440/95 |
150Max-Iteration و 50Population-Size | ||||
%5ScoutOmega_size | %465/3 | 023/0 | %275/92 | %033/92 |
%10ScoutOmega_size | %881/1 | 0158/0 | %137/96 | %440/95 |
%20ScoutOmega_size | %465/3 | 032/0 | %245/90 | %783/90 |
میشوند و امکان فرار از بهینه محلی را ندارند. یعنی اگرچه الگوریتم گرگ خاکستری دارای قابلیت بهرهبرداری خوبی است اما قابلیت اکتشاف ضعیفی دارد. در مجموعه دادگان Glass، الگوریتمهای گرگ خاکستری و زنبور عسل مصنوعی، نتایج بسیار ضعیفی مخصوصاً در معیار دقت و معیار نشان میدهد. در مجموعه دادگان Zoo، Solar، PenglungEW، Ecoli و Vehicle تفاوت نتایج الگوریتم پیشنهادی با بقیه الگوریتمها بسیار قابل توجه است. این مجموعه دادگان در دسته مجموعه دادگان نامتوازن میباشند که برای طبقهبندی بسیار مشکل هستند و از روشهای مختلفی مثل ترکیب خوشهبندی و طبقهبندی برای طبقهبندی آنها استفاده میشود. به همین دلیل تفاوت قابل توجهی بین درصد طبقهبندی نادرست (خطا) و دقت در آنها دیده میشود. به عنوان مثال، مجموعه دادگان Ecoli دارای 8 کلاس با 336 نمونه است. از بین این نمونهها دو نمونه متعلق به کلاس 3، 2 نمونه متعلق به کلاس 4 و 5 نمونه متعلق به کلاس 7 هستند. بیشترین نمونه متعلق به کلاس 1 و کلاس 2 است. در این مجموعه دادگان، عملکرد الگوریتم گرگ خاکستری و الگوریتم زنبور عسل مصنوعی بسیار ضعیف است.
در شکل 5، رفتار الگوریتمها بر اساس خطای دستهبندی روی مجموعه دادگان Seeds، Ecoli، Solar و PenglungEW نشان داده شده است. با توجه به این شکل، الگوریتم بهینهسازی گرگ خاکستری و الگوریتم زنبور عسل در همان تکرارهای اولیه به دام بهینه محلی گرفتار میشوند و توانایی فرار از آن را ندارند. اما روش پیشنهادی با اکتشاف خوب در تکرارهای اولیه و برقراری توازن با بهرهبرداری از اواسط اجرای الگوریتم، مراکز خوشه بهتری را انتخاب میکند.
کارایی بهتر روش پیشنهادی در به دست آوردن پاسخهای خوب، به دلیل عملکرد الگوریتم در برقراری توازن بین اکتشاف و بهرهبرداری است. با محاسبه برای هر گرگ در الگوریتم پیشنهادی، موقعیت هر گرگ نسبت به گرگ آلفا مشخص میگردد. در ابتدای اجرای الگوریتم بایستی اکتشاف صورت گیرد و سپس از اواسط اجرا از اکتشاف به سمت بهرهبرداری حرکت کرد. در ابتدا که گرگها از یکدیگر فاصله دارند، آنها کم است و این نشان میدهد که از بهترین راه حل فاصله دارند و در نتیجه به اکتشاف میپردازند. به تدریج که به اواسط اجرای الگوریتم
جدول 5: نتایج حاصل از اجرای الگوریتم روی مجموعه دادگان.
Metric Algorithm | Dataset | MCR | STD | Precision | F-Measure | Dataset | MCR | STD | Precision | F-Measure |
GWO-C4 | Iris | %933/0 | 0034/0 | %080/99 | %073/99 | Zoo | %881/1 | 0158/0 | %137/96 | %440/95 |
GWO-C | %133/1 | 0032/0 | %886/98 | %876/98 | %683/21 | 0348/0 | %005/48 | %171/51 | ||
PSO-C | %667/1 | 0096/0 | %400/98 | %366/98 | %614/8 | 0467/0 | %159/82 | %094/82 | ||
ABC-C | %400/2 | 0056/0 | %724/97 | %662/97 | %010/19 | 0160/0 | %872/57 | %797/59 | ||
SOS-C | %133/1 | 0055/0 | %891/98 | %879/98 | %624/7 | 0238/0 | %424/85 | %596/83 | ||
SSA-C | %600/1 | 0078/0 | %443/98 | %422/98 | %495/10 | 0476/0 | %910/79 | %970/79 | ||
GWO-C4 | Breast Cancer Wisconsin | %947/1 | 0012/0 | %545/97 | %892/97 | Solar | %010/11 | 0119/0 | %285/89 | %058/89 |
GWO-C | %123/2 | 0021/0 | %253/97 | %721/97 | %221/28 | 0249/0 | %206/72 | %872/71 | ||
PSO-C | %050/2 | 0010/0 | %461/97 | %777/97 | %106/16 | 0200/0 | %391/84 | %191/84 | ||
ABC-C | %182/2 | 0013/0 | %251/97 | %645/97 | %827/21 | 0136/0 | %777/78 | %324/78 | ||
SOS-C | %947/1 | 0007/0 | 502/97% | %899/97 | %144/15 | 0149/0 | %368/85 | %951/84 | ||
SSA-C | %225/2 | 0027/0 | %255/97 | %591/97 | %894/18 | 0310/0 | %294/81 | %203/81 | ||
GWO-C4 | Balance scale | %768/14 | 0144/0 | %804/70 | %250/71 | Tae | %272/39 | 0214/0 | %476/63 | %269/62 |
GWO-C | %656/16 | 0171/0 | %216/69 | %910/69 | %510/43 | 0502/0 | %367/57 | %864/56 | ||
PSO-C | %584/19 | 0253/0 | %171/67 | %607/67 | %603/39 | 0231/0 | %046/63 | %857/61 | ||
ABC-C | %272/24 | 0231/0 | %723/65 | %836/65 | %192/41 | 0162/0 | %649/60 | %808/59 | ||
SOS-C | %256/16 | 0157/0 | %784/69 | %480/70 | %927/40 | 0132/0 | %956/62 | %147/61 | ||
SSA-C | %656/16 | 0307/0 | %190/70 | %226/71 | %848/42 | 0248/0 | %382/60 | %956/58 | ||
GWO-C4 | Seeds | %619/3 | 0096/0 | %547/96 | %464/96 | PenglungEW | %301/6 | 0196/0 | %247/93 | %581/92 |
GWO-C | %429/7 | 0503/0 | %720/92 | %645/92 | %877/52 | 0429/0 | %932/44 | %946/47 | ||
PSO-C | %714/5 | 0274/0 | %405/94 | %345/94 | %247/14 | 0521/0 | %761/84 | %881/84 | ||
ABC-C | %619/9 | 0171/0 | %712/90 | %546/90 | %877/52 | 0378/0 | %860/46 | %821/48 | ||
SOS-C | %381/5 | 0112/0 | %747/94 | %683/94 | %384/24 | 0543/0 | %556/74 | %375/73 | ||
SSA-C | %571/6 | 0250/0 | %572/93 | %500/93 | %096/31 | 0323/0 | %452/67 | %617/67 | ||
GWO-C4 | Statlog (Heart) | %296/11 | 0073/0 | %144/89 | %622/88 | Parkinson | %179/9 | 0066/0 | %058/94 | %404/87 |
GWO-C | %778/15 | 0198/0 | %798/84 | %122/84 | %359/14 | 0214/0 | %469/83 | %118/80 | ||
PSO-C | %222/12 | 0039/0 | %314/88 | %690/87 | %436/9 | 0060/0 | %434/93 | %988/86 | ||
ABC-C | %333/14 | 0050/0 | %956/85 | %540/85 | %128/11 | 0091/0 | %961/90 | %412/84 | ||
SOS-C | %741/11 | 0030/0 | %648/88 | %150/88 | %692/9 | 0074/0 | %397/93 | %638/86 | ||
SSA-C | %741/12 | 0098/0 | %384/87 | %120/87 | %667/10 | 0130/0 | %328/90 | %006/85 | ||
GWO-C4 | Wine | %393/0 | 0060/0 | %615/99 | %638/99 | Ecoli | %125/13 | 0287/0 | %732/66 | %431/66 |
GWO-C | %472/12 | 0584/0 | %183/88 | %797/87 | %577/31 | 0316/0 | %360/24 | %519/27 | ||
PSO-C | %292/1 | 0099/0 | %793/98 | %733/98 | %125/18 | 0530/0 | %047/55 | %768/56 | ||
ABC-C | %225/10 | 0163/0 | %605/90 | %272/90 | %113/32 | 0151/0 | %366/31 | %519/34 | ||
SOS-C | %022/2 | 0089/0 | %942/97 | %031/98 | %935/21 | 0180/0 | %936/46 | %983/47 | ||
SSA-C | %416/2 | 0159/0 | %654/97 | %643/97 | %042/21 | 0455/0 | %087/53 | %005/54 | ||
GWO-C4 | Glass | %252/34 | 0378/0 | %842/41 | %111/43 | Vehicle | %603/35 | 0366/0 | %383/58 | %169/61 |
GWO-C | %916/46 | 0077/0 | %918/21 | %902/22 | %530/57 | 0288/0 | %898/26 | %694/32 | ||
PSO-C | %664/37 | 0413/0 | %572/37 | %767/37 | %466/41 | 0322/0 | %499/55 | %914/56 | ||
ABC-C | %720/44 | 0218/0 | %790/27 | %247/28 | %038/53 | 0130/0 | %398/38 | %187/42 | ||
SOS-C | %879/38 | 0345/0 | %891/40 | %309/41 | %397/44 | 0225/0 | %829/51 | %764/53 | ||
SSA-C | %215/41 | 0433/0 | %957/35 | %790/35 | %669/44 | 0360/0 | %400/54 | %885/54 |
میرسیم، گرگها به بهینه نزدیکتر میگردند و بنابراین آنها به یک نزدیک میشود و بر اساس حرکت سه گرگ برتر گروه، موقعیت بعدی آنها مشخص میگردد. در این حالت باز هم اگر گرگها در بهینه محلی باشند، چنانچه گرگی کمتر از 5/0 باشد به اکتشاف میپردازد و امکان کشف فضای بهتر و فرار از بهینه محلی فراهم میگردد.
در شکل 6، نتایج الگوریتمها برای خوشهبندی دادهها روی مجموعه دادگان Glass، Zoo و Tae بر اساس میانگین تابع برازندگی نمایش داده شده است. تابع برازندگی مورد استفاده در تحقیق از (12) به دست میآید. این تابع باید کمینه گردد تا فاصله مراکز خوشهها و دادههای داخل آنها حداقل باشند. در بین الگوریتمها، الگوریتم پیشنهادی کمترین مقدار و الگوریتم گرگ خاکستری بیشترین مقدار را به دست آورده است.
در شکل 7، نتایج الگوریتمهای مورد استفاده برای خوشهبندی بر
شکل 6: نتایج الگوریتمها روی مجموعه دادگان Glass، Zoo و Tea بر اساس میانگین تابع برازندگی.
شکل 7: نتایج الگوریتمهای فراابتکاری بر اساس میانگین معیار روی تمام مجموعه دادگان.
جدول 6: نتایج حاصل از آزمون فریدمن بر اساس درصد خطای دستهبندی.
Algorithm Dataset | GWO-C4 | GWO-C | PSO-C | ABC-C | SOS-C | SSA-C |
Iris | 3/2 | 85/2 | 9/3 | 55/5 | 65/2 | 75/3 |
Breast cancer Wisconsin (Original) | 3/2 | 8/3 | 4/3 | 85/4 | 05/2 | 6/4 |
Balance scale | 7/1 | 1/3 | 8/4 | 8/5 | 7/2 | 9/2 |
Seeds | 7/1 | 55/3 | 25/3 | 35/5 | 35/3 | 8/3 |
Statlog (Heart) | 6/1 | 6/5 | 05/3 | 3/5 | 05/2 | 4/3 |
Wine | 3/1 | 55/5 | 35/2 | 45/5 | 2/3 | 15/3 |
Glass | 3/1 | 65/5 | 6/2 | 85/4 | 9/2 | 7/3 |
Zoo | 05/1 | 7/5 | 95/2 | 3/5 | 8/2 | 2/3 |
Solar | 1 | 6 | 05/3 | 8/4 | 3/2 | 85/3 |
Tae | 4/2 | 25/4 | 4/2 | 85/3 | 4/3 | 7/4 |
PenglungEW | 05/1 | 6/5 | 15/2 | 4/5 | 95/2 | 85/3 |
Parkinson Disease | 8/1 | 75/5 | 25/2 | 55/4 | 8/2 | 85/3 |
Ecoli | 35/1 | 4/5 | 05/2 | 5/5 | 6/3 | 1/3 |
Vehicle | 2/1 | 8/5 | 15/2 | 2/5 | 15/3 | 5/3 |
Sum | 05/22 | 6/68 | 35/40 | 75/71 | 9/39 | 35/51 |
Rank | 1 | 5 | 3 | 6 | 2 | 4 |
اساس میانگین معیار ، روی تمام مجموعه دادگان مقایسه گردیدهاند. در این شکل الگوریتم پیشنهادی بهترین نتیجه را به دست آورده و با اختلاف زیادی، الگوریتم بهینهسازی ازدحام ذرات در رتبه دوم است. مطابق این شکل، الگوریتم گرگ خاکستری عملکرد ضعیفتری نسبت به همه الگوریتمها بر اساس معیار داشته و اختلاف آن با الگوریتم پیشنهادی بسیار قابل توجه (304/16%) است.
جدول 6، نتایج حاصل از آزمون فریدمن را بر اساس درصد خطای دستهبندی نشان میدهد. مقادیر کمتر در این جدول بهتر هستند. آزمون فریدمن، آزمونی ناپارامتری آماری برای مقایسه میانگین رتبهها در گروهها است [51]. از روی رتبهبندی این جدول، الگوریتم پیشنهادی بهترین نتایج را نشان میدهد و در ردههای بعدی، الگوریتم ارگانیسمهای همزیست و ازدحام ذرات قرار دارند.
در جدول 7، کارایی الگوریتم پیشنهادی GWO-C4 روی مسأله خوشهبندی با عملکرد الگوریتم گرگ خاکستری و چند نسخه بهبودیافته الگوریتم بهینهسازی گرگ خاکستری نظیر AGWO [45]، EEGWO [46]، EGWO [47] و G-NHGWO [48] مقایسه گردیده است.
این الگوریتمها برای مسأله خوشهبندی به ترتیب AGWO-C [45]، EEGWO-C [46]، EGWO-C [47] و G-NHGWO-C نامیده
جدول 7: نتایج حاصل از اجرای الگوریتم روی مجموعه دادگان.
Metric Algorithm | Dataset | MCR | STD | Precision | F-Measure | Dataset | MCR | STD | Precision | F-Measure |
GWO-C4 | Iris | %933/0 | 0034/0 | %080/99 | %073/99 | Zoo | %881/1 | 0158/0 | %137/96 | %440/95 |
GWO-C | %133/1 | 0032/0 | %886/98 | %876/98 | %683/21 | 0348/0 | %005/48 | %171/51 | ||
G-NHGWO-C | %000/1 | 0035/0 | %017/99 | %008/99 | %465/23 | 0412/0 | %797/40 | %809/44 | ||
AGWO-C | %400/1 | 0058/0 | %649/98 | %625/98 | %356/24 | 0317/0 | %335/45 | %770/47 | ||
EGWO-C | %267/1 | 0066/0 | %780/98 | %757/98 | %059/4 | 0282/0 | %944/91 | %006/91 | ||
EEGWO-C | %533/4 | 0166/0 | %613/95 | %540/95 | %654/24 | 0226/0 | %037/45 | %376/48 | ||
GWO-C4 | Breast Cancer Wisconsin | %947/1 | 0012/0 | %545/97 | %892/97 | Solar | %010/11 | 0119/0 | %285/89 | %058/89 |
GWO-C | %123/2 | 0021/0 | %253/97 | %721/97 | %221/28 | 0249/0 | %206/72 | %872/71 | ||
G-NHGWO-C | %182/2 | 0018/0 | %177/97 | %660/97 | %212/27 | 0275/0 | %690/73 | %093/73 | ||
AGWO-C | %167/2 | 0023/0 | %254/97 | %662/97 | %789/27 | 0200/0 | %621/72 | %281/72 | ||
EGWO-C | %050/2 | 0014/0 | %410/97 | %785/97 | %462/13 | 0263/0 | %922/86 | %675/86 | ||
EEGWO-C | %987/2 | 0035/0 | %469/96 | %752/96 | %221/28 | 0236/0 | %419/73 | %528/72 | ||
GWO-C4 | Balance scale | %768/14 | 0144/0 | %804/70 | %250/71 | Tae | %272/39 | 0214/0 | %476/63 | %269/62 |
GWO-C | %656/16 | 0171/0 | %216/69 | %910/69 | %510/43 | 0502/0 | %367/57 | %864/56 | ||
G-NHGWO-C | %680/15 | 0233/0 | %241/70 | %105/71 | %053/42 | 0384/0 | %310/61 | %747/59 | ||
AGWO-C | %952/17 | 0150/0 | %457/68 | %285/69 | %576/43 | 0381/0 | %783/56 | %577/56 | ||
EGWO-C | %408/15 | 0177/0 | %625/70 | %505/71 | %391/41 | 0185/0 | %003/63 | %970/60 | ||
EEGWO-C | %808/35 | 0368/0 | %526/63 | %273/62 | %623/46 | 0144/0 | %215/57 | %440/55 | ||
GWO-C4 | Seeds | %619/3 | 0096/0 | %547/96 | %464/96 | PenglungEW | %301/6 | 0196/0 | %247/93 | %581/92 |
GWO-C | %429/7 | 0503/0 | %720/92 | %645/92 | %877/52 | 0429/0 | %932/44 | %946/47 | ||
G-NHGWO-C | %381/5 | 0246/0 | %753/94 | %686/94 | %616/55 | 0513/0 | %895/41 | %357/44 | ||
AGWO-C | %429/12 | 0592/0 | %333/88 | %948/87 | %164/56 | 0296/0 | %299/40 | %802/44 | ||
EGWO-C | %190/5 | 0308/0 | %922/94 | %866/94 | %233/11 | 0370/0 | %302/88 | %855/87 | ||
EEGWO-C | %524/24 | 0928/0 | %983/77 | %482/76 | %219/58 | 0453/0 | %714/44 | %121/45 | ||
GWO-C4 | Statlog (Heart) | %296/11 | 0073/0 | %144/89 | %622/88 | Parkinson | %179/9 | 0066/0 | %058/94 | %404/87 |
GWO-C | %778/15 | 0198/0 | %798/84 | %122/84 | %359/14 | 0214/0 | %496/83 | %118/80 | ||
G-NHGWO-C | %370/16 | 0225/0 | %812/83 | %453/83 | %308/14 | 0239/0 | %954/83 | %677/80 | ||
AGWO-C | %852/17 | 0270/0 | %388/82 | %118/82 | %821/14 | 0226/0 | %893/81 | %789/79 | ||
EGWO-C | %519/11 | 0041/0 | %902/88 | %381/88 | %744/9 | 0100/0 | %589/93 | %578/86 | ||
EEGWO-C | %482/18 | 0126/0 | %480/81 | %297/81 | %513/12 | 0111/0 | %590/87 | %253/82 | ||
GWO-C4 | Wine | %393/0 | 0060/0 | %615/99 | %638/99 | Ecoli | %125/13 | 0287/0 | %732/66 | %431/66 |
GWO-C | %472/12 | 0584/0 | %183/88 | %797/87 | %577/31 | 0316/0 | %360/24 | %519/27 | ||
G-NHGWO-C | %618/15 | 0735/0 | %070/83 | %497/83 | %375/29 | 0408/0 | %477/28 | %324/32 | ||
AGWO-C | %023/12 | 0739/0 | %941/88 | %589/88 | %042/31 | 0421/0 | %894/27 | %084/31 | ||
EGWO-C | %449/0 | 0058/0 | %542/99 | %572/99 | %655/15 | 0352/0 | %142/69 | %984/66 | ||
EEGWO-C | %876/18 | 0585/0 | %504/84 | %031/83 | %512/33 | 0081/0 | %020/27 | %640/29 | ||
GWO-C4 | Glass | %252/34 | 0378/0 | %842/41 | %111/43 | Vehicle | %603/35 | 0366/0 | %383/58 | %169/61 |
GWO-C | %916/46 | 0077/0 | %918/21 | %902/22 | %530/57 | 0288/0 | %898/26 | %694/32 | ||
G-NHGWO-C | %168/46 | 0281/0 | %156/20 | %566/22 | %234/52 | 0615/0 | %612/29 | %487/36 | ||
AGWO-C | %243/47 | 0109/0 | %010/19 | %426/20 | %634/54 | 0240/0 | %980/26 | %858/33 | ||
EGWO-C | %009/37 | 0448/0 | %755/38 | %541/39 | %813/37 | 0281/0 | %563/55 | %702/58 | ||
EEGWO-C | %290/47 | 0128/0 | %010/23 | %515/24 | %910/55 | 0288/0 | %927/35 | %487/39 |
میشوند و روی مجموعه دادگان جدول 3 با یکدیگر به رقابت میپردازند. همان گونه که در جدول 7 مشخص است الگوریتم پیشنهادی، نتایج بهتری را در این جدول در مقایسه با سایر الگوریتمها نشان میدهد. روش پیشنهادی در مجموعه دادگانی چون Zoo و PenglungEW با اختلاف زیادی، عملکرد بهتری از نظر معیارهای مورد مقایسه دارد. در این مجموعه دادگان روش پیشنهادی به ترتیب دقتی برابر با 137/96% و 247/93% نشان میدهد، در صورتی که الگوریتم EGWO-C که در رتبه بعدی قرار دارد، به ترتیب دقتی برابر با 994/91% و 302/88% روی این مجموعه دادگان نشان میدهد. تعداد مراکز خوشه در این مجموعه دادگان 7 میباشد که غیر از روش پیشنهادی و EGWO-C، سایر الگوریتمهای بهبودیافته گرگ نتوانستهاند نتایج قابل قبولی را ارائه دهند و دقتی زیر 50% داشتهاند. در بین نسخههای مورد مقایسه، الگوریتم EEGWO-C
شکل 8: نتایج الگوریتمهای بهبودیافته گرگ خاکستری بر اساس میانگین معیار روی تمام مجموعه دادگان.
ضعیفترین عملکرد را دارد. این عملکرد ضعیف در خطای به دست آمده روی مجموعه دادگان Seeds و Balance scale بسیار قابل توجه است.
شکل 8، نتایج الگوریتمهای بهبودیافته گرگ خاکستری را روی تمام مجموعه دادگان بر اساس میانگین معیار نشان میدهد. در این شکل، الگوریتم پیشنهادی چهارگرگ بهترین نتیجه را به دست آورده و الگوریتم EGWO در رتبه دوم قرار دارد. بر اساس این شکل، الگوریتم EEGWO بدترین عملکرد را نسبت به سایر الگوریتمهای بهبودیافته گرگ خاکستری در معیار دارد. در کل، سایر نسخههای الگوریتم گرگ خاکستری یعنی AGWO و G-NHGWO نیز کارایی خوبی ندارند.
5- نتیجهگیری و تحقیقات آینده
در این تحقیق، ابتدا به منظور حل مشکل همگرایی زودرس و گرفتارشدن در بهینه محلی توسط الگوریتم بهینهسازی گرگ خاکستری، الگوریتم بهبودیافتهای ارائه شد. الگوریتم پیشنهادی بر روی مسأله خوشهبندی پیادهسازی گردید و نتایج خوشهبندی با الگوریتم پیشنهادی با الگوریتمهایی از جمله الگوریتم گرگ خاکستری، الگوریتم زنبور عسل مصنوعی، الگوریتم ارگانیسمهای همزیست، الگوریتم سالپ و چند نسخه بهبودیافته از الگوریتم گرگ خاکستری بر اساس درصد طبقهبندی نادرست (خطا)، انحراف معیار، دقت و معیار با یکدیگر مقایسه شدهاند. در مسأله خوشهبندی، مجموعه دادگان چالشی با تعداد مراکز خوشه زیاد و دادههای نامتوازن استفاده شد. نتایج جداول، نمودارها و همچنین آزمون فریدمن نشاندهنده عملکرد بسیار خوب الگوریتم پیشنهادی میباشد. الگوریتم پیشنهادی، قابلیت اکتشاف و توانایی فرار از بهینههای محلی را در الگوریتم گرگ خاکستری بهبود داده و همچنین عملکردی بهتر از الگوریتم مورد مقایسه نشان میدهد.
هرچند الگوریتم پیشنهادی دارای عملکرد بالایی در مسأله خوشهبندی است، میتوان در جهت گسترش این تحقیق در خصوص راهکارهای آینده به مواردی اشاره کرد از جمله: ارزیابی عملکرد الگوریتم پیشنهادی GWO4 در سایر مسایل بهینهسازی، استفاده از روش پیشنهادی در خوشهبندی و ترکیب آن با طبقهبندی برای آموزش نیمهنظارتی در مجموعه دادگان نامتوازن، استفاده از الگوریتم پیشنهادی در هسته بسیاری از روشهایی که نیاز به خوشهبندی دادهها دارند و یا الگوریتمهایی مانند الگوریتم فاخته که در هسته خود از خوشهبندی استفاده میکنند، استفاده از روابط روش پیشنهادی برای بهبود الگوریتم گرگ خاکستری در سایر الگوریتمهای فراابتکاری و ارزیابی عملکرد آنها و پیادهسازی الگوریتم دودویی و چندهدفه از الگوریتم GWO4.
مراجع
[1] M. Jafarzadegan, F. Safi-Esfahani, and Z. Beheshti, "Combining hierarchical clustering approaches using the PCA method," Expert Syst. Appl., vol. 137, pp. 1-10, Dec 2019.
[2] J. Han, J. Pei, and M. Kamber, Data Mining: Concepts and Techniques, Elsevier, 2011.
[3] D. J. Hand, "Principles of data mining," Drug Saf., vol. 30, no. 7,
pp. 621-622, Jul. 2007.
[4] D. T. Dinh and V. N. Huynh, "k-PbC: an improved cluster center initialization for categorical data clustering," Appl. Intell., vol. 50, no. 8, pp. 2610-2632, Aug. 2020.
[5] R. Xu and D. Wunsch, "Survey of clustering algorithms," IEEE Trans. Neural Networks, vol. 16, no. 3, pp. 645-678, May 2005.
[6] Z. Beheshti, "A novel x-shaped binary particle swarm optimization," Soft Comput., vol. 25, no. 4, pp. 3013-3042, Feb. 2021.
[7] Z. Beheshti, "UTF: upgrade transfer function for binary meta-heuristic algorithms," Appl. Soft Comput., vol. 106, Article ID: 107346, 28 pp., Jul. 2021.
[8] R. Salgotra, U. Singh, S. Singh, G. Singh, and N. Mittal, "Self-adaptive salp swarm algorithm for engineering optimization problems," Appl. Math. Model., vol. 89, pp. 188-207, Jul. 2021.
[9] Z. Beheshti, "BMNABC: binary multi-neighborhood artificial bee colony for high-dimensional discrete optimization problems," Cybern. Syst., vol. 49, no. 7-8, pp. 452-474, Nov. 2018.
[10] Z. Beheshti, S. M. Shamsuddin, S. Hasan, and N. E. Wong, "Improved centripetal accelerated particle swarm optimization," Int. J. Adv. Soft Comput. its Appl., vol. 8, no. 2, pp. 1-26, Jul. 2016.
[11] I. Aljarah, M. Mafarja, A. A. Heidari, H. Faris, and S. Mirjalili, "Clustering analysis using a novel locality-informed grey wolf-inspired clustering approach," Knowl. Inf. Syst., vol. 62, no. 2, pp. 507-539, Feb. 2020.
[12] H. D. Menendez, F. E. B. Otero, and D. Camacho, "Medoid-based clustering using ant colony optimization," Swarm Intell., vol. 10,
no. 2, pp. 123-145, Jul. 2016.
[13] P. Das, D. K. Das, and S. Dey, "A modified bee colony optimization (MBCO) and its hybridization with k-means for an application to data clustering," Appl. Soft Comput., vol. 70, pp. 590-603, Sept. 2018.
[14] R. J. Kuo and F. E. Zulvia, "An improved differential evolution
with cluster decomposition algorithm for automatic clustering," Soft Comput., vol. 23, no. 18, pp. 8957-8973, Sept. 2019.
[15] T. Ashish, S. Kapil, and B. Manju, "Parallel bat algorithm-based clustering using mapreduce," In: G. Perez, K. Mishra, S. Tiwari, and M. Trivedi (eds), Networking Communication and Data Knowledge Engineering, Lecture Notes on Data Engineering and Communications Technologies, vol 4. Springer, pp. 73-82, 2018.
[16] O. Tarkhaneh, A. Isazadeh, and H. J. Khamnei, "A new hybrid strategy for data clustering using cuckoo search based on Mantegna levy distribution, PSO and k-means," Int. J. Comput. Appl. Technol., vol. 58, no. 2, pp. 137-149, Jan. 2018.
[17] H. A. Abdulwahab, A. Noraziah, A. A. Alsewari, and S. Q. Salih, "An enhanced version of black hole algorithm via levy flight for optimization and data clustering problems," IEEE Access, vol. 7, pp. 142085-142096, Aug. 2019.
[18] K. W. Huang, Z. X. Wu, H. W. Peng, M. C. Tsai, Y. C. Hung, and Y. C. Lu, "Memetic particle gravitation optimization algorithm for solving clustering problems," IEEE Access, vol. 7, pp. 80950-80968, Jan. 2019.
[19] H. Yu, Z. Chang, G. Wang, and X. Chen, "An efficient three-way clustering algorithm based on gravitational search," Int. J. Mach. Learn. Cybern., vol. 11, no. 5, pp. 1003-1016, May 2020.
[20] A. Kaur, S. K. Pal, and A. P. Singh, "Hybridization of chaos and flower pollination algorithm over K-means for data clustering," Appl. Soft Comput., vol. 97, Article ID: 105523, 17 pp., Dec. 2019.
[21] Y. Zhou, H. Wu, Q. Luo, and M. Abdel-Baset, "Automatic data clustering using nature-inspired symbiotic organism search algorithm," Knowledge-Based Syst., vol. 163, pp. 546-557, Jan. 2019.
[22] G. Drakopoulos, et al., "A genetic algorithm for spatiosocial tensor clustering," Evol. Syst., vol. 11, no. 3, pp. 1-11, Sept. 2019.
[23] M. Alswaitti, M. Albughdadi, and N. A. M. Isa, "Density-based particle swarm optimization algorithm for data clustering," Expert Syst. Appl., vol. 91, pp. 170-186, Jan. 2018.
[24] J. Chen, X. Qi, L. Chen, F. Chen, and G. Cheng, "Quantum-inspired ant lion optimized hybrid k-means for cluster analysis and intrusion detection," Knowledge-Based Syst., vol. 203, Article ID: 106167, 10 pp., Sept. 2020.
[25] L. M. Abualigah, A. T. Khader, E. S. Hanandeh, and A. H. Gandomi, "A novel hybridization strategy for krill herd algorithm applied to clustering techniques," Appl. Soft Comput., vol. 60, pp. 423-435, Nov. 2017.
[26] M. Demri, S. Ferouhat, S. Zakaria, and M. E. Barmati, "A hybrid approach for optimal clustering in wireless sensor networks using cuckoo search and simulated annealing algorithms," in Proc. 2nd Int. Conf. on Mathematics and Information Technology, ICMIT’20, pp. 202-207, Adrar, Algeria, 18-19 Feb. 2020.
[27] S. Gavel, P. Joshi, S. Tiwari, and A. S. Raghuvanshi, "An optimized hybrid clustering method using salp swarm optimization with K-means," In: V. Nath and J. Mandal (eds) Nanoelectronics, Circuits and Communication Systems. Nanoelectronics, Circuits and Communication Systems, Lecture Notes in Electrical Engineering, vol. 692, Springer, pp. 247-254, 2020.
[28] S. K. Majhi, "Fuzzy clustering algorithm based on modified whale optimization algorithm for automobile insurance fraud detection," Evol. Intell., vol. 14, no. 1, pp. 35-46, 2021.
[29] E. Rashedi, H. Nezamabadipour, and S. Saryazdi, "GSA: a gravitational search algorithm," Inf. Sci. (Ny), vol. 179, no. 13, pp. 2232-2248, Jan. 2009.
[30] S. Mirjalili, S. M. Mirjalili, and A. Lewis, "Grey wolf optimizer," Adv. Eng. Softw., vol. 69, pp. 46-61, 2014.
[31] G. P. Gupta and S. Jha, "Integrated clustering and routing protocol for wireless sensor networks using Cuckoo and Harmony Search based metaheuristic techniques," Eng. Appl. Artif. Intell., vol. 68, pp. 101-109, Feb. 2018.
[32] G. P. Gupta and B. Saha, "Load balanced clustering scheme using hybrid metaheuristic technique for mobile sink based wireless sensor networks," J. Ambient Intell. Humaniz. Comput., 12 pp., Apr. 2020. (in Press)
[33] M. Shakil, A. Fuad Yousif Mohammed, R. Arul, A. K. Bashir, and J. K. Choi, "A novel dynamic framework to detect DDoS in SDN using metaheuristic clustering," Trans. Emerg. Telecommun. Technol., 12 pp., Apr. 2019. (in Press)
[34] R. J. Kuo, T. C. Lin, F. E. Zulvia, and C. Y. Tsai, "A hybrid metaheuristic and kernel intuitionistic fuzzy c-means algorithm for cluster analysis," Appl. Soft Comput., vol. 67, pp. 299-308, Jan. 2018.
[35] A. Kaur and Y. Kumar, "A new metaheuristic algorithm based on water wave optimization for data clustering," Evol. Intell., 12 pp., Jan. 2021.
[36] M. Ghobaei-Arani and A. Shahidinejad, "An efficient resource provisioning approach for analyzing cloud workloads: a metaheuristic-based clustering approach," J. Supercomput., vol. 77, no. 1, pp. 711-750, 2021.
[37] ح. املشی و ی. بستانی املشی، "روشی جدید به منظور خوشهبندی دادههای سرعت باد در نیروگاههای بادی با استفاده از الگوریتمهای FCM و PSO،" نشریه مهندسی برق و مهندسی کامپیوتر ایران، سال 8، شماره 3، صص. 214-210، پاییز 1389.
[38] م. ع. نژاد و م. خرد، "استفاده از خوشهبندی BIRCH و الگوریتم بهینهسازی واکنش شیمیایی جهت کشف تقلب در حوزه سلامت،" نشریه مهندسی برق و مهندسی کامپیوتر ایران، ب- مهندسی کامپیوتر، سال 17، شماره 2،
صص. 160-153، تابستان 1398.
[39] م. یقینی و ج. لسان، "حل مسأله خوشهبندی ظرفیتدار با استفاده از روشهای مبتنی بر الگوریتمهای شبیهسازی تبریدی و ژنتیک،" نشریه بینالمللی مهندسی صنایع و مدیریت تولید، دوره 21، شماره 3، صص. 54-45، پاییز 1389.
[40] ع. فهمی جعفرقلخانلو و م. شمسی، "بخشبندی تصاویر رنگی چهره مبتنی بر خوشهبند فازی بهینهسازی شده با الگوریتمهای گرگ خاکستری و نهنگ،" مجله علمی رایانش نرم و فناوری اطلاعات، دوره 10، شماره 2، صص. 13-1، تیر 1400.
[41] Y. Li, X. Lin, and J. Liu, "An improved gray wolf optimization algorithm to solve engineering problems," Sustainability, vol. 13,
no. 6, Article ID: 3208, 23 pp., 15 Mar. 2021.
[42] M. Kohli and S. Arora, "Chaotic grey wolf optimization algorithm for constrained optimization problems," J. Comput. Des. Eng., vol. 5, no. 4, pp. 458-472, Oct. 2018.
[43] Z. Yue, S. Zhang, and W. Xiao, "A novel hybrid algorithm based on grey wolf optimizer and fireworks algorithm," Sensors, vol. 20,
no. 7, Article ID: 2147, 17 pp., Jan. 2020.
[44] ع. محمدزاده، م. مصدری، ف. سلیمانیان قرهچپق و ا. جعفریان، " ارائه یک الگوریتم بهبودیافته بهینه سازی گرگ های خاکستری برای زمانبندی جریان کار در محیط محاسبات ابری،" مجله علمی رایانش نرم و فناوری اطلاعات، دوره 8، شماره 4، صص. 29-17، بهمن 1398.
[45] W. Long, J. Jiao, X. Liang, and M. Tang, "An exploration-enhanced grey wolf optimizer to solve high-dimensional numerical optimization," Eng. Appl. Artif. Intell., vol. 68, pp. 63-80, Feb. 2018.
[46] M. H. Qais, H. M. Hasanien, and S. Alghuwainem, "Augmented grey wolf optimizer for grid-connected PMSG-based wind energy conversion systems," Appl. Soft Comput., vol. 69, pp. 504-515, Aug. 2018.
[47] K. Luo, "Enhanced grey wolf optimizer with a model for dynamically estimating the location of the prey," Appl. Soft Comput., vol. 77, no. ???, pp. 225-235, Apr. 2019.
[48] E. Akbari, A. Rahimnejad, and S. A. Gadsden, "A greedy non‐hierarchical grey wolf optimizer for real‐world optimization," Electron. Lett., vol. 57, no. 13, pp. 499-501, Jan. 2021.
[49] A. Bahrololoum, H. Nezamabadipour, and S. Saryazdi, "A data clustering approach based on universal gravity rule," Eng. Appl. Artif. Intell., vol. 45, pp. 415-428, Oct. 2015.
[50] D. Dua and C. Graff, {UCI} Machine Learning Repository, 2017.
[51] J. Derrac, S. Garcia, D. Molina, and F. Herrera, "A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms," Swarm Evol. Comput., vol. 1, no. 1, pp. 3-18, Mar. 2011.
لاله عجمی بختیاروند تحصیلات کارشناسی و کارشناسی ارشد خود را در رشته مهندسی کامپیوتر گرایش نرم افزار در دانشگاه آزاد اسلامی واحد نجف آباد به پایان رساند. زمینههای پژوهشی مورد علاقه وی، محاسبات نرم، الگوریتمهای فراابتکاری و داده کاوی میباشد.
زهرا بهشتی تحصیلات دکتری و پسا دکتری خود را در رشته علوم کامپیوتر گرایش هوش مصنوعی در دانشگاه تکنولوژی مالزی به پایان رساند و هماکنون عضو هیات علمی دانشکده مهندسی کامپیوتر، دانشگاه آزاد اسلامی واحد نجف آباد میباشد. وی بر اساس اطلاعات و آمار محققان دانشگاه استنفورد، با در نظر گرفتن شاخصهای استنادی استاندارد، در فهرست دانشمندان دو درصد برتر جهان، در سال ۲۰۲0 قرار گرفت.
زمینههای پژوهشی مورد علاقه ایشان، الگوریتم های فراابتکاری، یادگیری ماشین، داده کاوی و تحلیل کلان داده میباشد.