• فهرس المقالات EGM

      • حرية الوصول المقاله

        1 - تکنیک های داده‌کاوی در سهمیه‌بندی مناطق برای کنکور
        نرجس سرعتی آَشتیانی سمیه علیزاده علی  مبصّـری
        تعداد زیادی از فارغ‌التحصیلان دبیرستان‌ها در سیستم آموزشی ایران خواهان ورود به دانشگاه‌ها می‌باشند و رقابت اصلی برای ورود به مراکز دانشگاهی معتبر می‌باشد. از سویی دیگر تسهیلات آموزشی، بهداشتی و ... در تمامی شهرها توزیعی مناسب ندارند. مدیران سازمان‌های ذیربط، تخصیص سهمیه أکثر
        تعداد زیادی از فارغ‌التحصیلان دبیرستان‌ها در سیستم آموزشی ایران خواهان ورود به دانشگاه‌ها می‌باشند و رقابت اصلی برای ورود به مراکز دانشگاهی معتبر می‌باشد. از سویی دیگر تسهیلات آموزشی، بهداشتی و ... در تمامی شهرها توزیعی مناسب ندارند. مدیران سازمان‌های ذیربط، تخصیص سهمیه را راه‌کاری مناسب برای حل این مسأله می‌دانند و به دنبال استفاده از دانش نهفته در داده‌های موجود در این حوزه هستند. با منطقه‌بندی کلیه بخش‌های کشور، داوطلبان هر منطقه با هم مقایسه می‌شوند و در واقع با این روش از اینکه درصد پذیرفته‌شدگان یک شهر چند برابر شهر دیگری باشد، جلوگیری می‌شود. تعیین میزان سهمیه کنکور برای بخش‌های کشور در سال های اخیر، برمبنای میزان توسعه‌یافتگی مناطق با استفاده از روش تاکسونومی صورت گرفته است که خروجی حاصل از این روش نوعی رتبه‌بندی مناطق می‌باشد که در آن امکان تحلیل گروهی مناطق وجود ندارد، همچنین تعداد مناطق بصورت نظری تعیین می شود. برای رفع این مسائل بخش‌بندی می‌تواند به عنوان یک راهکار مناسب مورد استفاده قرار گیرد. تحقیق حاضر برای اولین بار در حوزه توسعه‌یافتگی، با استفاده از تکنیک‌های داده‌کاوی و روش کریسپ و در قالب متدولوژی پیشنهادی، بر روی داده‌های مرتبط، در وزارت آموزش‌ و پرورش، وزارت کشور، وزارت بهداشت و درمان، مرکز آمار و سازمان سنجش، صورت گرفته است. پس از شناسایی استانداردها و شاخص‌های اثرگذار در این زمینه، آماده‌سازی داده‌ها انجام شده و به ساخت انباره‌داده و ترکیب شاخص‌ها جهت استخراج عوامل جدید پرداخته شده است. در گام بعدی با بکارگیری الگوریتم K-means بخش‌های شبیه به هم در خوشه‌های مربوطه قرار گرفته و سپس با استفاده از روش پیش‌بینی شبکه های عصبی و درخت تصمیم امکان اختصاص بخش‌های جدید به هر کلاس (خوشه‌های ایجاد شده) فراهم شده و جهت ارزیابی مدل‌های ایجاد شده، دقت خروجی با سایر روش‌ها مقایسه شده است. دستاوردهای این تحقیق عبارتند از: تعیین تعداد بهینه بخش‌ها، بخش‌بندی مناطق، تحلیل هر بخش، استخراج قواعد تصمیم‌گیری، امکان پیش‌بینی سریع‌تر و دقیق‌تر برچسب کلاس برای مناطق جدید، فراهم نمودن امکان تدوین راهبرد‌های مناسب برای هر بخش. تفاصيل المقالة
      • حرية الوصول المقاله

        2 - پردازش تصاویر ورق های فولادی به منظور آشکارسازی عیوب به کمک موجک گابور
        مسعود شفیعی مصطفی  صادقی
        در مراحل مختلف تولید فولاد، خرابی‌هایی متعددی بر سطح ورق ظاهر می‌شود. صرف نظر از دلایل ایجاد خرابی‌ها، تشخیص دقیق انواع آن‌ها به طبقه بندی صحیح ورق فولاد کمک می‌کند و در نتیجه در صد بالایی از فرآیند کنترل کیفیت را به خود اختصاص می‌دهد. کنترل کیفیت ورق‌های فولادی به‌منظو أکثر
        در مراحل مختلف تولید فولاد، خرابی‌هایی متعددی بر سطح ورق ظاهر می‌شود. صرف نظر از دلایل ایجاد خرابی‌ها، تشخیص دقیق انواع آن‌ها به طبقه بندی صحیح ورق فولاد کمک می‌کند و در نتیجه در صد بالایی از فرآیند کنترل کیفیت را به خود اختصاص می‌دهد. کنترل کیفیت ورق‌های فولادی به‌منظور بهبود کیفیت محصول و حفظ بازار رقابتی از اهمیت بالایی برخوردار می‌باشد. در این مقاله ضمن بررسی اجمالی تکنیک‌های پردازش تصویر مورد استفاده، با به‌کارگیری پردازش تصویر به کمک موجک گابور دو بعدی راه حل سریع و با دقت بالا برای آشکار سازی عیوب بافتی ورق‌های فولادی ارائه شده است. در ابتدا با استفاده از موجک گابور ویژگی‌های بافتی قابل توجهی را از تصاویر استخراج می‌کند که هم دربرگیرنده‌ی جهات مختلف و هم فرکانس‌های مختلف می‌باشد. سپس با استفاده از روش آماری،تصاویری که دربردارنده ی عیوب به طور واضح‌تری هستند انتخاب شده و محل وقوع عیب تعیین می‌گردد. با ارائه‌ی نمونه‌های آزمایشی میزان دقت و سرعت عمل روش به‌کار گرفته شده نشان داده شده است. تفاصيل المقالة
      • حرية الوصول المقاله

        3 - تحلیل تاریخی روند نهادسازی در حوزه سیاست¬گذاری علم و فناوری ایران
        سید کمال واعظی مهرشاد جواهردشتی
        این پژوهش به تحلیل نهادسازی هایی که برای سیاست گذاری علم و فناوری در جمهوری اسلامی ایران از دوران پهلوی(پهلوی اول و دوم) تا کنون انجام شده است پرداخته است. نهاد هایی که در طول این دوره ایجاد شده اند و وظایف و اختیارات آنها به طور خلاصه ذکر شده اند و رویکرد ها یی از جم أکثر
        این پژوهش به تحلیل نهادسازی هایی که برای سیاست گذاری علم و فناوری در جمهوری اسلامی ایران از دوران پهلوی(پهلوی اول و دوم) تا کنون انجام شده است پرداخته است. نهاد هایی که در طول این دوره ایجاد شده اند و وظایف و اختیارات آنها به طور خلاصه ذکر شده اند و رویکرد ها یی از جمله نوسازی و مدرنیزاسیون در دوران پهلوی ها ، باز تعریف ارزش ها و ارزش آفرینی های مبتنی بر شاخص های اسلامی در دوره بعد از انقلاب 1357، که منشاء نهاد سازی های دوران مربوط به خود بوده اند، با استفاده از روش تاریخی(شرایط محیطی حاکم)و گروه کانونی، این روند مورد تحلیل قرار گرفته ودر بخش پایانی نیز در قالب نتیجه گیری، توصیه های سیاستی که از این تحلیل بدست آمده است از قبیل ادغام بعضی از نهاد ها، تعیین مکانیزم وحدت عین تکثرنهاد های سیاست گذار و مجری، هماهنگی استراتژیک عمودی و افقی بین برنامه و اسناد کلان این حوزه و نهایتاً پیشنهادهای کاربردی و پیشنهادهایی برای پژوهش های آتی ارائه شده است. تفاصيل المقالة
      • حرية الوصول المقاله

        4 - بخش‌بندي تصاوير رنگي بيروني به هدف تشخيص اشياء به كمك هيستوگرام با دقت دوگانه
        جواد  راستي سید امیرحسن منجمی عباس  وفایی
        يكي از مسايل مهم در پردازش خودكار تصاوير بيروني، نحوه بخش‌بندي اين تصاوير به هدف تشخيص شيء در آنها مي‌باشد. مشخصات خاص اين تصاوير از جمله تنوع رنگ، اثرات نوري متفاوت، وجود سايه‌هاي رنگي، جزييات بافتي زياد و وجود اشياء كوچك و ناهمگن باعث مي‌شود مسأله بخش‌بندي تصاوير بيرو أکثر
        يكي از مسايل مهم در پردازش خودكار تصاوير بيروني، نحوه بخش‌بندي اين تصاوير به هدف تشخيص شيء در آنها مي‌باشد. مشخصات خاص اين تصاوير از جمله تنوع رنگ، اثرات نوري متفاوت، وجود سايه‌هاي رنگي، جزييات بافتي زياد و وجود اشياء كوچك و ناهمگن باعث مي‌شود مسأله بخش‌بندي تصاوير بيروني به ويژه بخش‌بندي رنگي با چالش‌هاي جدي مواجه شود. در تحقيقات قبليبراي خوشه‌بندي رنگي تصاوير بيروني به هدف بخش‌بندي ابتدايي، روشي مبتني بر الگوريتم خوشه‌بندي k-means در بستري با دقت چندگانه پيشنهاد شده بود.اين روش با استفاده از محو عمدي جزييات بافتي تصوير و حذف كلاسهاي محرز در تصاوير محو شده و سپس اضافه كردن كلاسها در تصاوير با دقت بالاتر، كارايي مناسبي براي بخش‌بندي ابتدايي اين تصاوير در مقايسه با روش k-means عادي نشان مي‌داد.در اين مقاله، يك روش تطبيق‌پذير با تصوير با استفاده از هيستوگرام حلقوي ته‌رنگ براي تشخيص كلاس‌هاي محرز در تصاوير محوشده در بستري با دقت دوگانه پيشنهاد گرديده است.كارايي اين الگوريتم به كمك يك روش ارزيابينظارت‌شده روي دو پايگاه داده از تصاوير بيروني بررسي شده كه حدود 20% كاهش خطاي پيكسلي در بخش‌بندي و نيز دقت و حدود 30% سرعت بيشتر در همگرايي الگوريتم خوشه‌بندي، نشانگر كيفيت بالاتر روش پيشنهادي نسبت به روش عادي است. تفاصيل المقالة
      • حرية الوصول المقاله

        5 - ارائه روشی برای بخش‌بندي مشتريان با استفاده از مدل RFM در شرایط عدم قطعیت
        محمدرضا غلامیان عظیمه مظفری
        هدف از انجام اين پژوهش ارائه روشی برای بخش‌بندی مشتریان یکی از بانک‌های خصوصی شهر شیراز بر مبنای مدل RFM در شرایط عدم قطعیت داده‌های مربوط به مشتریان است. در چارچوب پيشنهادي اين پژوهش ابتدا مقادير شاخص‌هاي مدل RFM شامل تازگي مبادله (R)، تعداد دفعات مبادله (F) و ارزش پول أکثر
        هدف از انجام اين پژوهش ارائه روشی برای بخش‌بندی مشتریان یکی از بانک‌های خصوصی شهر شیراز بر مبنای مدل RFM در شرایط عدم قطعیت داده‌های مربوط به مشتریان است. در چارچوب پيشنهادي اين پژوهش ابتدا مقادير شاخص‌هاي مدل RFM شامل تازگي مبادله (R)، تعداد دفعات مبادله (F) و ارزش پولي مبادله (M) از پایگاه داده مشتریان استخراج و پیش‌پردازش شدند. با توجه به گستردگی دامنه داده‌های مذکور، برای تعیین وضعیت خوب یا بد بودن مشتری نمی‌توان عدد دقیقی تعیین نمود؛ لذا برای از بین بردن این عدم قطعیت، از تئوری اعداد خاکستری استفاده شد که وضعیت مشتری را به صورت یک بازه در نظر می‌گیرد. به این ترتیب با استفاده از یک روش متفاوت به بخش‌بندی مشتريان بانک پرداخته شد که طبق نتایج، مشتریان به سه بخش یا خوشه اصلی تحت عنوان مشتریان خوب، معمولی و بد تفکیک شدند. پس از اعتبارسنجی خوشه‌ها با استفاده از شاخص‌های دان و دیویس بولدین، ویژگی‌های مشتریان در هر یک از بخش‌ها شناسایی شد و در پایان نيز پيشنهادهايي جهت بهبود سيستم مديريت ارتباط با مشتري ارائه گردید. تفاصيل المقالة
      • حرية الوصول المقاله

        6 - بررسی رفتار زمین‌شیمیایی عناصر اصلی و کمیاب خاکی در گارنت‌های پگماتیت‌های دره ‌ولی (شمال شرق بروجرد، پهنه سنندج- سیرجان)
        سمیه  رحمانی جوانمرد زهرا  طهماسبی زینک  دینک احمد  احمدی خلجی
        پگماتیت‌های منطقه‌ دره ‌ولی در شمال شرق بروجرد و در پهنه ساختاری سنندج- سیرجان واقع شده‌اند. این پگماتیت‌ها به‌صورت دایک‌هایی با روند شمال‌غرب- جنوب‌شرق، واحدهای گرانودیوریتی منطقه‌ مورد مطالعه را قطع کرده‌اند. این سنگ‌ها از نظر کانی‌شناسی شامل کانی‌های کوارتز، فلدسپار‌ أکثر
        پگماتیت‌های منطقه‌ دره ‌ولی در شمال شرق بروجرد و در پهنه ساختاری سنندج- سیرجان واقع شده‌اند. این پگماتیت‌ها به‌صورت دایک‌هایی با روند شمال‌غرب- جنوب‌شرق، واحدهای گرانودیوریتی منطقه‌ مورد مطالعه را قطع کرده‌اند. این سنگ‌ها از نظر کانی‌شناسی شامل کانی‌های کوارتز، فلدسپار‌های آلکالن (ارتوکلاز و میکروکلین)، پلاژیوکلاز، مسکوویت، گارنت (آلماندین- اسپسارتین)، آندالوزیت، تورمالین و آپاتیت هستند. الگو‌های REE بهنجار‌شده نسبت به كندريت در پگماتیت‌های دره ولی، بیانگر غنی‌شدگی اندک LREE نسبت به HREE )04/4-76/1(LaN/YbN=، الگوی نسبتاً مسطح HREE و بی‌هنجاری منفی شدید Eu (54/0-20/0 (Eu/Eu*= است. بررسی شيمي عناصر اصلي گارنت‌هاي درون اين پگماتيت‌ها بيانگر منطقه‌بندی ترکیبی با افزایش FeO و کاهش MnO از مرکز به حاشیه است. مقادیر بسيار بالاي منگنزwt.%) 18/13-27/10 (MnO= و مقدار کم کلسيمwt.%) 29/0-15/0(CaO= گارنت‌هاي موجود در پگماتيت‌ دره ‌ولی، مشابه گارنت‌هاي ماگمايي درون مذاب‌هاي‌ پگماتيتي است. ترکیب بلور‌های گارنت بر روی نمودار MnO+CaO در مقابل FeO+MgO (برحسب درصد وزنی)، بیانگر تبلور آنها در بخش حاشیه‌ای رگه پگماتیتی و از مذاب‌های کم‌تر تفریق‌یافته است. نتایج LA-ICP-MS حاکی از غنی‌شدگی گارنت‌های مورد مطالعه از عناصر کمیاب خاکی سنگین (HREE)، تهی‌شدگی از عناصر کمیاب خاکی سبک (LREE) و بی‌هنجاری منفی شدید Euدر مرکز )41/0-0(Eu/Eu*= و مثبتEu )22/3-0(Eu/Eu*= در حاشیه‌ها است. عناصر Y، HREE، Ti، Zr، Nb، Ta، Hf، U و Mn از مرکز به سمت حاشیه کاهش نشان می‌دهند. این تغییرات از مرکز به حاشیه، به افزایش فاز سیال و اکتیویته H2O در ماگما و افزایش تفریق ماگمایی نسبت داده شده است. الگوی REE و بی‌هنجاری‌های Eu در گارنت‌های دارای منطقه‌بندی، بیانگر تبلور آنها در شرایط احیایی تا اکسیدان است. تفاصيل المقالة
      • حرية الوصول المقاله

        7 - قطعه‌بندی پهنه¬ی گسله شتری با استفاده از تحلیل¬های ساختاری، ریخت زمین ساختی، لرزه‌ای و فرکتالی
        مرتضی  موسوی راضیه  عباس پور محمود رضا  هیهات
        پهنه ی فعال گسله شتری (در پایانه ی شمالی گسل نایبند)، دارای سازوکار معکوس با مؤلفه ی امتدادلغز راستگرد است. مطالعه تصاویر ماهواره ای، عدم یکپارچگی گسل و قطعه- قطعه بودن آن را نشان می دهد. در این پژوهش، قطعه‌بندی گسل براساس ناپیوستگی هندسی انجام و دو قطعه ی شمالی(امتدا أکثر
        پهنه ی فعال گسله شتری (در پایانه ی شمالی گسل نایبند)، دارای سازوکار معکوس با مؤلفه ی امتدادلغز راستگرد است. مطالعه تصاویر ماهواره ای، عدم یکپارچگی گسل و قطعه- قطعه بودن آن را نشان می دهد. در این پژوهش، قطعه‌بندی گسل براساس ناپیوستگی هندسی انجام و دو قطعه ی شمالی(امتدادN40W) و جنوبی(امتداد N20W) معرفی گردید که کلیه قطعات سازوکار معکوس با مؤلفه ی امتدادلغز راستگرد دارند. در میزان ارزیابی فعالیت گسل، با تکیه بر ابعاد فرکتالی زمین‌لرزه‌ها (Ds= 1/60, DN=1/73) و شکستگی ها (Ds=0/43, DN=0/68)، و شاخصه های ریخت زمین ساختی از قبیل شاخص شیب رودخانه(SLs=1703/27 , SLN=1526/7)، سینوسیته ی کانال رودخانه (SS=1/24 , SN=1/27)، سینوسیته ی پیشانی کوهستان (Smfs=1/1 , SmfN=1/07) ، نسبت V(Vs=0/7 , VN=0/9) و داده های ساختاری و لرزه ای، قطعه جنوبی به‌عنوان فعال ترین بخش معرفی می شود. بیش ترین فراوانی زلزله های ثبت‌شده و بزرگترین زلزله دستگاهی ثبت شده با بزرگای 4/7 ریشتر مربوط به قطعه ی جنوبی است، که نشان‌دهنده‌ی پتانسیل بالای لرزه خیزی گسل در این قطعه می باشد. تفاصيل المقالة
      • حرية الوصول المقاله

        8 - A New Method for Detecting the Number of Coherent Sources in the Presence of Colored Noise
        Shahriar Shirvani Moghaddam Somaye  Jalaei
        In this paper, a new method for determining the number of coherent/correlated signals in the presence of colored noise is proposed which is based on the Eigen Increment Threshold (EIT) method. First, we present a new approach which combines EIT criterion and eigenvalue أکثر
        In this paper, a new method for determining the number of coherent/correlated signals in the presence of colored noise is proposed which is based on the Eigen Increment Threshold (EIT) method. First, we present a new approach which combines EIT criterion and eigenvalue correction. The simulation results show that the new method estimates the number of noncoherent signals in the presence of colored noise with higher detection probability respect to MDL, AIC, EGM and conventional EIT. In addition, to apply the proposed EIT algorithm to detect the number of sources in the case of coherent and/or correlated sources, a spatial smoothing preprocessing is added. In this case, simulation results show 100% detection probability for signal to noise ratios greater than -5dB. Final version of the proposed EIT-based method is a simple and efficient way to increase the detection probability of EIT method in the presence of colored noise considering either coherent/correlated or noncoherent sources. تفاصيل المقالة
      • حرية الوصول المقاله

        9 - Design, Implementation and Evaluation of Multi-terminal Binary Decision Diagram based Binary Fuzzy Relations
        Hamid Alavi Toussi Bahram Sadeghi Bigham
        Elimination of redundancies in the memory representation is necessary for fast and efficient analysis of large sets of fuzzy data. In this work, we use MTBDDs as the underlying data-structure to represent fuzzy sets and binary fuzzy relations. This leads to elimination أکثر
        Elimination of redundancies in the memory representation is necessary for fast and efficient analysis of large sets of fuzzy data. In this work, we use MTBDDs as the underlying data-structure to represent fuzzy sets and binary fuzzy relations. This leads to elimination of redundancies in the representation, less computations, and faster analyses. We also extended a BDD package (BuDDy) to support MTBDDs in general and fuzzy sets and relations in particular. Representation and manipulation of MTBDD based fuzzy sets and binary fuzzy relations are described in this paper. These include design and implementation of different fuzzy operations such as max, min and max-min composition. In particular, an efficient algorithm for computing max-min composition is presented.Effectiveness of our MTBDD based implementation is shown by applying it on fuzzy connectedness and image segmentation problem. Compared to a base implementation, the running time of the MTBDD based implementation was faster (in our test cases) by a factor ranging from 2 to 27. Also, when the MTBDD based data-structure was employed, the memory needed to represent the final results was improved by a factor ranging from 37.9 to 265.5. We also describe our base implementation which is based on matrices. تفاصيل المقالة
      • حرية الوصول المقاله

        10 - Unsupervised Segmentation of Retinal Blood Vessels Using the Human Visual System Line Detection Model
        Mohsen Zardadi Nasser Mehrshad Seyyed Mohammad Razavi
        Retinal image assessment has been employed by the medical community for diagnosing vascular and non-vascular pathology. Computer based analysis of blood vessels in retinal images will help ophthalmologists monitor larger populations for vessel abnormalities. Automatic s أکثر
        Retinal image assessment has been employed by the medical community for diagnosing vascular and non-vascular pathology. Computer based analysis of blood vessels in retinal images will help ophthalmologists monitor larger populations for vessel abnormalities. Automatic segmentation of blood vessels from retinal images is the initial step of the computer based assessment for blood vessel anomalies. In this paper, a fast unsupervised method for automatic detection of blood vessels in retinal images is presented. In order to eliminate optic disc and background noise in the fundus images, a simple preprocessing technique is introduced. First, a newly devised method, based on a simple cell model of the human visual system (HVS) enhances the blood vessels in various directions. Then, an activity function is presented on simple cell responses. Next, an adaptive threshold is used as an unsupervised classifier and classifies each pixel as a vessel pixel or a non-vessel pixel to obtain a vessel binary image. Lastly, morphological post-processing is applied to eliminate exudates which are detected as blood vessels. The method was tested on two publicly available databases, DRIVE and STARE, which are frequently used for this purpose. The results demonstrate that the performance of the proposed algorithm is comparable with state-of-the-art techniques. تفاصيل المقالة
      • حرية الوصول المقاله

        11 - Efficient Land-cover Segmentation Using Meta Fusion
        Morteza Khademi Hadi Sadoghi yazdi
        Most popular fusion methods have their own limitations; e.g. OWA (order weighted averaging) has “linear model” and “summation of inputs proportions in fusion equal to 1” limitations. Considering all possible models for fusion, proposed fusion method involve input data c أکثر
        Most popular fusion methods have their own limitations; e.g. OWA (order weighted averaging) has “linear model” and “summation of inputs proportions in fusion equal to 1” limitations. Considering all possible models for fusion, proposed fusion method involve input data confusion in fusion process to segmentation. Indeed, limitations in proposed method are determined adaptively for each input data, separately. On the other hand, land-cover segmentation using remotely sensed (RS) images is a challenging research subject; due to the fact that objects in unique land-cover often appear dissimilar in different RS images. In this paper multiple co-registered RS images are utilized to segment land-cover using FCM (fuzzy c-means). As an appropriate tool to model changes, fuzzy concept is utilized to fuse and integrate information of input images. By categorizing the ground points, it is shown in this paper for the first time, fuzzy numbers are need and more suitable than crisp ones to merge multi-images information and segmentation. Finally, FCM is applied on the fused image pixels (with fuzzy values) to obtain a single segmented image. Furthermore mathematical analysis and used proposed cost function, simulation results also show significant performance of the proposed method in terms of noise-free and fast segmentation. تفاصيل المقالة
      • حرية الوصول المقاله

        12 - Improving Image Dynamic Range For An Adaptive Quality Enhancement Using Gamma Correction
        Hamid Hassanpour
        This paper proposes a new automatic image enhancement method by improving the image dynamic range. The improvement is performed via modifying the Gamma value of pixels in the image. Gamma distortion in an image is due to the technical limitations in the imaging device, أکثر
        This paper proposes a new automatic image enhancement method by improving the image dynamic range. The improvement is performed via modifying the Gamma value of pixels in the image. Gamma distortion in an image is due to the technical limitations in the imaging device, and impose a nonlinear effect. The severity of distortion in an image varies depends on the texture and depth of the objects. The proposed method locally estimates the Gamma values in an image. In this method, the image is initially segmented using a pixon-based approach. Pixels in each segment have similar characteristics in terms of the need for Gamma correction. Then the Gamma value for each segment is estimated by minimizing the homogeneity of co-occurrence matrix. This feature can represent image details. The minimum value of this feature in a segment shows maximum details of the segment. The quality of an image is improved once more details are presented in the image via Gamma correction. In this study, it is shown that the proposed method performs well in improving the quality of images. Subjective and objective image quality assessments performed in this study attest the superiority of the proposed method compared to the existing methods in image quality enhancement. تفاصيل المقالة
      • حرية الوصول المقاله

        13 - Analysis of Business Customers’ Value Network Using Data Mining Techniques
        Forough Farazzmanesh (Isvand) Monireh Hosseini
        In today's competitive environment, customers are the most important asset to any company. Therefore companies should understand what the retention and value drivers are for each customer. An approach that can help consider customers‘ different value dimensions is the أکثر
        In today's competitive environment, customers are the most important asset to any company. Therefore companies should understand what the retention and value drivers are for each customer. An approach that can help consider customers‘ different value dimensions is the value network. This paper aims to introduce a new approach using data mining techniques for mapping and analyzing customers‘ value network. Besides, this approach is applied in a real case study. This research contributes to develop and implement a methodology to identify and define network entities of a value network in the context of B2B relationships. To conduct this work, we use a combination of methods and techniques designed to analyze customer data-sets (e.g. RFM and customer migration) and to analyze value network. As a result, this paper develops a new strategic network view of customers and discusses how a company can add value to its customers. The proposed approach provides an opportunity for marketing managers to gain a deep understanding of their business customers, the characteristics and structure of their customers‘ value network. This paper is the first contribution of its kind to focus exclusively on large data-set analytics to analyze value network. This new approach indicates that future research of value network can further gain the data mining tools. In this case study, we identify the value entities of the network and its value flows in the telecommunication organization using the available data in order to show that it can improve the value in the network by continuous monitoring. تفاصيل المقالة
      • حرية الوصول المقاله

        14 - Improvement in Accuracy and Speed of Image Semantic Segmentation via Convolution Neural Network Encoder-Decoder
        Hanieh Zamanian Hassan Farsi Sajad Mohammadzadeh
        Recent researches on pixel-wise semantic segmentation use deep neural networks to improve accuracy and speed of these networks in order to increase the efficiency in practical applications such as automatic driving. These approaches have used deep architecture to predic أکثر
        Recent researches on pixel-wise semantic segmentation use deep neural networks to improve accuracy and speed of these networks in order to increase the efficiency in practical applications such as automatic driving. These approaches have used deep architecture to predict pixel tags, but the obtained results seem to be undesirable. The reason for these unacceptable results is mainly due to the existence of max pooling operators, which reduces the resolution of the feature maps. In this paper, we present a convolutional neural network composed of encoder-decoder segments based on successful SegNet network. The encoder section has a depth of 2, which in the first part has 5 convolutional layers, in which each layer has 64 filters with dimensions of 3×3. In the decoding section, the dimensions of the decoding filters are adjusted according to the convolutions used at each step of the encoding. So, at each step, 64 filters with the size of 3×3 are used for coding where the weights of these filters are adjusted by network training and adapted to the educational data. Due to having the low depth of 2, and the low number of parameters in proposed network, the speed and the accuracy improve compared to the popular networks such as SegNet and DeepLab. For the CamVid dataset, after a total of 60,000 iterations, we obtain the 91% for global accuracy, which indicates improvements in the efficiency of proposed method. تفاصيل المقالة
      • حرية الوصول المقاله

        15 - Retinal Vessel Extraction Using Dynamic Threshold And Enhancement Image Filter From Retina Fundus
        erwin erwin Tomi Kiyatmoko
        In the diagnosis of retinal disease, Retinal vessels become an important role in determining certain diseases. Retina vessels are an important element with a variety of shapes and sizes, each human blood vessel also can determine the disease with various types, but the أکثر
        In the diagnosis of retinal disease, Retinal vessels become an important role in determining certain diseases. Retina vessels are an important element with a variety of shapes and sizes, each human blood vessel also can determine the disease with various types, but the feasibility of the pattern of retinal blood vessels is very important for the advanced diagnosis process in medical retina such as detection, identification and classification. Improvement and improvement of image quality in this case is very important by focusing on extracting or segmenting the retinal veins so that parameters such as accuracy, specifications, and sensitivity can be obtained that are better and meet the advanced system. Therefore we conducted experiments in order to develop extraction of retinal images to obtain binary images of retinal vessels in the medical world using Dynamic Threshold and Butterworth Bandpass Filter. Using a database DRIVE Accuracy of 94.77%, sensitivity of 54.48% and specificity of 98.71%. تفاصيل المقالة
      • حرية الوصول المقاله

        16 - Body Field: Structured Mean Field with Human Body Skeleton Model and Shifted Gaussian Edge Potentials
        Sara Ershadi-Nasab Shohreh Kasaei Esmaeil Sanaei Erfan Noury Hassan Hafez-kolahi
        An efficient method for simultaneous human body part segmentation and pose estimation is introduced. A conditional random field with a fully-connected graphical model is used. Possible node (image pixel) labels comprise of the human body parts and the background. In the أکثر
        An efficient method for simultaneous human body part segmentation and pose estimation is introduced. A conditional random field with a fully-connected graphical model is used. Possible node (image pixel) labels comprise of the human body parts and the background. In the human body skeleton model, the spatial dependencies among body parts are encoded in the definition of pairwise energy functions according to the conditional random fields. Proper pairwise edge potentials between image pixels are defined according to the presence or absence of human body parts that are near to each other. Various Gaussian kernels in position, color, and histogram of oriented gradients spaces are used for defining the pairwise energy terms. Shifted Gaussian kernels are defined between each two body parts that are connected to each other according to the human body skeleton model. As shifted Gaussian kernels impose a high computational cost to the inference, an efficient inference process is proposed by a mean field approximation method that uses high dimensional shifted Gaussian filtering. The experimental results evaluated on the challenging KTH Football, Leeds Sports Pose, HumanEva, and Penn-Fudan datasets show that the proposed method increases the per-pixel accuracy measure for human body part segmentation and also improves the probability of correct parts metric of human body joint locations. تفاصيل المقالة
      • حرية الوصول المقاله

        17 - Performance Analysis of Hybrid SOM and AdaBoost Classifiers for Diagnosis of Hypertensive Retinopathy
        Wiharto Wiharto Esti Suryani Murdoko Susilo
        The diagnosis of hypertensive retinopathy (CAD-RH) can be made by observing the tortuosity of the retinal vessels. Tortuosity is a feature that is able to show the characteristics of normal or abnormal blood vessels. This study aims to analyze the performance of the CAD أکثر
        The diagnosis of hypertensive retinopathy (CAD-RH) can be made by observing the tortuosity of the retinal vessels. Tortuosity is a feature that is able to show the characteristics of normal or abnormal blood vessels. This study aims to analyze the performance of the CAD-RH system based on feature extraction tortuosity of retinal blood vessels. This study uses a segmentation method based on clustering self-organizing maps (SOM) combined with feature extraction, feature selection, and the ensemble Adaptive Boosting (AdaBoost) classification algorithm. Feature extraction was performed using fractal analysis with the box-counting method, lacunarity with the gliding box method, and invariant moment. Feature selection is done by using the information gain method, to rank all the features that are produced, furthermore, it is selected by referring to the gain value. The best system performance is generated in the number of clusters 2 with fractal dimension, lacunarity with box size 22-29, and invariant moment M1 and M3. Performance in these conditions is able to provide 84% sensitivity, 88% specificity, 7.0 likelihood ratio positive (LR+), and 86% area under the curve (AUC). This model is also better than a number of ensemble algorithms, such as bagging and random forest. Referring to these results, it can be concluded that the use of this model can be an alternative to CAD-RH, where the resulting performance is in a good category. تفاصيل المقالة
      • حرية الوصول المقاله

        18 - A Threshold-based Brain Tumour Segmentation from MR Images using Multi-Objective Particle Swarm Optimization
        Katkoori Arun  Kumar Ravi  Boda
        The Pareto optimal solution is unique in single objective Particle Swarm Optimization (SO-PSO) problems as the emphasis is on the variable space of the decision. A multi-objective-based optimization technique called Multi-Objective Particle Swarm Optimization (MO-PSO) i أکثر
        The Pareto optimal solution is unique in single objective Particle Swarm Optimization (SO-PSO) problems as the emphasis is on the variable space of the decision. A multi-objective-based optimization technique called Multi-Objective Particle Swarm Optimization (MO-PSO) is introduced in this paper for image segmentation. The multi-objective Particle Swarm Optimization (MO-PSO) technique extends the principle of optimization by facilitating simultaneous optimization of single objectives. It is used in solving various image processing problems like image segmentation, image enhancement, etc. This technique is used to detect the tumour of the human brain on MR images. To get the threshold, the suggested algorithm uses two fitness(objective) functions- Image entropy and Image variance. These two objective functions are distinct from each other and are simultaneously optimized to create a sequence of pareto-optimal solutions. The global best (Gbest) obtained from MO-PSO is treated as threshold. The MO-PSO technique tested on various MRI images provides its efficiency with experimental findings. In terms of “best, worst, mean, median, standard deviation” parameters, the MO-PSO technique is also contrasted with the existing Single-objective PSO (SO-PSO) technique. Experimental results show that Multi Objective-PSO is 28% advanced than SO-PSO for ‘best’ parameter with reference to image entropy function and 92% accuracy than Single Objective-PSO with reference to image variance function. تفاصيل المقالة
      • حرية الوصول المقاله

        19 - Foreground-Back ground Segmentation using K-Means Clustering Algorithm and Support Vector Machine
        Masoumeh Rezaei mansoureh rezaei Masoud Rezaei
        Foreground-background image segmentation has been an important research problem. It is one of the main tasks in the field of computer vision whose purpose is detecting variations in image sequences. It provides candidate objects for further attentional selection, e.g., أکثر
        Foreground-background image segmentation has been an important research problem. It is one of the main tasks in the field of computer vision whose purpose is detecting variations in image sequences. It provides candidate objects for further attentional selection, e.g., in video surveillance. In this paper, we introduce an automatic and efficient Foreground-background segmentation. The proposed method starts with the detection of visually salient image regions with a saliency map that uses Fourier transform and a Gaussian filter. Then, each point in the maps classifies as salient or non-salient using a binary threshold. Next, a hole filling operator is applied for filling holes in the achieved image, and the area-opening method is used for removing small objects from the image. For better separation of the foreground and background, dilation and erosion operators are also used. Erosion and dilation operators are applied for shrinking and expanding the achieved region. Afterward, the foreground and background samples are achieved. Because the number of these data is large, K-means clustering is used as a sampling technique to restrict computational efforts in the region of interest. K cluster centers for each region are set for training of Support Vector Machine (SVM). SVM, as a powerful binary classifier, is used to segment the interest area from the background. The proposed method is applied on a benchmark dataset consisting of 1000 images and experimental results demonstrate the supremacy of the proposed method to some other foreground-background segmentation methods in terms of ER, VI, GCE, and PRI. تفاصيل المقالة
      • حرية الوصول المقاله

        20 - تشخيص تغييرات صحنه به روش زمينه‏ گيري هوشمند
        محمود فتحی حسن شكوری
        جداسازي روزمينه از زمينه، در بسياري از كاربردهاي نظارت تصويري به عنوان اولين و مهمترين قدم شناخته مي‎‎شود و "تفاضل زمينه" روشي است كه معمولاً براي اين منظور استفاده مي‎‎شود. اين روش، هر فريم را با مدلي از صحنة خالي مقايسه كرده و ناحيه‎هايي از آنرا كه بطور قابل ملاحظه‎اي أکثر
        جداسازي روزمينه از زمينه، در بسياري از كاربردهاي نظارت تصويري به عنوان اولين و مهمترين قدم شناخته مي‎‎شود و "تفاضل زمينه" روشي است كه معمولاً براي اين منظور استفاده مي‎‎شود. اين روش، هر فريم را با مدلي از صحنة خالي مقايسه كرده و ناحيه‎هايي از آنرا كه بطور قابل ملاحظه‎اي متفاوت به نظر مي‏رسند به عنوان نواحي روزمينه مشخص مي‎كند. اين مقاله روش جديدي براي تفاضل زمينه ارائه مي‏كند كه در آن ابتدا هر تصوير به بلوكهاي يكساني تفكيك شده و سپس ويژگيهاي تعيين‎كننده‎اي از بلوك‏ها محاسبه شده و سابقة مقادير هر يك از اين ويژگي‏ها، به صورت تركيبي از توزيعها‎ي گوسين مدل مي‏گردد. با ورود هر فريم جديد، اين توزيعها با روش سريعي بهنگام مي‎شوند آنگاه توزيعهاي گوسين مدلهاي تركيبي، براي يافتن توزيعهايي كه بيان‎كنندة زمينه هستند ارزيابي مي‎شوند و هر بلوك بر اساس اينكه مقادير ويژگيهاي آن جزو كداميك از توزيعها باشد در دو كلاس زمينه و روزمينه دسته‎بندي مي‎شود. پياده‎سازي نرم‎افزاري اين روش روي كامپيوتر شخصي، حاكي از عملكرد قابل قبول سيستم در برابر اجسام متجاوز به صحنه (مستقل از سرعت حركت آنها)، اضافه يا كاسته شدن اجسام داخل صحنه، نويز تصويربرداري و تغييرات ناخواستة صحنه است و سرعت بالا و نياز به حافظة كم، آنرا براي درصد بالايي از كاربردهاي بلادرنگ مناسب مي‏سازد. تفاصيل المقالة
      • حرية الوصول المقاله

        21 - روش نوين ترکيب گابوري در بخش‌بندي سطوح فولادي با هدف تشخيص عيوب
        سيدجليل‌الدين آل‌معصوم سیدحسن منجمی هاله‌السادات آل‌معصوم
        تصاوير سطوح فولادي، عمدتاً تصاويري بافتي بوده که استخراج ويژگي در آنها با روش‌هاي گوناگون تحليل بافت انجام مي‌گيرد. در گروهي از اين روش‌ها كه از آناليزهاي چندفركانسي و جهت‌دار سود مي‌برند، استفاده از فيلترهاي گابور به‌عنوان ابزار تحليل معمول است. در اين مقاله با به‌کارگ أکثر
        تصاوير سطوح فولادي، عمدتاً تصاويري بافتي بوده که استخراج ويژگي در آنها با روش‌هاي گوناگون تحليل بافت انجام مي‌گيرد. در گروهي از اين روش‌ها كه از آناليزهاي چندفركانسي و جهت‌دار سود مي‌برند، استفاده از فيلترهاي گابور به‌عنوان ابزار تحليل معمول است. در اين مقاله با به‌کارگيري بانکي بهينه‌شده از فيلترهاي گابور، به استخراج ويژگي جهت بخش‌بندي تصاوير سطوح فولادي معيوب پرداخته مي‌شود. اين بانک فيلترها به‌گونه‌اي طراحي شده که مي‌تواند ويژگي‌هاي بافتي تصوير ورودي را به شکل مطلوب، در جهات و فرکانس‌هاي مختلف نمايان کند. سپس به‌منظور بخش‌بندي تصوير سطح فولادي، روشي نوين به نام ترکيب گابوري ارائه گرديده که در اين روش با ارائه دو الگوريتم مختلف از تصاوير جزئي به‌دست آمده از تصوير معيوب، تنها تعداد مشخصي با يکديگر ترکيب مي‌گردند تا نقشه ويژگي حاصل به شکل مؤثري در برگيرنده عيوب تصوير باشد. روش دوم ترکيب گابوري توانست با محاسبه پراکندگي داده‌هاي موجود در تصاوير جزئي و مقايسه آنها با يکديگر، بدون نياز به تعيين تعداد تصاوير جزئي جهت ترکيب و نيز وجود تصوير يا تصاوير نرمال، به انجام بخش‌بندي بپردازد. از ديگر نتايج تحقيق، بهينه‌سازي بخش‌بندي با استفاده از کلاسه‌بند K-means بوده که با نرمال‌سازي و اضافه‌کردن ويژگي سطح خاکستري به ويژگي‌هاي استخراج‌شده هر پيکسل، منجر به افزايش دقت کلاسه‌بندي شده است. نتايج به‌دست آمده هم از نظر بصري و هم از لحاظ آماري نشان‌دهنده آن است که روش ترکيب گابوري در مقايسه با کلاسه‌بندK-means از دقت بالاتري برخوردار مي‌باشد. مقايسه انجام‌شده بين روش‌هاي پيشنهادي ترکيب گابوري و روش ويولت استاندارد نيز بر برتري نسبي ترکيب گابوري دلالت دارد. همچنين روش دوم ترکيب گابوري در مقايسه با روش اول، به‌واسطه انتخاب بهتر تصاوير جزئي جهت ترکيب و در نتيجه تشکيل نقشه ويژگي مناسب‌تر، بهترين عملکرد را از خود نشان داده است. تفاصيل المقالة
      • حرية الوصول المقاله

        22 - قطعه‌بندی عبارات متون فارسی با استفاده از شبکه‌های عصبی
        محمدمهدی میردامادی علی‌محمد زارع بیدکی مهدی رضائیان
        قطعه‌بندی کلمات و عبارات متن، یکی از فعالیت‌های اصلی در حوزه پردازش زبان‌های طبیعی است. اکثر برنامه‌های پردازش زبان‌های طبیعی به یک پیش‌پردازش برای استخراج کلمات متن و تشخیص عبارات احتیاج دارند. هدف اصلی و نهایی قطعه‌بندی عبارات، به دست آوردن کلمات معنی‌دار همراه با پیش أکثر
        قطعه‌بندی کلمات و عبارات متن، یکی از فعالیت‌های اصلی در حوزه پردازش زبان‌های طبیعی است. اکثر برنامه‌های پردازش زبان‌های طبیعی به یک پیش‌پردازش برای استخراج کلمات متن و تشخیص عبارات احتیاج دارند. هدف اصلی و نهایی قطعه‌بندی عبارات، به دست آوردن کلمات معنی‌دار همراه با پیشوندها و پسوندهایشان است و این فعالیت متناسب با زبان‌های طبیعی مختلف می‌تواند سخت یا آسان باشد. در زبان فارسی به علت وجود فاصله و نیم‌فاصله، عدم توجه کاربران به فاصله‌گذاری‌ها و نبود قواعد دقیق در نوشتن کلمات چندقسمتی، تشخیص و قطعه‌بندی کلمات چندقسمتی و مرکب با مشکلات و پیچیدگی‌های خاص خود روبه‌رو است. در این مقاله برآنیم تا با استفاده از شبکه‌های عصبی، یک روش آماری برای قطعه‌بندی عبارات متون فارسی جهت استفاده در موتورهای جستجو ارائه کنیم. الگوریتم پیشنهادی شامل 4 فاز است که با استفاده از احتمال رخداد تک‌کلمات و دوکلمه‌ای‌های موجود در پیکره و با دقت 6/89% عمل قطعه‌‌بندی را انجام می‌دهد. نتایج آزمایشات نشان دادند این روش می‌تواند با قطعه‌بندی بهتر عبارات، بهبود نسبی در کارایی روش‌های معمول به وجود آورد. تفاصيل المقالة
      • حرية الوصول المقاله

        23 - خوشه‌یابی تصویر زیرکلمات در متون قدیمی و حجیم چاپی با استفاده از معیار مقایسه تصویری
        محمدرضا سهیلی احسان‌اله کبیر
        حجم زیاد تصاویر متنی روز به روز مسئله دیجیتالی‌شدن متن تصاویر و همچنین مسئله جستجو در این منابع را اهمیت می‌بخشد. در بازشناسی متن‌های حجیم می‌توان از ویژگی‌هایی مانند محدودبودن تعداد و اندازه قلم، یکسان‌بودن صفحه‌آرایی در کل صفحه‌ها، محدودبودن مجموعه واژه‌ها و حوزه معنا أکثر
        حجم زیاد تصاویر متنی روز به روز مسئله دیجیتالی‌شدن متن تصاویر و همچنین مسئله جستجو در این منابع را اهمیت می‌بخشد. در بازشناسی متن‌های حجیم می‌توان از ویژگی‌هایی مانند محدودبودن تعداد و اندازه قلم، یکسان‌بودن صفحه‌آرایی در کل صفحه‌ها، محدودبودن مجموعه واژه‌ها و حوزه معنایی آنها و یکسان‌بودن سبک نگارشی در کل متن استفاده کرد. در این مقاله الگوریتمی ارائه شده که از یکسان‌بودن نوع و اندازه قلم برای خوشه‌یابی زیرکلمات یک کتاب قدیمی با کیفیت پایین چاپ استفاده شده است. این کتاب 233 صفحه دارد و کل زیرکلمات آن که در حدود 111000 زیرکلمه است جداسازی و برچسب‌زنی شده است. در این تحقیق از یک روش ساده افزایشی برای خوشه‌یابی زیرکلمات استفاده شده است. ابتدا برای هر زیرکلمه چهار ویژگی ساده استخراج می‌شود، در صورتی که تفاوت این ویژگی‌ها از ویژگی‌های نماینده یک خوشه کمتر از مقدار آستانه باشد، مقایسه تصویری بین آن دو انجام می‌شود. به علت زیادبودن تعداد زیرکلمات سعی شده تا از ساده‌ترین روش‌های ممکن استفاده شود تا سرعت اجرا افزایش یابد. نتایج آزمایش‌ها نشان می‌دهد می‌توان زیرکلمات را با دقتی در حدود 7/99 درصد خوشه‌یابی کرد. نتایج این خوشه‌یابی در مرحله بازشناسی زیرکلمات کمک بسیار زیادی خواهد کرد. تفاصيل المقالة
      • حرية الوصول المقاله

        24 - کاهش رنگ نقشه‌های دستی فرش پیش از نقطه‌گذاری
        منصور فاتح احسان‌اله کبیر
        نقشه‌های فرش شامل دو دسته چاپی و دستی هستند و نقشه‌های دستی نیز به دو گروه پیش و پس از نقطه‌گذاری تقسیم می‌شوند. هدف این تحقیق، کاهش رنگ در نقشه‌های دستی پیش از نقطه‌گذاری است. مقالات گوناگونی درباره کاهش رنگ در نقشه‌های فرش پس از نقطه‌گذاری وجود دارد اما تا کنون مقاله‌ أکثر
        نقشه‌های فرش شامل دو دسته چاپی و دستی هستند و نقشه‌های دستی نیز به دو گروه پیش و پس از نقطه‌گذاری تقسیم می‌شوند. هدف این تحقیق، کاهش رنگ در نقشه‌های دستی پیش از نقطه‌گذاری است. مقالات گوناگونی درباره کاهش رنگ در نقشه‌های فرش پس از نقطه‌گذاری وجود دارد اما تا کنون مقاله‌ای در باب کاهش رنگ در نقشه‌های دستی پیش از نقطه‌گذاری ارائه نشده است. الگوریتم پیشنهادی از 4 مرحله اصلی تشکیل شده است: تعیین نواحی تصویر، مشخص‌کردن رنگ هر ناحیه، کاهش رنگ در حوالی مرزهای تصویر و کاهش رنگ نهایی با روش C- میانگین. برای 80 قسمت از 20 نقشه مختلف، دقت الگوریتم حدود 96 درصد است، به عبارت دیگر رنگ 96 درصد از پیکسل‌های تصویر به درستی تعیین شده و دقت بالای این روش به دلیل متناسب‌بودن روش پیشنهادی با کاربرد آن است. روش ارائه‌شده در این مقاله کاملاً خودکار نیست و تعداد رنگ‌های نقشه باید توسط کاربر به عنوان ورودی به الگوریتم داده شود. تفاصيل المقالة
      • حرية الوصول المقاله

        25 - بهبود عملکرد موتور سوئيچ رلوکتانسي با تغيير ساختار رتور قطعه‌اي
        بابک  اله وردي نژاد حسین ترکمن آرش اللهیاری
        اين مقاله به معرفي يک موتور سوئيچ رلوکتانسي 5/6 با رتور قطعه‌اي و بهبود عملکرد آن از طريق ايجاد تغييرات در ساختار رتور مي‌پردازد. با تغيير ساختار رتور، علاوه بر کاهش ريپل گشتاور، بازده موتور نيز افزايش مي‌يابد. موتور ارائه‌شده شامل دو نوع قطب بر روي استاتور است: قطب‌هاي أکثر
        اين مقاله به معرفي يک موتور سوئيچ رلوکتانسي 5/6 با رتور قطعه‌اي و بهبود عملکرد آن از طريق ايجاد تغييرات در ساختار رتور مي‌پردازد. با تغيير ساختار رتور، علاوه بر کاهش ريپل گشتاور، بازده موتور نيز افزايش مي‌يابد. موتور ارائه‌شده شامل دو نوع قطب بر روي استاتور است: قطب‌هاي اصلي و قطب‌هاي کمکي. قطب‌های استاتور شرايط را فراهم مي‌آورند تا مسير شار عبوري از مواد فعال کوتاه‌تر شده و نواحي‌اي از سطح رتور که در آنها مسير شار معکوس مي‌شود، در راستاي ايجاد تلفات آهني نقشي نداشته باشند. در اين راستا در اين مقاله توپولوژي‌ها مختلف انواع شيار بر روي رتور بررسي شده و با ارزيابي کارايي موتور بهترين مدل انتخاب شده است. نتايج شبيه‌سازي و تحليل با استفاده از روش المان محدود و مقایسه، کارايي تئوري مطرح‌شده را اثبات مي‌نمايد. تفاصيل المقالة
      • حرية الوصول المقاله

        26 - بهبود تخمین سن از تصاویر پانورامیک دندان مبتني بر اصلاح کنتراست تصویر با روش آنتروپی مکانی
        معصومه محسنی حسین منتظری کردی مهدي ازوجي
        در دندان‌پزشکی قانونی، تخمین سن با استفاده از رادیوگراف دندان صورت می‌گیرد. هدف ما، خودکارکردن این مراحل با استفاده از پردازش تصویر و تکنیک‌های تشخیص الگو است. با داشتن رادیوگراف دندان، کانتور استخراج شده و ویژگی‌هایی مانند عرض اپکس (apex) و طول دندان از آن استخراج می‌ش أکثر
        در دندان‌پزشکی قانونی، تخمین سن با استفاده از رادیوگراف دندان صورت می‌گیرد. هدف ما، خودکارکردن این مراحل با استفاده از پردازش تصویر و تکنیک‌های تشخیص الگو است. با داشتن رادیوگراف دندان، کانتور استخراج شده و ویژگی‌هایی مانند عرض اپکس (apex) و طول دندان از آن استخراج می‌شود که در تخمین سن مورد استفاده قرار می‌گیرد. افزایش بهینه وضوح تصاویر رادیوگرافی، مرحله مهمی در استخراج کانتور و تخمین سن است. در این مقاله، هدف بهبود وضوح تصویر به منظور استخراج ناحیه مناسب و قطعه‌بندی مناسب دندان است که در نتیجه منجر به تخمین سن بهتری می‌شود. در این مدل، به دلیل پایین‌بودن وضوح تصاویر رادیوگراف، به منظور افزایش دقت استخراج ناحیه مورد نظر هر دندان (ROI)، وضوح تصویر با استفاده از آنتروپی مکانی که مبتنی بر توزیع مکانی شدت روشنایی پیکسل‌هاست، به همراه روش‌های افزایش وضوح دیگر مانند هرم‌های لاپلاسین، افزایش می‌یابد. افزایش وضوح تصویر، منجر به استخراج ROI مناسب و حذف نواحی ناخواسته می‌شود. پایگاه داده مورد استفاده در این پژوهش، 154 رادیوگراف پانورامیک نوجوانان است که 73 نفر آن مرد و 81 نفر آن زن هستند. این پایگاه داده از دانشگاه علوم پزشکی بابل تهیه شده است. نتایج نشان می‌دهد با استفاده از روش‌های قطعه‌بندی دندان ثابت و فقط با اعمال روش پیشنهادی مؤثر در بهبود وضوح تصویر، استخراج ROI مناسب از 66% به 78% افزایش یافت که بهبود خوبی را نشان می‌دهد. سپس ROI استخراج‌شده، تحویل بلوک قطعه‌بندی و استخراج کانتور می‌شود و پس از استخراج کانتور، تخمین سن صورت می‌گیرد. تخمین سن صورت‌گرفته با استفاده از روش پیشنهادی، در مقایسه با روشی که از الگوریتم پیشنهادی در افزایش وضوح تصویر استفاده نمی‌کند، به مقدار تخمین دستی سن نزدیک‌تر است. تفاصيل المقالة
      • حرية الوصول المقاله

        27 - بخش¬بندی و تعیین نیمرخ روانشناختی- جمعیت شناختی و رفتاری زائرین کربلا در آیین سالانه¬ اربعین (مورد مطالعه: زائرین عبوری از مرزهای هوایی و زمینی استان خوزستان)
        بعقوب دغاغله مریم درویشی
        گردشگری مذهبی یکی از پنج‌‌ شاخه ی اصلی گردشگری از نظر سازمان تجارت جهانی می باشد. محبوبیت سفرهای زیارتی در دهه های اخیر افزایش یافته و گردشگری مذهبی بخش مهمی از پویایی اقتصاد گردشگری جهان را به خود اختصاص داده است. هدف از انجام این پژوهش بخش بندی و تعیین نیمرخ روانشناخت أکثر
        گردشگری مذهبی یکی از پنج‌‌ شاخه ی اصلی گردشگری از نظر سازمان تجارت جهانی می باشد. محبوبیت سفرهای زیارتی در دهه های اخیر افزایش یافته و گردشگری مذهبی بخش مهمی از پویایی اقتصاد گردشگری جهان را به خود اختصاص داده است. هدف از انجام این پژوهش بخش بندی و تعیین نیمرخ روانشناختی– جمعیت شناختی و رفتاری زائرین کربلا در آیین سالانه ی اربعین است. این پژوهش بر اساس هدف، كاربردي و براساس چگونگي جمع آوري داده ها توصـيفی- پيمايشي است. جامعه ی آماری این پژوهش شامل زائرین کربلا در آیین سالانه ی اربعین است که از مرزهای استان خوزستان تردد کرده اند. برای تجزیه و تحلیل داده ها از الگوریتم شبکه های عصبی با استفاده از نقشه های خود سازمانده استفاده شده است. یافته های پژوهش سه دستة متفاوت از زائرین با انگيزه هاي مختلف سفر را نشان داد. اين سه دسته از گردشگران به نام های بیشتر گردشگر تا زائر (گردشگران زائر)، بیشتر زائر تا گردشگر (زائرین گردشگر) و زائرین نام گذاري شدند. نتایج این پژوهش نشان داد که گردشگران هر بخش دارای ویژگی های روانشناختی، جمعیت شناختی و رفتاری خاص خود می باشند. بر اين اساس، راهبردهاي بازاريابي براي توسعة فعاليت هاي گردشگري متناسب با هر بخش باید متفاوت باشد. تفاصيل المقالة
      • حرية الوصول المقاله

        28 - Comparing the Semantic Segmentation of High-Resolution Images Using Deep Convolutional Networks: SegNet, HRNet, CSE-HRNet and RCA-FCN
        Nafiseh Sadeghi Homayoun Mahdavi-Nasab Mansoor Zeinali Hossein Pourghasem
        Semantic segmentation is a branch of computer vision, used extensively in image search engines, automated driving, intelligent agriculture, disaster management, and other machine-human interactions. Semantic segmentation aims to predict a label for each pixel from a giv أکثر
        Semantic segmentation is a branch of computer vision, used extensively in image search engines, automated driving, intelligent agriculture, disaster management, and other machine-human interactions. Semantic segmentation aims to predict a label for each pixel from a given label set, according to semantic information. Among the proposed methods and architectures, researchers have focused on deep learning algorithms due to their good feature learning results. Thus, many studies have explored the structure of deep neural networks, especially convolutional neural networks. Most of the modern semantic segmentation models are based on fully convolutional networks (FCN), which first replace the fully connected layers in common classification networks with convolutional layers, getting pixel-level prediction results. After that, a lot of methods are proposed to improve the basic FCN methods results. With the increasing complexity and variety of existing data structures, more powerful neural networks and the development of existing networks are needed. This study aims to segment a high-resolution (HR) image dataset into six separate classes. Here, an overview of some important deep learning architectures will be presented with a focus on methods producing remarkable scores in segmentation metrics such as accuracy and F1-score. Finally, their segmentation results will be discussed and we would see that the methods, which are superior in the overall accuracy and overall F1-score, are not necessarily the best in all classes. Therefore, the results of this paper lead to the point to choose the segmentation algorithm according to the application of segmentation and the importance degree of each class. تفاصيل المقالة
      • حرية الوصول المقاله

        29 - تعیین دمای تشکیل، فوگاسیته اکسیژن و نسبت Ce4+/Ce3+ با استفاده از شیمی زیرکن دردایک¬های پگماتیتی ملاير- بروجرد- شازند، پهنه سنندج-سیرجان
        مجید قاسمی سیانی
        پلوتون های گرانیتوئیدی در پهنه سنندج-سیرجان میزبان دایک های پگماتیتی متعددی هستند. این پژوهش بر روی مطالعه شیمی کانی زیرکن در دایک های پگماتیتی گستره ملایر، بروجرد و شازند به منظور ارزیابی دمای تبلور زیرکن، فوگاسیته اکسیژن و نسبت Ce4+/Ce3+ و همچنین تعیین ضریب توزیع عناص أکثر
        پلوتون های گرانیتوئیدی در پهنه سنندج-سیرجان میزبان دایک های پگماتیتی متعددی هستند. این پژوهش بر روی مطالعه شیمی کانی زیرکن در دایک های پگماتیتی گستره ملایر، بروجرد و شازند به منظور ارزیابی دمای تبلور زیرکن، فوگاسیته اکسیژن و نسبت Ce4+/Ce3+ و همچنین تعیین ضریب توزیع عناصر نادر خاکی، عناصر اورانیوم، توریوم، تالیم، نیوبیم و ایتریم متمرکز شده است. نمودارهای متمایزکننده گرانیتوئیدها از جمله Th در برابر Y و Yb/Sm در برابر Y و Nb، نشان داد، زیرکن های مورد مطالعه در گستره سنگ های سینیت پگماتیت قرار دارند. ضریب توزیع زیرکن/ سنگ کل نشان داد، بلورهای زیرکن غنی شدگی نسبت HREE به LREE دارند. شیمی زیرکن نشان داد، دایک های پگماتیتی ملایر و شازند دارای مقادیر Hf کمتر و تغییرات کمتر در REE نسبت به زیرکن های دایک پگماتیت بروجرد هستند که نشان‌دهنده نقش فرایندهای هیدروترمالی بعدی در تشکیل زیرکن های بروجرد است. دمای تبلور، فوگاسیته اکسیژن و نسبت های Ce4+/Ce3+ از دایک پگماتیتی ملایر به شازند و در نهایت بروجرد کاهش یافته است. شرایط احیایی ماگماتیسم، مقدار Th/U کمتر از یک و مقدار Y/Ho بالای 20 نشان می دهد، بنابراین این پگماتیت ها از لحاظ کانی سازی عقیم هستند. تفاصيل المقالة
      • حرية الوصول المقاله

        30 - انتخاب موارد آزمون مبتنی بر روش تولید ‌‌آزمون رانه
        زهره مافی سیدحسن میریان حسین آبادی
        تولید ‌آزمون‌رانه (TDD)یکی از شیوه های تولید نرم افزار اول آزمون است که در آن تولید هر جزء از کد با نوشتن آزمون شروع می‌گردد. این شیوه به دلیل مزایای زیاد از جمله تولید کد خوانا، منظم، کوتاه و همچنین بالا بردن کیفیت، بهره وری و قابلیت اطمینان کد و امکان آزمون بازگشت به أکثر
        تولید ‌آزمون‌رانه (TDD)یکی از شیوه های تولید نرم افزار اول آزمون است که در آن تولید هر جزء از کد با نوشتن آزمون شروع می‌گردد. این شیوه به دلیل مزایای زیاد از جمله تولید کد خوانا، منظم، کوتاه و همچنین بالا بردن کیفیت، بهره وری و قابلیت اطمینان کد و امکان آزمون بازگشت به دلیل ایجاد مجموعه‌ی جامع آزمون بازگشت، موردتوجه قرار گرفته است. تعداد زیاد موارد آزمون واحد تولیدشده در این روش به عنوان نقطه قوتی در جهت افزایش قابلیت اطمینان به کد مطرح است با این حال اجرای مکرر موارد آزمون، باعث بالا رفتن مدت زمان آزمون بازگشت در این شیوه است. هدف این مقاله ارائه الگوریتمی جهت انتخاب موارد آزمون جهت کاهش زمان ‌‌آزمون بازگشت در شیوه تولید ‌آزمون‌رانه است. تاکنون ایده های مختلفی برای انتخاب موارد آزمون و کاهش زمان آزمون بازگشت مطرح شده است. اغلب این ایده‌ها مبتنی بر زبان برنامه‌نویسی و شیوه تولید نرم‌افزار است. ایده ارائه شده در این مقاله مبتنی بر روش اختلاف برنامه و ماهیت شیوه تولید ‌آزمون‌رانه اتخاذ گردیده است. در این روش ارتباط های معنایی و ساختاری معنا دار بین آزمون‌های واحد و قطعات کد برنامه ایجاد می‌شود و انتخاب موارد آزمون با استفاده از این ارتباط‌ها انجام می‌گردد. تفاصيل المقالة
      • حرية الوصول المقاله

        31 - کاهش زمان آزمون بازگشت در روش تولید آزمون‌رانه
        زهره مافی سیدحسن میریان حسین آبادی
        تولید ‌آزمون‌رانه یکی از شیوه‌های تولید نرم‌افزار اول آزمون است که در آن تولید هر جزء از کد با نوشتن آزمون شروع می‌گردد. این شیوه به دلیل مزایای فراوان ازجمله تولید کد خوانا، منظم، کوتاه و همچنین افزایش کیفیت، بهره‌وری و قابلیت اطمینان موردتوجه قرار گرفته است. تعداد زیا أکثر
        تولید ‌آزمون‌رانه یکی از شیوه‌های تولید نرم‌افزار اول آزمون است که در آن تولید هر جزء از کد با نوشتن آزمون شروع می‌گردد. این شیوه به دلیل مزایای فراوان ازجمله تولید کد خوانا، منظم، کوتاه و همچنین افزایش کیفیت، بهره‌وری و قابلیت اطمینان موردتوجه قرار گرفته است. تعداد زیاد موارد آزمون تولیدشده در این روش به عنوان نقطه قوتی جهت افزایش قابلیت اطمینان مطرح است با این حال اجرای مکرر موارد آزمون، موجب افزایش زمان آزمون بازگشت است. هدف این مقاله ارائه روش انتخاب موارد آزمون جهت کاهش زمان آزمون بازگشت در شیوه تولید ‌آزمون‌رانه است. تاکنون ایده‌های مختلفی برای انتخاب موارد آزمون مطرح شده است. اغلب این ایده‌ها مبتنی بر زبان برنامه‌نویسی و شیوه تولید نرم‌افزار است. ایده ارائه شده در این مقاله مبتنی بر روش اختلاف برنامه و ماهیت شیوه تولید ‌آزمون‌رانه اتخاذ گردیده است و ابزاری به صورت یک پلاگین در محیط Eclipse برای برنامه‌های زبان جاوا نوشته شده است. ابزار ارائه شده از پنج مولفه اصلی‌ 1) مدیریت نسخه‌های برنامه، 2) بلاک‌بندی کد تولید شده، 3) تشخیص بلاک‌های تغییریافته در هر نسخه نسبت به نسخه قبل، 4) ایجاد ارتباط معنایی بین آزمون‌های واحد و بلاک‌های کد و 5) انتخاب موارد آزمون تشکیل شده است. تفاصيل المقالة