با فراگیر شدن شبکههای اجتماعی و رشد افزون اطلاعات به اشتراکگذاری شده در آنها، کاربران این شبکهها در معرض تهدیدهای بالقوه-ی امنیت و حریم خصوصی دادهها قرار دارند. تنظیمات حریمخصوصی گنجاندهشده در این شبکهها به کاربران کنترل کاملی در جهت مدیریت و خصوصیسازی دسترسی ب أکثر
با فراگیر شدن شبکههای اجتماعی و رشد افزون اطلاعات به اشتراکگذاری شده در آنها، کاربران این شبکهها در معرض تهدیدهای بالقوه-ی امنیت و حریم خصوصی دادهها قرار دارند. تنظیمات حریمخصوصی گنجاندهشده در این شبکهها به کاربران کنترل کاملی در جهت مدیریت و خصوصیسازی دسترسی به اطلاعات اشتراکیشان توسط کاربران دیگر نمیدهد. در این مقاله به کمک مفهوم گراف اجتماعی، یک مدل جدید کنترل دسترسی کاربربهکاربر پیشنهاد شد که امکان بیان سیاستهای حریم شخصی و کنترل دسترسی دقیقتر و حرفهایتری را برحسب الگو و عمق روابط میان کاربران در شبکههای اجتماعی فراهم میکند. در این مقاله با بهکارگیری روش شاخصهای منظم، روابط غیرمستقیم در میان کاربران موردبررسی و تحلیل قرارگرفته و سیاستهای دقیقتری نسبت به مدلهای قبلی ارائهشده است. ارزیابی نتایج نشان داد، در مورد 10 همسایه برای هر کاربر، تجمع احتمال یافتههای یک مسیر واجد شرایط، به ترتیب برای سه حلقه شمارنده اول برابر 1، 5/10 و 3/67 درصد است، و نهایتاً برای شمارنده چهارم به 100 درصد میرسد که با افزایش مشخصه شمارشی تعریفشده، زمان اجرای متوسط الگوریتم پیشنهادی و سایر الگوریتمهای ارائهشده در روشهای قبلی افزایش مییابد اما برای حدود بالاتر مشخصه شمارشی، الگوریتم پیشنهادی بهتر از الگوریتمهای قبلی عمل میکند.
تفاصيل المقالة
توابع غیرهمسان فیزیکی (PUF) سختافزاری را برای تولید الگویی منحصربهفرد از چالش- پاسخ با اهداف احراز هویت و رمزگذاری ارائه میدهند. یکی از ویژگیهای مهم در این مدارها غیرقابل پیشبینیبودن است؛ به این معنی که یک مهاجم نمیتواند پاسخهای آینده را از مشاهدات قبلی پیشبینی أکثر
توابع غیرهمسان فیزیکی (PUF) سختافزاری را برای تولید الگویی منحصربهفرد از چالش- پاسخ با اهداف احراز هویت و رمزگذاری ارائه میدهند. یکی از ویژگیهای مهم در این مدارها غیرقابل پیشبینیبودن است؛ به این معنی که یک مهاجم نمیتواند پاسخهای آینده را از مشاهدات قبلی پیشبینی کند. با این حال نشان داده شده که الگوریتمهای یادگیری ماشین، تهدیدی قابل توجه برای PUF ها هستند؛ زیرا آنها قادر به مدلسازی دقیق رفتار PUF میباشند. در این مقاله، ما تهدیدات امنیتیPUF را تحلیل و یک روش احراز هویت مبتنی بر PUF به نام SQ-PUF را ارائه میکنیم که میتواند در برابر حملات یادگیری ماشین مقاومت خوبی از خود نشان دهد. توانایی شبیهسازی یا پیشبینی آن را با مبهمسازی همبستگی بین جفتهای چالش- پاسخها دشوار کردیم. نتایج تجربی نشان میدهند که برخلاف PUFهای موجود، حتی با مجموعهای از دادههای بزرگ هم نمیتوان به مدل SQ-PUF حمله موفقی داشت و بیشترین دقت پیشبینی %۵۳ است که نشاندهنده غیرقابل پیشبینیبودن این مدل میباشد. علاوه بر این، یکنواختی و یکتایی در این مدل تقریباً با مقدار ایدهآل در
A-PUF یکسان باقی مانده است.
تفاصيل المقالة
رایمگ
يقوم نظام رایمگ بتنفيذ جميع عمليات الاستلام والتقييم والحكم والتحرير وتخطيط الصفحة والنشر الإلكتروني للمجلات العلمية.