چگونه می‌توان هوش مصنوعی را ایمن‌‍ تر و قابل اعتمادتر کرد؟

هوش مصنوعی نقش مهمی را در زندگی روزمره ما بازی می‌کند. هوش مصنوعی – معمولاً یادگیری ماشینی (ML) – فرآیند آموزش الگوریتم‌ها با استفاده از داده‌ها به جای برنامه‌ریزی صریح آن‌ها است. چنین الگوریتم‌هایی در حال حاضر در برنامه‌های مختلف از منابع انسانی گرفته تا تامین مالی و حمل و نقل و پزشکی استفاده می‌شوند، و می توان موارد استفاده زیادی را در این رابطه ذکر کرد.

به گزارش پایگاه خبری بانکداری الکترونیک، مزایای یادگیری ماشین آشکار است: آنها تجزیه و تحلیل سریعتر داده‌های بیشتری را نسبت به هر انسان یا حتی گروهی از انسان‌ها امکان پذیر می‌کنند. بسیاری از برنامه‌های ML که می‌توانند از توانایی‌های انسانی پیشی بگیرند، از قبل وجود دارند، مانند برنامه‌هایی که برای بازی Chess (شطرنج) یا شناسایی اظهارنامه بیمه تقلبی طراحی شده‌اند. الگوریتم‌های فعلی ML ارزش کافی برای توجیه ادامه تحقیقات و تأمین مالی ایجاد می‌کنند. هوش مصنوعی اینجاست تا بماند – و قرار است هم در صنعت و هم در زندگی شخصی ما فراگیرتر شود.

با این حال، یک مانع هنوز در مسیر موفقیت واقعی هوش مصنوعی وجود دارد – اعتماد. چگونه می‌توانیم به هوش مصنوعی اعتماد کنیم؟

موانع دستیابی به پتانسیل کامل هوش مصنوعی

دو جنبه اساسی وجود دارد که باید قبل از اینکه هوش مصنوعی بتواند به پتانسیل کامل خود برسد، باید مورد توجه قرار گیرد. اینها درک درستی از توانایی‌های هوش مصنوعی و نحوه استفاده از آن و بهبود امنیت هوش مصنوعی است.

برای درک نحوه عملکرد یادگیری ماشین و نحوه استفاده صحیح از آن، مهم است که به خاطر داشته باشید که اگرچه برخی از مدل‌های ML بسیار پیچیده هستند، اما سیستم‌هایی که ML را در خود جای می‌دهند هنوز فقط محصول ترکیب درک یک دامنه و داده‌های آن هستند. اکثر روش‌های فعلی ML به گونه‌ای طراحی شده‌اند که به سادگی مدل‌های پیچیده دلخواه را بر اساس برخی معیارهای بهینه‌سازی با داده‌ها تطبیق دهند. روشی که این الگوریتم‌ها در داده‌ها قرار می‌گیرند گاهی اوقات می‌تواند باعث شود مدل چیزهایی را بیاموزد که واقعاً مهم نیستند، اما برای حل مسئله بهینه‌سازی در آن مجموعه داده خاص خوب هستند.

ارزش منحصر به فردی که ML به ارمغان می آورد، توانایی آن در یادگیری از داده ها است. این نیز اتفاقاً ضعف منحصر به فرد آن از منظر امنیتی است. ما می دانیم که ارسال ورودی‌های غیرمنتظره حتی به سیستم های محاسباتی ‘کلاسیک’ قطعی می تواند باعث رفتارهای غیرمنتظره شود. این رفتارهای غیرمنتظره اغلب منجر به کشف آسیب‌پذیری‌های قابل بهره‌برداری می‌شود و دلیل این است که روش‌هایی مانند اعتبارسنجی ورودی مناسب و فازی کردن در آزمایش بسیار ارزشمند هستند.

هنگامی که رفتارهای غیرمنتظره در کد سنتی یافت می‌شود، می توان آنها را با ویرایش کد برطرف کرد. با این حال، هنگامی که رفتارهای غیرمنتظره در مدل‌های ML یافت می‌شود، اصلاحات را نمی‌توان به راحتی با ویرایش دستی انجام داد، اما اقدامات احتیاطی باید در جای دیگری انجام شود. از آنجایی که سیستم‌های ML در تعداد فزاینده‌ای از موارد استفاده با ارزش بالا استفاده می‌شوند، انگیزه‌های فزاینده‌ای برای دشمنان وجود دارد تا آسیب‌پذیری‌های ذاتی آن سیستم‌ها را بیابند و از آن‌ها بهره‌برداری کنند.

بسیاری از مدل های ML به صورت دوره ای بازآموزی می‌شوند. به عنوان مثال، برای به‌روز نگه داشتن یک مدل بر اساس آخرین رفتارهای مخاطب هدف، اطمینان از اینکه سیستم بهترین توصیه‌های ممکن را هنگامی که یک ویدیو یا آهنگ جدید محبوبیت پیدا می‌کند، ارائه می‌کند، یا یک سیستم امنیتی را قادر می‌سازد تا موارد جدید را شناسایی کند، بازآموزی لازم است.

اما فرآیند بازآموزی مدل، خود بردارهای حمله را قادر می‌سازد که حتی زمانی که حریف به سیستمی که مدل را اجرا می‌کند دسترسی مستقیم ندارد، کار کنند. چنین حملاتی می‌توانند به سادگی داده‌های ورودی مدل را با منبع خارجی دستکاری کنند. اینها تهدیداتی هستند که راه حل‌های امنیتی فعلی برای مقابله با آنها مجهز نیستند، زیرا شامل شناسایی فایل‌های مخرب، شناسایی نقض در سیستم‌های دفاعی امنیتی رایانه سنتی، یا تشخیص حضور یک عامل مخرب در یک سیستم یا شبکه نمی‌شود. حتی رویکردهای کلاسیک اعتبارسنجی داده‌های ورودی مانند تشخیص پرت و ردیابی توزیع‌ها در داده‌ها در طول زمان اغلب قادر به تشخیص چنین حملاتی نیستند، زیرا بهترین راه برای دستکاری یک مدل ML معمولاً ایجاد تغییرات بسیار ظریف در داده‌های ورودی آن است.

درک حملات به مدل‌های یادگیری ماشینی

چندین راه مختلف برای حمله به مدل های ML وجود دارد و می‌توان آنها را به روش‌های مختلف دسته بندی کرد. اینها شامل فرار از مدل، مسمومیت مدل و حملات محرمانه است. بیایید نگاهی دقیق‌تر به هر یک از این دسته بندی‌ها بیندازیم تا بفهمیم که چه معنایی دارند و چگونه می‌توان دفاع‌ها را اجرا کرد.

حملات فرار مدل به فریب یک مدل برای طبقه‌بندی نادرست یک ورودی خاص یا فرار از مکانیسم‌های تشخیص ناهنجاری متکی است. نمونه‌هایی از فرار از مدل شامل تغییر یک باینری مخرب به طوری که به عنوان خوش خیم طبقه بندی شود یا فریب یک الگوریتم تشخیص تقلب برای شناسایی نکردن ورودی جعلی است.

اگرچه حملات مدل‌سازی می‌توانند آسیب‌های بزرگی به همراه داشته باشند، اما شاید در بین انواع حملاتی که در اینجا مورد بحث قرار گرفته‌اند، کمترین شدت را داشته باشند. حملات مدل‌سازی به دشمن اجازه می‌دهد از یک سیستم سوء استفاده کند، اما رفتار مدل ML مورد حمله را برای ورودی‌های آینده تغییر نمی‌دهند و داده‌های محرمانه را افشا نمی‌کنند. حملات فرار مدل اساساً از این واقعیت سوء استفاده می کنند که مرزهای تصمیم در مدل بسیار پیچیده هستند و توانایی مدل برای درون یابی بین نمونه‌ها محدود است، به نحوی که ‘شکاف‌هایی’ را برای استفاده باقی می گذارد.

از طرف دیگر، مسمومیت مدل با هدف تغییر رفتار یک مدل انجام می‌شود تا نمونه‌های آینده به اشتباه طبقه بندی شوند. یک مثال، ارائه ورودی‌های مخرب به یک مدل طبقه بندی هرزنامه برای فریب دادن آن به طبقه بندی نادرست ایمیل‌ها است. این را می‌توان در سیستم‌هایی به دست آورد که به کاربران اجازه می‌دهد ایمیل را به عنوان هرزنامه برچسب گذاری کنند.

برای درک نحوه عملکرد این حمله، این واقعیت را در نظر بگیرید که فرآیندهای آموزشی مدل برای یافتن یک مرز تصمیم گیری بهینه بین کلاس‌ها طراحی شده اند. هنگامی که یک نمونه در سمت ‘اشتباه’ مرز تصمیم ظاهر می‌شود، الگوریتم قصد دارد با جابجایی مرز تصمیم آن را اصلاح کند تا نمونه جایی باشد که برچسب آن نشان می‌دهد. اگر نمونه‌ای در داده‌های آموزشی به طور هدفمند به اشتباه برچسب گذاری شود، باعث می‌شود که مرز تصمیم در جهت اشتباه حرکت کند. این متعاقباً می‌تواند منجر به شناسایی نشدن نمونه‌های متخاصم در آینده یا طبقه‌بندی نمونه‌های خوش‌خیم به عنوان مخرب شود.

بسیاری از مدل‌هایی که دارای سطح بالایی از مالکیت معنوی شرکت هستند یا بر روی داده‌های حساس آموزش دیده‌اند، در دسترس جهان هستند. حملات محرمانه شامل تکرار آن مدل‌ها (سرقت مدل) و یا افشای داده‌هایی است که برای آموزش آن مدل‌ها استفاده شده‌اند (وارونگی مدل).

برای انجام یک حمله محرمانه، دشمن مجموعه‌های بهینه‌سازی‌شده‌ای از پرس‌و‌جوها را به مدل هدف می‌فرستد تا نحوه عملکرد مدل را کشف کند یا مدل را بر اساس آن ورودی‌ها بازسازی کند. این روش‌ها را می‌توان برای سرقت مالکیت معنوی و کسب مزیت رقابتی احتمالی یا افشای برخی از داده‌هایی که برای آموزش مدل استفاده شد، استفاده کرد.

مبارزه با تهدیدات در برابر مدل های ML

چگونه می‌توان هوش مصنوعی را ایمن تر و قابل اعتمادتر کرد؟ اولین قدم درک و تصدیق وجود تهدیدات بالقوه است. بسیاری از تهدیدات علیه مدل‌های ML واقعی هستند، اما متخصصان ML لزوماً آنها را در نظر نمی‌گیرند، زیرا بیشتر تلاش‌هایی که برای توسعه مدل‌ها انجام می‌شود بر بهبود عملکرد مدل متمرکز است. امنیت، در بهترین حالت، یک فکر بعدی است، و ما باید این را تغییر دهیم و امنیت را از قبل در طراحی سیستم‌های ML دخالت دهیم. اگرچه حملات علیه مدل‌های ML یک نگرانی جدی است، راه‌های زیادی برای کاهش آن‌ها وجود دارد.

یکی از راه‌های دفاع در برابر حملات، شناسایی، پاکسازی یا دور انداختن نمونه‌های بالقوه مخرب است. رویکردها برای این کار بسته به نوع کاربرد و مدل متفاوت است، اما به طور کلی، این فرآیند شامل درک چگونگی آسیب دیدن یک مدل به منظور شناسایی انواع نمونه‌هایی است که می‌توانند آن آسیب را ایجاد کنند. یک مثال می‌تواند نظارت بر توزیع ورودی‌ها باشد که توجه بیشتری به نمونه‌هایی دارد که به طور مشکوکی نزدیک به مرزهای تصمیم مدل هستند، اما در سمت اشتباه طبقه بندی شده‌اند.

اغلب بین دقت و استحکام تعادل وجود دارد. مدل‌های ساده‌تر اغلب قوی‌تر هستند، اما معاوضه‌ها طبیعتاً باید مورد به مورد در نظر گرفته شوند. همچنین تکنیک‌هایی مانند آموزش خصمانه وجود دارد که می‌تواند استحکام و گاهی اوقات حتی عملکرد را بهبود بخشد زیرا مجموعه بزرگتری از نمونه‌های آموزشی را برای مدل فراهم می‌کند. آموزش خصومت‌آمیز فرآیند افزودن نمونه‌های متخاصم با برچسب‌گذاری صحیح به داده‌های آموزشی است – و اگرچه این ممکن است همه موارد را پوشش ندهد، مطمئنا می‌تواند کمک کند.

نظارت بر خروجی‌های یک مدل به طور فعال، با استفاده از مجموعه‌ای از تست‌های تعریف‌شده، پایه‌ای را فراهم می‌کند که می‌تواند به طور موثر برای تشخیص بسیاری از موارد مسمومیت مدل استفاده شود. چنین آزمایشاتی به تمرین‌کنندگان اجازه می‌دهد تا تغییراتی را که در طول بازآموزی رخ می‌دهند، درک کنند. تمایز بین تغییرات عادی در رفتار ورودی و نتایج یک حمله مسمومیت اغلب دشوار است. این مشکل بیشتر شبیه به تشخیص و پاسخ امنیت سایبری سنتی است تا روش‌های پیشگیرانه کلاسیک. ما می‌دانیم که مهاجمان آنجا هستند، و می‌دانیم که آنها ممکن است به دنبال دستکاری مدل‌ها باشند، بنابراین باید اذعان کنیم که حفاظت‌ها ممکن است هرگز کافی نباشد.

علاوه بر رویکردهای کلی کاهش حمله که در بالا ذکر شد، روش‌هایی با هدف محافظت از محرمانه بودن مدل مانند پوشاندن گرادیان، حریم خصوصی تفاضلی و تکنیک‌های رمزنگاری وجود دارد.

اعتماد می‌تواند پتانسیل کامل هوش مصنوعی را آزاد کند

با اذعان به وجود تهدیدات، اعمال اقدامات احتیاطی مناسب و ساختن سیستم‌هایی که برای شناسایی فعالیت‌ها و ورودی‌های مخرب طراحی شده‌اند، می‌توانیم بر این چالش‌ها غلبه کنیم و ML را ایمن‌تر از آنچه در حال حاضر هست کنیم.

اگر می‌خواهیم به هوش مصنوعی اعتماد کنیم، باید علاوه بر درک توانایی‌ها و محدودیت‌ها، این اطمینان را داشته باشیم که حداقل به راحتی نمی‌توان آن را دستکاری کرد. اما برای انجام این کار، باید از مشکلات آگاه باشیم و فعالانه آنها را کاهش دهیم تا واقعاً قدرت کامل هوش مصنوعی را آزاد کنیم.

هوش مصنوعی یک عنصر کلیدی برای آینده ما است – و ما باید بتوانیم به آن اعتماد کنیم تا از مزایای کامل آن بهره مند شویم. هوش مصنوعی امن واقعاً پایه‌ای برای هوش مصنوعی قابل اعتماد و گامی کلیدی در مسیر آینده‌ای قدرتمند است.
لینک کوتاهلینک کپی شد!
ممکن است شما دوست داشته باشید
ارسال یک پاسخ

69  −  68  =