هوش مصنوعی یاد می‌گیرد که چه زمان‌هایی قابل اعتماد نیست!

امروزه افراد برای اتخاذ تصمیمات حیاتی مربوط به سلامت و امنیت انسان‌ها، از جمله رانندگی خودمختار و تشخیص بیماری‌ها به سیستم‌های هوش مصنوعی (که به آن‌ها شبکه‌های عصبی یادگیری عمیق هم گفته می‌شود) روی آورده‌اند و روز به روز بیشتر از آن‌ها استفاده می‌کنند. این شبکه‌ها می‌توانند با شناسایی الگوهای موجود در پایگاه‌های داده پیچیده، در تصمیم‌گیری به انسان کمک کنند اما باید از کجا بدانیم که تصمیم‌گیری درستی انجام داده‌اند؟

به گزارش پایگاه خبری بانکداری الکترونیک، اگر روش سریع‌تری برای تخمین عدم قطعیت در تصمیم‌گیری مبتنی بر هوش مصنوعی داشته باشیم، نتایجی مطمئن‌تری به دست می‌آوریم.

الکساندار امینی و همکارانش در موسسه فناوری ماساچوست (MIT) و دانشگاه هاروارد درباره این موضوع تحقیق کرده‌اند.

آن‌ها روش سریعی را پیدا کردند که شبکه عصبی می‌تواند با استفاده از آن داده‌ها را پردازش کند، نتیجه پیش‌بینی خود را ارائه دهد و سطح اطمینان مدل را نیز بر اساس داده‌های موجود به دست آورد. پیشرفتی که در این زمینه صورت گرفته می‌تواند زندگی انسان‌ها را نجات دهد، همانطور که یادگیری عمیق در حال حاضر استفاده‌های زیادی در دنیای واقعی دارد.

تخمین قطعیت شبکه بسیار مهم است. برای مثال، این میزان قطعیت است که تفاوت اتومبیل‌های خودمختار را تعیین می‌کند. اگر سطح قطعیت در شبکه عصبی زیاد باشد، سیستم مطمئن است «که الان می‌تواند از این تقاطع عبور کند» ولی وقتی سطح قطعیت کافی نباشد سیستم «حدس می زند که الان می‌تواند از این تقاط عبور کند و به همین خاطر محض احتیاط می‌ایستد.»

روش‌هایی که در حال حاضر برای تخمین عدم قطعیت در شبکه‌های عصبی به کار می‌رود از لحاظ رایانشی بسیار هزینه‌بر هستند و برای تصمیمات ضروری به نسبت کُند پیش می‌روند. اما رویکرد امینی (که «رگرسیون شهودی عمیق» یاdeep evidential regression نام دارد) به این فرایند سرعت می‌بخشد و منجر به نتایج مطمئن‌تر می‌شود. الکساندر امینی، دانشجوی دکتری در گروه استاد دانیلا روس (Daniela Rus) در آزمایشگاه هوش مصنوعی و علوم کامپیوتری MIT (CSAIL) می‌گوید: «ما نه تنها باید مدل‌هایی با عملکرد بالا داشته باشیم، بلکه باید بدانیم چه زمان‌هایی نمی‌توانیم به این مدل‌ها اعتماد کنیم.»

همانطور که پروفسور روس می‌گوید: «این موضوع بسیار مهم است و می‌تواند کاربردهای وسیعی داشته باشد. ما می‌توانیم با این رویکرد محصولاتی که بر مدل‌های هوش مصنوعی متکی هستند را ارزیابی کنیم. وقتی عدم قطعیت مدلی یادگیری را بدانیم، می‌توانیم میزان خطاهای احتمالی آن را حدس بزنیم و ببینیم چه داده‌های دیگری می‌تواند این مدل را ارتقا دهد.»

در گردهماییNeurIPS ماه آینده، امینی به همراه پروفسور روس، ویلکو شوارتنیگ (دانشجوی فارغ‌التحصیل دانشگاه MIT ) و آوا سلیمانی (فارغ‌التحصیل دانشگاه هاروارد و MIT) نتیجه این تحقیقات را ارائه می‌دهد ( روس استاد مهندسی الکترونیک و علوم کامپیوتری در دانشگاه Andrew and Erna Viterbi، رئیس آزمایشگا CSAIL و معاون رئیس امور پژوهشی در دانشگاه MIT Stephen A. Schwarzman College است.)

عدم قطعیت کارآمد

یادگیری عمیق بعد از بالاو پایین‌هایی که در گذشته داشته، امروزه در بعضی از وظایف عملکرد چشمگیری را از خودشان نشان داده و می‌تواند حتی از انسان هم دقیق‌تر عمل کند. در حال حاضر، هرکجا که کامپیوتری باشد یادگیری عمیق هم پیدا می‌شود. این یادگیری عمیق است که نتایج موتور جستجو را بالا می‌آورد، چهره انسان‌ها را تشخیص می‌دهد و فیدهای نرم‌افزارهای اجتماعی را به نمایش می‌گذارد. امینی می‌گوید، «ما با استفاده از یادگیری عمیق به موفقیت‌های چشمگیری دست یافتیم. شبکه‌های عصبی می‌توانند 99 درصد مواقع جواب درست را به ما بدهند.» اما وقتی صحبت از جان انسان‌ها در میان باشد 99 درصد کافی نیست.»
«یکی از مسائلی که در تحقیقات یادگیری عمیق به آن توجهی نشده، این است که این مدل‌ها چطور می‌توانند به ما بگویند چه زمان احتمال خطا دارند. آن یک درصد احتمال خطا برای ما اهمیت زیادی دارد و ما باید این موقعیت‌ها را به طور کارآمد و مطئن پیدا کنیم.»

شبکه‌های عصبی گاهی بسیار انبوه هستند و میلیاردها پارامتر را در بر می‌گیرند. به همین خاطر وقتی می‌خواهند پاسخ ساده‌ای را به ما بدهند باید بار رایانشی زیادی را بر دوش بکشند، چه برسد به اینکه بخواهند سطح اطمینان سیستم را هم به دست آورند. بررسی عدم قطعیت در شبکه‌های عصبی کار جدیدی نیست و در گذشته نیز انجام شده. ولی در رویکردهای قبلی (که نتیجه یادگیری عمیقBayesian بودند)، برای آنکه به سطح اطمینان سیستم عصبی پی ببرند به اجرا و نمونه‌برداری از شبکه‌ها می‌پرداختند. این فرایند به زمان و حافظه زیادی احتیاج داشت و ممکن بود در پردازش‌های پرسرعت مشکل ایجاد کند.

محققان ما راهی را پیدا کرده‌اند که می‌توانند به کمک آن عدم قطعیت سیستم را فقط با یک بار راه‌اندازی شبکه عصبی تخمین بزنند. شبکه‌ای که آن‌ها طراحی کرده‌اند خروجی بیشتری دارد؛ این سیستم نه تنها تصمیم‌گیری نهایی را به اطلاع می‌رساند، بلکه بر اساس شواهد، «توزیع احتمال» جدیدی را هم نشان می‌دهد. این توزیع‌ها (که به آن‌ها توزیع‌های شهودی می گویند) به طور مستقیم سطح اطمینان مدل را تخمین می‌زنند. درنتیجه هر عدم‌قطعیتی که در داده‌های ورودی یا نتیجه نهایی باشد به طور جداگانه مشخص می‌شود. این جداسازی به ما نشان می‌دهد که آیا می‌توان با تغییر شبکه عصبی عدم قطعیت را کاهش داد یا اینکه عدم قطعیت به خاطر خطای داده‌هاست.

بررسی اطمینان

محققان برای تست این رویکرد، کار خود را با یک پروژه بینایی ماشین آغاز کردند. آن‌ها به شبکه عصبی خود یاد دادند که تصاویر رنگی یک دوربین را آنالیز کند و عمق تصویر (فاصله آن تا لنز دوربین) را به ازای هر پیکسل تخمین بزند. اتومبیل‌های خودکار هم باید دقیقاً همین محاسبات را انجام دهند تا بتوانند فاصله خود را با اشخاص پیاده یا اتومبیل‌های دیگر تشخیص دهند (و این اصلاً کار ساده‌ای است.)

عملکرد این شبکه با مدل‌های پیشرفته قبلی یکسان بود، با این تفاوت که این سیستم می‌توانست عدم قطعیت خودش را نیز تخمین بزند. همانطور که محققان فکر می‌کردند، این شبکه عدم قطعیت زیادی را برای پیکسل‌ها نشان داد زیرا نمی‌توانست عمق دقیق تصویر را تشخیص دهد. امینی می‌گوید: «این سیستم با دقت خوبی نسبت به خطاهای شبکه کالبیره شده بود و از نظر ما این ویژگی یکی از مهمترین معیارهای تصمیم‌گیری در مورد کیفیت یک تخمین زننده به حساب می‌آید.»

به منظور اجرای تست استرس در کالیبره‌سازی خود، این تیم تحقیقاتی نشان دادند که سیستم در مواجهه با داده‌هایی که تابه‌حال ندیده عدم قطعیت بیشتری را نشان می‌دهد. در این آزمایش، محققان بعد از اینکه ماشین را با تصاویر داخل خانه آموزش دادند، تصاویر رانندگی در خارج از خانه را به پایگاه داده آن اضافه کردند. در این زمان شبکه مدام هشدار می‌داد پاسخ‌‌هایی که برای تصاویر جدید ارائه می‌دهد قابل اطمینان نیستند. به کمک این آزمایش متوجه شدیم که ماشین‌ها می‌توانند تشخیص دهند که چه زمان نباید به طور کامل به تصمیماتشان اطمینان کنیم. به گفته امینی، «وقتی چنین اتفاقی رخ می‌دهد نباید بر اساس تصمیمات هوش مصنوعی عمل کنیم. مثلاً اگر سیستم بیماری فردی را تشخیص داد، باید برای اطمینان از آن دوباره آزمایش انجام دهیم.»

شبکه حتی می‌دانست که تصاویر چه زمان دستکاری شده‌اند و این قابلیت می‌تواند ما را از حمله هکرها (یا دستکاری داده) حفظ کند. در یک پروژه امتحانی دیگر، محققان میزان داده‌های خطادار را در تصاویری که به خورد شبکه داده بودند افزایش دادند. تأثیر این دستکاری بسیار ناچیز بود (و با چشم انسان قابل دیدن نبود) اما شبکه توانست آن تصاویر را پیدا کند و آن‌ها را با علامت «درصد بالایی از عدم قطعیت» به نمایش بگذارد. اینکه یادگیری ماشین بتواند داده‌های تحریف‌شده را پیدا کند و درمورد آن به ما اخطار بدهد، به ما کمک می‌کند حملات خصومت‌آمیز دیگر را هم پیدا کنیم (مسئله‌ای که در عصر ازدیاد دیپ‌فیک ها نگرانی‌های زیادی را به وجود آورده است.)

به گفته رایا هادسل، محقق هوش مصنوعی در شرکت دیپ‌مایند (که خودش در این تحقیق نقشی نداشته)، «رگرسیون شواهد عمیق رویکرد ساده و فوق‌العاده‌ای است که ما را در تشخیص عدم قطعیت ماشین پیشرفته می‌کند. این قابلیت برای حوزه رباتیکس و سیستم‌های کنترل دنیای واقعی بسیار ارزشمند است. این روش به گونه‌ای جدید عمل می‌کند و هیچ‌یک ازجنبه‌های آشفتگی رویکردهای سابق (از جمله نمونه‌برداری و نمونه‌برداری گروهی» را ندارد. این موضوع باعث می‌شود رویکرد جدید محققان نه تنها بهتر از رویکردهای قبلی عمل کند بلکه از لحاظ رایانشی هم کارآمدتر باشد.»

رگرسیون شواهد عمیق می‌تواند امنیت را در تصمیم‌گیری‌های مبتنی بر هوش مصنوعی افزایش دهد. همانطور که امینی می‌گوید، «کم کم داریم در آزمایشگا تحقیقات و همچنین دنیای واقعی با مزایای بیشتری از این شبکه‌های عصبی آشنا می‌شویم و حتی می‌توانیم در شرایطی که پای جان انسان‌ها در میان است از آن استفاده کنیم. هرکسی که از این روش استفاده می‌کند، (چه پزشکی که به کمک آن بیماری‌ها را تشخیص می‌دهد و چه فردی که روی صندلی اتومبیل خودمختار نشسته) باید از میزان ریسک یا عدم‌قطعیت مربوط به تصمیمات هوش مصنوعی آگاه باشد.» طبق پیش‌بینی او، به زودی می‌توانیم برای تشخیص عدم قطعیت و همچنین گرفتن تصمیمات محافظه‌کارانه در شرایط پرخطر (از جمله زمانی که اتومبیلی به تقاطع نزدیک می‌شود) از این سیستم‌ها استفاده کنیم.

او می‌گوید: «هر حوزه‌ای که قرار است از یادگیری ماشین استفاده کند، باید از عدم قطعیت آن آگاه باشد.»
بخشی از این کار تحقیقاتی با حمایت موسسه علوم ملی و موسسه تحقیقات تویوتا و از طریق مرکز تحقیقات مشترک تویوتا با CSAIL صورت گرفته است.

 

منبع: news.mit.edu

لینک کوتاهلینک کپی شد!
ممکن است شما دوست داشته باشید
ارسال یک پاسخ

  ×  8  =  56