مواجهه پیچیده شبکه‌های اجتماعی و هوش مصنوعی

هر آنچه سخت و استوار است، دود می‌شود و به هوا می‌رود! این جمله مارکس شاید توصیف مناسبی باشد برای آنچه امروز رسانه‌های اجتماعی پرمخاطب در تعامل با کاربران و دولت‌ها رقم زده‌اند. مساله پالایش محتوا (Content moderation) از جمله چالش‌هایی است که از نخستین روزهای پیدایی رسانه‌های اجتماعی وجود داشته و مصادیق آن – به‌ویژه با ظهور هوش مصنوعی و یادگیری ماشینی- روز به‌روز گسترده‌تر و پیچیده‌تر شده است. اما باید دید که چرا و چگونه این مساله، شرکت‌های بزرگ مالک پلتفرم‌های رسانه اجتماعی را در بن‌بست به حداکثر رساندن سود یا مصلحت‌اندیشی همگانی (منفعت عمومی کاربران) زمین‌گیر کرده است؟

به گزارش پایگاه خبری بانکداری الکترونیک به نقل از دنیای اقتصاد ،ماجرای اخیر یک خواننده مشهور آمریکایی (تیلور سوئیفت) با هوش مصنوعی که به فراگیر شدن تصاویر نامناسب او در پلتفرم ایکس یا توییتر که ساخته و پرداخته هوش مصنوعی بود، بار دیگر نگاه‌ها را به سمت رسانه‌های اجتماعی و سرنوشت پالایش محتوای نامناسب و ساختگی در عصر هوش مصنوعی مولد (Generative AI) هدایت کرد. اگرچه گزارش‌ها حاکی از این است که پلتفرم ایکس بعد از فراگیر شدن این تصاویر، تمام جست‌وجوهای مربوط به آن را در اپلیکیشن خود مسدود کرد، اما بسیاری از تحلیلگران این اتفاق را نتیجه طبیعی سیاست‌های اخیر این پلتفرم می‌دانند که در دوران مدیریت ایلان ماسک با هدف نجات این پلتفرم از «پرت شدن از صخره» به اجرا درآمد. محققان موسسه اینترنت و جامعه الکساندر فون هومبولت آلمان در پایان سال۲۰۲۲ هشدار دادند که سیاست‌های ایلان ماسک در قبال توییتر اگرچه هنوز تغییر محسوسی در نحوه اعمال پالایش محتوا به وجود نیاورده، اما به‌شدت خام‌دستانه، نابالغ و فاقد هرگونه فهمی از پیچیدگی‌های این موضوع حیاتی و ذاتی در مدیریت یک رسانه‌ اجتماعی است.

کاهش و تعدیل محسوس فرآیند پالایش محتوا در ایکس سیاستی بود که به موجب آن امکان تکثیر و فراگیر شدن محتوایی از این جنس تسهیل شده و در عوض توانسته است افزایش نرخ رشد کاربران این پلتفرم را تضمین کند. از این گذشته، در ماه‌های اخیر شرکت ایکس تعداد قابل‌توجهی از نیروهای کلیدی خود را در بخشی که مسوولیت پالایش محتوا را برعهده دارد (Trust and safety) از دست داده و هر بار ایلان ماسک از ایجاد تغییراتی در سیاست‌های این پلتفرم درخصوص مقابله با محتوای نامناسب صحبت کرده است.

در گذشته نیز بارها ناکارآمدی سیستم‌ها و الگوریتم‌های پایشگر رسانه‌های اجتماعی با پیامدهای تلخ و ناگوار اجتماعی همراه شده که واکنش‌ سخت نهادهای تنظیم‌گر و دولت‌های مختلف را نیز به همراه داشته است. یکی از این اتفاقات در سال۲۰۱۹ با ماجرای کشتار مسلمانان در مساجد شهر کرایست‌چرچ نیوزیلند رخ داد که از طریق حساب کاربری عامل تروریستی به‌صورت زنده در فیس‌بوک پخش شد و زمزمه‌هایی پیرامون ضرورت ورود قانون‌گذار به مساله پالایش محتوا در این پلتفرم‌ها برانگیخت. یک‌ سال بعد، اتفاقی کاملا مشابه در آمریکا رخ داد؛ یک کهنه‌سرباز آمریکایی به نام رونی مک‌نات لحظات پیش از خودکشی خود را از طریق فیس‌بوک به‌صورت زنده با دنبال‌کنندگانش به اشتراک گذاشت.

از این دو اتفاق دست‌کم سه سال گذشته است و طی این مدت افشاگران متعددی که سابقا کارمند این شرکت‌ها بوده‌اند، بارها تایید کرده‌اند که اولویت رسانه‌های اجتماعی پرمخاطب در درجه نخست به حداکثر رساندن سود و منفعت اقتصادی حاصل از جذب کاربر بیشتر و دیده ‌شدن پست‌های جنجالی و سپس پرداختن به منفعت عمومی کاربران است.

سود در گرو دیده ‌شدن بیشتر

سوفی ژانگ، محقق علم داده فیس‌بوک، پس از اخراج بحث‌برانگیزش در سال۲۰۲۱ اسرار تلخی از سازوکار مواجهه فیس‌بوک با حجم بسیار گسترده حساب‌های کاربری، لایک‌ها و کامنت‌ها و به‌طور کلی فعالیت‌های جعلی و سیستماتیک را افشا کرد. او اطلاعات دقیقی از جزئیات تصمیمات سلیقه‌ای و توجیه‌ناپذیر مدیران فیس‌بوک در قبال عملیات روانی‌ و کمپین‌های سیستماتیک جهت‌دار ارائه کرده است که مستقیما توسط گروه‌های فشار و هواداران سیاسی با هدف اثرگذاری بر مخاطب انبوه و دستکاری نظرات مردم درخصوص وقایع سیاسی و اجتماعی مهم کشورها همچون انتخابات، اعتراضات و تبلیغات سیاسی طرح‌ریزی شده بودند. ژانگ نخستین‌بار افشا کرد که شیوه برخورد فیس‌بوک با حساب‌های کاربری جعلی مشمول اولویت‌بندی کاملا تبعیض‌آمیز و جهت‌دار بوده است. هنگامی که کشورهایی از جمله ایالات‌متحده آمریکا، لهستان، کره‌جنوبی، تایوان، اوکراین و هند هدف این عملیات‌ قرار گرفته‌اند، رسیدگی و اقدام برای آنها کمتر از یک ماه زمان برده است. درحالی‌‌که همین موضوع برای کشورهای افغانستان، السالوادور، آرژانتین و آذربایجان گاهی تا یک سال هم به طول انجامیده است که در عمل به‌معنای بی‌اعتنایی کامل فیس‌بوک و رضایت دادن به وقوع حوادث و پیامدهای بعدی این دستکاری‌ها تلقی می‌شود.

رسانه‌های اجتماعی با سوار شدن بر موج توسعه فناوری‌های نوظهور ارتباطی همچون زیرساخت اینترنت پرسرعت، فراگیری اپلیکیشن‌های موبایل و شکل‌گیری خدمات دیجیتال تعاملی مبتنی بر نسل دوم وب، محبوبیت عمومی یافتند. بر اساس آمار Omnicore، با گذار از عصر ارتباطات تعاملی متن‌محور و ساده، در حال حاضر برای مثال پلتفرم رسانه اجتماعی اینستاگرام با بیش از ۲میلیارد کاربر فعال ماهانه در جهان در هر دقیقه به‌طور متوسط میزبان ۶۶ تا ۷۰هزار پست جدید است. قطعا هر چقدر از محتوای متنی به سمت محتوای چندرسانه‌ای (به ترتیب یک تصویر در هر پست، چند تصویر در هر پست، ویدئوی ثابت و ویدئو زنده یا استریم) حرکت می‌کنیم، حجم، دقت و پیچیدگی ظرفیت پردازشی موردنیاز برای بررسی و بازبینی به‌صورت تصاعدی افزایش می‌یابد؛ اما موضوع پالایش محتوا تنها به ابعاد فنی و ظرفیت پردازشی محدود نمی‌شود. به محض گذار از متن به تصویر و از تصویر به تصاویر متحرک و شکل‌های پیچیده‌تر نظیر استریمینگ، تعیین مصادیق محتوای غیرمجاز، غیرقانونی یا حساس و از آن مهم‌تر تشخیص آنها شدیدا دشوار و در مواقعی غیرممکن می‌شود. از سوی دیگر، در فضای انفجار محتوای کاربرمحور، سرعت عمل و زمان بیش از هر چیز تعیین‌کننده است. اگر در گذشته با توقیف یک فیلم یا اعمال اصلاحات روی آن می‌شد به راحتی از نشر نسخه اولیه جلوگیری کرد، اما در دنیای بدون مرز رسانه‌های اجتماعی هیچ ردپایی به‌طور کامل حذف نمی‌شود. در داستان کهنه‌سرباز آمریکایی اگرچه فیس‌بوک در کمتر از چند ساعت تمام حساب‌های کاربری بازنشردهنده این محتوا را مسدود و از بارگذاری مجدد آن جلوگیری کرد، ویدئوی رونی مک‌نات به سرعت سایر رسانه‌های اجتماعی نظیر یوتیوب و تیک‌تاک را درنوردید و عملا اقدام فوری فیس‌بوک نتوانست تاثیر محسوسی بر فراگیر شدن این محتوا بگذارد.

هوش مصنوعی مولد؛ چند معادله و چند مجهول!

با این همه، آنچه این معادله را وارد فاز بسیار جدید و ناشناخته‌ای کرده، ابزارهای هوش مصنوعی مولد هستند که در حال حاضر در قالب انواع چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ (LLMs) و ابزارهای ساخت تصاویر و ویدئو و عمدتا به‌صورت رایگان در اختیار کاربران سراسر دنیا قرار دارند. این ابزارها در کنار منافع متعددی که برای زندگی روزمره، تحصیلی و شغلی کاربران به همراه می‌آورند، ظرفیت تولید محتوای جعل عمیق (Deep fake)، اخبار و اطلاعات نادرست (Fake news and Misinformation) و به‌کارگیری روبات‌ها برای شتاب ‌بخشیدن به انتشار فراگیر محتوا در فضای مجازی را چندین برابر می‌کند.

در چند ماه اخیر پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا موجی از امیدواری را در برابر کاربران و دولت‌های عمیقا نگران گشوده است. این پیش‌نویس به‌عنوان اولین قانون هوش مصنوعی در جهان که ظاهرا پیش از آغاز سال جدید میلادی به مراحل نهایی خود نزدیک شده و به زودی باید منتظر خبر تصویب آن باشیم، حکایت از عزم جدی کشورهای اروپایی برای مقابله پیش‌دستانه با چالش‌های پیش‌بینی‌نشده و غیر قابل ‌کنترل احتمالی دارد که این فناوری به‌ویژه در زمینه سیستم‌های هوش مصنوعی با ریسک بالا می‌تواند برای اقتصاد، جامعه، سیاست و فرهنگ به همراه داشته باشد. بر اساس تعریف اتحادیه اروپا، سیستم‌های هوش مصنوعی با ریسک بالا به مواردی اطلاق می‌شود که بر ایمنی یا حقوق اساسی افراد تاثیر منفی مستقیم دارند. به‌طور مشخص زیرساخت‌های حیاتی، حمل‌ونقل، سلامت، امنیت و تمام حوزه‌هایی مانند مهاجرت، اشتغال، آموزش، اجرا و تفسیر قوانین و نظایر آنها، الزام قانونی مبنی بر ثبت در پایگاه‌های داده اتحادیه اروپا دارند.

با این همه، به سختی می‌توان به تجربه یک دهه مواجهه متکی بر قانون‌گذاری در اتحادیه اروپا برای کاهش عوارض و پیامدهای مخرب فناوری‌های نوظهور و جلوگیری از رفتار غیرمنصفانه پلت‌فرم‌های بزرگ نمره قبولی داد. بعد از اجرای قوانین عمومی حفاظت از داده شخصی (GDPR)، امروز به ندرت حامیانی از میان ذی‌نفعان مختلف دولتی، خصوصی یا حتی جامعه‌ مدنی در اروپا پای آن ایستاده‌ و حاضر به دفاع از آن هستند. با این اوصاف تعجبی نیست اگر بگوییم اسطوره قانون در بهترین حالت مشکلات وضعیت موجود را به بهای ایجاد دشواری‌ها و مشکلات جدید برطرف می‌کند.

در واقع نمی‌توان با محدود کردن انتشار اخبار یا مانع ‌گذاشتن برای ارتش روبات‌های هوش مصنوعی و تولید محتوای جعلی به کمک این فناوری، مشکل اثرگذاری فراگیر و غیرقابل‌ کنترل رسانه‌های اجتماعی را حل کرد. در نگاه اول شاید به نظر برسد مناسب‌ترین و کارآمدترین پاسخ به این قبیل چالش‌ها را باید در دنیای فناوری جست‌وجو کرد؛ اما در این رویکرد نیز همچنان و همیشه خطای طبیعی وجود دارد و چنانکه پیش‌تر به آن پرداختیم در بسیاری از مواقع، یک محتوای جعلی، گمراه‌کننده یا نامناسب در کمتر از چند دقیقه در دسترس انبوه میلیونی مخاطبان قرار می‌گیرد؛ نظیر آنچه اخیراً درباره تیلور سوئیفت شاهد بودیم. بهترین روزنه امید در این شرایط به گفته کاشیک باسو، اقتصاددان برجسته هندی در آموزش نهفته است. او می‌گوید: «ما باید در آموزش مردم به‌عنوان ذی‌نفعان واقعی دنیای دیجیتال بهتر عمل کنیم؛ به‌طوری‌که به مهارت و قدرت تمیز مجهز شوند و کمتر مستعد دستکاری باشند. نوآوری در قانون و سیاست باید همراه با نوآوری در آموزش در نظر گرفته شود؛ چراکه همه برای همگام شدن با تسهیل نوآوری در فناوری ضروری هستند.»

لینک کوتاهلینک کپی شد!
ممکن است شما دوست داشته باشید
ارسال یک پاسخ

4  ×    =  24