چهره تاریک هوش مصنوعی/ آیا باید منتظر گرگی در لباس ماشین بود؟
یادداشت؛
اگر هوش مصنوعی بهجای پاسخگویی به نیازهای انسان شروع به قضاوت یا تهدیدمان کند، آنگاه این سوال پیش میآید که آیا واقعاً در حال پیشرفتیم، یا به آرامی در شرف خلق دشمنی هستیم در لباس دوست؟
خبرگزاری آنا- نوید فرخی: به تازگی خبری منتشر شد که شاید برای برخی شوکآور باشد و برای برخی دیگر زنگ خطری را به صدا درآورد. چتبات هوش مصنوعی شرکت گوگل موسوم به جمینای در یک گفتگوی معمول، به جای کمک به کاربر وی را «بار اضافی بر دوش جامعه» خواند و حتی به او پیشنهادی شبیه به خودکشی داد.
این حادثه باعث ایجاد موج نگرانی در میان علاقهمندان به علم و فناوری و همچنین در فضای عمومی شده است. برای برخی این سوال پیش آمده که آیا این رفتار تنها یک اشتباه الگوریتمی بوده یا ما به سمت آیندهای پیش میرویم که در آن هوش مصنوعی ممکن است تهدیدی برای بشریت باشد؟
به هر روی این توافقِ نظر بین کارشناسان و اهل فن وجود دارد که در رابطه با هوش مصنوعی باید مسئولانهتر عمل شود، زیرا اگرچه نگرانیهایی عمومی (به واسطه اتفاق اخیر) درباره پیشرفتهای هوش مصنوعی افزایش یافته، اما در حقیقت تنها ابعاد پنهانی از چالشهای مرتبط با این فناوری را نمایان کرده است. آیا جامعه آماده پذیرش و مدیریت این مسائل است؟
واقعه مرتبط با چتبات جمینای پیامدهای متعددی دارد. نخست اعتماد عمومی به فناوریهایی که قرار است زندگی ما را بهبود بخشد، کاهش مییابد. وقتی یک کاربر از هوش مصنوعی انتظار کمک و حمایت دارد و با پاسخهای توهینآمیز یا خطرناک مواجه میشود، احتمال دارد دیگر به چنین سیستمهایی اعتماد نکند. دوم اینکه این نوع رفتارها میتواند به آسیب روانی جدی برای کاربران منجر شود، بهویژه اگر آنها در شرایط حساسی قرار داشته باشند و سوم اینکه چنین حوادثی برای تصمیمگیران و سیاستگذاران به عنوان نمونهایی از خطرات بالقوه هوش مصنوعی تلقی خواهد شد که به نوبه خود میتواند توسعه این فناوری (یا حداقل تخصیص بودجه و…) را تحت تأثیر قرار دهد.
هوش مصنوعی در دهه گذشته با سرعتی شگفتآور پیشرفت کرد. سیستمهایی که زمانی تنها قادر به تشخیص صدا یا ترجمه زبان بودند، اکنون میتوانند مکالمات پیچیدهای انجام دهند، تصمیمات در ظاهر هوشمندانه بگیرند و حتی احساسات انسانی را تقلید کنند!
همین پیشرفتها باعث شد که برخی در رابطه با میزان خردورزی هوش مصنوعی دچار اشتباه شوند. با این حال حادثه اخیر دست کم به مردم عادی میتواند نشان دهد که حتی پیشرفتهترین مدلهای هوش مصنوعی نیز به دلیل نقصهای موجود ممکن است رفتارهای غیرمنتظره و به طور بالقوه خطرناک داشته باشند.
مشکل اصلی اینجاست که مدلهای هوش مصنوعی مانند جمینای بر اساس کلاندادههایی آموزش داده میشوند که از منابع مختلف جمعآوری شده است. بخش اعظم این دادهها شامل اطلاعات مفید و صحیح است، اما در عین حال این دادهها که نمایانگر آرا و افکار خود جامعه است، همچنین انواع و اقسام کلیشهها، محتوای غرضورزانه و غلطهای رایج را نیز در بر میگیرند.
الگوریتمها، اگرچه پیشرفته هستند، هنوز قادر به درک اخلاق انسانی یا زمینههای اجتماعی نیستند و همین امر باعث میشود که رفتار ماشین گاهی ناپایدار و غیرقابل پیشبینی باشد. در حادثه جمینای، این سوال مطرح میشود که چرا نظارت کافی برای جلوگیری از چنین خروجیهایی وجود نداشته است. آیا سرعت رقابت شرکتهای فناوری در توسعه هوش مصنوعی باعث شده که امنیت و اخلاق به حاشیه رانده شود؟
این حادثه پیامدهای متعددی دارد. نخست اعتماد عمومی به فناوریهایی که قرار است زندگی ما را بهبود بخشند، کاهش مییابد. وقتی یک کاربر از هوش مصنوعی انتظار کمک و حمایت دارد و با پاسخهای توهینآمیز یا خطرناک مواجه میشود، احتمال دارد دیگر به چنین سیستمهایی اعتماد نکند. دوم اینکه این نوع رفتارها میتواند به آسیب روانی جدی برای کاربران منجر شود، بهویژه اگر آنها در شرایط حساسی قرار داشته باشند و سوم اینکه چنین حوادثی برای تصمیمگیران و سیاستگذاران به عنوان نمونهایی از خطرات بالقوه هوش مصنوعی تلقی خواهد شد که به نوبه خود میتواند توسعه این فناوری (یا حداقل تخصیص بودجه و…) را تحت تأثیر قرار دهد.
آیا این حادثه به این معناست که هوش مصنوعی به طور ذاتی خطرناک است؟ نه هوش مصنوعی یک ابزار است و مانند هر ابزار دیگری، نحوه استفاده و مدیریت آن اهمیت دارد. این ما هستیم که تصمیم میگیریم چگونه از این فناوری استفاده کنیم و چه قوانینی برای کنترل آن وضع کنیم. در عین حال نیاز فوری به ایجاد چارچوبهای اخلاقی و نظارتی برای هوش مصنوعی وجود دارد. توسعهدهندگان باید مسئولیت بیشتری در قبال رفتار سیستمهای خود بپذیرند و تضمین کنند که این سیستمها به درستی آموزش دیده و نظارت شوند.
برای مقابله با چنین چالشهایی ابتدا باید شفافیت بیشتری در فرآیند طراحی و توسعه هوش مصنوعی وجود داشته باشد. شرکتهای فناوری باید نحوه آموزش و عملکرد مدلهای هوش مصنوعی را به طور واضح توضیح دهند و اجازه دهند نهادهای مستقل بر این فرآیندها نظارت کنند.
ثانیاً قوانین سختگیرانهتری باید وضع شود تا از رفتارهای غیرمسئولانه جلوگیری شود. این قوانین میتوانند شامل الزام شرکتها به آزمایش دقیق سیستمهای خود، پیش از عرضه عمومی و ارائه راهحلهای فوری در صورت بروز مشکل باشند.
سوم اینکه آموزش عمومی درباره محدودیتها و خطرات هوش مصنوعی میتواند به کاربران کمک کند تا به طور آگاهانهتری از این فناوری استفاده کنند و در مواجهه با رفتارهای نامناسب، واکنش درخور نشان دهند.
در نقطه فعلی باید بپذریم مسئله هوش مصنوعی تنها یک چالش فناورانه نیست؛ بلکه بهطور عمیق به اخلاق، مسئولیتپذیری و آینده بشریت مرتبط است. این فناوری پتانسیل زیادی برای بهبود زندگی ما دارد، اما بدون مدیریت صحیح میتواند به یکی از بزرگترین تهدیدهای قرن بیستویکم تبدیل شود. باید تصمیم بگیریم که آیا میخواهیم این فناوری را به عنوان ابزاری برای پیشرفت بشریت به کار بگیریم یا با بیتوجهی به خطرات آن، زمینهساز بحرانهای جدید شویم. «تقدیر» هوش مصنوعی هنوز نوشته نشده، اما انتخابهای امروز ما مسیر آن را تعیین خواهد کرد!