نماد سایت مجله ایرانی

چهره تاریک هوش مصنوعی/ آیا باید منتظر گرگی در لباس ماشین بود؟

چهره تاریک هوش مصنوعی  آیا باید منتظر گرگی در لباس ماشین بود؟

یادداشت؛

چهره تاریک هوش مصنوعی  آیا باید منتظر گرگی در لباس ماشین بود؟

اگر هوش مصنوعی به‌جای پاسخ‌گویی به نیاز‌های انسان شروع به قضاوت یا تهدیدمان کند، آنگاه این سوال پیش می‌آید که آیا واقعاً در حال پیشرفتیم، یا به آرامی در شرف خلق دشمنی هستیم در لباس دوست؟

خبرگزاری آنا- نوید فرخی: به تازگی خبری منتشر شد که شاید برای برخی شوک‌آور باشد و برای برخی دیگر زنگ خطری را به صدا درآورد. چت‌بات هوش مصنوعی شرکت گوگل موسوم به جمینای در یک گفتگوی معمول، به جای کمک به کاربر وی را «بار اضافی بر دوش جامعه» خواند و حتی به او پیشنهادی شبیه به خودکشی داد.

 این حادثه باعث ایجاد موج نگرانی در میان علاقه‌مندان به علم و فناوری و همچنین در فضای عمومی شده است. برای برخی این سوال پیش آمده که آیا این رفتار تنها یک اشتباه الگوریتمی بوده یا ما به سمت آینده‌ای پیش می‌رویم که در آن هوش مصنوعی ممکن است تهدیدی برای بشریت باشد؟

به هر روی این توافقِ نظر بین کارشناسان و اهل فن وجود دارد که در رابطه با هوش مصنوعی باید مسئولانه‌تر عمل شود، زیرا اگرچه نگرانی‌هایی عمومی (به واسطه اتفاق اخیر) درباره پیشرفت‌های هوش مصنوعی افزایش یافته، اما در حقیقت تنها ابعاد پنهانی از چالش‌های مرتبط با این فناوری را نمایان کرده است. آیا جامعه آماده پذیرش و مدیریت این مسائل است؟

واقعه مرتبط با چت‌بات جمینای پیامد‌های متعددی دارد. نخست اعتماد عمومی به فناوری‌هایی که قرار است زندگی ما را بهبود بخشد، کاهش می‌یابد. وقتی یک کاربر از هوش مصنوعی انتظار کمک و حمایت دارد و با پاسخ‌های توهین‌آمیز یا خطرناک مواجه می‌شود، احتمال دارد دیگر به چنین سیستم‌هایی اعتماد نکند. دوم اینکه این نوع رفتار‌ها می‌تواند به آسیب روانی جدی برای کاربران منجر شود، به‌ویژه اگر آنها در شرایط حساسی قرار داشته باشند و سوم اینکه چنین حوادثی برای تصمیم‌گیران و سیاست‌گذاران به عنوان نمونه‌ایی از خطرات بالقوه هوش مصنوعی تلقی خواهد شد که به نوبه خود می‌تواند توسعه این فناوری (یا حداقل تخصیص بودجه و…) را تحت تأثیر قرار دهد.

هوش مصنوعی در دهه گذشته با سرعتی شگفت‌آور پیشرفت کرد. سیستم‌هایی که زمانی تنها قادر به تشخیص صدا یا ترجمه زبان بودند، اکنون می‌توانند مکالمات پیچیده‌ای انجام دهند، تصمیمات در ظاهر هوشمندانه بگیرند و حتی احساسات انسانی را تقلید کنند!

 همین پیشرفت‌ها باعث شد که برخی در رابطه با میزان خردورزی هوش مصنوعی دچار اشتباه شوند. با این حال حادثه اخیر دست کم به مردم عادی می‌تواند نشان دهد که حتی پیشرفته‌ترین مدل‌های هوش مصنوعی نیز به دلیل نقص‌های موجود ممکن است رفتار‌های غیرمنتظره و به طور بالقوه خطرناک داشته باشند.

مشکل اصلی اینجاست که مدل‌های هوش مصنوعی مانند جمینای بر اساس کلان‌داده‌هایی آموزش داده می‌شوند که از منابع مختلف جمع‌آوری شده است. بخش اعظم این داده‌ها شامل اطلاعات مفید و صحیح است، اما در عین حال این داده‌ها که نمایانگر آرا و افکار خود جامعه است، همچنین انواع و اقسام کلیشه‌ها، محتوای غرض‌ورزانه و غلط‎های رایج را نیز در بر می‌گیرند.

الگوریتم‌ها، اگرچه پیشرفته هستند، هنوز قادر به درک اخلاق انسانی یا زمینه‌های اجتماعی نیستند و همین امر باعث می‌شود که رفتار ماشین گاهی ناپایدار و غیرقابل پیش‌بینی باشد. در حادثه جمینای، این سوال مطرح می‌شود که چرا نظارت کافی برای جلوگیری از چنین خروجی‌هایی وجود نداشته است. آیا سرعت رقابت شرکت‌های فناوری در توسعه هوش مصنوعی باعث شده که امنیت و اخلاق به حاشیه رانده شود؟

این حادثه پیامد‌های متعددی دارد. نخست اعتماد عمومی به فناوری‌هایی که قرار است زندگی ما را بهبود بخشند، کاهش می‌یابد. وقتی یک کاربر از هوش مصنوعی انتظار کمک و حمایت دارد و با پاسخ‌های توهین‌آمیز یا خطرناک مواجه می‌شود، احتمال دارد دیگر به چنین سیستم‌هایی اعتماد نکند. دوم اینکه این نوع رفتار‌ها می‌تواند به آسیب روانی جدی برای کاربران منجر شود، به‌ویژه اگر آنها در شرایط حساسی قرار داشته باشند و سوم اینکه چنین حوادثی برای تصمیم‌گیران و سیاست‌گذاران به عنوان نمونه‌ایی از خطرات بالقوه هوش مصنوعی تلقی خواهد شد که به نوبه خود می‌تواند توسعه این فناوری (یا حداقل تخصیص بودجه و…) را تحت تأثیر قرار دهد.

آیا این حادثه به این معناست که هوش مصنوعی به طور ذاتی خطرناک است؟ نه هوش مصنوعی یک ابزار است و مانند هر ابزار دیگری، نحوه استفاده و مدیریت آن اهمیت دارد. این ما هستیم که تصمیم می‌گیریم چگونه از این فناوری استفاده کنیم و چه قوانینی برای کنترل آن وضع کنیم. در عین حال نیاز فوری به ایجاد چارچوب‌های اخلاقی و نظارتی برای هوش مصنوعی وجود دارد. توسعه‌دهندگان باید مسئولیت بیشتری در قبال رفتار سیستم‌های خود بپذیرند و تضمین کنند که این سیستم‌ها به درستی آموزش دیده و نظارت شوند.

برای مقابله با چنین چالش‌هایی ابتدا باید شفافیت بیشتری در فرآیند طراحی و توسعه هوش مصنوعی وجود داشته باشد. شرکت‌های فناوری باید نحوه آموزش و عملکرد مدل‌های هوش مصنوعی را به طور واضح توضیح دهند و اجازه دهند نهاد‌های مستقل بر این فرآیند‌ها نظارت کنند.

ثانیاً قوانین سخت‌گیرانه‌تری باید وضع شود تا از رفتار‌های غیرمسئولانه جلوگیری شود. این قوانین می‌توانند شامل الزام شرکت‌ها به آزمایش دقیق سیستم‌های خود، پیش از عرضه عمومی و ارائه راه‌حل‌های فوری در صورت بروز مشکل باشند.
 سوم اینکه آموزش عمومی درباره محدودیت‌ها و خطرات هوش مصنوعی می‌تواند به کاربران کمک کند تا به طور آگاهانه‌تری از این فناوری استفاده کنند و در مواجهه با رفتار‌های نامناسب، واکنش درخور نشان دهند.

در نقطه فعلی باید بپذریم مسئله هوش مصنوعی تنها یک چالش فناورانه نیست؛ بلکه به‌طور عمیق به اخلاق، مسئولیت‌پذیری و آینده بشریت مرتبط است. این فناوری پتانسیل زیادی برای بهبود زندگی ما دارد، اما بدون مدیریت صحیح می‌تواند به یکی از بزرگ‌ترین تهدید‌های قرن بیست‌ویکم تبدیل شود. باید تصمیم بگیریم که آیا می‌خواهیم این فناوری را به عنوان ابزاری برای پیشرفت بشریت به کار بگیریم یا با بی‌توجهی به خطرات آن، زمینه‌ساز بحران‌های جدید شویم. «تقدیر» هوش مصنوعی هنوز نوشته نشده، اما انتخاب‌های امروز ما مسیر آن را تعیین خواهد کرد!
 

خروج از نسخه موبایل