گاف بزرگ سه کارمند کمپانی سامسونگ

گاف بزرگ سه کارمند کمپانی سامسونگ

بلافاصله پس از اینکه بخش نیمه‌هادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان خود داد، کارمندان غول فناوری حداقل در سه نوبت اطلاعات محرمانه‌ای را به آن لو دادند. گفته می‌شود یکی از کارمندان از چت‌بات OpenAI درخواست کرده است تا کد منبع پایگاه داده حساسی را از نظر خطا بررسی کند، کارمند دیگری بهینه‌سازی کد را درخواست کرده و نفر سوم جلسه ضبط‌شده‌ای را برای ChatGPT ارسال کرده است تا آن را به یک یادداشت تبدیل کند.

علاوه‌براین، گفته شده که سامسونگ با محدودکردن طول دستورات ChatGPT به یک کیلوبایت یا ۱۰۲۴ کاراکتر، تلاش کرده است تا از بروز مشکلات مشابه در آینده جلوگیری کند. همچنین این شرکت ظاهراً درحال بررسی سه کارمند اشاره‌شده و ساخت چت‌بات اختصاصی خود برای جلوگیری از حوادث مشابه است.

در سیاست مربوط به داده‌های ChatGPT نوشته شده که این چت‌بات از دستورات کاربران برای آموزش خود استفاده می‌کند. مالک این ابزار، یعنی OpenAI نیز از کاربران درخواست کرده است تا اطلاعات محرمانه را با آن به اشتراک نگذارند؛ زیرا «نمی‌تواند درخواست‌های خاصی را از تاریخچه شما حذف کند». تنها راه حذف‌کردن اطلاعات شخصی از داده‌های ChatGPT، حذف حساب کاربری است که می‌تواند چهار هفته طول بکشد.

اشتباه کارمندان سامسونگ مثال دیگری است که نشان می‌دهد هنگام استفاده از چت‌بات‌های هوش مصنوعی نیز مانند تمام فعالیت‌های آنلاین خود، باید احتیاط کرد.

اخیراً درباره چت‌بات OpenAI گفته شده بود که ChatGPT ظاهراً درحال مسدودکردن شماره‌های کشورهای آسیایی است و به معرفی ساعتی پرداخته بودیم که با کمک آن، زمان را به‌صورت شعر بیان می‌کند. همچنین استفاده از این ابزار به‌دلیل نگرانی‌های مربوط به حریم خصوصی، در ایتالیا ممنوع شده بود.

۵۸۵۸

دکمه بازگشت به بالا