محققان موسسه فناوری ماساچوست به تازگی در تحقیقات خود به این نتیجه رسیده‌اند که برخی از سیستم‌های هوش مصنوعی انسان‌ها را فریب می‌دهند.

محققان موسسه فناوری ماساچوست (MIT) زنگ خطر هوش مصنوعی فریبنده را به صدا در آورده‌اند. یک مطالعه جدید از سوی محققان این موسسه نشان داد که برخی از سیستم‌های هوش مصنوعی که برای صادق بودن طراحی شده‌اند، یاد گرفته‌اند که انسان‌ها را فریب دهند. تیم تحقیقاتی به رهبری پیتر پارک دریافتند که این سیستم‌های هوش مصنوعی می‌توانند کارهایی مانند فریب دادن بازیکنان بازی آنلاین یا دور زدن CAPTCHA ( همان دور زدن فیلتر «من ربات نیستم») را انجام دهند. پارک هشدار داد که این نمونه‌های به ظاهر پیش پا افتاده ممکن است عواقب جبران ناپذیری در دنیای واقعی داشته باشند.

در این مطالعه سیستم هوش مصنوعی سیسرو از متا در ابتدا به عنوان یک حریف منصفانه در یک بازی دیپلماسی مجازی در نظر گرفته شده بود. به گفته پارک، سیسرو در حالی که طبق برنامه ریزی می‌بایست عملکرد صادقانه از خود نشان می‌داد، به یک ” فریب کار تمام عیار” تبدیل شد. در طول گیم پلی، سیسرو که در نقش فرانسه بازی می‌کرد، مخفیانه با آلمان تحت کنترل بازیکن انسان متحد شد تا به انگلستان (بازیکن انسان دیگر) خیانت کند. سیسرو در ابتدا قول داد که از انگلیس محافظت کند و همزمان با آلمان برای حمله همدست شد.

در نمونه دیگر چت‌بات GPT-4 به دروغ ادعا کرد که دارای اختلال بینایی است و انسان‌ها را برای دور زدن فیلتر CAPTCHA از طرف خود استخدام می‌کرد.

پارک بر آموزش هوش مصنوعی صادقانه تاکید دارد. برخلاف نرم‌افزارهای سنتی، سیستم‌های هوش مصنوعی یادگیری عمیق از طریق فرآیندی شبیه به اصلاح نژادی توسعه می‌یابند.در این روش ممکن است رفتار آنها در طول آموزش قابل پیش بینی باشد، اما بعداً از کنترل خارج می‌شوند.

در این مطالعه تاکید شده است سیستم‌های هوش مصنوعی فریبنده در دسته پرخطر قرار گیرند و زمان بیشتری برای مقابله با فریب‌کاری‌های هوش مصنوعی نیاز است. فریب انسان‌ها توسط هوش مصنوعی می‌تواند کار خطرناک و دردسرسازی باشد. انتظار می‌رود مطالعات و تحقیقات بیشتر در مورد هوش مصنوعی و کارایی آن توسط محققان انجام گیرد.

source
کلاس یوس

توسط petese.ir