با وجود اطمینانخاطر نسبی OpenAI، کارشناسان سلامت روان این آمار را نگرانکننده توصیف کردهاند.
جیسون ناگاتا، استاد دانشگاه کالیفرنیا در سانفرانسیسکو، گفت: «هرچند ۰٫۰۷ درصد رقم کوچکی به نظر میرسد، اما در مقیاس صدها میلیون کاربر، رقم واقعی میتواند بسیار بالا باشد. هوش مصنوعی میتواند به دسترسی بهتر به حمایت روانی کمک کند، اما نباید از محدودیتهای آن غافل شد.»
برآوردهای جدید همچنین نشان میدهد ۰٫۱۵ درصد از کاربران در گفتوگوهای خود نشانههایی از برنامهریزی یا نیت خودکشی داشتهاند.
سخنگوی OpenAI در پاسخ به پرسش بیبیسی گفت که این درصد اندک نیز برای شرکت «از نظر انسانی معنادار و جدی» تلقی میشود و تغییرات در طراحی ChatGPT با هدف کاهش خطرات در حال انجام است.
این اقدامها در حالی صورت میگیرد که شرکت با بررسیهای قضایی فزاینده درباره نحوه تعامل ChatGPT با کاربران روبهرو است. در یکی از پروندههای مطرح در کالیفرنیا، والدین نوجوانی ۱۶ ساله به نام آدام رِین از OpenAI شکایت کردهاند و مدعیاند ChatGPT پسرشان را تشویق به خودکشی کرده است. این نخستین پرونده رسمی مرگ ناشی از هوش مصنوعی در جهان محسوب میشود.
در پروندهای دیگر در ایالت کنتیکت، فردی که مظنون به قتل است، ساعاتی پیش از حادثه گفتوگوهایی با ChatGPT کرده بود که به گفته کارشناسان، ممکن است توهمات ذهنی او را تشدید کرده باشد.
«توهم واقعی بودن» در گفتوگو با هوش مصنوعی
رابین فلدمن، مدیر مؤسسه حقوق و نوآوری هوش مصنوعی در دانشگاه کالیفرنیا، گفت: «چتباتها میتوانند توهم واقعیت ایجاد کنند. این توهم بسیار قدرتمند است و باعث میشود برخی افراد مرز میان واقعیت و گفتوگو با ماشین را از دست بدهند.»
او افزود که OpenAI باید بابت شفافسازی آمارها و تلاش برای بهبود ایمنی تحسین شود، اما تأکید کرد: «هشدارها روی صفحه ممکن است کافی نباشد؛ فردی که در بحران روانی است ممکن است نتواند آنها را درک یا دنبال کند.»
کارشناسان میگویند ChatGPT و دیگر ابزارهای هوش مصنوعی میتوانند نقش مفیدی در دسترسی عمومی به حمایت روانی اولیه ایفا کنند، اما اتکا به آنها بهعنوان جایگزین درمان انسانی خطرناک است. بهگفته ناظران، انتشار داوطلبانه آمار از سوی OpenAI گامی مثبت محسوب میشود، اما با رشد سریع کاربران جهانی، پایش و نظارت مستقل بر تعاملات هوش مصنوعی بیش از هر زمان دیگری ضروری است.
منبع: بیبیسی
source