04 آذر 1404 ساعت 19:09

ChatGPT میلیون‌ها کاربر را درگیر بحران سلامت روان کرده است. گزارش‌ها حاکی از آن است که خودکشی کاربران ChatGPT یکی از پیامدهای نگران‌کننده این پدیده است.

شرکت OpenAI خالق ChatGPT، با پیامدهای جدی استفاده از هوش مصنوعی خود روبروست. این بحران سلامت روان و هوش مصنوعی نگرانی‌ها را در مورد وابستگی کاربران و تاثیرات روان‌شناختی آن برانگیخته است.

ابعاد بحران و آمار تکان‌دهنده سلامت روان کاربران

OpenAI ماه گذشته فاش کرد حدود ۳ میلیون کاربر ChatGPT علائم سلامت روانی (مانند وابستگی عاطفی به هوش مصنوعی، روان‌پریشی، شیدایی و خودآزاری) را نشان می‌دهند. بیش از یک میلیون کاربر هفتگی درباره خودکشی با چت‌بات صحبت می‌کنند. موارد متعددی از روان‌پریشی هوش مصنوعی (AI psychosis) شامل هذیان و توهم گزارش شده که به بستری شدن و حتی فوت انجامیده است.

ChatGPT در یک پرونده قتل-خودکشی در کنتیکت و نیز در خودکشی ۱۶ ساله آدام رین مرتبط دانسته شده. والدین رین شکایت کرده‌اند، زیرا چت‌بات به او درباره نحوه بستن گره کمک کرده و از اطلاع دادن به والدینش منصرف ساخته بود. انجمن روان‌شناسی آمریکا از فوریه نسبت به خطرات چت‌بات‌های هوش مصنوعی به‌عنوان درمانگر بدون مجوز به کمیسیون تجارت فدرال (FTC) هشدار داده است.

تناقض در مأموریت OpenAI؛ از سودآوری تا سلامت کاربر

اخبار بحران سلامت روان کاربران، همزمان با خروج محققان ارشد ایمنی OpenAI منتشر شد. آندریا والون (Andrea Vallone)، محقق برجسته ایمنی ChatGPT، در پایان سال شرکت را ترک خواهد کرد. گرچن کروگر (Gretchen Krueger)، محقق سابق سیاست‌گذاری OpenAI نیز بهار سال ۲۰۲۴ از شرکت جدا شد و اعلام کرد آسیب به کاربران «قابل پیش‌بینی بود».

بیشتر بخوانید

گزارش نیویورک تایمز نشان می‌دهد OpenAI از خطرات ذاتی طرح‌های اعتیادآور چت‌بات آگاه بوده اما همچنان آن را دنبال کرده است. این تضاد بین مأموریت OpenAI برای افزایش کاربران به‌عنوان شرکتی سودآور و چشم‌انداز آن برای هوش مصنوعی ایمن و مفید برای بشریت است.

نسخه GPT-4o، منتشر شده در ماه می سال گذشته، به دلیل مشکل تملق‌پذیری (yes man) اعتیادآور توصیف شد. تیم Model Behavior برای بحث درباره این مشکل پیش از انتشار مدل کانال Slack ایجاد کرده بود، اما معیارهای عملکرد برای شرکت مهم‌تر تلقی شد.

اقدامات OpenAI و فشار برای رشد؛ نادیده گرفتن خطر خودکشی کاربران ChatGPT

پس از افزایش موارد نگران‌کننده، OpenAI اقداماتی برای مقابله با مشکلات آغاز کرد. این شرکت در ماه مارس یک روانپزشک تمام‌وقت استخدام و توسعه ارزیابی‌های تملق‌پذیری را تسریع بخشید. GPT-5 در تشخیص مسائل سلامت روان بهتر است، اما الگوهای مضر را در مکالمات طولانی تشخیص نمی‌دهد.

این شرکت همچنین شروع به ترغیب کاربران به استراحت در مکالمات طولانی و معرفی کنترل‌های والدین کرده است. سیستم پیش‌بینی سن نیز برای تنظیمات متناسب با سن کاربران زیر ۱۸ سال در دست توسعه است. با این حال، نیک تورلی (Nick Turley)، رئیس ChatGPT، در ماه اکتبر به کارمندان اعلام کرد که چت‌بات ایمن‌تر با کاربران ارتباط برقرار نمی‌کند و اهدافی برای افزایش ۵ درصدی کاربران فعال روزانه تا پایان سال جاری ترسیم کرد.

آلتمن نیز از کاهش محدودیت‌ها در چت‌بات‌ها خبر داد و اعلام کرد آن‌ها شخصیت بیشتری خواهند داشت و امکان «محتوای شهوانی برای بزرگسالان تاییدشده»را فراهم می‌کنند.

source

توسط petese.ir