استیون ادلر هشدار داد که صنعت در حال انجام «قمار بسیار پرخطری» است و نسبت به آینده بشریت و هوش مصنوعی ابراز نگرانی کرد.
به گزارش تکراتو به نقل از theguardian، یک محقق سابق در حوزه ایمنی هوش مصنوعی در شرکت OpenAI هشدار داده که سرعت توسعه این فناوری به شدت نگرانکننده است و صنعت در حال انجام یک «قمار بسیار پرخطر» روی آن است.
استیون ادلر: شاید بشریت به آیندهای که تصور میکنیم، نرسد!
استیون ادلر که در نوامبر گذشته OpenAI را ترک کرد، در مجموعهای از پستها در شبکه اجتماعی ایکس نوشت که دوران کاریاش در این شرکت آمریکایی «تجربهای شگفتانگیز» بوده و بخشهای زیادی از آن را از دست خواهد داد؛ اما او تاکید کرد که پیشرفت سریع این فناوری باعث شده تا نسبت به آینده بشریت تردید داشته باشد.
او نوشت:
من واقعا از سرعت توسعه هوش مصنوعی این روزها وحشت دارم. وقتی به آینده فکر میکنم، مثلا اینکه کجا خانوادهام را تشکیل دهم یا چقدر برای بازنشستگی پسانداز کنم، نمیتوانم از این فکر فرار کنم که آیا اصلا بشریت به آن نقطه خواهد رسید؟
برخی از متخصصان، مانند برنده جایزه نوبل جفری هینتون، نگرانند که سیستمهای قدرتمند هوش مصنوعی ممکن است از کنترل انسان خارج شوند و پیامدهای فاجعهباری به دنبال داشته باشند. در مقابل، افرادی مانند یان لیکان، دانشمند ارشد هوش مصنوعی در شرکت متا، این تهدید را بیاهمیت میدانند و معتقدند که هوش مصنوعی حتی میتواند بشریت را از نابودی نجات دهد.
طبق اطلاعات صفحه لینکدین ادلر، او در طول چهار سال فعالیت در OpenAI، هدایت تحقیقاتی مرتبط با ایمنی در محصولات جدید و سیستمهای پیشرفته بلندمدت هوش مصنوعی را بر عهده داشته است.
ادلر درباره رقابت برای توسعه هوش مصنوعی عمومی (AGI) که هدف اصلی OpenAI محسوب میشود، هشدار داد و گفت: «رقابت برای ساخت AGI یک قمار بسیار پرخطر با پیامدهای ویرانگر است.»
او همچنین تاکید کرد که هیچ آزمایشگاهی تاکنون راهحلی قطعی برای همراستاسازی هوش مصنوعی (یعنی اطمینان از پایبندی این سیستمها به ارزشهای انسانی) پیدا نکرده و ممکن است سرعت پیشرفت فعلی، مانع از یافتن چنین راهحلی شود. او در این باره میگوید: «هرچه سریعتر پیش برویم، احتمال یافتن یک راهحل مناسب کمتر خواهد شد.»
این اظهارات در حالی مطرح شد که شرکت چینی DeepSeek، که به دنبال توسعه AGI است، صنعت فناوری ایالات متحده را به چالش کشیده و مدلی معرفی کرده که به نظر میرسد با فناوری OpenAI رقابت میکند، آن هم با منابعی کمتر.
ادلر هشدار داد که این صنعت در یک «تعادل بسیار خطرناک» گرفتار شده و نیاز به مقررات ایمنی واقعی دارد:
حتی اگر یک آزمایشگاه بخواهد AGI را بهطور مسئولانه توسعه دهد، سایر شرکتها میتوانند برای جبران فاصله، میانبر بزنند و این ممکن است پیامدهای فاجعهباری داشته باشد.
OpenAI و ادلر هنوز به این اظهارات واکنشی نشان ندادهاند.
source
کلاس یوس