استیون ادلر هشدار داد که صنعت در حال انجام «قمار بسیار پرخطری» است و نسبت به آینده بشریت و هوش مصنوعی ابراز نگرانی کرد.

به گزارش تکراتو به نقل از theguardian، یک محقق سابق در حوزه ایمنی هوش مصنوعی در شرکت OpenAI هشدار داده که سرعت توسعه این فناوری به شدت نگران‌کننده است و صنعت در حال انجام یک «قمار بسیار پرخطر» روی آن است.

راهنمای خرید تکراتو

استیون ادلر: شاید بشریت به آینده‌ای که تصور می‌کنیم، نرسد!

استیون ادلر که در نوامبر گذشته OpenAI را ترک کرد، در مجموعه‌ای از پست‌ها در شبکه اجتماعی ایکس نوشت که دوران کاری‌اش در این شرکت آمریکایی «تجربه‌ای شگفت‌انگیز» بوده و بخش‌های زیادی از آن را از دست خواهد داد؛ اما او تاکید کرد که پیشرفت سریع این فناوری باعث شده تا نسبت به آینده بشریت تردید داشته باشد.

او نوشت:

من واقعا از سرعت توسعه هوش مصنوعی این روزها وحشت دارم. وقتی به آینده فکر می‌کنم، مثلا اینکه کجا خانواده‌ام را تشکیل دهم یا چقدر برای بازنشستگی پس‌انداز کنم، نمی‌توانم از این فکر فرار کنم که آیا اصلا بشریت به آن نقطه خواهد رسید؟

برخی از متخصصان، مانند برنده جایزه نوبل جفری هینتون، نگرانند که سیستم‌های قدرتمند هوش مصنوعی ممکن است از کنترل انسان خارج شوند و پیامدهای فاجعه‌باری به دنبال داشته باشند. در مقابل، افرادی مانند یان لیکان، دانشمند ارشد هوش مصنوعی در شرکت متا، این تهدید را بی‌اهمیت می‌دانند و معتقدند که هوش مصنوعی حتی می‌تواند بشریت را از نابودی نجات دهد.

طبق اطلاعات صفحه لینکدین ادلر، او در طول چهار سال فعالیت در OpenAI، هدایت تحقیقاتی مرتبط با ایمنی در محصولات جدید و سیستم‌های پیشرفته بلندمدت هوش مصنوعی را بر عهده داشته است.

ادلر درباره رقابت برای توسعه هوش مصنوعی عمومی (AGI)  که هدف اصلی OpenAI محسوب می‌شود، هشدار داد و گفت: «رقابت برای ساخت AGI یک قمار بسیار پرخطر با پیامدهای ویرانگر است.»

او همچنین تاکید کرد که هیچ آزمایشگاهی تاکنون راه‌حلی قطعی برای هم‌راستاسازی هوش مصنوعی (یعنی اطمینان از پایبندی این سیستم‌ها به ارزش‌های انسانی) پیدا نکرده و ممکن است سرعت پیشرفت فعلی، مانع از یافتن چنین راه‌حلی شود. او در این باره می‌گوید: «هرچه سریع‌تر پیش برویم، احتمال یافتن یک راه‌حل مناسب کمتر خواهد شد.»

این اظهارات در حالی مطرح شد که شرکت چینی DeepSeek، که به دنبال توسعه AGI است، صنعت فناوری ایالات متحده را به چالش کشیده و مدلی معرفی کرده که به نظر می‌رسد با فناوری OpenAI رقابت می‌کند، آن هم با منابعی کمتر.

ادلر هشدار داد که این صنعت در یک «تعادل بسیار خطرناک» گرفتار شده و نیاز به مقررات ایمنی واقعی دارد:

حتی اگر یک آزمایشگاه بخواهد AGI را به‌طور مسئولانه توسعه دهد، سایر شرکت‌ها می‌توانند برای جبران فاصله، میانبر بزنند و این ممکن است پیامدهای فاجعه‌باری داشته باشد.

OpenAI و ادلر هنوز به این اظهارات واکنشی نشان نداده‌اند.

source
کلاس یوس

توسط petese.ir