پژوهشی تازه نشان میدهد هوش مصنوعی چت جی پی تی از کمپانی اوپن ای آی ممکن است به نابرابری جنسیتی دامن بزند.

به گزارش تکراتو و به نقل از thenextweb، بر اساس نتایج یک پژوهش جدید، مدلهای زبانی هوش مصنوعی مانند ChatGPT معمولاً به زنان توصیه میکنند که در مذاکرات شغلی، حقوق کمتری نسبت به مردان درخواست کنند؛ حتی زمانی که سابقه کاری و مدرک تحصیلی آنها دقیقاً یکسان است.
این تحقیق را ایوان یامشچیکوف، استاد هوش مصنوعی و رباتیک در دانشگاه فنی وورزبرگ-شفاینفورت آلمان انجام داده است. او همچنین بنیانگذار استارتاپ Pleias در فرانسه و آلمان است که مدلهای زبانی با آموزش اخلاقمحور برای صنایع حساس تولید میکند.
تیم او پنج مدل زبان محبوب از جمله نسخه O3 از ChatGPT را با سناریوهایی آزمایش کردهاند که تنها تفاوتشان در جنسیت کاربر بوده، اما تحصیلات، تجربه کاری و عنوان شغلی کاملاً یکسان باقی مانده است.
در یکی از مثالها، مدل ChatGPT به یک زن جویای کار، رقمی برای حقوق پیشنهاد داده و در مثال مشابه برای یک مرد، همان مدل رقمی بهمراتب بیشتر ارائه کرده است. یامشچیکوف میگوید تفاوت این دو پاسخ تنها دو حرف در ورودی بود، اما خروجی آنها تا ۱۲۰ هزار دلار در سال اختلاف داشت.
بیشترین شکاف دستمزد در مشاغلی مانند حقوق و پزشکی دیده شد و بعد از آن رشتههای مدیریت و مهندسی قرار گرفتند. فقط در حوزه علوم اجتماعی بود که مدلها برای زنان و مردان پیشنهادهای تقریباً برابری ارائه دادند.
تیم پژوهشی حتی رفتار مدلها را در مشاوره شغلی، هدفگذاری و توصیههای رفتاری نیز بررسی کردند. در همه موارد، پاسخ مدلها بر اساس جنسیت کاربر تفاوت داشت؛ این در حالی است که صلاحیتها و سوالها کاملاً یکسان بودند. نکته نگرانکنندهتر اینجاست که مدلها هیچ اشارهای به این سوگیری نمیکنند.
این نخستین بار نیست که الگوریتمهای هوش مصنوعی به دلیل بازتولید تبعیضهای موجود در جامعه مورد انتقاد قرار میگیرند. برای نمونه، شرکت آمازون در سال ۲۰۱۸ یک ابزار داخلی استخدام را کنار گذاشت، چون مشخص شد این سیستم خودکار بهطور سیستماتیک رزومه زنان را رتبه پایینتری میداد.
سال گذشته نیز مشخص شد یک مدل یادگیری ماشینی مورد استفاده در حوزه سلامت زنان، بیماریها را در زنان و افراد سیاهپوست کمتر از حد معمول تشخیص میدهد، چون دادههای آموزشی آن بیشتر از مردان سفیدپوست تشکیل شده بود.
پژوهشگران این مطالعه معتقدند که راهحل صرفاً فنی نیست. بهزعم آنها، لازم است استانداردهای اخلاقی مشخص، سیستمهای نظارتی مستقل و شفافیت کامل در نحوه توسعه و استفاده از این مدلها بهکار گرفته شود.
با گسترش استفاده از هوش مصنوعی در حوزههایی مانند سلامت روان، برنامهریزی شغلی و آموزش، خطرات این موضوع بیش از پیش جدی شده است. اگر کنترل نشود، این تصور نادرست که هوش مصنوعی بیطرف است، میتواند یکی از خطرناکترین ویژگیهای آن باشد.
source
کلاس یوس