به نظر میرسد ChatGPT اطلاعات شخصی کاربران را فاش میکند و مکالمات خصوصی آنها را در دسترس افراد غیرمرتبط قرار میدهد. این مکالمات شامل برخی اطلاعات حساس مانند نام کاربری و رمز عبور میشود. البته OpenAI مدعی شده که این اتفاق «درز اطلاعات» نبوده است.
این شرکت با انتشار بیانیهای گفته است:
متاسفانه وبسایت ArsTechnica قبل از آنکه تیم امنیتی ما تحقیقات خود را به پایان برسانند گزارشی منتشر کرد که کاملا نادرست است. طبق یافتههای ما، رمزهای عبور برخی کاربران در معرض خطر قرار گرفته و یک «بازیگر» بد از این حسابها سوءاستفاده کرده است. سابقه چتها و فایلهایی که منتشر شدهاند در واقع نتیجه سوءاستفاده آن بازیگر از این حسابها بوده و اینگونه نبوده که خود پلتفرم ChatGPT سابقه چتهای کاربران را فاش کرده باشد.
البته وبسایت Ars مقاله اصلی خود را بهروز کرده تا توضیحات Open AI را بیان کند، اما این وبسایت تاکید کرده که ChatGPT هیچ گونه محفاظت امنیتی مانند 2FA یا قابلیت بررسی و ردیابی لاگینهای اخیر را ندارد. این نوع محافظتها معمولا در اکثر پلتفرمهای وب وجود دارند و کاربر آسیبدیده هم مدعی نیست که حسابش دستکاری شده است.
وبسایت ArsTechnica در گزارش خود با استناد به اسکرینشاتهای ارسالی توسط یکی از کاربران مدعی شده بود که ChatGPT مکالمات خصوصی از جمله اطلاعاتی مانند نام کاربری و رمز عبور را فاش میکند. ظاهرا این کاربر از ChatGPT برای پرسیدن یک سوال بیربط استفاده کرده و به طرز عجیبی مکالمات دیگری را در تاریخچه چت خود مشاهده کرده که به موضوع او ربطی نداشته است.
این اولین بار نیست که ChatGPT اطلاعاتی را فاش میکند. ArsTechnica در گزارش خود مینویسد ChatGPT در مارس 2023 نیز یک باگ داشت که تیترهای چتها را فاش میکرد. همچنین در نوامبر 2023، محققان توانستند با پرسیدن برخی سوالات، ChatGPT را وادار به افشای بسیاری از دادههای خصوصی استفاده شده در آموزش LLM کنند.
در هرحال، توصیه میکنیم که اطلاعات حساس خود را با یک چتبات هوش مصنوعی به اشتراک نگذارید.
source
بهترین عطر مردانه