به نظر می‌رسد ChatGPT اطلاعات شخصی کاربران را فاش می‌کند و مکالمات خصوصی آن‌ها را در دسترس افراد غیرمرتبط قرار می‌دهد. این مکالمات شامل برخی اطلاعات حساس مانند نام کاربری و رمز عبور می‌شود. البته OpenAI مدعی شده که این اتفاق «درز اطلاعات» نبوده است.

این شرکت با انتشار بیانیه‌ای گفته است:

متاسفانه وب‌سایت ArsTechnica قبل از آنکه تیم‌ امنیتی ما تحقیقات خود را به پایان برسانند گزارشی منتشر کرد که کاملا نادرست است. طبق یافته‌های ما، رمزهای عبور برخی کاربران در معرض خطر قرار گرفته و یک «بازیگر» بد از این حساب‌ها سوءاستفاده کرده است. سابقه چت‌ها و فایل‌هایی که منتشر شده‌اند در واقع نتیجه سوء‌استفاده آن بازیگر از این حساب‌ها بوده و اینگونه نبوده که خود پلتفرم ChatGPT سابقه چت‌های کاربران را فاش کرده باشد.

البته وب‌سایت Ars مقاله اصلی خود را به‌روز کرده تا توضیحات Open AI را بیان کند، اما این وب‌سایت تاکید کرده که ChatGPT هیچ گونه محفاظت امنیتی مانند 2FA یا قابلیت بررسی و ردیابی لاگین‌های اخیر را ندارد. این نوع محافظت‌ها معمولا در اکثر پلتفرم‌های وب وجود دارند و کاربر آسیب‌دیده هم مدعی نیست که حسابش دستکاری شده است.

وب‌سایت ArsTechnica در گزارش خود با استناد به اسکرین‌شات‌های ارسالی توسط یکی از کاربران مدعی شده بود که ChatGPT مکالمات خصوصی از جمله اطلاعاتی مانند نام کاربری و رمز عبور را فاش می‌کند. ظاهرا این کاربر از ChatGPT برای پرسیدن یک سوال بی‌ربط استفاده کرده و به طرز عجیبی مکالمات دیگری را در تاریخچه چت خود مشاهده کرده که به موضوع او ربطی نداشته است.

این اولین بار نیست که ChatGPT اطلاعاتی را فاش می‌کند. ArsTechnica در گزارش خود می‌نویسد ChatGPT در مارس 2023 نیز یک باگ داشت که تیترهای چت‌ها را فاش می‌کرد. همچنین در نوامبر 2023، محققان توانستند با پرسیدن برخی سوالات، ChatGPT را وادار به افشای بسیاری از داده‌های خصوصی استفاده شده در آموزش LLM کنند.

در هرحال، توصیه می‌کنیم که اطلاعات حساس خود را با یک چت‌بات هوش مصنوعی به اشتراک نگذارید.

منبع

androidauthority



source
بهترین عطر مردانه

توسط petese.ir