یک آسیبپذیری جدید در هوش مصنوعی سرویس جیمیل کشف شده که به هکرها اجازه میدهد با ارسال دستورات جعلی، اطلاعات حساس کاربران را به سرقت ببرند.
یک پژوهش جدید نشان میدهد قابلیت خلاصهسازی ایمیل توسط هوش مصنوعی سرویس جیمیل دارای یک آسیبپذیری خطرناک است که به هکرها اجازه میدهد با فریب سیستم، اطلاعات کاربران را سرقت کنند. این حفره امنیتی که در سرویس ورکاسپیس گوگل کشف شده، به مهاجمان اجازه میدهد با ارسال پیامهای پنهان، هوش مصنوعی گوگل جمنای را وادار به نمایش دستورات جعلی و گمراهکننده کنند.
این روش جدید که نوعی مهندسی اجتماعی پیشرفته محسوب میشود، بار دیگر ثابت میکند که حتی پیشرفتهترین ابزارهای هوش مصنوعی نیز میتوانند به ابزاری برای کلاهبرداری تبدیل شوند و امنیت کاربران را به خطر بیندازند.
چگونه هوش مصنوعی سرویس جیمیل فریب میخورد؟
این آسیبپذیری توسط یک پژوهشگر امنیت سایبری کشف و به بنیاد موزیلا گزارش شده است. طبق این گزارش، هکرها میتوانند با قرار دادن دستورات مخرب در بدنه ایمیل و پنهان کردن آن (برای مثال با استفاده از فونت نامرئی)، سیستم خلاصهسازی جیمیل را فریب دهند.
در این حالت، Gemini این دستورات پنهان را به عنوان یک فرمان واقعی تفسیر میکند و آن را در بخش خلاصه ایمیل به کاربر نمایش میدهد. برای مثال، ممکن است در خلاصه ایمیل پیامی جعلی مبنی بر لزوم تغییر رمز عبور یا کلیک روی یک لینک آلوده نمایش داده شود، بدون آنکه کاربر بداند منشا این پیام یک دستور مخرب بوده است. این آسیبپذیری در هوش مصنوعی سرویس جیمیل زمینه را برای حملات فیشینگ و سرقت اطلاعات حساس فراهم میکند.
واکنش گوگل و توصیههای امنیتی
پس از انتشار این گزارش، گوگل اعلام کرد که برای مقابله با این مشکل، مدلهای هوش مصنوعی خود را بهروزرسانی کرده است. این شرکت میگوید اکنون جمنای لینکهای مشکوک را بهتر شناسایی و از خلاصه ایمیل حذف میکند. همچنین برای اجرای دستورات حساس مانند حذف یک وظیفه، از کاربر تاییدیه مجدد میخواهد.
با وجود این اقدامات، کارشناسان امنیتی توصیه میکنند که کاربران هرگز به طور کامل به خلاصههای تولیدشده توسط هوش مصنوعی اعتماد نکنند. بهتر است همیشه جانب احتیاط را رعایت کنید و پیش از کلیک روی هر لینک یا اجرای هر دستوری، محتوای اصلی ایمیل را به دقت بررسی نمایید.
source