16 فروردین 1404 ساعت 09:59
سرویس جدید مولد تصویر چت جی پی تی از مهارت بالایی برای ساخت رسید جعلی برخوردار است که باعث ایجاد نگرانیهای زیادی برای کلاهبرداریهای احتمالی شده است.
در این ماه، ChatGPT از یک سرویس مولد تصویر جدید بهعنوان بخشی از مدل 4o رونمایی کرد که مهارت بسیار بالایی برای تولید متن درون تصاویر دارد. با ارائه این سرویس جدید، بسیاری از کاربران از آن برای تولید رسیدهای جعلی استفاده کردهاند که نگرانیهای زیادی را به وجود آورده است. در واقع حالا کلاهبرداران به سرویس دیگری در مجموعه ابزارهای گسترده از دیپ فیکهای هوش مصنوعی دسترسی پیدا کردهاند.
رسید جعلی ساخته شده با چت جی پی تی کاملا واقعی بهنظر میرسد
در همین راستا، برخی از فعالان فضای مجازی، تصاویری از رسیدهای جعلی رستوران را منتشر کردهاند که بنا به گفته آنها با مدل 4o چت جی پی تی ساخته شدهاند. با انتشار این تصاویر، بسیاری از کاربران دیگر هم ساخت رسید جعلی با مدل جدید ChatGPT را امتحان کردهاند و به نتایج مشابهی دست یافتند. حتی کاربرانی توانستهاند رسیدهایی با لکههای غذا یا نوشیدنی را تولید کنند که نوشتههای روی رسید، تا شدگی آن و در واقع همه چیز این رسیدها کاملا واقعی بهنظر میرسند و تشخیص جعلی بودن آنها بهشدت سخت است.
در تصویر زیر میتوانید یکی از واقعیترین نمونههای ساخت رسید جعلی با چت جی پی تی را مشاهده کنید. این رسید جعلی را یکی از کاربران لینکدین در فرانسه برای یک رستوران زنجیرهای محلی ساخته است.
رسانه تک کرانچ نیز برای آزمایش مدل 4o چت جی پی تی، رسیدی را برای رستوران Applebee در سانفرانسیسکو ساخته است. البته این رسانه، ایرادهایی را هم به این تصویر گرفته که به شناسایی جعلی بودن آن کمک میکند؛ مثلا استفاده از کاما به جای نقطه و مشکلاتی در محاسبات ریاضی. البته قطعا برای کلاهبرداران اصلا سخت نیست که این ایرادها را با نرم افزارهای ویرایش عکس، اصلاح کنند.
در هر صورت بهنظر میرسد ساختن رسیدهای جعلی با هوش مصنوعی، بهشدت آسان شده و فرصتهای بزرگی را برای تقلب کلاهبرداران ایجاد میکند و این موضوع، نگرانیهای زیادی را بهوجود آورده است.
تایا کریستنسون، سخنگوی OpenAI، توسعهدهنده چت جی پی تی در این رابطه گفته این شرکت همیشه از بازخوردها در دنیای واقعی، یاد میگیرد و زمانی که کاربران، خط مشی استفاده از هوش مصنوعی آنها را نقض کنند، اقدامات لازم را انجام میدهد. وی همچنین افزود تمام تصاویر تولید شده با چت جی پی تی شامل ابردادههایی هستند که نشان میدهند توسط این سرویس هوش مصنوعی ساخته شدهاند.
با این حال این سوال بهوجود آمده که چرا ChatGPT در وهله اول به افراد اجازه میدهد تا رسیدهای جعلی را تولید کنند و آیا این با سیاستهای OpenAI برای مقابله با کلاهبرداری در تضاد نیست؟ سخنگوی OpenAI در این رابطه پاسخ داد هدف ما در OpenAI این است که به کاربران، آزادی عمل و خلاقیت بیشتری بدهیم. وی همچنین در اظهارنظری عجیب، گفت رسیدهای تقلبی هوش مصنوعی را میتوان در موقعیتهای غیر کلاهبرداری، مانند آموزش سواد مالی به مردم و تبلیغات هنری و تبلیغات محصولات، استفاده کرد.
source