16 فروردین 1404 ساعت 09:59

سرویس جدید مولد تصویر چت جی پی تی از مهارت بالایی برای ساخت رسید جعلی برخوردار است که باعث ایجاد نگرانی‌های زیادی برای کلاهبرداری‌های احتمالی شده است.

در این ماه، ChatGPT از یک سرویس مولد تصویر جدید به‌عنوان بخشی از مدل 4o رونمایی کرد که مهارت بسیار بالایی برای تولید متن درون تصاویر دارد. با ارائه این سرویس جدید، بسیاری از کاربران از آن برای تولید رسیدهای جعلی استفاده کرده‌اند که نگرانی‌های زیادی را به وجود آورده است. در واقع حالا کلاهبرداران به سرویس دیگری در مجموعه ابزارهای گسترده از دیپ فیک‌های هوش مصنوعی دسترسی پیدا کرده‌اند.

رسید جعلی ساخته شده با چت جی پی تی کاملا واقعی به‌نظر می‌رسد

در همین راستا، برخی از فعالان فضای مجازی، تصاویری از رسیدهای جعلی رستوران را منتشر کرده‌اند که بنا به گفته آنها با مدل 4o چت جی پی تی ساخته شده‌اند. با انتشار این تصاویر، بسیاری از کاربران دیگر هم ساخت رسید جعلی با مدل جدید ChatGPT را امتحان کرده‌اند و به نتایج مشابهی دست یافتند. حتی کاربرانی توانسته‌اند رسیدهایی با لکه‌های غذا یا نوشیدنی را تولید کنند که نوشته‌های روی رسید، تا شدگی آن و در واقع همه چیز این رسیدها کاملا واقعی به‌نظر می‌رسند و تشخیص جعلی بودن آنها به‌شدت سخت است.

رسید جعلی چت جی پی تی

در تصویر زیر می‌توانید یکی از واقعی‌ترین نمونه‌های ساخت رسید جعلی با چت جی پی تی را مشاهده کنید. این رسید جعلی را یکی از کاربران لینکدین در فرانسه برای یک رستوران زنجیره‌ای محلی ساخته است.

رسید جعلی چت جی پی تی

رسانه تک کرانچ نیز برای آزمایش مدل 4o چت جی پی تی، رسیدی را برای رستوران Applebee در سانفرانسیسکو ساخته است. البته این رسانه، ایرادهایی را هم به این تصویر گرفته که به شناسایی جعلی بودن آن کمک می‌کند؛ مثلا استفاده از کاما به جای نقطه و مشکلاتی در محاسبات ریاضی. البته قطعا برای کلاهبرداران اصلا سخت نیست که این ایرادها را با نرم افزارهای ویرایش عکس، اصلاح کنند.

رسید جعلی چت جی پی تی

در هر صورت به‌نظر می‌رسد ساختن رسیدهای جعلی با هوش مصنوعی، به‌شدت آسان شده و فرصت‌های بزرگی را برای تقلب کلاهبرداران ایجاد می‌کند و این موضوع، نگرانی‌های زیادی را به‌وجود آورده است.

تایا کریستنسون، سخنگوی OpenAI، توسعه‌دهنده چت جی پی تی در این رابطه گفته این شرکت همیشه از بازخوردها در دنیای واقعی، یاد می‌گیرد و زمانی که کاربران، خط مشی استفاده از هوش مصنوعی آنها را نقض کنند، اقدامات لازم را انجام می‌دهد. وی همچنین افزود تمام تصاویر تولید شده با چت جی پی تی شامل ابرداده‌هایی هستند که نشان می‌دهند توسط این سرویس هوش مصنوعی ساخته شده‌اند.

با این حال این سوال به‌وجود آمده که چرا ChatGPT در وهله اول به افراد اجازه می‌دهد تا رسیدهای جعلی را تولید کنند و آیا این با سیاست‌های OpenAI برای مقابله با کلاهبرداری در تضاد نیست؟ سخنگوی OpenAI در این رابطه پاسخ داد هدف ما در OpenAI این است که به کاربران، آزادی عمل و خلاقیت بیشتری بدهیم. وی همچنین در اظهارنظری عجیب، گفت رسیدهای تقلبی هوش مصنوعی را می‌توان در موقعیت‌های غیر کلاهبرداری، مانند آموزش سواد مالی به مردم و تبلیغات هنری و تبلیغات محصولات، استفاده کرد.

بیشتر بخوانید

source

توسط petese.ir