شرکت OpenAI روز جمعه، بیست ویکم فوریه ۲۰۲۵ اعلام کرد که مجموعهای از حسابهای کاربری را که از ChatGPT برای توسعه یک ابزار نظارتی مبتنی بر هوش مصنوعی (AI) استفاده میکردند، مسدود کرده است.
گفته میشود این ابزار که احتمالاً منشأ چینی دارد، برای نظارت بر شبکههای اجتماعی طراحی شده و از یکی از مدلهای Llama متعلق به متا استفاده میکند. حسابهای مسدود شده از مدلهای OpenAI برای تولید توضیحات دقیق و تحلیل اسناد استفاده کردهاند تا سیستمی برای جمعآوری و تحلیل بلادرنگ گزارشهای اعتراضات ضدچینی در غرب ایجاد کرده و این دادهها را به مقامات چینی ارائه کند.
این کمپین با نام رمز “Peer Review” شناخته شده است، زیرا این شبکه در ترویج و ارزیابی ابزارهای نظارتی فعالیت داشته است. محققان بن نیمو، آلبرت ژانگ، متیو ریچارد و ناتانیل هارتلی اشاره کردند که این ابزار برای پردازش و تحلیل پستها و نظرات در پلتفرمهایی مانند X، فیسبوک، یوتیوب، اینستاگرام، تلگرام و Reddit طراحی شده است.
در یکی از مواردی که شرکت شناسایی کرده، تهدید کنندهها از ChatGPT برای دیباگ و اصلاح کد منبع نرم افزاری استفاده کردهاند که به نظر میرسد این سیستم نظارتی با عنوان “دستیار هوش مصنوعی افکار عمومی چینی ها در خارج از کشور” را اجرا میکند.
این گروه از مدل ChatGPT به عنوان یک ابزار تحقیقاتی برای بازیابی اطلاعات عمومی درباره اندیشکدههای آمریکایی و مقامات دولتی و سیاستمداران در کشورهایی مانند استرالیا، کامبوج و ایالات متحده، استفاده کرده است. همچنین از دسترسی به این مدل برای خواندن، ترجمه و تحلیل اسکرینشاتهایی از اسناد انگلیسی زبان استفاده کرده است.
برخی از این تصاویر شامل اطلاعیههایی درباره اعتراضات مربوط به حقوق اویغورها در شهرهای مختلف غربی بودهاند که احتمالاً از شبکههای اجتماعی کپی شدهاند. ایغورها یک اقلیت مسلمان ترکتبار در منطقه سینکیانگ چین هستند که سالها تحت فشار دولت چین قرار دارند. در حال حاضر اصالت این تصاویر مشخص نیست.
OpenAI همچنین اعلام کرد که چندین گروه دیگر را که از ChatGPT برای فعالیتهای مخرب سوءاستفاده کردهاند، مختل کرده است، از جمله:
- طرح کلاهبرداری استخدامی: شبکهای مرتبط با کره شمالی که در طرح کارکنان IT جعلی نقش داشته و اسناد جعلی برای متقاضیان شغلی مانند رزومه، پروفایلهای آنلاین و نامه پوششی ایجاد میکرده است. همچنین از ChatGPT برای تولید پاسخهای متقاعدکننده جهت توجیه رفتارهای غیرعادی، مانند اجتناب از تماس ویدیویی، دسترسی به سیستمهای شرکتی از کشورهای غیرمجاز یا کار در ساعتهای نامنظم، استفاده کرده است. برخی از این درخواستهای شغلی جعلی در لینکدین منتشر شدهاند.
- نارضایتی اسپاسنر شده: شبکهای با منشأ احتمالی چینی که محتوای شبکههای اجتماعی به زبان انگلیسی و مقالات بلند به زبان اسپانیایی تولید میکرده است. این محتواها علیه ایالات متحده بوده و در وبسایتهای خبری آمریکای لاتین مانند پرو، مکزیک و اکوادور منتشر شدهاند. بخشی از این فعالیت با یک گروه شناخته شده به نام Spamouflageهمپوشانی دارد.
- کلاهبرداری عاشقانه: شبکهای از حسابهای کاربری که به ترجمه و تولید نظرات به زبانهای ژاپنی، چینی و انگلیسی برای انتشار در پلتفرمهای اجتماعی مانند فیسبوک، X و اینستاگرام پرداخته اند. این حمله با کلاهبرداریهای عاشقانه و کلاهبرداری های حوزه سرمایهگذاری با منشأ احتمالی کامبوج ارتباط دارد.
- شبکه نفوذ ایرانی: شبکهای شامل پنج حساب کاربری که در تولید پستهای پلتفرمX و مقالاتی با محتوای طرفداری از فلسطین، حماس و ایران و ضد اسرائیل و ایالات متحده فعال بودهاند. این محتواها در وبسایتهای مرتبط با عملیات نفوذ ایران مانند اتحادیه بینالمللی رسانههای مجازی (IUVM) و Storm-2035 م نتشر شدهاند. یکی از این حسابهای مسدودشده، همزمان برای دو عملیات محتوایی فعالیت داشته که نشاندهنده یک ارتباط گزارشنشده قبلی است.
- گروههای Kimsuky و BlueNoroff: شبکهای از حسابهای متعلق به مهاجمان سایبری کره شمالی که در جمعآوری اطلاعات درباره ابزارهای نفوذ سایبری و موضوعات مرتبط با ارزهای دیجیتال فعالیت داشتهاند. هکرها همچنین از ChatGPT برای دیباگ کدهای حملات بروت فورس پروتکل RDP(پروتکل دسترسی از راه دور به دسکتاپ) استفاده کردهاند.
- عملیات تأثیرگذاری پنهان در انتخابات غنا: شبکهای از حسابهای کاربری که مقالات انگلیسی برای وبسایتی به نام “Empowering Ghana” و نظرات رسانههای اجتماعی در ارتباط با انتخابات ریاستجمهوری غنا تولید کردهاند.
- کلاهبرداری از طریق وظایف: شبکهای با منشأ احتمالی کامبوج که نظرات بین زبانهای اردو و انگلیسی را ترجمه میکرده است. این فعالیت بخشی از یک کلاهبرداری بوده که افراد را به انجام وظایف ساده مانند لایک کردن ویدیوها یا نوشتن نقد و بررسی ترغیب میکرده و در ازای آن، وعده دریافت کمیسیون مالی میداده است. برای دسترسی به این فرصتها، قربانیان باید پول پرداخت میکردند؛ اما این کمیسیونها در واقع وجود نداشتهاند.
این تحولات در حالی رخ میدهد که عاملان مخرب به طور پیوسته از ابزارهای هوش مصنوعی برای تسهیل کمپینهای اطلاعات نادرست سایبری و سایر عملیات مخرب استفاده میکنند.
ماه گذشته، گروه اطلاعات تهدید گوگل (GTIG) اعلام کرد که بیش از ۵۷ عامل تهدید با وابستگی به چین، ایران، کره شمالی و روسیه از چتبات هوش مصنوعی Gemini برای بهبود چندین مرحله از چرخه حملات، تحقیق درباره رویدادهای روز و تولید، ترجمه و بومیسازی محتوا استفاده کردهاند.
به گفته OpenAI، بینشهای منحصربهفردی که شرکتهای هوش مصنوعی میتوانند از عاملان تهدید به دست آورند، در صورتی که با ارائهدهندگان خدمات زیرساختی مانند شرکتهای هاستینگ و توسعهدهندگان نرمافزار، پلتفرمهای توزیع محتوا مانند کمپانی های رسانه اجتماعی و پژوهشگران منبعباز به اشتراک گذاشته شود، بسیار ارزشمند خواهد بود. همچنین، اطلاعاتی که شرکتهای زیرساخت، پلتفرمهای محتوا و پژوهشگران امنیتی درباره این تهدیدها دارند، میتواند به شناسایی و مقابله با آنها توسط شرکتهای هوش مصنوعی کمک کند.
منابع
مقالات پیشنهادی:
ایتالیا OpenAI را به دلیل نقض حریم خصوصی داده، ۱۵ میلیون یورو جریمه کرد
چگونگه با کلاهبرداریها و محتواهای جعلی مبتنی بر هوش مصنوعی مقابله کنیم؟
نفوذ بدافزارهای رباینده اطلاعات AMOS و Lumma به برنامههای هوش مصنوعی جعلی
آسیب پذیری فریمورک Llama متا، سیستمهای AI را در معرض خطر RCE قرار میدهد
اپلیکیشن DeepSeek دادههای حساس کاربران و دستگاهها را بدون رمزگذاری منتقل میکند
هوش مصنوعی میتواند ۱۰,۰۰۰ نوع بدافزار تولید کند که در 88 درصد موارد شناسایی نمیشوند