خانه » OpenAI حساب‌های ChatGPT مرتبط با ابزارهای نظارتی و نفوذ سایبری را مسدود کرد

OpenAI حساب‌های ChatGPT مرتبط با ابزارهای نظارتی و نفوذ سایبری را مسدود کرد

توسط Vulnerbyt_News
OpenAI - حساب های ChatGPT - والنربایت - vulnerbyte - سایبری

شرکت OpenAI روز جمعه، بیست ویکم فوریه ۲۰۲۵ اعلام کرد که مجموعه‌ای از حساب‌های کاربری را که از ChatGPT برای توسعه یک ابزار نظارتی مبتنی بر هوش مصنوعی (AI) استفاده می‌کردند، مسدود کرده است.

گفته می‌شود این ابزار که احتمالاً منشأ چینی دارد، برای نظارت بر شبکه‌های اجتماعی طراحی شده و از یکی از مدل‌های Llama متعلق به متا استفاده می‌کند. حساب‌های مسدود شده از مدل‌های OpenAI برای تولید توضیحات دقیق و تحلیل اسناد استفاده کرده‌اند تا سیستمی برای جمع‌آوری و تحلیل بلادرنگ گزارش‌های اعتراضات ضدچینی در غرب ایجاد کرده و این داده‌ها را به مقامات چینی ارائه کند.

این کمپین با نام رمز “Peer Review” شناخته شده است، زیرا این شبکه در ترویج و ارزیابی ابزارهای نظارتی فعالیت داشته است. محققان بن نیمو، آلبرت ژانگ، متیو ریچارد و ناتانیل هارتلی اشاره کردند که این ابزار برای پردازش و تحلیل پست‌ها و نظرات در پلتفرم‌هایی مانند  X، فیسبوک، یوتیوب، اینستاگرام، تلگرام و Reddit طراحی شده است.

در یکی از مواردی که شرکت شناسایی کرده، تهدید کننده‌ها از ChatGPT برای دیباگ و اصلاح کد منبع نرم افزاری استفاده کرده‌اند که به نظر می‌رسد این سیستم نظارتی با عنوان “دستیار هوش مصنوعی افکار عمومی چینی ها در خارج از کشور”  را اجرا می‌کند.

این گروه از مدل ChatGPT به ‌عنوان یک ابزار تحقیقاتی برای بازیابی اطلاعات عمومی درباره اندیشکده‌های آمریکایی و مقامات دولتی و سیاستمداران در کشورهایی مانند استرالیا، کامبوج و ایالات متحده، استفاده کرده است. همچنین از دسترسی به این مدل برای خواندن، ترجمه و تحلیل اسکرین‌شات‌هایی از اسناد انگلیسی ‌زبان استفاده کرده است.

برخی از این تصاویر شامل اطلاعیه‌هایی درباره اعتراضات مربوط به حقوق اویغورها در شهرهای مختلف غربی بوده‌اند که احتمالاً از شبکه‌های اجتماعی کپی شده‌اند. ایغورها یک اقلیت مسلمان ترک‌تبار در منطقه سین‌کیانگ چین هستند که سال‌ها تحت فشار دولت چین قرار دارند. در حال حاضر اصالت این تصاویر مشخص نیست.

OpenAI همچنین اعلام کرد که چندین گروه دیگر را که از ChatGPT برای فعالیت‌های مخرب سوءاستفاده کرده‌اند، مختل کرده است، از جمله:

  • طرح کلاهبرداری استخدامی: شبکه‌ای مرتبط با کره شمالی که در طرح کارکنان IT جعلی نقش داشته و اسناد جعلی برای متقاضیان شغلی مانند رزومه، پروفایل‌های آنلاین و نامه پوششی ایجاد می‌کرده است. همچنین از ChatGPT برای تولید پاسخ‌های متقاعدکننده جهت توجیه رفتارهای غیرعادی، مانند اجتناب از تماس ویدیویی، دسترسی به سیستم‌های شرکتی از کشورهای غیرمجاز یا کار در ساعت‌های نامنظم، استفاده کرده است. برخی از این درخواست‌های شغلی جعلی در لینکدین منتشر شده‌اند.
  • نارضایتی اسپاسنر شده: شبکه‌ای با منشأ احتمالی چینی که محتوای شبکه‌های اجتماعی به زبان انگلیسی و مقالات بلند به زبان اسپانیایی تولید می‌کرده است. این محتواها علیه ایالات متحده بوده و در وب‌سایت‌های خبری آمریکای لاتین مانند پرو، مکزیک و اکوادور منتشر شده‌اند. بخشی از این فعالیت با یک گروه شناخته ‌شده به نام Spamouflageهمپوشانی دارد.
  • کلاهبرداری عاشقانه: شبکه‌ای از حساب‌های کاربری که به ترجمه و تولید نظرات به زبان‌های ژاپنی، چینی و انگلیسی برای انتشار در پلتفرم‌های اجتماعی مانند فیسبوک، X و اینستاگرام پرداخته اند. این حمله با کلاهبرداری‌های عاشقانه و کلاهبرداری های حوزه سرمایه‌گذاری با منشأ احتمالی کامبوج ارتباط دارد.
  • شبکه نفوذ ایرانی: شبکه‌ای شامل پنج حساب کاربری که در تولید پست‌های پلتفرمX و مقالاتی با محتوای طرفداری از فلسطین، حماس و ایران و ضد اسرائیل و ایالات متحده فعال بوده‌اند. این محتواها در وب‌سایت‌های مرتبط با عملیات نفوذ ایران مانند اتحادیه بین‌المللی رسانه‌های مجازی (IUVM) و Storm-2035 م نتشر شده‌اند. یکی از این حساب‌های مسدودشده، همزمان برای دو عملیات محتوایی فعالیت داشته که نشان‌دهنده یک ارتباط گزارش‌نشده قبلی است.
  • گروه‌های Kimsuky و BlueNoroff: شبکه‌ای از حساب‌های متعلق به مهاجمان سایبری کره شمالی که در جمع‌آوری اطلاعات درباره ابزارهای نفوذ سایبری و موضوعات مرتبط با ارزهای دیجیتال فعالیت داشته‌اند. هکرها همچنین از ChatGPT برای دیباگ کدهای حملات بروت ‌فورس پروتکل RDP(پروتکل دسترسی از راه دور به دسکتاپ) استفاده کرده‌اند.
  • عملیات تأثیرگذاری پنهان در انتخابات غنا: شبکه‌ای از حساب‌های کاربری که مقالات انگلیسی برای وب‌سایتی به نام “Empowering Ghana” و نظرات رسانه‌های اجتماعی در ارتباط با انتخابات ریاست‌جمهوری غنا تولید کرده‌اند.
  • کلاهبرداری از طریق وظایف: شبکه‌ای با منشأ احتمالی کامبوج که نظرات بین زبان‌های اردو و انگلیسی را ترجمه می‌کرده است. این فعالیت بخشی از یک کلاهبرداری بوده که افراد را به انجام وظایف ساده مانند لایک کردن ویدیوها یا نوشتن نقد و بررسی ترغیب می‌کرده و در ازای آن، وعده دریافت کمیسیون مالی می‌داده است. برای دسترسی به این فرصت‌ها، قربانیان باید پول پرداخت می‌کردند؛ اما این کمیسیون‌ها در واقع وجود نداشته‌اند.

این تحولات در حالی رخ می‌دهد که عاملان مخرب به طور پیوسته از ابزارهای هوش مصنوعی برای تسهیل کمپین‌های اطلاعات نادرست سایبری و سایر عملیات مخرب استفاده می‌کنند.

ماه گذشته، گروه اطلاعات تهدید گوگل (GTIG) اعلام کرد که بیش از ۵۷ عامل تهدید با وابستگی به چین، ایران، کره شمالی و روسیه از چت‌بات هوش مصنوعی Gemini برای بهبود چندین مرحله از چرخه حملات، تحقیق درباره رویدادهای روز و تولید، ترجمه و بومی‌سازی محتوا استفاده کرده‌اند.

به گفته OpenAI، بینش‌های منحصربه‌فردی که شرکت‌های هوش مصنوعی می‌توانند از عاملان تهدید به دست آورند، در صورتی که با ارائه‌دهندگان خدمات زیرساختی مانند شرکت‌های هاستینگ و توسعه‌دهندگان نرم‌افزار، پلتفرم‌های توزیع محتوا مانند کمپانی های رسانه اجتماعی و پژوهشگران منبع‌باز به اشتراک گذاشته شود، بسیار ارزشمند خواهد بود. همچنین، اطلاعاتی که شرکت‌های زیرساخت، پلتفرم‌های محتوا و پژوهشگران امنیتی درباره این تهدیدها دارند، می‌تواند به شناسایی و مقابله با آن‌ها توسط شرکت‌های هوش مصنوعی کمک کند.

منابع

همچنین ممکن است دوست داشته باشید

پیام بگذارید