خانه » حمله جدید به هوش مصنوعی توسط هکرها: جاسازی دستورهای مخرب در تصاویر کم‌حجم

حمله جدید به هوش مصنوعی توسط هکرها: جاسازی دستورهای مخرب در تصاویر کم‌حجم

توسط Vulnerbyt_News
20 بازدید
New AI attack hides data-theft prompts in downscaled images گروه والنربایت vulnerbyte

محققان حمله جدیدی طراحی کرده‌اند که با تزریق پرامپت‌های مخرب در تصاویر پردازش‌شده توسط سیستم‌های هوش مصنوعی، داده‌های کاربران را سرقت می‌کند و سپس این تصاویر به مدل‌های زبانی بزرگ ارسال می‌شوند. این روش از تصاویر با وضوح کامل استفاده می‌کند که دستوراتی غیرقابل‌مشاهده برای چشم انسان دارند؛ اما با کاهش کیفیت تصویر از طریق الگوریتم‌های بازنمونه‌برداری، این دستورات آشکار می‌شوند.

این حمله که توسط محققان Trail of Bits، Kikimora Morozova و Suha Sabi Hussain، توسعه یافته، بر اساس نظریه‌ای از مقاله‌ای در سال ۲۰۲۰ توسط دانشگاه TU Braunschweig در کنفرانس USENIX درباره امکان حمله مقیاس‌بندی تصویر در یادگیری ماشین طراحی شده‌است.

نحوه عملکرد حمله در حوزه هوش مصنوعی

هنگامی که کاربران تصاویر را در سیستم‌های هوش مصنوعی بارگذاری می‌کنند، این تصاویر برای بهبود عملکرد و کاهش هزینه به‌طور خودکار به کیفیت پایین‌تر مقیاس‌بندی می‌شوند. بسته به سیستم، الگوریتم‌های بازنمونه‌برداری تصویر می‌توانند با استفاده از درون‌یابی نزدیک‌ترین همسایه (nearest neighbor)، دوخطی (bilinear) یا دومکعبی (bicubic) تصویر را سبک‌تر کنند.

این روش‌ها اثرات جانبی هم‌نام‌سازی(aliasing) ایجاد می‌کنند که امکان ظهور الگوهای مخفی در تصویر مقیاس‌شده را فراهم می‌کنند، اگر تصویر اصلی به‌طور خاص برای این منظور طراحی شده باشد. در مثال Trail of Bits، نواحی تیره خاص تصویر مخرب به رنگ قرمز تبدیل شده و متن مخفی به رنگ سیاه هنگام استفاده از مقیاس‌بندی دو مکعبی ظاهر می‌شود.

New AI attack hides data-theft prompts in downscaled images گروه والنربایت vulnerbyte
نمونه‌ای از یک پیام پنهان که روی تصویر کوچک‌شده ظاهر می‌شود

مدل هوش مصنوعی این متن را به‌عنوان بخشی از دستورات کاربر تفسیر کرده و آن را با ورودی‌های معتبر ترکیب می‌کند. از دیدگاه کاربر، هیچ چیز غیرعادی به نظر نمی‌رسد؛ اما مدل، پرامپت مخفی را اجرا می‌کند که می‌تواند به استخراج داده یا اقدامات خطرناک منجر شود. در مثالی با Gemini CLI، محققان توانستند داده‌های Google Calendar را به یک آدرس ایمیل دلخواه استخراج کنند، در حالی که از Zapier MCP با تنظیم trust=True برای تأیید تماس‌های ابزار بدون نیاز به تأیید کاربر استفاده شد.

Trail of Bits توضیح می‌دهد که این حمله باید برای هر مدل هوش مصنوعی با توجه به الگوریتم مقیاس‌بندی استفاده‌شده تنظیم شود. با این حال، محققان تأیید کردند که این روش علیه سیستم‌های زیر امکان‌پذیر است:

  • Google Gemini CLI
  • Vertex AI Studio (با بک‌اند Gemini)
  • رابط وب Gemini
  • API Gemini از طریق llm CLI
  • Google Assistant در گوشی‌های اندروید
  • Genspark

این بردار حمله گسترده است و ممکن است فراتر از ابزارهای آزمایش‌شده باشد. محققان همچنین ابزار متن‌باز Anamorpher (در حال حاضر در نسخه بتا) را منتشر کرده‌اند که می‌تواند تصاویری برای هر یک از روش‌های مقیاس‌بندی ذکرشده ایجاد کند.

توصیه‌های امنیتی

برای کاهش خطر و دفاع، محققان Trail of Bits توصیه می‌کنند که سیستم‌های هوش مصنوعی محدودیت‌هایی برای ابعاد تصاویر بارگذاری‌شده اعمال کنند. در صورت نیاز به مقیاس‌بندی، پیش‌نمایش نتیجه‌ای که به مدل زبانی بزرگ ارسال می‌شود به کاربران ارائه شود. همچنین، تأیید صریح کاربران برای تماس‌های ابزار حساس، به‌ویژه در صورت تشخیص متن در تصویر، ضروری است.

منابع:

همچنین ممکن است دوست داشته باشید

پیام بگذارید