خانه » هوش مصنوعی می‌تواند ۱۰,۰۰۰ نوع بدافزار تولید کند که در 88 درصد موارد شناسایی نمی‌شوند!

هوش مصنوعی می‌تواند ۱۰,۰۰۰ نوع بدافزار تولید کند که در 88 درصد موارد شناسایی نمی‌شوند!

توسط Vulnerbyt_News
11 بازدید
هوش مصنوعی - تهدیدات سایبری - گروه vulnerbyte - گروه والنربایت -vulnerbyte group - دور زدن مکانیزم‌های امنیتی و شناسایی - تولید بدافزار

تحقیقات اخیر، پیشرفت‌های هشدار دهنده‌ای را در استفاده از هوش مصنوعی (AI) برای تولید بدافزار با قابلیت تولید ۱۰,۰۰۰ نوع جدید کد مخرب نشان داده است که در 88 درصد موارد قادر به دور زدن مکانیزم‌های امنیتی و شناسایی هستند. این پیشرفت، تغییر قابل توجهی را در چشم انداز تهدیدات امنیت سایبری نشان می‌دهد.

کارشناسان امنیت سایبری Palo Alto Networks نشان داده‌اند که مدل‌های زبانی بزرگ (LLM) می‌توانند بدافزارهای موجود، به ‌ویژه کدهای جاوا اسکریپت را به‌طور مؤثر بازنویسی کنند تا انواع جدیدی ایجاد نمایند که عملکرد مخرب خود را حفظ می‌کنند و در عین حال تمیز و فاقد کد مخرب به نظر می‌رسند.

این امر از طریق تغییر شکل‌های مختلف مانند تغییر نام متغیرها، تقسیم رشته، درج کد، حذف فضاهای خالی غیر ضروری و پیاده‌سازی مجدد کد انجام می‌شود که عملکرد سیستم‌های تشخیص بدافزار سنتی را به میزان قابل توجهی کاهش می‌دهد.

انواع کدهای تولید شده با هوش مصنوعی از تکنیک‌های مبهم سازی پیچیده استفاده می‌کنند. مبهم‌سازی کد توسط LLM در مقایسه با کتابخانه‌های مبهم‌سازی سنتی (مانند obfuscator.io) طبیعی‌تر می‌باشند که تشخیص آنها را توسط ابزارهای امنیتی، از جمله پلتفرم‌هایی مانند VirusTotal سخت‌تر و چالش برانگیزتر می‌کند.

مطالعات نشان داده است که VirusTotal تنها 12 درصد از این نمونه‌های تولید شده توسط هوش مصنوعی را به عنوان کد مخرب علامت‌گذاری کرده است!

بدافزار تولید شده همچنین ویژگی‌های چند شکلی را از خود نشان می‎دهد، به این معنا که می‌تواند کد خود را با هر بار تکرار تغییر دهد و تلاش‌های شناسایی را پیچیده کند. این سازگاری به آن اجازه می‌دهد تا از روش‌های تشخیص مبتنی بر امضا که به طور فزاینده‌ای در برابر چنین تهدیدهای پویایی بی اثر می‌شوند، فرار کند.

از سوی دیگر، ابزارهایی مانند WormGPT برای خودکارسازی ایجاد ایمیل‌های فیشینگ و تولید بدافزار پدید آمده‌اند که نقش رو به رشد هوش مصنوعی مولد را در جرایم سایبری برجسته می‌کنند.

هوش مصنوعی - تهدیدات سایبری - گروه vulnerbyte - گروه والنربایت -vulnerbyte group - دور زدن مکانیزم‌های امنیتی و شناسایی - تولید بدافزار

LLM قادر به بازنویسی مکرر نمونه‌های بدافزار موجود با هدف کنار گذاشتن تشخیص توسط مدل‌های یادگیری ماشین (ML) مانند Innocent Until Proven Guilty (IUPG) یا PhishingJS است و به طور موثر راه را برای ایجاد 10000 نمونه جاوا اسکریپت جدید هموار می‌کند.

 

حمله TPUXtract به TPUهای Google Edge

در همین حال، تهدیدات امنیت سایبری به سخت‌افزار نیز گسترش یافته است، به طوری که محققان دانشگاه ایالتی کارولینای شمالی از یک حمله کانال جانبی به نام TPUXtract که واحدهای پردازش تنسور Google Edge را هدف قرار می‌دهد، خبر دادند. واحد پردازشی تنسور (TPU[1]) یک مدارهای مجتمع با کاربرد خاص است که به‌طور خاص برای یادگیری ماشین توسط گوگل طراحی شده ‌است.

مکانیزم TPUXtract با گرفتن سیگنال‌های الکترومغناطیسی (EM) منتشر شده توسط TPU در طول استنتاج شبکه عصبی عمل می‌کند. این سیگنال‌ها بینش‌هایی را در مورد فرآیندهای محاسباتی TPU ارائه می‌دهند و به مهاجمان اجازه می‌دهند تا پیکربندی‌های مدل بحرانی را بدون دانش قبلی از معماری یا نرم‌افزار مدل استنباط کنند.

این حمله می‌تواند هایپرپارامترهای[2] دقیق مدل، از جمله انواع لایه‌ها، تعداد گره‌ها، اندازه هسته، گام‌ها و توابع فعال‌سازی را استخراج کند. این سطح از جزئیات، مهاجمان را قادر می‌سازد تا کل مدل هوش مصنوعی را بازسازی کنند، که خطرات قابل توجهی برای سرقت مالکیت معنوی و حملات سایبری احتمالی به دنبال دارد.

در حالی که این حمله بسیار موثر است، نیازمند دسترسی فیزیکی به TPU هدف و تجهیزات تخصصی و گران قیمت برای گرفتن سیگنال‌های EM است. این محدودیت به این معناست که مهاجمان باید در طول عملیات در نزدیکی دستگاه باشند. این حمله، تهدید قابل توجهی برای سیستم‌های هوش مصنوعی مستقر در ابر به شمار می‌آید.

 

EPSS مستعد حملات دستکاری است

تحقیقات اخیر نشان داده است که فریمورک‌های هوش مصنوعی مانند سیستم امتیازدهی پیش‌بینی اکسپلویت (EPSS)، ابزاری که برای ارزیابی احتمال سوءاستفاده از آسیب‌ پذیری‌ها استفاده می‌شود، در برابر دستکاری از طریق حملات تهاجمی آسیب ‌پذیر می‌باشند.

این دستکاری می‌تواند منجر به تخصیص نادرست منابع با آسیب پذیری‌هایی شود که بر اساس پیش بینی‌های اکسپلویت نادرست اولویت بندی شده‌اند. از این رو، این یافته نگرانی هایی را در مورد قابلیت اطمینان از امتیاز EPSS  در هدایت تلاش‌ برای مدیریت آسیب پذیری سازمان‌ها ایجاد می‌کند.

مدل EPSS، سیگنال‌های خارجی مانند ذکر در رسانه‌های اجتماعی و وجود کد اکسپلویت در مخازن عمومی را به ‌عنوان شاخص‌های ریسک بهره‌برداری بالقوه ترکیب می‌کند. این اتکا آن را مستعد دستکاری و ایجاد تغییر می‌سازد، چرا که مهاجمان می‌توانند به طور مصنوعی این سیگنال‌ها را تقویت کرده تا سازمان‌ها را در مورد فوریت رسیدگی به آسیب‌پذیری‌های خاص گمراه کنند.

محققی از Morphisec نشان داد که با دستکاری و افزایش مصنوعی معیارهای خاص (مانند فعالیت رسانه‌های اجتماعی و در دسترس بودن کد عمومی) می‌توان بر ارزیابی EPSS از یک آسیب پذیری خاص تأثیر گذاشت.  با تولید توییت‌های جعلی و ایجاد یک مخزن اکسپلویت در  GitHub، احتمال بهره‌برداری پیش‌بینی‌شده برای این CVE از ۰.۱ به ۰.۱۴ افزایش یافته و رتبه آن از صدک 41 به صدک 51 منتقل شده است.

تکنیک اثبات مفهوم (PoC) نشان می‌دهد که یک عامل تهدید می‌تواند از اتکای EPSS  به سیگنال‌های خارجی برای تقویت معیارهای فعالیت CVE‌های خاص استفاده کند، سازمان‌هایی که گمراه‌کننده هستند، روی امتیازات EPSS برای اولویت‌بندی تلاش‌های مدیریت آسیب‌پذیری خود حساب می‌کنند.

 

[1] Tensor processing unit

[2] hyperparameter

 

منابع

همچنین ممکن است دوست داشته باشید

پیام بگذارید