جزئیات آسیبپذیری GitLab Duo پژوهشگران امنیت سایبری یک آسیبپذیری مربوط به تزریق پرامپت را در دستیار هوش مصنوعی GitLab Duo کشف کردند که به مهاجمان امکان سرقت کد منبع، تزریق…
LLM
-
-
هوش مصنوعی مولد، چشمانداز امنیت سایبری را دگرگون کرده و مهاجمان با بهرهگیری از مدلهای زبانی بزرگ (LLM) به جعل هویت افراد مورد اعتماد و اجرای مهندسی اجتماعی در مقیاس…
-
تهدیدات حوزه هوش مصنوعی
سوء استفاده از ChatGPT-4o در کلاهبرداری های صوتی!
توسط Vulnerbyt_Newsتوسط Vulnerbyt_Newsظهور هوش مصنوعی با قابلیت صوتی نشان دهنده یک تحول چشمگیر در فناوری است که بر اساس پیشرفتهای اخیر در مدلهای مبتنی بر زبان، بهویژه مدلهای زبانی بزرگ (LLM) مانند…
-
آسیب پذیری و وصلههای امنیتیتهدیدات حوزه هوش مصنوعی
کشف ۳۶ آسیب پذیری در مدلهای AI و ML منبع باز!
توسط Vulnerbyt_Newsتوسط Vulnerbyt_Newsحدود ۳۶ آسیب پذیری امنیتی در مدلهای مختلف منبع باز هوش مصنوعی (AI[1]) و یادگیری ماشین ([2]ML) شناسایی شده است که برخی از آنها میتوانند منجر به اجرای کد از…
-
حملات هدفمند
سوء استفاده گروه Kimsuky کره شمالی از فایل های راهنمای HTML کامپایل شده
توسط Vulnerbyt_Newsتوسط Vulnerbyt_Newsگروه مرتبط با کره شمالی معروف به Kimsuky (کیمسوکی) در حال تغییر تاکتیکهای خود مشاهده شده است. گروه Kimsuky اخیرا از فایلهای CHM (Compiled HTML Help یا راهنمای HTML کامپایل…
-
بولتن های امنیتی
ارائه بیش از ۲۲۵۰۰۰ گواهی اعتبار ChatGPT هک شده برای فروش در بازارهای دارک وب
توسط Vulnerbyt_Newsتوسط Vulnerbyt_Newsیافتههای جدید Group-IB حاکی از آن است که بیش از 225 هزار لاگ شامل گواهی اعتبار ChatGPT هک شده برای فروش در بازارهای زیرزمینی بین ژانویه تا اکتبر 2023 در…