🤖 بدافزاری که خودش را با کمک هوش مصنوعی بازنویسی میکند!
▪️محققان امنیتی گوگل از کشف خانوادهی جدیدی از بدافزارها با نام PROMPTFLUX خبر دادند؛ تروجانی که با استفاده از مدلهای زبانی بزرگ مثل Gemini، میتواند خودش را بازنویسی کرده تا از چنگ آنتیویروسها فرار کند!
▪️این بدافزار از طریق API مدل Gemini با هوش مصنوعی گوگل ارتباط گرفته و یاد میگیرد چطور کد خودش را تغییر داده و امضای دیجیتالش را عوض کند!
+ مقابله با نسل جدید بدافزارهای مبتنی بر هوش مصنوعی به شدت سخت شده و سخت تر از این هم خواهد شد ، به همین دلیل سیستمهای امنیتی هم باید از AI برای دفاع سایبری و مقابله با این تهدیدات استفاده کنند
💢هشدار درباره بدافزار «عکس یادگاری با هوش مصنوعی»
📍پلیس فتا اعلام کرد: برنامهای با عنوان «عکس یادگاری با هوش مصنوعی» در واقع بدافزاری بانکی است که اطلاعات کاربران را سرقت میکند.
📍مجرمان سایبری با ارسال فایلهایی که در ظاهر برنامه یا تصویر تولیدشده توسط هوش مصنوعی هستند، بدافزارهای بانکی را روی تلفن همراه کاربران نصب میکنند.
▪️این بدافزارها پس از اجرا، اطلاعات شخصی، دادههای بانکی و موجودی حساب افراد را سرقت کرده و در موارد متعدد منجر به برداشت غیرمجاز از حساب کاربران شده است.
📍افرادی که چنین فایلهایی را ارسال میکنند، معمولاً خودشان نیز قربانی حملات مشابه شده و دستگاهشان آلوده است.
فرزندپروری در عصر دیجیتال | والدین چگونه میتوانند استفاده از فناوری را در کودکان هدایت کنند؟
https://thecsri.ir/article/7965
17.67M حجم رسانه بالاست
مشاهده در ایتا
بهترین برنامههای کنترل والدین؛ ایجاد محیط امن برای کودکان در اینترنت
خبری جالب و البته شوکه کننده / شرکت Anthropic گزارش داده که توانسته جلوی اولین حمله بزرگ جاسوسی سایبری که به صورت خودکار توسط هوش مصنوعی مدیریت شده را بگیرد؛ این یعنی ورود به فاز جدیدی از تهدیدات سایبری!
»»جزئیات ماجرا:
این حمله را نمیتوان تنها استفاده از AI برای "مشاوره دادن" به هکرها توصیف کرد ؛ بلکه اینجا مهاجمان از قابلیتهای "عاملیت" (Agentic) هوش مصنوعی استفاده کرده اند. یعنی AI مثل یک "مامور" عمل کرده و 80 تا 90 درصد کارهای حمله، از شناسایی هدف تا نوشتن کدهای مخرب و استخراج اطلاعات، را بدون دخالت زیاد انسان پیش برده. هکرها فقط در ۴-۶ نقطه کلیدی برای تصمیمگیری وارد عمل شده اند.
»»سرعت غیرقابل تصور: Anthropic میگوید این سیستم AI تونسته هزاران درخواست، و اغلب چندین درخواست در ثانیه، ایجاد کند! سرعتی که برای هیچ تیم انسانی از هکرها قابل دستیابی نیست!
سوءاستفاده از Claude: گروه مهاجم (که Anthropic با اطمینان بالا میگوید یک گروه تحت حمایت دولت چین بوده) با "جِیلبریک" کردن و فریب دادن ابزار Claude Code (کد نویس هوش مصنوعی Anthropic) آن را وادار به عملیات خرابکارانه کرده. آنها با ترفندهایی مثل شکستن کارها به بخشهای کوچک و وانمود کردن به اینکه AI در حال فعالیت برای یک شرکت امنیتی قانونی است، از سد حفاظتی کلاود گذشتند.
اهداف مهم: حدود ۳۰ هدف جهانی، شامل شرکتهای بزرگ تکنولوژی، مالی، تولید مواد شیمیایی و سازمانهای دولتی مورد حمله قرار گرفته اند.
نتیجهگیری و پیام مهم:
این ماجرا زنگ خطری است که نشان میدهد موانع انجام حملات سایبری پیچیده، به طرز چشمگیری کاهش پیدا کرده و گروههای کمتجربهتر هم حالا میتوانند حمله های بزرگ اجرا کنند.
در عین Anthropic تاکید کرده هوش مصنوعیای که میتواند حمله کند، میتواند بهترین مدافع هم باشد! بنابراین باید یاد بگیریم چطور از AI برای تشخیص تهدیدات، ارزیابی آسیبپذیریها و پاسخ به حوادث (Cyber Defense) استفاده کنیم.
از طریق لینک زیر میتوانید متن کامل گزارش را مشاهده کنید:
https://www.anthropic.com/news/disrupting-AI-espionage