نسخه قلابی مدیرعامل انویدیا ۱۰۰ هزار نفر را فریب داد!
چند روز قبل، ویدئویی در شبکه های اجتماعی منتشر شد که در آن مدیرعامل شرکت انویدیا در حال صحبت در یک کنفرانس پخش زنده در مورد آیندهی رمزارزها بود.
اما این کنفرانس یک نکتهی قابل تامل داشت:
اینکه چنین کنفرانسی با این موضوع وجود خارجی نداشت؛ کلاهبرداران با کمک هوش مصنوعی و تغییر محتوای یک برنامهی دیگر این شرکت که همان روز برگزار شده بود، یک کنفرانس جعلی راهانداخته بودند!
جالبتر اینکه نسخه جعلی دستکاری شده با هوش مصنوعی، پنج برابر بیشتر از ویدئوی اصلی بیننده داشت.
🔸 جعل هویت دیجیتال چطور انجام شد؟
ابتدا یک ویدئوی جعلی منتشر شد که در آن مدیرعامل انویدیا مدعی شده بود کنفرانس اصلی لغو شده و به جای آن رویدادی بزرگ درباره ارز دیجیتال برگزار میشود که به ماموریت انویدیا برای شتاب بخشیدن به پیشرفت بشر مربوط است!
در استریم جعلی چهره و صدای پرانرژی جنسن هوانگ با دقتی حیرتانگیز توسط هوش مصنوعی بازسازی شده بود. او لبخند میزد، درباره آیندهی رمزارزها سخن میگفت و از بینندگان میخواست کد QR روی صفحه را اسکن کرده و رمزارزهای خود را برای رویداد پذیرش جهانی کریپتو ارسال کنند.
ظاهری کاملاً رسمی، ادبیاتی آشنا، و لوگوی انویدیا در پسزمینه؛ همهچیز بهقدری طبیعی بود که حتی طرفداران قدیمی هم به واقعی نبودن ویدیو شک نکردند.
🔸 کیمیاگری دیجیتال؛ هوانگ جعلی چطور ساخته شد؟
کلاهبرداران هزاران ساعت ویدئو از سخنرانیها و مصاحبههای جنسن هوانگ را به عنوان ماده خام به هوش مصنوعی تزریق کردند. این سیستم جزئیات چهره، لحن صدا، حرکات دست و حتی پلک زدنهای او را به خوبی بررسی کرد تا یک همزاد دیجیتال بینقص خلق کند.
سپس همزاد دیجیتال را روی صحنه مجازی فرستادند تا نقش آفرینی کند. نتیجه آنقدر طبیعی بود که هزاران نفر باورشان شده بود مدیرعامل ارزشمندترین شرکت جهان، شخصاً از آنها درخواست پول میکند.
🔸 چاقو دسته خودش را برید
انویدیا که خودش معمار انقلاب هوش مصنوعی بوده، حالا با جنبه تاریک مخلوقش روبهرو میشود.
♨️در چنین شرایطی باید به هر چیزی که میبینیم و میشنویم با شک و تردید نگاه کنیم؛ حتی اگر صدا و تصویر آشنایی باشد که سالهاست میشناسیم.
🧠 چرا «موافقتپذیری» هوش مصنوعی تهدیدی برای دقت در تحلیلهای OSINT است؟
🤖بسیاری از مدلهای هوش مصنوعی بهگونهای طراحی شدهاند که رضایت کاربر را در اولویت قرار دهند — نه الزاماً دقت را.
نتیجه؟ سامانهای که بهجای نقد و چالش، تنها تأیید میکند.
⚠️این رفتار موسوم به موافقتپذیری (Agreeableness)، در تحلیلهای اطلاعات باز (OSINT) میتواند خطرناک باشد؛ زیرا تحلیلگر به مرور در اتاق پژواکی گرفتار میشود که تفکر انتقادی و بررسی فرضیات در آن تضعیف میگردد.
🔹چرا موافقت بیش از حدِ AI باعث سوگیری تحلیلی میشود؟
🔹چگونه میتوان با طراحی فرایندهای تحلیلی مستقل و تیمهای چالشگر از این خطر پیشگیری کرد؟
🔹 چه زمانی بهتر است از AI فاصله بگیریم؟
http://osint.ir/7791
🔻چرا لهستانی بهترین زبان برای صحبت با هوش مصنوعی شد؟
🔹نتایج یک پژوهش در دانشگاه مریلند نشان میدهد زبان لهستانی دقیقترین عملکرد را در تعامل با مدلهای هوش مصنوعی دارد.
در این مطالعه، مدلهایی مثل ChatGPT، Gemini، Llama، Qwen و DeepSeek در ۲۶ زبان آزمایش شدند و لهستانی با ۸۸٪ دقت رتبه اول را گرفت.
🔹علت چیست؟
محققان میگویند ساختار زبان لهستانی شفافتر و کمابهامتر است و به همین دلیل، دستورها را برای مدلهای زبانی قابل تفسیرتر میکند.
🚩 ساخت پاورپوینت با Gemini / محتوای مورد نظرتان را آپلود کنید و یک پرزنتیشن حرفهای تحویل بگیرید
⚪️ پس از ورود به Gemini , در بخش tools گزینهی Canvas را انتخاب کرده و فایل متنی یا PDF را آپلود کنید؛ حالا این پرامپت را وارد کنید:
create a presentation of this document
⚪ از قسمت بالای صفحه، روی گزینهی Export to Slides بزنید تا ارائه به Google Slides منتقل شود
✅حالا میتوانید از مسیر:
File → Download → Microsoft PowerPoint (.pptx)
نسخهی پاورپوینت آماده را دانلود کنید.
»» این قابلیت برای ساخت سریع ارائههای درسی، گزارش پروژه یا مرور اسناد کاربردی خواهد بود
یک ابزار رایگان هوش مصنوعی برای آنالیز برند ، سایت یا صفحه اینستاگرام
▪️گوگل یک ابزار جدید به اسم Pomelli معرفی کرده که رنگها ، فونتها ، سبک تصاویر و لحن نوشتار یک سایت یا پیج اینستاگرام را برسی کرده و پست شبکههای اجتماعی، متن تبلیغاتی و حتی ایده کمپین تولید میکند .این یعنی Pomelli مثل یک دیزاینر، استراتژیست برند و تولیدکننده محتوا، همزمان کنار یک کسب و کار خواهد بود!
© فعلاً به صورت آزمایشی برای کاربران اروپایی و آمریکائی فعال شده اما میتوانید از طریق آی پی این کشور ها به آن دسترسی پیدا کنید!
🔹 https://labs.google.com/pomelli
بهانه از تنبل ها گرفته شد ؛ شرکت هایی که هوش مصنوعی را به جای نیروی انسانی استخدام کرده بودند پشیمان هستند!
▪️طبق گزارش ها ، بسیاری از کمپانیهایی که سال قبل کارمندانشان را اخراج کرده بودند تا جای آنها را هوش مصنوعی پر کند، حالا در حال بازگرداندن دوباره همان نیروها به چرخه کار هستند.
▪️طبق مطالعات جدید ، اتوماسیون و هوش مصنوعی هنوز آنقدری که مدیران انتظارش را داشتند، بازدهی و کارایی ندارد و نتوانسته جایگزین مناسبی برای توانمندی های یک انسان باشد
+ این موضوع بخصوص برای افرادی قابل تامل است که به بهانه توسعه هوش مصنوعی دست از یاد گرفتن مهارتهای جدید برداشته بودند! واقعیت این است که «آدمهای بلدکار» از هر چیزی باارزشترند و قابل جایگزینی نخواهند بود
«دانشگاهها هوش مصنوعی را در آغوش گرفتهاند؛ آیا دانشجویان باهوشتر میشوند یا دیگر فکر نمیکنند؟»
در مقالهای که ۲۱ اکتبر ۲۰۲۵ در نشریه Nature منتشر شد، نویسنده Helen Pearson به بررسی روند گستردهٔ ورود فناوری هوش مصنوعی (AI) به دانشگاهها، نحوه استفادهٔ دانشجویان از این فناوری و پیامدهای آن برای توانایی فکر کردن، یادگیری و تولید محتوا پرداخته است.
🔍 نکات کلیدی گزارش
دانشگاههایی در سراسر جهان، از جمله Tsinghua University در پکن، ورود دانشجویان را با دعوتنامهای همراه کردهاند که آنها را به گفتوگو با یک «عامل هوش مصنوعی» درباره دورهها، انجمنها و زندگی دانشگاهی تشویق میکند.
این روند نشان میدهد که AI دیگر به عنوان ابزاری جنبی در دانشگاه تلقی نمیشود، بلکه بهعنوان بخشی از محیط آموزشی و زندگی دانشجویی در حال تثبیت است.
مقاله بر این تأکید دارد که هرچند استفاده از ابزارهای هوش مصنوعی برای نوشتن، تحقیق و کمک به یادگیری میتواند کارایی را افزایش دهد، اما همزمان نگرانیهایی نیز وجود دارد؛ از جمله اینکه دانشجویان ممکن است کمتر خودشان فکر کنند، کمتر تحلیل شخصی داشته باشند یا وابسته به AI شوند.
نویسنده چند پرسش اساسی مطرح کرده است:
آیا دانشجو با استفاده از AI واقعاً «ذهن فعال» خود را تقویت میکند یا فقط «دستیار» را میکشد؟
چه تاثیراتی بر آموزش، ارزیابی، عدالت آموزشی و استانداردهای علمی خواهد داشت؟
دانشگاهها و استادان چگونه باید با این فناوری برخورد کنند تا علاوه بر پذیرش آن، تضمین شود که یادگیری عمیق، تفکر انتقادی و مهارتهای تحلیلی همچنان محفوظ بمانند؟
مقاله اشاره میکند که برخی مطالعات اولیه نشان دادهاند انبوه استفاده از AI برای نوشتن میتواند منجر به «فرایند یادگیری سطحیتر»، کاهش فرصت برای تمرین مهارتهای نوشتاری و تحلیل و حتی افزایش احتمال سرقت علمی شود.
در نهایت، نویسنده تأکید میکند که دانشگاهها باید چارچوبهای جدیدی طراحی کنند: راهنمایی استفادهٔ اخلاقی، ارزیابی استادان با فناوریهای جدید، آموزش مهارتهای مکمل (مثل تفکر انتقادی، تفکیک اطلاعات واقعی از تولیدات AI) و بازنگری در سیاستهای ارزیابی دانشجویی.
🎯 پیامدها برای دانشجویان و دانشگاهها
برای دانشجویان: استفاده از AI نمیتواند جایگزین کامل تلاش، تحلیل شخصی و تمرین مداوم باشد؛ بلکه میتواند آن را تقویت کند اگر بهصورت هوشمندانه و همراه با راهنمایی استادان استفاده شود.
برای استادان و دانشگاهها: ضروری است تا سیاستهای بازنگریشده دربارهٔ استفاده از AI تدوین شود، شامل شفافیت دربارهٔ کار دانشجویان، ارزیابی مبتنی بر مهارتهای تفکر انتقادی و تشخیص «استفادهٔ صرف از AI».
برای سیستمهای آموزشی: این فناوری میتواند فرصتهای بزرگی ایجاد کند — مانند شخصیسازی یادگیری، دسترسی بهتر به منابع، خودآموزی پیشرفته — اما بدون نظارت و چارچوب مناسب، ممکن است به کاهش کیفیت یادگیری و تضعیف مهارتهای اصلی بیانجامد.
💡 نفوذ موفق هکرها به تلفنهای سامسونگ: کاربران ایرانی در تیررس
باورتان میشود که دریافت یک عکس از مخاطب ناشناس در واتساپ، بدون کلیک روی هیچ لینکی میتواند سبب هک شدن تلفن همراه شما شود؟
این سناریوی ترسناک، بدافزاری به نام لندفال (LandFall) است که از کاربران برخی گوشیهای سامسونگ در ایران و دیگر کشورهای خاورمیانه جاسوسی کرده و در شرایط خاصی میتواند کنترل کامل گوشی را به دست بگیرد.
🔸 لندفال چطور به گوشی نفوذ میکند؟
هکرها این بدافزار را برای یک حفره امنیتی در کتابخانه پردازش تصویر سامسونگ (libimagecodec.quram.so) ساختهاند. این آسیبپذیری روز صفر (با کد CVE-2025-21042) به هکرها اجازه میدهد با فرستادن تصویری دستکاری شده کدهای مخرب را روی گوشی اجرا کند.
به محض اینکه گوشی عکس را پردازش کند، نقص امنیتی فعال شده و راه را برای اجرای کد مخرب جاسوسافزار باز میکند. همین کد قدم به قدم قطعات بعدی بدافزار را دانلود کرده و به هم وصل میکند تا نقشه کامل شود. به همین سادگی، یک عکس تبدیل به کلیدی برای ورود مهاجم به دستگاه شما میشود.
به گفته محققان لندفال از سال گذشته سرگرم جاسوسی از کاربران بوده و حتی پرچمدارهای سری گلکسی S22، S23، S24 و گوشیهای تاشو سامسونگ هم از آن در امان نبودهاند.
🔸 لندفال چه خطراتی دارد؟
لندفال بعد از ورود به گوشی کنترل کامل را در دست گرفته و به جاسوسی تمامعیار تبدیل میشود:
• میکروفون گوشی را فعال و مکالمات محیط را ضبط میکند.
• تماسهای تلفنی شما را شنود میکند.
• موقعیت مکانی شما را لحظه به لحظه زیر نظر دارد.
• به تمام عکسها، مخاطبین، پیامکها و فایلهای شخصی شما دسترسی پیدا میکند.
به عبارت دیگر جاسوسافزار حریم خصوصی شما را به طور کامل نابود کرده و گوشی را به ابزاری برای نظارت بر زندگیتان تبدیل میکند.
🔸 کاربران ایرانی در تیررس
شواهد نشان میدهد کاربران ایرانی، عراقی، ترکیه و مراکشی بیشتر از همه هدف بودهاند. محققان ۶ سرور فرماندهی (C2) پیدا کردهاند که بعضی از آنها قبلاً توسط مرکز امنیتی ترکیه گزارش شدهاند.
در کدهای لندفال اسم رمز به نام Bridge Head پیدا شده که سابقهاش به شرکتهای معروف فروش جاسوس افزار مثل NSO Group و Cytrox برمیگردد؛ اما هنوز هیچکس نمیداند دقیقا چه کسی پشت این حملات است.
🔸 چاره چیست؟
سامسونگ این حفره امنیتی را با بهروزرسانی نرمافزاری بسته و برای در امان ماندن کافیست این دو کار را انجام دهید:
۱. به بخش تنظیمات گوشی بروید و آخرین نسخه سیستمعامل اندروید را نصب کنید.
۲. در تنظیمات واتساپ دانلود خودکار عکس و فیلم را غیرفعال کنید. با این کار بدافزار قبل از نصب، نیازمند اجازه مستقیم شما خواهد بود.
با این سایت میتوانید بصورت رایگان (اما محدود) از طریق مدل sora2 ویدئو بسازید:
https://geminigen.ai
کشف نوع جدیدی از حملهی سایبری: وقتی الگوهای ترافیک، راز گفتگوی شما با چتباتها را لو میدهند!
باورتان میشود که هکرها میتوانند از گفتگوهای شما با چت چیپیتی (یا هر هوش مصنوعی مشابهی) مطلع شوند؟ البته این موضوع شرایط خاصی دارد که در ادامه توضیح میدهیم:
مایکروسافت در یک گزارشی پژوهشی جدید از یک حمله جدید با نام «Whisper Leak» خبر داده که میتواند بدون شکستن رمزنگاری، موضوع مکالمات کاربران با مدلهای زبانی بزرگ (LLM) را شناسایی کند.
این حمله، به خاطر ضعف در پروتکلهای رمزنگاری مانند HTTPS نیست، بلکه یک حملهی تحلیل ترافیک (Side-Channel) محسوب میشود.
بر اساس این گزارش، زمانی که کاربر با یک چتبات هوش مصنوعی گفتگو میکند و پاسخها به صورت استریم (تکهتکه و لحظهای) ارسال میشوند، الگوهای قابل تحلیلی در ترافیک شبکه شکل میگیرد؛ از جمله:
- اندازه بستههای داده
- فاصله زمانی میان ارسال بستهها
گروه تحقیقاتی مایکروسافت نشان داده که یک مهاجم ناظر بر ترافیک رمزنگاریشده (برای مثال در سطح اپراتور، شبکه سازمانی، یا وایفای عمومی) میتواند با استفاده از این الگوها و با کمک مدلهای یادگیری ماشینی، تشخیص دهد که آیا مکالمه کاربر درباره یک موضوع حساس مشخص است یا خیر؛ بدون آنکه به متن واقعی گفتگو دسترسی داشته باشد.
در این مدل حمله، مهاجم بهدنبال تشخیص مستقیم محتوای پیامها نیست، بلکه بررسی میکند آیا گفتگو حول محور موضوعاتی خاص مانند مسائل سیاسی، مالی و… میچرخد یا نه.
آزمایشها نشان دادهاند که در برخی سناریوها، دقت این تشخیص به حدود ۹۸ درصد میرسد. این موضوع بهویژه از منظر حریم خصوصی نگرانکننده است.
مایکروسافت تأکید میکند که این یافتهها به معنی ناامن بودن رمزنگاری نیست، بلکه نشان میدهد نحوه پیادهسازی استریم پاسخ در سرویسهای هوش مصنوعی میتواند اطلاعات فرادادهای (متادیتا) حساسی را افشا کند.
پ.ن:
۱-این گزارش بار دیگر نشان میدهد که در عصر هوش مصنوعی، حفاظت از حریم خصوصی تنها به رمزنگاری محتوا محدود نمیشود و الگوهای رفتاری ترافیک نیز میتوانند به منبع افشای اطلاعات تبدیل شوند.
جالبتر اینجا است که اینجا از یک هوش مصنوعی برای رمزگشایی از یک هوش مصنوعی دیگر استفاده میشود!
۲-سازمانها و نهادها هنگام بهکارگیری LLMها (ابری یا داخلی) باید حملات مبتنی بر تحلیل ترافیک را نیز در مدل تهدید خود لحاظ کرده، تستهای امنیتی تکمیلی انجام دهند و از مکانیزمهای دفاعی مناسب استفاده کنند
🔻تصویب ماده مهم در طرح ملی هوش مصنوعی در مجلس
🔹در جلسه امروز مجلس، ماده (۱۴) طرح ملی هوش مصنوعی تصویب شد. بر اساس این ماده:
▪️تجهیزات و پردازندههای تخصصی هوش مصنوعی که امکان تولید داخلی آنها وجود ندارد، با پیشنهاد سازمان ملی هوش مصنوعی و تأیید وزارت صمت، از پرداخت حقوق ورودی معاف میشوند.
▪️صندوق ملی توسعه هوش مصنوعی در چارچوب قانون «جهش تولید دانشبنیان» فعالیت خواهد کرد.
▪️دستگاههای اجرایی با ماموریتهای نظامی، دفاعی و امنیتی از شمول این قانون مستثنی هستند.
▪️سازمان ملی هوش مصنوعی باید هر ۶ ماه یکبار گزارش اجرای این قانون را به شورای ملی راهبری هوش مصنوعی و کمیسیونهای تخصصی مجلس ارائه کند.