eitaa logo
کاوش در دنیای هوش مصنوعی
21.8هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
352 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
نسخه قلابی مدیرعامل انویدیا ۱۰۰ هزار نفر را فریب داد! چند روز قبل، ویدئویی در شبکه های اجتماعی منتشر شد که در آن مدیرعامل شرکت انویدیا در حال صحبت در یک کنفرانس پخش زنده در مورد آینده‌ی رمزارزها بود. اما این کنفرانس یک نکته‌ی قابل تامل داشت: اینکه چنین کنفرانسی با این موضوع وجود خارجی نداشت؛ کلاهبرداران با کمک هوش مصنوعی و تغییر محتوای یک برنامه‌ی دیگر این شرکت که همان روز برگزار شده بود، یک کنفرانس جعلی راه‌انداخته بودند! جالب‌تر این‌که نسخه جعلی دستکاری شده با هوش مصنوعی، پنج برابر بیشتر از ویدئوی اصلی بیننده داشت. 🔸 جعل هویت دیجیتال چطور انجام شد؟ ابتدا یک ویدئوی جعلی منتشر شد که در آن مدیرعامل انویدیا مدعی شده بود کنفرانس اصلی لغو شده و به جای آن رویدادی بزرگ درباره ارز دیجیتال برگزار می‌شود که به ماموریت انویدیا برای شتاب بخشیدن به پیشرفت بشر مربوط است! در استریم جعلی چهره و صدای پرانرژی جنسن هوانگ با دقتی حیرت‌انگیز توسط هوش مصنوعی بازسازی شده بود. او لبخند می‌زد، درباره آینده‌ی رمزارزها سخن می‌گفت و از بینندگان می‌خواست کد QR روی صفحه را اسکن کرده و رمزارزهای خود را برای رویداد پذیرش جهانی کریپتو ارسال کنند.  ظاهری کاملاً رسمی، ادبیاتی آشنا، و لوگوی انویدیا در پس‌زمینه؛ همه‌چیز به‌قدری طبیعی بود که حتی طرفداران قدیمی هم به واقعی نبودن ویدیو شک نکردند. 🔸 کیمیاگری دیجیتال؛ هوانگ جعلی چطور ساخته شد؟ کلاهبرداران هزاران ساعت ویدئو از سخنرانی‌ها و مصاحبه‌های جنسن هوانگ را به عنوان ماده خام به هوش مصنوعی تزریق کردند. این سیستم جزئیات چهره، لحن صدا، حرکات دست و حتی پلک زدن‌های او را به خوبی بررسی کرد تا یک همزاد دیجیتال بی‌نقص خلق کند. سپس همزاد دیجیتال را روی صحنه مجازی فرستادند تا نقش آفرینی کند. نتیجه آن‌قدر طبیعی بود که هزاران نفر باورشان شده بود مدیرعامل ارزشمندترین شرکت‌ جهان، شخصاً از آن‌ها درخواست پول می‌کند.  🔸 چاقو دسته خودش را برید انویدیا که خودش معمار انقلاب هوش مصنوعی بوده، حالا با جنبه تاریک مخلوقش روبه‌رو می‌شود. ♨️در چنین شرایطی باید به هر چیزی که می‌بینیم و می‌شنویم با شک و تردید نگاه کنیم؛ حتی اگر صدا و تصویر آشنایی باشد که سال‌هاست می‌شناسیم.
🧠 چرا «موافقت‌پذیری» هوش مصنوعی تهدیدی برای دقت در تحلیل‌های OSINT است؟ 🤖بسیاری از مدل‌های هوش مصنوعی به‌گونه‌ای طراحی شده‌اند که رضایت کاربر را در اولویت قرار دهند — نه الزاماً دقت را. نتیجه؟ سامانه‌ای که به‌جای نقد و چالش، تنها تأیید می‌کند. ⚠️این رفتار موسوم به موافقت‌پذیری (Agreeableness)، در تحلیل‌های اطلاعات باز (OSINT) می‌تواند خطرناک باشد؛ زیرا تحلیلگر به مرور در اتاق پژواکی گرفتار می‌شود که تفکر انتقادی و بررسی فرضیات در آن تضعیف می‌گردد. 🔹چرا موافقت بیش از حدِ AI باعث سوگیری تحلیلی می‌شود؟ 🔹چگونه می‌توان با طراحی فرایندهای تحلیلی مستقل و تیم‌های چالش‌گر از این خطر پیشگیری کرد؟ 🔹 چه زمانی بهتر است از AI فاصله بگیریم؟ http://osint.ir/7791
🔻چرا لهستانی بهترین زبان برای صحبت با هوش مصنوعی شد؟ 🔹نتایج یک پژوهش در دانشگاه مریلند نشان می‌دهد زبان لهستانی دقیق‌ترین عملکرد را در تعامل با مدل‌های هوش مصنوعی دارد. در این مطالعه، مدل‌هایی مثل ChatGPT، Gemini، Llama، Qwen و DeepSeek در ۲۶ زبان آزمایش شدند و لهستانی با ۸۸٪ دقت رتبه اول را گرفت. 🔹علت چیست؟ محققان می‌گویند ساختار زبان لهستانی شفاف‌تر و کم‌ابهام‌تر است و به همین دلیل، دستورها را برای مدل‌های زبانی قابل تفسیرتر می‌کند.
🚩 ساخت پاورپوینت با Gemini / محتوای مورد نظرتان را آپلود کنید و یک پرزنتیشن حرفه‌ای تحویل بگیرید ⚪️ پس از ورود به Gemini , در بخش tools گزینه‌ی Canvas را انتخاب کرده و فایل متنی یا PDF را آپلود کنید؛ حالا این پرامپت را وارد کنید: create a presentation of this document ⚪ از قسمت بالای صفحه، روی گزینه‌ی Export to Slides بزنید تا ارائه‌ به Google Slides منتقل شود ✅حالا میتوانید از مسیر: File → Download → Microsoft PowerPoint (.pptx) نسخه‌ی پاورپوینت آماده را دانلود کنید. »» این قابلیت برای ساخت سریع ارائه‌های درسی، گزارش پروژه‌ یا مرور اسناد کاربردی خواهد بود
یک ابزار رایگان هوش مصنوعی برای آنالیز برند ، سایت یا صفحه اینستاگرام ▪️گوگل یک ابزار جدید به اسم Pomelli معرفی کرده که رنگ‌ها ، فونت‌ها ، سبک تصاویر و لحن نوشتار یک سایت یا پیج اینستاگرام را برسی کرده و پست شبکه‌های اجتماعی، متن تبلیغاتی و حتی ایده‌ کمپین تولید میکند .این یعنی Pomelli مثل یک دیزاینر، استراتژیست برند و تولیدکننده محتوا، هم‌زمان کنار یک کسب و کار خواهد بود! © فعلاً به صورت آزمایشی برای کاربران اروپایی و آمریکائی فعال شده اما میتوانید از طریق آی پی این کشور ها به آن دسترسی پیدا کنید! 🔹 https://labs.google.com/pomelli
بهانه از تنبل ها گرفته شد ؛ شرکت هایی که هوش مصنوعی را به جای نیروی انسانی استخدام کرده بودند پشیمان هستند! ▪️طبق گزارش ها ، بسیاری از کمپانی‌هایی که سال قبل کارمندانشان را اخراج کرده بودند تا جای آنها را هوش مصنوعی پر کند، حالا در حال بازگرداندن دوباره همان نیروها به چرخه کار هستند. ▪️طبق مطالعات جدید ، اتوماسیون و هوش مصنوعی هنوز آنقدری که مدیران انتظارش را داشتند، بازدهی و کارایی ندارد و نتوانسته جایگزین مناسبی برای توانمندی های یک انسان باشد + این موضوع بخصوص برای افرادی قابل تامل است که به بهانه‌ توسعه هوش مصنوعی دست از یاد گرفتن مهارتهای جدید برداشته بودند! واقعیت این است که «آدمهای بلدکار» از هر چیزی باارزش‌ترند و قابل جایگزینی نخواهند بود
«دانشگاه‌ها هوش مصنوعی را در آغوش گرفته‌اند؛ آیا دانشجویان باهوش‌تر می‌شوند یا دیگر فکر نمی‌کنند؟» در مقاله‌ای که ۲۱ اکتبر ۲۰۲۵ در نشریه Nature منتشر شد، نویسنده Helen Pearson به بررسی روند گستردهٔ ورود فناوری هوش مصنوعی (AI) به دانشگاه‌ها، نحوه استفادهٔ دانشجویان از این فناوری و پیامدهای آن برای توانایی فکر کردن، یادگیری و تولید محتوا پرداخته است. 🔍 نکات کلیدی گزارش دانشگاه‌هایی در سراسر جهان، از جمله Tsinghua University در پکن، ورود دانشجویان را با دعوت‌نامه‌ای همراه کرده‌اند که آنها را به گفت‌وگو با یک «عامل هوش مصنوعی» درباره دوره‌ها، انجمن‌ها و زندگی دانشگاهی تشویق می‌کند. این روند نشان می‌دهد که AI دیگر به عنوان ابزاری جنبی در دانشگاه تلقی نمی‌شود، بلکه به‌عنوان بخشی از محیط آموزشی و زندگی دانشجویی در حال تثبیت است. مقاله بر این تأکید دارد که هرچند استفاده از ابزارهای هوش مصنوعی برای نوشتن، تحقیق و کمک به یادگیری می‌تواند کارایی را افزایش دهد، اما هم‌زمان نگرانی‌هایی نیز وجود دارد؛ از جمله اینکه دانشجویان ممکن است کمتر خودشان فکر کنند، کمتر تحلیل شخصی داشته باشند یا وابسته به AI شوند. نویسنده چند پرسش اساسی مطرح کرده است: آیا دانشجو با استفاده از AI واقعاً «ذهن فعال» خود را تقویت می‌کند یا فقط «دستیار» را می‌کشد؟ چه تاثیراتی بر آموزش، ارزیابی، عدالت آموزشی و استانداردهای علمی خواهد داشت؟ دانشگاه‌ها و استادان چگونه باید با این فناوری برخورد کنند تا علاوه بر پذیرش آن، تضمین شود که یادگیری عمیق، تفکر انتقادی و مهارت‌های تحلیلی همچنان محفوظ بمانند؟ مقاله اشاره می‌کند که برخی مطالعات اولیه نشان داده‌اند انبوه استفاده از AI برای نوشتن می‌تواند منجر به «فرایند یادگیری سطحی‌تر»، کاهش فرصت برای تمرین مهارت‌های نوشتاری و تحلیل و حتی افزایش احتمال سرقت علمی شود. در نهایت، نویسنده تأکید می‌کند که دانشگاه‌ها باید چارچوب‌های جدیدی طراحی کنند: راهنمایی استفادهٔ اخلاقی، ارزیابی استادان با فناوری‌های جدید، آموزش مهارت‌های مکمل (مثل تفکر انتقادی، تفکیک اطلاعات واقعی از تولیدات AI) و بازنگری در سیاست‌های ارزیابی دانشجویی. 🎯 پیامدها برای دانشجویان و دانشگاه‌ها برای دانشجویان: استفاده از AI نمی‌تواند جایگزین کامل تلاش، تحلیل شخصی و تمرین مداوم باشد؛ بلکه می‌تواند آن را تقویت کند اگر به‌صورت هوشمندانه و همراه با راهنمایی استادان استفاده شود. برای استادان و دانشگاه‌ها: ضروری است تا سیاست‌های بازنگری‌شده دربارهٔ استفاده از AI تدوین شود، شامل شفافیت دربارهٔ کار دانشجویان، ارزیابی مبتنی بر مهارت‌های تفکر انتقادی و تشخیص «استفادهٔ صرف از AI». برای سیستم‌های آموزشی: این فناوری می‌تواند فرصت‌های بزرگی ایجاد کند — مانند شخصی‌سازی یادگیری، دسترسی بهتر به منابع، خودآموزی پیشرفته — اما بدون نظارت و چارچوب مناسب، ممکن است به کاهش کیفیت یادگیری و تضعیف مهارت‌های اصلی بیانجامد.
💡 نفوذ موفق هکرها به تلفن‌های سامسونگ: کاربران ایرانی در تیررس باورتان می‌شود که دریافت یک عکس از مخاطب ناشناس در واتساپ، بدون کلیک روی هیچ لینکی می‌تواند سبب هک شدن تلفن همراه شما شود؟ این سناریوی ترسناک، بدافزاری به نام لندفال (LandFall) است که از کاربران برخی گوشی‌های سامسونگ در ایران و دیگر کشورهای خاورمیانه جاسوسی کرده و در شرایط خاصی می‌تواند کنترل کامل گوشی را به دست بگیرد. 🔸 لندفال چطور به گوشی نفوذ می‌کند؟ هکرها این بدافزار را برای یک حفره امنیتی در کتابخانه پردازش تصویر سامسونگ (libimagecodec‌‌‌.‌‌quram‌‌‌‌.‌‌‌so) ساخته‌اند. این آسیب‌پذیری روز صفر (با کد CVE-2025-21042) به هکرها اجازه می‌دهد با فرستادن تصویری دستکاری شده کدهای مخرب را روی گوشی اجرا کند. به محض اینکه گوشی عکس را پردازش کند، نقص امنیتی فعال شده و راه را برای اجرای کد مخرب جاسوس‌افزار باز می‌کند. همین کد قدم به قدم قطعات بعدی بدافزار را دانلود کرده و به هم وصل می‌کند تا نقشه کامل شود. به همین سادگی، یک عکس تبدیل به کلیدی برای ورود مهاجم به دستگاه شما می‌شود. به گفته محققان لندفال از سال گذشته سرگرم جاسوسی از کاربران بوده و حتی پرچمدارهای سری گلکسی S22، S23، S24 و گوشی‌های تاشو سامسونگ هم از آن در امان نبوده‌اند. 🔸 لندفال چه خطراتی دارد؟ لندفال بعد از ورود به گوشی کنترل کامل را در دست گرفته و به جاسوسی تمام‌عیار تبدیل می‌شود: • میکروفون گوشی را فعال و مکالمات محیط را ضبط می‌کند. • تماس‌های تلفنی شما را شنود می‌کند. • موقعیت مکانی شما را لحظه به لحظه زیر نظر دارد. • به تمام عکس‌ها، مخاطبین، پیامک‌ها و فایل‌های شخصی شما دسترسی پیدا می‌کند. به عبارت دیگر جاسوس‌افزار حریم خصوصی شما را به طور کامل نابود کرده و گوشی را به ابزاری برای نظارت بر زندگی‌تان تبدیل می‌کند. 🔸 کاربران ایرانی در تیررس شواهد نشان می‌دهد کاربران ایرانی، عراقی، ترکیه و مراکشی بیشتر از همه هدف بوده‌اند. محققان ۶ سرور فرماندهی (C2) پیدا کرده‌اند که بعضی از آن‌ها قبلاً توسط مرکز امنیتی ترکیه گزارش شده‌اند. در کدهای لندفال اسم رمز به نام Bridge Head پیدا شده که سابقه‌اش به شرکت‌های معروف فروش جاسوس افزار مثل NSO Group و Cytrox برمی‌گردد؛ اما هنوز هیچ‌کس نمی‌داند دقیقا چه کسی پشت این حملات است. 🔸 چاره چیست؟ سامسونگ این حفره امنیتی را با به‌روزرسانی نرم‌افزاری بسته و برای در امان ماندن کافیست این دو کار را انجام دهید: ۱. به بخش تنظیمات گوشی بروید و آخرین نسخه سیستم‌عامل اندروید را نصب کنید. ۲. در تنظیمات واتس‌اپ دانلود خودکار عکس و فیلم را غیرفعال کنید. با این کار بدافزار قبل از نصب، نیازمند اجازه مستقیم شما خواهد بود.
با این سایت میتوانید بصورت رایگان (اما محدود) از طریق مدل sora2 ویدئو بسازید: https://geminigen.ai
ربات هوش مصنوعی Perplexity به تلگرام آمد t.me/askplex
کشف نوع جدیدی از حمله‌ی سایبری: وقتی الگوهای ترافیک، راز گفتگوی شما با چت‌بات‌ها را لو می‌دهند! باورتان می‌شود که هکرها می‌توانند از گفتگوهای شما با چت‌ چی‌پی‌تی (یا هر هوش مصنوعی مشابهی) مطلع شوند؟ البته این موضوع شرایط خاصی دارد که در ادامه توضیح می‌دهیم: مایکروسافت در یک گزارشی پژوهشی جدید از یک حمله جدید با نام «Whisper Leak» خبر داده که می‌تواند بدون شکستن رمزنگاری، موضوع مکالمات کاربران با مدل‌های زبانی بزرگ (LLM) را شناسایی کند. این حمله، به خاطر ضعف در پروتکل‌های رمزنگاری مانند HTTPS نیست، بلکه یک حمله‌ی تحلیل ترافیک (Side-Channel) محسوب می‌شود. بر اساس این گزارش، زمانی که کاربر با یک چت‌بات هوش مصنوعی گفتگو می‌کند و پاسخ‌ها به صورت استریم (تکه‌تکه و لحظه‌ای) ارسال می‌شوند، الگوهای قابل تحلیلی در ترافیک شبکه شکل می‌گیرد؛ از جمله:   - اندازه بسته‌های داده   - فاصله زمانی میان ارسال بسته‌ها گروه تحقیقاتی مایکروسافت نشان داده که یک مهاجم ناظر بر ترافیک رمزنگاری‌شده (برای مثال در سطح اپراتور، شبکه سازمانی، یا وای‌فای عمومی) می‌تواند با استفاده از این الگوها و با کمک مدل‌های یادگیری ماشینی، تشخیص دهد که آیا مکالمه کاربر درباره یک موضوع حساس مشخص است یا خیر؛ بدون آن‌که به متن واقعی گفتگو دسترسی داشته باشد. در این مدل حمله، مهاجم به‌دنبال تشخیص مستقیم محتوای پیام‌ها نیست، بلکه بررسی می‌کند آیا گفتگو حول محور موضوعاتی خاص مانند مسائل سیاسی، مالی و… می‌چرخد یا نه. آزمایش‌ها نشان داده‌اند که در برخی سناریوها، دقت این تشخیص به حدود ۹۸ درصد می‌رسد. این موضوع به‌ویژه از منظر حریم خصوصی نگران‌کننده است. مایکروسافت تأکید می‌کند که این یافته‌ها به معنی ناامن بودن رمزنگاری نیست، بلکه نشان می‌دهد نحوه پیاده‌سازی استریم پاسخ در سرویس‌های هوش مصنوعی می‌تواند اطلاعات فراداده‌ای (متادیتا) حساسی را افشا کند. پ.ن: ۱-این گزارش بار دیگر نشان می‌دهد که در عصر هوش مصنوعی، حفاظت از حریم خصوصی تنها به رمزنگاری محتوا محدود نمی‌شود و الگوهای رفتاری ترافیک نیز می‌توانند به منبع افشای اطلاعات تبدیل شوند. جالب‌تر اینجا است که اینجا از یک هوش مصنوعی برای رمزگشایی از یک هوش مصنوعی دیگر استفاده می‌شود! ۲-سازمان‌ها و نهادها هنگام به‌کارگیری LLMها (ابری یا داخلی) باید حملات مبتنی بر تحلیل ترافیک را نیز در مدل تهدید خود لحاظ کرده، تست‌های امنیتی تکمیلی انجام دهند و از مکانیزم‌های دفاعی مناسب استفاده کنند
🔻تصویب ماده مهم در طرح ملی هوش مصنوعی در مجلس 🔹در جلسه امروز مجلس، ماده (۱۴) طرح ملی هوش مصنوعی تصویب شد. بر اساس این ماده: ▪️تجهیزات و پردازنده‌های تخصصی هوش مصنوعی که امکان تولید داخلی آن‌ها وجود ندارد، با پیشنهاد سازمان ملی هوش مصنوعی و تأیید وزارت صمت، از پرداخت حقوق ورودی معاف می‌شوند. ▪️صندوق ملی توسعه هوش مصنوعی در چارچوب قانون «جهش تولید دانش‌بنیان» فعالیت خواهد کرد. ▪️دستگاه‌های اجرایی با ماموریت‌های نظامی، دفاعی و امنیتی از شمول این قانون مستثنی هستند. ▪️سازمان ملی هوش مصنوعی باید هر ۶ ماه یک‌بار گزارش اجرای این قانون را به شورای ملی راهبری هوش مصنوعی و کمیسیون‌های تخصصی مجلس ارائه کند.