eitaa logo
کاوش در دنیای هوش مصنوعی
21.6هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
352 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
بهانه از تنبل ها گرفته شد ؛ شرکت هایی که هوش مصنوعی را به جای نیروی انسانی استخدام کرده بودند پشیمان هستند! ▪️طبق گزارش ها ، بسیاری از کمپانی‌هایی که سال قبل کارمندانشان را اخراج کرده بودند تا جای آنها را هوش مصنوعی پر کند، حالا در حال بازگرداندن دوباره همان نیروها به چرخه کار هستند. ▪️طبق مطالعات جدید ، اتوماسیون و هوش مصنوعی هنوز آنقدری که مدیران انتظارش را داشتند، بازدهی و کارایی ندارد و نتوانسته جایگزین مناسبی برای توانمندی های یک انسان باشد + این موضوع بخصوص برای افرادی قابل تامل است که به بهانه‌ توسعه هوش مصنوعی دست از یاد گرفتن مهارتهای جدید برداشته بودند! واقعیت این است که «آدمهای بلدکار» از هر چیزی باارزش‌ترند و قابل جایگزینی نخواهند بود
«دانشگاه‌ها هوش مصنوعی را در آغوش گرفته‌اند؛ آیا دانشجویان باهوش‌تر می‌شوند یا دیگر فکر نمی‌کنند؟» در مقاله‌ای که ۲۱ اکتبر ۲۰۲۵ در نشریه Nature منتشر شد، نویسنده Helen Pearson به بررسی روند گستردهٔ ورود فناوری هوش مصنوعی (AI) به دانشگاه‌ها، نحوه استفادهٔ دانشجویان از این فناوری و پیامدهای آن برای توانایی فکر کردن، یادگیری و تولید محتوا پرداخته است. 🔍 نکات کلیدی گزارش دانشگاه‌هایی در سراسر جهان، از جمله Tsinghua University در پکن، ورود دانشجویان را با دعوت‌نامه‌ای همراه کرده‌اند که آنها را به گفت‌وگو با یک «عامل هوش مصنوعی» درباره دوره‌ها، انجمن‌ها و زندگی دانشگاهی تشویق می‌کند. این روند نشان می‌دهد که AI دیگر به عنوان ابزاری جنبی در دانشگاه تلقی نمی‌شود، بلکه به‌عنوان بخشی از محیط آموزشی و زندگی دانشجویی در حال تثبیت است. مقاله بر این تأکید دارد که هرچند استفاده از ابزارهای هوش مصنوعی برای نوشتن، تحقیق و کمک به یادگیری می‌تواند کارایی را افزایش دهد، اما هم‌زمان نگرانی‌هایی نیز وجود دارد؛ از جمله اینکه دانشجویان ممکن است کمتر خودشان فکر کنند، کمتر تحلیل شخصی داشته باشند یا وابسته به AI شوند. نویسنده چند پرسش اساسی مطرح کرده است: آیا دانشجو با استفاده از AI واقعاً «ذهن فعال» خود را تقویت می‌کند یا فقط «دستیار» را می‌کشد؟ چه تاثیراتی بر آموزش، ارزیابی، عدالت آموزشی و استانداردهای علمی خواهد داشت؟ دانشگاه‌ها و استادان چگونه باید با این فناوری برخورد کنند تا علاوه بر پذیرش آن، تضمین شود که یادگیری عمیق، تفکر انتقادی و مهارت‌های تحلیلی همچنان محفوظ بمانند؟ مقاله اشاره می‌کند که برخی مطالعات اولیه نشان داده‌اند انبوه استفاده از AI برای نوشتن می‌تواند منجر به «فرایند یادگیری سطحی‌تر»، کاهش فرصت برای تمرین مهارت‌های نوشتاری و تحلیل و حتی افزایش احتمال سرقت علمی شود. در نهایت، نویسنده تأکید می‌کند که دانشگاه‌ها باید چارچوب‌های جدیدی طراحی کنند: راهنمایی استفادهٔ اخلاقی، ارزیابی استادان با فناوری‌های جدید، آموزش مهارت‌های مکمل (مثل تفکر انتقادی، تفکیک اطلاعات واقعی از تولیدات AI) و بازنگری در سیاست‌های ارزیابی دانشجویی. 🎯 پیامدها برای دانشجویان و دانشگاه‌ها برای دانشجویان: استفاده از AI نمی‌تواند جایگزین کامل تلاش، تحلیل شخصی و تمرین مداوم باشد؛ بلکه می‌تواند آن را تقویت کند اگر به‌صورت هوشمندانه و همراه با راهنمایی استادان استفاده شود. برای استادان و دانشگاه‌ها: ضروری است تا سیاست‌های بازنگری‌شده دربارهٔ استفاده از AI تدوین شود، شامل شفافیت دربارهٔ کار دانشجویان، ارزیابی مبتنی بر مهارت‌های تفکر انتقادی و تشخیص «استفادهٔ صرف از AI». برای سیستم‌های آموزشی: این فناوری می‌تواند فرصت‌های بزرگی ایجاد کند — مانند شخصی‌سازی یادگیری، دسترسی بهتر به منابع، خودآموزی پیشرفته — اما بدون نظارت و چارچوب مناسب، ممکن است به کاهش کیفیت یادگیری و تضعیف مهارت‌های اصلی بیانجامد.
💡 نفوذ موفق هکرها به تلفن‌های سامسونگ: کاربران ایرانی در تیررس باورتان می‌شود که دریافت یک عکس از مخاطب ناشناس در واتساپ، بدون کلیک روی هیچ لینکی می‌تواند سبب هک شدن تلفن همراه شما شود؟ این سناریوی ترسناک، بدافزاری به نام لندفال (LandFall) است که از کاربران برخی گوشی‌های سامسونگ در ایران و دیگر کشورهای خاورمیانه جاسوسی کرده و در شرایط خاصی می‌تواند کنترل کامل گوشی را به دست بگیرد. 🔸 لندفال چطور به گوشی نفوذ می‌کند؟ هکرها این بدافزار را برای یک حفره امنیتی در کتابخانه پردازش تصویر سامسونگ (libimagecodec‌‌‌.‌‌quram‌‌‌‌.‌‌‌so) ساخته‌اند. این آسیب‌پذیری روز صفر (با کد CVE-2025-21042) به هکرها اجازه می‌دهد با فرستادن تصویری دستکاری شده کدهای مخرب را روی گوشی اجرا کند. به محض اینکه گوشی عکس را پردازش کند، نقص امنیتی فعال شده و راه را برای اجرای کد مخرب جاسوس‌افزار باز می‌کند. همین کد قدم به قدم قطعات بعدی بدافزار را دانلود کرده و به هم وصل می‌کند تا نقشه کامل شود. به همین سادگی، یک عکس تبدیل به کلیدی برای ورود مهاجم به دستگاه شما می‌شود. به گفته محققان لندفال از سال گذشته سرگرم جاسوسی از کاربران بوده و حتی پرچمدارهای سری گلکسی S22، S23، S24 و گوشی‌های تاشو سامسونگ هم از آن در امان نبوده‌اند. 🔸 لندفال چه خطراتی دارد؟ لندفال بعد از ورود به گوشی کنترل کامل را در دست گرفته و به جاسوسی تمام‌عیار تبدیل می‌شود: • میکروفون گوشی را فعال و مکالمات محیط را ضبط می‌کند. • تماس‌های تلفنی شما را شنود می‌کند. • موقعیت مکانی شما را لحظه به لحظه زیر نظر دارد. • به تمام عکس‌ها، مخاطبین، پیامک‌ها و فایل‌های شخصی شما دسترسی پیدا می‌کند. به عبارت دیگر جاسوس‌افزار حریم خصوصی شما را به طور کامل نابود کرده و گوشی را به ابزاری برای نظارت بر زندگی‌تان تبدیل می‌کند. 🔸 کاربران ایرانی در تیررس شواهد نشان می‌دهد کاربران ایرانی، عراقی، ترکیه و مراکشی بیشتر از همه هدف بوده‌اند. محققان ۶ سرور فرماندهی (C2) پیدا کرده‌اند که بعضی از آن‌ها قبلاً توسط مرکز امنیتی ترکیه گزارش شده‌اند. در کدهای لندفال اسم رمز به نام Bridge Head پیدا شده که سابقه‌اش به شرکت‌های معروف فروش جاسوس افزار مثل NSO Group و Cytrox برمی‌گردد؛ اما هنوز هیچ‌کس نمی‌داند دقیقا چه کسی پشت این حملات است. 🔸 چاره چیست؟ سامسونگ این حفره امنیتی را با به‌روزرسانی نرم‌افزاری بسته و برای در امان ماندن کافیست این دو کار را انجام دهید: ۱. به بخش تنظیمات گوشی بروید و آخرین نسخه سیستم‌عامل اندروید را نصب کنید. ۲. در تنظیمات واتس‌اپ دانلود خودکار عکس و فیلم را غیرفعال کنید. با این کار بدافزار قبل از نصب، نیازمند اجازه مستقیم شما خواهد بود.
با این سایت میتوانید بصورت رایگان (اما محدود) از طریق مدل sora2 ویدئو بسازید: https://geminigen.ai
ربات هوش مصنوعی Perplexity به تلگرام آمد t.me/askplex
کشف نوع جدیدی از حمله‌ی سایبری: وقتی الگوهای ترافیک، راز گفتگوی شما با چت‌بات‌ها را لو می‌دهند! باورتان می‌شود که هکرها می‌توانند از گفتگوهای شما با چت‌ چی‌پی‌تی (یا هر هوش مصنوعی مشابهی) مطلع شوند؟ البته این موضوع شرایط خاصی دارد که در ادامه توضیح می‌دهیم: مایکروسافت در یک گزارشی پژوهشی جدید از یک حمله جدید با نام «Whisper Leak» خبر داده که می‌تواند بدون شکستن رمزنگاری، موضوع مکالمات کاربران با مدل‌های زبانی بزرگ (LLM) را شناسایی کند. این حمله، به خاطر ضعف در پروتکل‌های رمزنگاری مانند HTTPS نیست، بلکه یک حمله‌ی تحلیل ترافیک (Side-Channel) محسوب می‌شود. بر اساس این گزارش، زمانی که کاربر با یک چت‌بات هوش مصنوعی گفتگو می‌کند و پاسخ‌ها به صورت استریم (تکه‌تکه و لحظه‌ای) ارسال می‌شوند، الگوهای قابل تحلیلی در ترافیک شبکه شکل می‌گیرد؛ از جمله:   - اندازه بسته‌های داده   - فاصله زمانی میان ارسال بسته‌ها گروه تحقیقاتی مایکروسافت نشان داده که یک مهاجم ناظر بر ترافیک رمزنگاری‌شده (برای مثال در سطح اپراتور، شبکه سازمانی، یا وای‌فای عمومی) می‌تواند با استفاده از این الگوها و با کمک مدل‌های یادگیری ماشینی، تشخیص دهد که آیا مکالمه کاربر درباره یک موضوع حساس مشخص است یا خیر؛ بدون آن‌که به متن واقعی گفتگو دسترسی داشته باشد. در این مدل حمله، مهاجم به‌دنبال تشخیص مستقیم محتوای پیام‌ها نیست، بلکه بررسی می‌کند آیا گفتگو حول محور موضوعاتی خاص مانند مسائل سیاسی، مالی و… می‌چرخد یا نه. آزمایش‌ها نشان داده‌اند که در برخی سناریوها، دقت این تشخیص به حدود ۹۸ درصد می‌رسد. این موضوع به‌ویژه از منظر حریم خصوصی نگران‌کننده است. مایکروسافت تأکید می‌کند که این یافته‌ها به معنی ناامن بودن رمزنگاری نیست، بلکه نشان می‌دهد نحوه پیاده‌سازی استریم پاسخ در سرویس‌های هوش مصنوعی می‌تواند اطلاعات فراداده‌ای (متادیتا) حساسی را افشا کند. پ.ن: ۱-این گزارش بار دیگر نشان می‌دهد که در عصر هوش مصنوعی، حفاظت از حریم خصوصی تنها به رمزنگاری محتوا محدود نمی‌شود و الگوهای رفتاری ترافیک نیز می‌توانند به منبع افشای اطلاعات تبدیل شوند. جالب‌تر اینجا است که اینجا از یک هوش مصنوعی برای رمزگشایی از یک هوش مصنوعی دیگر استفاده می‌شود! ۲-سازمان‌ها و نهادها هنگام به‌کارگیری LLMها (ابری یا داخلی) باید حملات مبتنی بر تحلیل ترافیک را نیز در مدل تهدید خود لحاظ کرده، تست‌های امنیتی تکمیلی انجام دهند و از مکانیزم‌های دفاعی مناسب استفاده کنند
🔻تصویب ماده مهم در طرح ملی هوش مصنوعی در مجلس 🔹در جلسه امروز مجلس، ماده (۱۴) طرح ملی هوش مصنوعی تصویب شد. بر اساس این ماده: ▪️تجهیزات و پردازنده‌های تخصصی هوش مصنوعی که امکان تولید داخلی آن‌ها وجود ندارد، با پیشنهاد سازمان ملی هوش مصنوعی و تأیید وزارت صمت، از پرداخت حقوق ورودی معاف می‌شوند. ▪️صندوق ملی توسعه هوش مصنوعی در چارچوب قانون «جهش تولید دانش‌بنیان» فعالیت خواهد کرد. ▪️دستگاه‌های اجرایی با ماموریت‌های نظامی، دفاعی و امنیتی از شمول این قانون مستثنی هستند. ▪️سازمان ملی هوش مصنوعی باید هر ۶ ماه یک‌بار گزارش اجرای این قانون را به شورای ملی راهبری هوش مصنوعی و کمیسیون‌های تخصصی مجلس ارائه کند.
4.09M حجم رسانه بالاست
مشاهده در ایتا
افزایش ویدیوهای ساختگی با هوش مصنوعی برای بالا بردن آمار بازدید 🔹این روزها موج گسترده‌ای از ویدیوهای ساخته شده توسط هوش مصنوعی در شبکه‌های اجتماعی منتشر می‌شود؛ ویدیوهایی که هدف اصلی‌شان نه اطلاع‌رسانی است و نه روایت واقعیت، بلکه دقیقا فقط فریب مخاطب و بالا بردن آمار بازدید صفحات! 🔹طی روزهای اخیر هم نام زانیار قاسملو با سرعتی باورنکردنی در فضای مجازی پخش شد. روایت او، تلفیقی از درد و افتخار بود: جوانی نخبه که با وجود فقر شدید خانواده‌اش و تکیه بر شغل ضایعات‌جمعی پدر، به قلهٔ علم فیزیک صعود کرده و مدال طلای جهانی کسب کرده است. ویدئوها و تصاویری که به این نام در شبکه‌های اجتماعی دست به دست شد، احساسات عمومی را برانگیخت ؛ اما بررسی‌ها حقیقت دیگری را آشکار می‌کند :داستان زانیار قاسملو، یک روایت ساختگی است و فردی با این مشخصات هیچگاه مدال طلای هیچ المپیادی را کسب نکرده است ؛ ویدئوها و عکس‌های منتشر شده، نمونه‌ای از قدرت بالای هوش مصنوعی (AI) در تولید محتوای فریبنده هستند 🔹این رفتار فقط یک تقلب ساده نیست؛ آسیب جدی به اعتماد عمومی است. وقتی هر روز با سیلی از تصاویر ساختگی روبه‌رو می‌شویم، مرز حقیقت و دروغ کمرنگ‌تر می‌شود و در نهایت هیچ‌چیز قابل اطمینان به نظر نمی‌رسد.
کاوش در دنیای هوش مصنوعی
افزایش ویدیوهای ساختگی با هوش مصنوعی برای بالا بردن آمار بازدید 🔹این روزها موج گسترده‌ای از ویدیو
◾️اگر ویدیو خیلی عجیب، احساسی یا تحریک‌کننده است، قبل از بازنشر، از منبع منتشر کننده آن مطمئن شوید. ◾️در ویدیوهای ساخته شده با هوش مصنوعی معمولا ایرادهای زیر قابل تشخیص است: 1️⃣حرکت نامنظم چشم‌ها، اشیا یا اجسام کج‌ومعوج شده، سایه‌های غیرطبیعی، حرکت لب‌ها که با صدا هماهنگ نیست و یا فضاهای غیرواقعی. 2️⃣سایت‌ها و ابزارهای بسیاری هستند که می‌توانند احتمال جعلی بودن محتوا را بررسی کنند، از جمله ابزارهای Fact-check و تشخیص دیپ‌فیک. کافی است ویدیو یا تصویر را در آن بارگذاری کنید. »» سازندگان این ویدئوها دقیقا روی احساسات افراد حساب می‌کنند : ترس، خشم و تعجب.
📝 هوش مصنوعی چقدر شبیه ایرانی ها فکر می‌کند؟ ▪️پژوهش تازه‌ای در دانشگاه هاروارد پرسشی اساسی را درباره‌ی هوش مصنوعی مطرح کرده است: وقتی می‌گوییم که هوش مصنوعی مانند انسان فکر می‌کند، منظورمان کدام انسان است؟ ▪️بر اساس پژوهش دانشگاه هاروارد، بررسی داده‌های جهانی درباره‌ی باورها و ارزش‌های فرهنگی نشان می‌دهد که هوش مصنوعی‌هایی مانند «چت‌جی‌پی‌تی» بیشتر الگوی فکری انسان‌هایی را بازتاب می‌دهند که در کشورهای غربی و ثروتمند زندگی می‌کنند، کشورهایی مانند ایالات متحده، هلند، فنلاند و سوئد. ▪️به گفته‌ی محققان، شیوه‌ی تصمیم‌گیری این مدل‌ها بیشتر «تحلیلی و فردگرایانه» است؛ یعنی بر پایه‌ی منطق شخصی و استدلال فردی عمل می‌کند، نه بر اساس روابط اجتماعی و بافت فرهنگی. این ویژگی با الگوی رایج در جوامع غربی هم‌خوانی دارد. ▪️در مقابل، مردم کشورهایی چون ایران، ترکیه یا پاکستان معمولاً نگرشی «جمع‌گرا و رابطه‌محور» دارند و تصمیم‌های خود را در پیوند با خانواده، جامعه و احساسات می‌گیرند. از همین‌رو، پژوهشگران می‌گویند: «هوش مصنوعی غربی، خروجی غربی می‌دهد.» ▪️بر پایه‌ی این پژوهش، سیستم‌های هوش مصنوعی نه‌تنها بازتابی از هوش انسان، بلکه بازتابی از نوع خاصی از انسان‌ها هستند.انسان‌هایی با ارزش‌ها و جهان‌بینی غربی.
🔵اصطلاح «Vibe-coding» به‌عنوان کلمه سال ۲۰۲۵ انتخاب شد 🔹دیکشنری کالینز اصطلاح «Vibe-coding» را به‌عنوان کلمه سال ۲۰۲۵ معرفی کرد. این واژه کمتر از ۹ ماه پیش توسط آندره کارپاتی، هم‌بنیان‌گذار OpenAI و مدیر سابق هوش مصنوعی تسلا، ابداع شد و اکنون به‌عنوان یک مهارت پردرآمد در فناوری شناخته می‌شود. 🔹کارپاتی در فوریه امسال در شبکه اجتماعی ایکس توضیح داد که Vibe-coding نوعی کدنویسی است که در آن برنامه‌نویس با جریان و حس لحظه کار می‌کند و جزئیات کدنویسی را به هوش مصنوعی می‌سپارد. کالینز این اصطلاح را به‌عنوان اسم و اصطلاح عامیانه ثبت کرده و آن را این‌گونه تعریف کرده است: «استفاده از هوش مصنوعی با هدایت زبان طبیعی برای کمک به نوشتن کد».
🔻مسابقه‌ تسلیحاتی هوش مصنوعی؛ قدرت‌نمایی در نبرد تراشه‌ها 🔹عصر جدید هوش مصنوعی، یک «مسابقه‌ی تسلیحاتی» برای قدرت پردازشی به راه انداخته است. 🔹 شرکت‌های بزرگ با تزریق میلیاردها دلار، در حال ساخت زیرساخت‌هایی هستند که ستون فقرات مدل‌های پیشرفته AI را تشکیل می‌دهند. 🔹بر اساس داده‌های این اینفوگرافیک، خوشه‌ Colossus متعلق به xAI ( با قدرتی معادل دویست هزار تراشه h100 انویدیا) در حال حاضر قوی‌ترین مرکز محاسباتی جهان است. 🔹قدرت این سیستم به قدری بالاست که می‌تواند مدل بزرگ GPT-3 را که در سال ۲۰۲۰ طی دو هفته آموزش دید در کمتر از دو ساعت آموزش دهد