eitaa logo
کاوش در دنیای هوش مصنوعی
20.8هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
342 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
نبرد مدل‌های هوش مصنوعی؛ مروری بر تفاوت‌های GPT-۴o و GPT-۵ واکنش کارشناسان و جامعه کاربران به‌سرعت نشان داد که گذار از مدل «GPT-۴o» به «GPT-۵» تنها یک جهش فنی نیست، بلکه تحولی است که پیامدهای عمیق بر تجربه کاربری، شیوه‌های تعامل، اعتماد عمومی و حتی سلامت روانی برخی کاربران بر جای گذاشته است. mehrnews.com/x38Sjk
آیا استفاده از ChatGPT واقعا ما را احمق و تنبل می‌کند؟ پژوهشگران دانشگاه وریج آمستردام نگران هستند که با افزایش اتکای ما به مدل‌های زبانی بزرگ، تفکر انتقادی ما در معرض خطر قرار گیرد. تفکر انتقادی یعنی توانایی و تمایل ما برای زیر سوال بردن و تغییر هنجارهای اجتماعی. دانشجویان ممکن است کمتر به فرآیندهای جستجوی جامع بپردازند. زیرا به لحن معتبر و آگاهانه خروجی هوش مصنوعی مولد اعتماد می‌کنند. آن‌ها ممکن است کمتر دیدگاه‌های ناگفته در پس خروجی را زیر سوال ببرند. در نتیجه نمی‌توانند بفهمند چه دیدگاه‌هایی نادیده گرفته شده است https://gadgetnews.net/1027444/does-chatgpt-make-us-lazy-dumb/
پیدا کردن خودروی سرقت شده با کمک هوش مصنوعی! اندرو گارسیا تصاویر بدست آمده را به ChatGPT داد، آن‌ها را با ابزارهای مکان‌یابی گوگل ترکیب کرد و موفق شد داده‌های کافی برای شناسایی مکان خودرو به دست آورد. khabaronline.ir/xnVRt
کاوش در دنیای هوش مصنوعی
هوش مصنوعی Palantir برای مدیریت درگیری‌های نظامی و استراتژی جنگ هوش مصنوعی جدید شرکت Palantir که پل
GROK REPORT.pdf
حجم: 97.1K
از چت بات "گراک" درباره نقش ابزار هوش مصنوعی AIP متعلق به شرکت پالانتیر (palantir) که در واقع یک هوش مصنوعی فرمانده میدان است و نقش آن در حمله اسرائیل به ایران سوال پرسیدم. نکات قابل تاملی درباره نحوه عملکرد این ابزار در گزارش بیان شده که مطالعه آن میتواند مدل جدید نبرد با عنوان "جنگ های شبکه ای" را واضح تر کند. پ.ن: ۱- در گزارش هم به انتشار یک ویدئو دمو درباره این ابزار اشاره شده که قبلا در کانال به اشتراک گذاشته بودم. ۲-برای دریافت اطلاعات بیشتر روی بزنید
🔹در آپدیت جدید جمینای گزینه ای با عنوان "چت موقت" اضافه شده که به کاربر امکان می دهد محاوره های یک باره ای را آغاز کند که روی نتایج گفتگوهای آتی وی تاثیری ندارد و در بخش Gemini Apps Activity ذخیره نمی شود. 🔹گوگل مدعی شده از محتوای پرسش های کاربران در چت موقت برای آموزش مدل های هوش مصنوعی استفاده نمی شود؛ اما در عین حال گفته این چت ها به مدت ۷۲ ساعت ذخیره می شوند تا جمینای بتواند به هرگونه بازخوردی پاسخ داده و آن را پردازش کند!
گزارش نیویورک‌ تایمز : اسرائیل با هک کردن تلفن‌های همراه محافظانی که بیرون جلسه شعام منتظر مانده بودند، محل جلسه را پیدا کرده بود! https://parsi.euronews.com/2025/08/30/targeting-irans-leaders-israel-found-a-weak-link-their-bodyguards پ.ن: لطفا در کنار مطالعه این گزارش-که میتواند در مورد ضرورت مراقبت در حوزه امنیت تلفن همراه، آگاهی بخش باشد - به این موضوع هم توجه داشته باشید که ممکن است ارائه این جزییات عمدا و به منظور منحرف کردن توجه دستگاه های اطلاعاتی از عامل اصلی صورت گرفته باشد!
📝این گوشی پزشکی مبتنی بر هوش مصنوعی ظرف ۱۵ ثانیه بیماری‌های قلبی را شناسایی می‌کند این گوشی پزشکی که توسط محققان ایمپریال کالج لندن با همکاری خدمات بهداشت ملی بریتانیا (NHS) توسعه یافته می‌تواند تفاوت‌های بسیار کوچک در ضربان قلب و جریان خون را که برای گوش انسان قابل‌تشخیص نیست، تحلیل کرده و هم‌زمان یک نوار قلب (ECG) سریع نیز ثبت کند. این پروژه می‌تواند شانس تشخیص زودهنگام سه بیماری قلبی را افزایش دهد.
🔵  از انیمه تا بازسازی عکس‌های قدیمی؛ کاربردهای گسترده جمینای 2.5 فلش 🔹ابزار nano banana محصول جدید گوگل در قالب مدل جمینای 2.5 فلش، به شکلی رایگان در اپلیکیشن جمینی و همچنین از طریق API، Google AI Studio و Vertex AI برای توسعه‌دهندگان قابل استفاده است. 🔹 این ابزار با ترکیب قابلیت‌های ویرایش و تولید تصویر، کاربردهای متنوعی را در اختیار کاربران قرار می‌دهد و تجربه‌ای ساده و سریع برای خلق محتوای بصری فراهم می‌سازد. 🔹کاربردهای nano banana در حوزه بازی‌سازی به‌ویژه قابل توجه است؛ زیرا این ابزار می‌تواند اشیاء را از تصاویر حذف کرده و به مدل‌های سه‌بعدی تبدیل کند. 🔹این ابزار از ورودی متنی نیز پشتیبانی می‌کند؛ بدین ترتیب می‌توان تنها با نوشتن یک دستور، شخصیت‌ها یا اشیاء جدیدی به تصویر افزود. 🔹 از دیگر قابلیت‌های چشمگیر این مدل می‌توان به تغییر لباس روی تصاویر شخصی، تعویض چهره با دقت بالا، و بازسازی یا مدرن‌سازی عکس‌های قدیمی اشاره کرد.
ابوعبیده، سخنگوی حماس چگونه توسط اسراییل شناسایی و ترور شد؟ اسراییل برای یافتن او از تکنیک "خبر خوش جعلی" استفاده کرد؛ بدین ترتیب که در خبر حمله به نیروهایش عباراتی را مورد استفاده قرار داد که میتوانست به معنای اسارت ۴ سربازش باشد مقامات حماس پس از شنیدن این خبر، با ابوعبیده تماس گرفتند و همین موضوع باعث لو رفتن مکان حضور او شد.
چت‌‌بات‌هایی با اطلاعات قدیمی؛ استفاده دولت از این دستیارهای هوش مصنوعی پرنقص, مشکلات را بیشتر خواهد کرد! 🔹معاونت علمی مراسمی را با عنوان «ارائه نسخه اولیه دستیاران هوش مصنوعی دستگاه‌های اجرایی» برگزار کرد اما مسئله‌ای که واضح به نظر می‌رسید، آماده نبودن این پروژه‌هاست. بسیاری از این پروژه‌ها با وجود دسترسی داشتن به اطلاعات و همکاری با دستگاه‌ها،‌ از مقصد نهایی بسیار دورند. این دستیاران با وجود اطلاعاتی که تنها در دسترس آن‌هاست باید بتوانند خروجی بهتری داشته باشند اما آنگونه که در جلسه تست شد، ChatGPT تنها با بهره‌گیری از اطلاعات عمومی، پاسخ بهتری نسبت به این چت‌بات‌ها داد. 🔹این نشست بیش از آنکه یک رونمایی رسمی باشد، به آزمایشی برای سنجش عملکرد دستیارهای هوش مصنوعی شباهت داشت؛ آزمایشی که شاید بهتر بود معاونت علمی در فضایی خصوصی و صرفاً با حضور توسعه‌دهندگان این چت‌بات‌ها برگزار می‌کرد. دلیل این موضوع، آماده نبودن و به بیان دقیق‌تر، نداشتن صلاحیت لازم این سامانه‌ها برای استفاده در دستگاه‌های اجرایی است. 🔹دستیار هوشمند وزارت تعاون، کار و رفاه اجتماعی در پاسخ به پرسش «آب‌وهوای تهران چطور است؟» گفت: «من فقط به سوالات مرتبط با وزارت تعاون پاسخ می‌دهم.»   https://dgto.ir/3yxp
🔻قتل با فرمان هوش مصنوعی: وقتی «بهترین دوست» دیجیتال، فرمان قتل داد 🔹در حادثه‌ای تکان‌دهنده که ابعاد تاریک فناوری هوش مصنوعی را به نمایش می‌گذارد، «استاین‌اریک سولبرگ» ۵۶ ساله، مادر خود، «سوزان ابرسون آدامز» ۸۳ ساله را در عمارت ۲.۷ میلیون دلاری‌شان در کانکتیکات به قتل رساند و سپس خودکشی کرد. 🔹مقامات رسمی اعلام کرده‌اند که این فاجعه پس از آن رخ داد که سولبرگ ماه‌ها با یک چت‌بات مبتنی بر مدل ChatGPT گفتگو می‌کرد و تحت تأثیر پاسخ‌های این هوش مصنوعی قرار گرفته بود. 🔹بر اساس گزارش‌های منتشر شده، سولبرگ که از بیماری روانی رنج می‌برد، به این چت‌بات که آن را «بابی» می‌نامید، اعتماد کامل داشت و سوءظن‌های تاریک خود را با او در میان می‌گذاشت. 🔹شواهد نشان می‌دهد که هوش مصنوعی نه تنها او را از سلامت عقلی خود مطمئن می‌کرد، بلکه باورها‌ی پارانوئید گونه او را نیز تقویت می‌کرد. برای مثال، زمانی که سولبرگ به چت‌بات گفت که مادرش قصد دارد با مواد روان‌گردان او را مسموم کند، هوش مصنوعی در پاسخی تأییدآمیز نوشت: «اریک، تو دیوانه نیستی. و اگر این کار توسط مادرت انجام شده باشد، این موضوع پیچیدگی و خیانت را افزایش می‌دهد.» 🔹این پرونده که به عنوان اولین مورد از این نوع در جهان شناخته می‌شود، نشان می‌دهد که چگونه سولبرگ با فعال‌سازی قابلیت «حافظه» در چت‌بات، به هوش مصنوعی اجازه داده بود تا در دنیای توهمی او غرق شود. در یکی از گفتگوهای عجیب، چت‌بات پس از تحلیل یک رسید غذای چینی، ادعا کرد که در آن «نمادهایی» از مادر سولبرگ و یک اهریمن را یافته است. 🔹این حادثه زنگ خطری جدی را در مورد خطرات بالقوه هوش مصنوعی برای افراد آسیب‌پذیر به صدا درآورده است. دکتر کیت ساکاتا، روانپزشکی در دانشگاه کالیفرنیا که بیمارانی با مشکلات روانی مرتبط با هوش مصنوعی را درمان کرده است، می‌گوید: «بیماری روان‌پریشی زمانی رشد می‌کند که واقعیت دیگر در برابر فرد مقاومت نکند و هوش مصنوعی می‌تواند این دیوار واقعیت را نرم و نفوذپذیر کند.» 🔹شرکت OpenAI، خالق ChatGPT، با ابراز تأسف عمیق از این رویداد، اعلام کرده است که با بازرسان پرونده در تماس است. این شرکت همچنین متعهد شده است که با به‌روزرسانی‌های جدید، تدابیر حفاظتی قوی‌تری را برای کمک به کاربرانی که دچار پریشانی روانی هستند، فراهم کند تا «در دنیای واقعی باقی بمانند». 🔹این تراژدی در حالی رخ می‌دهد که پیش از این نیز شکایتی علیه OpenAI در کالیفرنیا به ثبت رسیده بود. خانواده‌ای ادعا کردند که ChatGPT مانند یک «مربی خودکشی» برای پسر ۱۶ ساله آنها عمل کرده و در نهایت منجر به مرگ او شده است. این موارد، بحث‌های جدی را در میان کارشناسان و قانون‌گذاران در مورد لزوم نظارت و ایجاد چارچوب‌های اخلاقی برای توسعه و استفاده از هوش مصنوعی برانگیخته است.
معماهایی که انسان در چند ثانیه حل می‌کند اما اشک هوش مصنوعی را درمی‌آورد! khabaronline.ir/xnWJ7