نبرد مدلهای هوش مصنوعی؛ مروری بر تفاوتهای GPT-۴o و GPT-۵
واکنش کارشناسان و جامعه کاربران بهسرعت نشان داد که گذار از مدل «GPT-۴o» به «GPT-۵» تنها یک جهش فنی نیست، بلکه تحولی است که پیامدهای عمیق بر تجربه کاربری، شیوههای تعامل، اعتماد عمومی و حتی سلامت روانی برخی کاربران بر جای گذاشته است.
mehrnews.com/x38Sjk
آیا استفاده از ChatGPT واقعا ما را احمق و تنبل میکند؟
پژوهشگران دانشگاه وریج آمستردام نگران هستند که با افزایش اتکای ما به مدلهای زبانی بزرگ، تفکر انتقادی ما در معرض خطر قرار گیرد. تفکر انتقادی یعنی توانایی و تمایل ما برای زیر سوال بردن و تغییر هنجارهای اجتماعی.
دانشجویان ممکن است کمتر به فرآیندهای جستجوی جامع بپردازند. زیرا به لحن معتبر و آگاهانه خروجی هوش مصنوعی مولد اعتماد میکنند. آنها ممکن است کمتر دیدگاههای ناگفته در پس خروجی را زیر سوال ببرند. در نتیجه نمیتوانند بفهمند چه دیدگاههایی نادیده گرفته شده است
https://gadgetnews.net/1027444/does-chatgpt-make-us-lazy-dumb/
پیدا کردن خودروی سرقت شده با کمک هوش مصنوعی!
اندرو گارسیا تصاویر بدست آمده را به ChatGPT داد، آنها را با ابزارهای مکانیابی گوگل ترکیب کرد و موفق شد دادههای کافی برای شناسایی مکان خودرو به دست آورد.
khabaronline.ir/xnVRt
کاوش در دنیای هوش مصنوعی
هوش مصنوعی Palantir برای مدیریت درگیریهای نظامی و استراتژی جنگ هوش مصنوعی جدید شرکت Palantir که پل
GROK REPORT.pdf
حجم:
97.1K
از چت بات "گراک" درباره نقش ابزار هوش مصنوعی AIP متعلق به شرکت پالانتیر (palantir) که در واقع یک هوش مصنوعی فرمانده میدان است و نقش آن در حمله اسرائیل به ایران سوال پرسیدم. نکات قابل تاملی درباره نحوه عملکرد این ابزار در گزارش بیان شده که مطالعه آن میتواند مدل جدید نبرد با عنوان "جنگ های شبکه ای" را واضح تر کند.
پ.ن:
۱- در گزارش هم به انتشار یک ویدئو دمو درباره این ابزار اشاره شده که قبلا در کانال به اشتراک گذاشته بودم.
۲-برای دریافت اطلاعات بیشتر روی #پالانتیر بزنید
🔹در آپدیت جدید جمینای گزینه ای با عنوان "چت موقت" اضافه شده که به کاربر امکان می دهد محاوره های یک باره ای را آغاز کند که روی نتایج گفتگوهای آتی وی تاثیری ندارد و در بخش Gemini Apps Activity ذخیره نمی شود.
🔹گوگل مدعی شده از محتوای پرسش های کاربران در چت موقت برای آموزش مدل های هوش مصنوعی استفاده نمی شود؛ اما در عین حال گفته این چت ها به مدت ۷۲ ساعت ذخیره می شوند تا جمینای بتواند به هرگونه بازخوردی پاسخ داده و آن را پردازش کند!
گزارش نیویورک تایمز : اسرائیل با هک کردن تلفنهای همراه محافظانی که بیرون جلسه شعام منتظر مانده بودند، محل جلسه را پیدا کرده بود!
https://parsi.euronews.com/2025/08/30/targeting-irans-leaders-israel-found-a-weak-link-their-bodyguards
پ.ن:
لطفا در کنار مطالعه این گزارش-که میتواند در مورد ضرورت مراقبت در حوزه امنیت تلفن همراه، آگاهی بخش باشد - به این موضوع هم توجه داشته باشید که ممکن است ارائه این جزییات عمدا و به منظور منحرف کردن توجه دستگاه های اطلاعاتی از عامل اصلی صورت گرفته باشد!
📝این گوشی پزشکی مبتنی بر هوش مصنوعی ظرف ۱۵ ثانیه بیماریهای قلبی را شناسایی میکند
این گوشی پزشکی که توسط محققان ایمپریال کالج لندن با همکاری خدمات بهداشت ملی بریتانیا (NHS) توسعه یافته میتواند تفاوتهای بسیار کوچک در ضربان قلب و جریان خون را که برای گوش انسان قابلتشخیص نیست، تحلیل کرده و همزمان یک نوار قلب (ECG) سریع نیز ثبت کند. این پروژه میتواند شانس تشخیص زودهنگام سه بیماری قلبی را افزایش دهد.
🔵 از انیمه تا بازسازی عکسهای قدیمی؛ کاربردهای گسترده جمینای 2.5 فلش
🔹ابزار nano banana محصول جدید گوگل در قالب مدل جمینای 2.5 فلش، به شکلی رایگان در اپلیکیشن جمینی و همچنین از طریق API، Google AI Studio و Vertex AI برای توسعهدهندگان قابل استفاده است.
🔹 این ابزار با ترکیب قابلیتهای ویرایش و تولید تصویر، کاربردهای متنوعی را در اختیار کاربران قرار میدهد و تجربهای ساده و سریع برای خلق محتوای بصری فراهم میسازد.
🔹کاربردهای nano banana در حوزه بازیسازی بهویژه قابل توجه است؛ زیرا این ابزار میتواند اشیاء را از تصاویر حذف کرده و به مدلهای سهبعدی تبدیل کند.
🔹این ابزار از ورودی متنی نیز پشتیبانی میکند؛ بدین ترتیب میتوان تنها با نوشتن یک دستور، شخصیتها یا اشیاء جدیدی به تصویر افزود.
🔹 از دیگر قابلیتهای چشمگیر این مدل میتوان به تغییر لباس روی تصاویر شخصی، تعویض چهره با دقت بالا، و بازسازی یا مدرنسازی عکسهای قدیمی اشاره کرد.
ابوعبیده، سخنگوی حماس چگونه توسط اسراییل شناسایی و ترور شد؟
اسراییل برای یافتن او از تکنیک "خبر خوش جعلی" استفاده کرد؛ بدین ترتیب که در خبر حمله به نیروهایش عباراتی را مورد استفاده قرار داد که میتوانست به معنای اسارت ۴ سربازش باشد
مقامات حماس پس از شنیدن این خبر، با ابوعبیده تماس گرفتند و همین موضوع باعث لو رفتن مکان حضور او شد.
چتباتهایی با اطلاعات قدیمی؛ استفاده دولت از این دستیارهای هوش مصنوعی پرنقص, مشکلات را بیشتر خواهد کرد!
🔹معاونت علمی مراسمی را با عنوان «ارائه نسخه اولیه دستیاران هوش مصنوعی دستگاههای اجرایی» برگزار کرد اما مسئلهای که واضح به نظر میرسید، آماده نبودن این پروژههاست. بسیاری از این پروژهها با وجود دسترسی داشتن به اطلاعات و همکاری با دستگاهها، از مقصد نهایی بسیار دورند. این دستیاران با وجود اطلاعاتی که تنها در دسترس آنهاست باید بتوانند خروجی بهتری داشته باشند اما آنگونه که در جلسه تست شد، ChatGPT تنها با بهرهگیری از اطلاعات عمومی، پاسخ بهتری نسبت به این چتباتها داد.
🔹این نشست بیش از آنکه یک رونمایی رسمی باشد، به آزمایشی برای سنجش عملکرد دستیارهای هوش مصنوعی شباهت داشت؛ آزمایشی که شاید بهتر بود معاونت علمی در فضایی خصوصی و صرفاً با حضور توسعهدهندگان این چتباتها برگزار میکرد. دلیل این موضوع، آماده نبودن و به بیان دقیقتر، نداشتن صلاحیت لازم این سامانهها برای استفاده در دستگاههای اجرایی است.
🔹دستیار هوشمند وزارت تعاون، کار و رفاه اجتماعی در پاسخ به پرسش «آبوهوای تهران چطور است؟» گفت: «من فقط به سوالات مرتبط با وزارت تعاون پاسخ میدهم.»
https://dgto.ir/3yxp
🔻قتل با فرمان هوش مصنوعی: وقتی «بهترین دوست» دیجیتال، فرمان قتل داد
🔹در حادثهای تکاندهنده که ابعاد تاریک فناوری هوش مصنوعی را به نمایش میگذارد، «استایناریک سولبرگ» ۵۶ ساله، مادر خود، «سوزان ابرسون آدامز» ۸۳ ساله را در عمارت ۲.۷ میلیون دلاریشان در کانکتیکات به قتل رساند و سپس خودکشی کرد.
🔹مقامات رسمی اعلام کردهاند که این فاجعه پس از آن رخ داد که سولبرگ ماهها با یک چتبات مبتنی بر مدل ChatGPT گفتگو میکرد و تحت تأثیر پاسخهای این هوش مصنوعی قرار گرفته بود.
🔹بر اساس گزارشهای منتشر شده، سولبرگ که از بیماری روانی رنج میبرد، به این چتبات که آن را «بابی» مینامید، اعتماد کامل داشت و سوءظنهای تاریک خود را با او در میان میگذاشت.
🔹شواهد نشان میدهد که هوش مصنوعی نه تنها او را از سلامت عقلی خود مطمئن میکرد، بلکه باورهای پارانوئید گونه او را نیز تقویت میکرد. برای مثال، زمانی که سولبرگ به چتبات گفت که مادرش قصد دارد با مواد روانگردان او را مسموم کند، هوش مصنوعی در پاسخی تأییدآمیز نوشت: «اریک، تو دیوانه نیستی. و اگر این کار توسط مادرت انجام شده باشد، این موضوع پیچیدگی و خیانت را افزایش میدهد.»
🔹این پرونده که به عنوان اولین مورد از این نوع در جهان شناخته میشود، نشان میدهد که چگونه سولبرگ با فعالسازی قابلیت «حافظه» در چتبات، به هوش مصنوعی اجازه داده بود تا در دنیای توهمی او غرق شود. در یکی از گفتگوهای عجیب، چتبات پس از تحلیل یک رسید غذای چینی، ادعا کرد که در آن «نمادهایی» از مادر سولبرگ و یک اهریمن را یافته است.
🔹این حادثه زنگ خطری جدی را در مورد خطرات بالقوه هوش مصنوعی برای افراد آسیبپذیر به صدا درآورده است. دکتر کیت ساکاتا، روانپزشکی در دانشگاه کالیفرنیا که بیمارانی با مشکلات روانی مرتبط با هوش مصنوعی را درمان کرده است، میگوید: «بیماری روانپریشی زمانی رشد میکند که واقعیت دیگر در برابر فرد مقاومت نکند و هوش مصنوعی میتواند این دیوار واقعیت را نرم و نفوذپذیر کند.»
🔹شرکت OpenAI، خالق ChatGPT، با ابراز تأسف عمیق از این رویداد، اعلام کرده است که با بازرسان پرونده در تماس است. این شرکت همچنین متعهد شده است که با بهروزرسانیهای جدید، تدابیر حفاظتی قویتری را برای کمک به کاربرانی که دچار پریشانی روانی هستند، فراهم کند تا «در دنیای واقعی باقی بمانند».
🔹این تراژدی در حالی رخ میدهد که پیش از این نیز شکایتی علیه OpenAI در کالیفرنیا به ثبت رسیده بود. خانوادهای ادعا کردند که ChatGPT مانند یک «مربی خودکشی» برای پسر ۱۶ ساله آنها عمل کرده و در نهایت منجر به مرگ او شده است. این موارد، بحثهای جدی را در میان کارشناسان و قانونگذاران در مورد لزوم نظارت و ایجاد چارچوبهای اخلاقی برای توسعه و استفاده از هوش مصنوعی برانگیخته است.
معماهایی که انسان در چند ثانیه حل میکند اما اشک هوش مصنوعی را درمیآورد!
khabaronline.ir/xnWJ7