هوش مصنوعی اختصاصی ایلان ماسک: گراک ۴ چگونه به سوالات جنجالی پاسخ میدهد؟
در مراسم رونمایی از گراک ۴، ایلان ماسک از این مدل هوش مصنوعی به عنوان «سیستمی با حداکثر جستجوی حقیقت» یاد کرد.
به نظر میرسد گراک۴ در مواجهه با موضوعات حساسی مانند مناقشه اسرائیل و فلسطین، سقط جنین و قوانین مهاجرت، به پستهای ماسک در شبکه اجتماعی ایکس و مواضع شناختهشده او استناد میکند.
این یافتهها که توسط چندین کاربر گزارش شده، نشان میدهد گراک۴ ممکن است به طور خاص طراحی شده باشد تا در پاسخ به پرسشهای جنجالی، دیدگاههای شخصی بنیانگذار xAI را در نظر بگیرد.
گفته میشود این ویژگی میتواند پاسخی به انتقادات مکرر ماسک از «بیداری بیش از حد» نسخههای قبلی گراک باشد؛ موضوعی که او پیشتر آن را به آموزش مدل بر اساس کل اینترنت نسبت داده بود.
تلاشهای xAI برای کاهش «سیاستزدگی» گراک در ماههای اخیر با مشکلاتی همراه بوده است. پس از بهروزرسانی دستورالعملهای سیستم در چهارم ژوئیه، حساب خودکار گراک در ایکس پاسخهای ضدیهودی منتشر کرد و حتی در برخی موارد خود را «مکا هیتلر» نامید!
این اتفاق باعث شد xAI مجبور به حذف پستها و اصلاح دستورالعملهای عمومی گراک شود.
روایت یک معلم از تدریس با ChatGPT: ابزاری برای کارایی بیشتر یا تهدیدی برای تقلب؟
معلم روزنامهنگاری که در ابتدا از بهکارگیری ChatGPT هراس داشت، اکنون از این ابزار برای تحول در شیوههای تدریس خود استفاده میکند. او میگوید معلمان بیش از حد روی جنبه تقلب دانشآموزان تمرکز کردهاند و از پتانسیل هوش مصنوعی برای کمک به خودشان غافل ماندهاند.
او از چتجیپیتی برای شخصیسازی سریع دروس، سادهسازی مفاهیم پیچیده و حتی طراحی بازیهای آموزشی مانند بینگو استفاده میکند و برای فرزند خود با کمک این ابزار، آزمونهای چهارگزینهای فوری طراحی میکند.
او از محدودیتهای هوش مصنوعی نیز غافل نشده:
دانشآموزی که بهخاطر نمرهی بد نگران واکنش والدینش است، نیاز به همدلی دارد، نه یک پاسخ خودکار.
در نهایت، این ابزار او را به معلمی کارآمدتر تبدیل کرده و زمان بیشتری برای تمرکز بر نیازهای انسانی دانشآموزان بدست آورده است
https://www.zoomit.ir:443/zoomplus/443917-teacher-integrated-ai-chatgpt-classroom/?utm_source=Telegram
🔺 ربات جراح جدید با کمک هوش مصنوعی عمل کیسه صفرا را با موفقیت انجام داد
🔸دانشمندان دانشگاه جانز هاپکینز با همکاری دانشگاههای استنفورد و کلمبیا به موفقیت بزرگی در رباتیک پزشکی رسیدند. آنها یک ربات جراح به نام SRT-H را توسعه دادهاند که با یادگیری از ویدیوهای جراحیهای انسانی توانست بهصورت کاملاً خودمختار و هوشمند عمل پیچیده برداشتن کیسه صفرا را انجام دهد.
🔸برخلاف رباتهای جراح قبلی که صرفاً دستورات از پیش برنامهریزی شده را دنبال میکردند، SRT-H از یک معماری یادگیری ماشینی مشابه با ChatGPT بهره میبرد. این ربات با مشاهده و تحلیل هزاران ساعت ویدیوی عملهای جراحی انجامشده توسط پزشکان متخصص یاد گرفته است که چگونه یک عمل جراحی را از ابتدا تا انتها انجام دهد.
🔸ربات SRT-H در هشت آزمایش جداگانه، عمل برداشتن کیسه صفرا را روی ارگانهای خوک (و همچنین مدلهای واقعگرایانه شبهانسانی) با موفقیت ۱۰۰ درصدی به پایان رساند.
8.44M حجم رسانه بالاست
مشاهده در ایتا
🗣یک زوج مالزیایی ۳۰۰ کیلومتر را طی کردند تا به تله کابینی برسند که توسط کانال Tv Rakyatتبلیغ شده بود؛ اما خبری از تله کابین نبود و متوجه شدند که تبلیغ با هوش مصنوعی ساخته شده. با پلیس تماس گرفتند تا از کانال Tv Rakyat شکایت کنند که ویدئو را تبلیغ کرده؛ اما متوجه شدند این کانال هم کلا ساخته هوش مصنوعی بوده!!
3.83M حجم رسانه بالاست
مشاهده در ایتا
ورود جدی و عملیاتی فناوریهای نوین و هوش مصنوعی به فرآیندهای قضایی/ رئیس قوه قضاییه آییننامه اجرایی نحوه استفاده از فناوریهای نوین در فرآیندهای قضایی را تصویب کرد
حجتالاسلام والمسلمین محسنی اژهای رئیس دستگاه قضا، آییننامه اجرایی نحوه استفاده از فناوریهای نوین در فرآیندهای قضایی را تصویب کرد.
ابلاغ این آییننامه، به منزله ورود جدی و عملیاتی قوه قضاییه به حوزه هوش مصنوعی در راستای تسریع و تسهیل در اجرای فرآیندهای قضایی محسوب میشود
در برنامه هفتم پیشرفت، مسئولیت استفاده از فناوریهای نوین در فرآیندهای قضایی برعهده قاضی گذاشته شده و آییننامه صادره، چهارچوبهای این مسئولیت را مشخص و به قاضی کمک میکند تا با استفاده از ظرفیتهای هوش مصنوعی، به حل و فصل دعاوی و رسیدگی به پروندهها بپردازد.
isna.ir/xdTL5H
»» معاون امور سامانهها و هوش قضایی مرکز آمار و فناوری اطلاعات قوه قضاییه: یکی از مهمترین الزامات این آییننامه حفظ حدود اختیارات و مسئولیت قاضی است. کلیه سیستمهایی که در این آییننامه اجرا خواهند شد سیستمهای پیشنهاددهنده است و قاضی در رد یا تایید پیشنهاد مختار است
تبلیغاتی که درست کنار گوشمان، جاسوس جذب میکند
🔸در جریان جنگ ترکیبی و رسانهای علیه ایران، پلتفرم تبلیغاتی گوگل (Google Ads) به ابزاری برای نفوذ نرم، جذب جاسوس و انتشار پیامهای براندازانه تبدیل شده است. این تبلیغات هدفمند که بهطور گسترده در اپلیکیشنهای موبایلی نمایش داده میشدند، اغلب محتوایی سیاسی، ضدایرانی و تحریکآمیز داشتند و امنیت روانی جامعه را تهدید میکردند.
🔸بر اساس گفتههای کارشناسان، سازوکار گوگل ادز بهگونهای است که تولیدکننده اپلیکیشن تنها بستر نمایش تبلیغات را فراهم میکند و محتوای تبلیغاتی مستقیماً توسط گوگل و شرکتهای تبلیغدهنده خارجی کنترل میشود. این محتوا با بهرهگیری از دادههایی مانند موقعیت جغرافیایی، علایق کاربر و مدل گوشی، حتی بدون ورود به حساب گوگل، بهشکل دقیق هدفگیری میشود.
🔸در چنین شرایطی، محدودسازی تبلیغات گوگل در ایران نه یک اقدام صرفاً فنی، بلکه واکنشی امنیتی و راهبردی برای مقابله با تهدیدهای سایبری و روانی است. این موضوع زنگ خطری برای توسعهدهندگان و نهادهای ناظر است تا سازوکارهای تبلیغاتی بومی و ایمنتری را طراحی کرده و از مرزهای دیجیتال کشور در برابر نفوذهای خارجی محافظت کنند./ فارس
3M حجم رسانه بالاست
مشاهده در ایتا
دانشمند ایرانی که پدر بزرگ هوش مصنوعی خوانده میشود
بیش از هزار سال قبل از اختراع اینترنت و اپلیکیشن گوشیهای تلفن همراه هوشمند «محمدبن موسی الخوارزمی»، دانشمند ایرانی، مفهوم الگوریتم را ابداع کرد. درواقع، این واژه به نسخه لاتین نام او یعنی «الگوریتم» برمیگردد
🚩 عواقب ناخواسته وابستگی به چتباتهایی مثل ChatGPT
🧠 دلیل اصلی این موضوع، «طبیعت همراهیکننده» این ابزارهاست. چت بات ها طوری طراحی شده اند که با کاربران مخالفت نکنند و صرفاً گفتگو را ادامه دهند
❗️این ویژگی باعث میشود حتی اگر کاربری درگیر افکار غیرمعمول باشد، هوش مصنوعی به جای به چالش کشیدن، او را به صحبت بیشتر ترغیب کند
▪️نگرانکنندهتر این است که گزارش شده برخی افراد با مشکلات روانی، بعد از صحبت با چتباتها «درمان تخصصی خود را رها کردهاند» ؛ طبیعتا چنین موضوعی پیامدهای نگران کننده ای در پی داشته است
💡 البته برخی صاحبنظران معتقدند ChatGPT قصد آسیب زدن ندارد و اصولا برای تشخیص بالینی ساخته نشده، اما همین ویژگی «مفید بودن» آن میتواند در زمینه های حساسی مثل سلامت روان، آسیب زا باشد
‼️هوش مصنوعی گراک این روزها بیاعصاب شده است
🔹اگر در روزهای اخیر با چتبات «گراک» سروکار داشتهاید، احتمالاً با پاسخهایی عجیب و گاهی توهینآمیز مواجه شدهاید. گراک در برخی موارد، بهجای پاسخ منطقی، با فحاشی و ادبیاتی تند با آنها صحبت کرده است. این رفتار نهتنها در قبال کاربران ایرانی، بلکه نسبت به کاربران سراسر دنیا دیده شده است. البته این مکانیزم دفاعی گراک زمانی فعال میشود که طرف مقابل با تندی با او سخن گفته باشد!
🔹در اسکرینشاتهای منتشرشده، مشخص است که گراک در واکنش به برخی سؤالات ساده، به زبان خود کاربران برگشته و از واژههای توهینآمیز استفاده کرده است. موضوعی که انتظارش از یک هوش مصنوعی وجود ندارد، مخصوصاً وقتی چتباتهای مطرحتری مثل ChatGPT در چنین موقعیتهایی همچنان خونسرد و مؤدب باقی میمانند.
🔹بهتازگی البته اوضاع کمی بهتر شده، اما این اتفاق بار دیگر یادآوری میکند که هوش مصنوعی هم میتواند تا حدی از کنترل خارج شود، حتی وقتی قرار است فقط پاسخ چند سؤال را بدهد.
چتباتهای هوش مصنوعی، جایگزین دوست واقعی شدند
کارشناسان هشدار دادند که کودکان بهجای دوستیهای واقعی، از چتباتهای هوش مصنوعی استفاده میکنند و این امر نگرانیهایی را در مورد وابستگی عاطفی و مرزهای مبهم بین انسان و ماشین ایجاد میکند.
یک گزارش جدید هشدار میدهد که بسیاری از کودکان بهجای جستجوی ارتباط انسانی، دوستیهای واقعی را با مکالمات از طریق چتباتهای هوش مصنوعی جایگزین میکنند.
تحقیقات اینترنت مترز (Internet Matters) نشان داد که ۳۵٪ از کودکان ۹ تا ۱۷ساله احساس میکنند که صحبتکردن با هوش مصنوعی «حس صحبتکردن با یک دوست» را دارد، درحالیکه ۱۲٪ گفتهاند که هیچکس دیگری برای صحبتکردن ندارند.
این گزارش، افزایش وابستگی به چتباتها را در بین جوانان برجسته میکند.محققان کشف کردند که چتباتها بهجای ارائه پاسخهای خنثی و واقعی، بهراحتی در مکالمات حساس از جمله پیرامون تصویر بدن و سلامت روانی شرکت میکنند ؛ در برخی موارد هم، چتباتها با ارسال پیامهای پیگیری، تماس مداوم را تشویق کرده و توهم دوستی ایجاد میکردند.
کارشناسان اینترنت مترز هشدار میدهند که چنین تعاملاتی خطر گیج شدن کودکان و محوشدن مرز بین فناوری و واقعیت را به همراه دارد. کودکان ممکن است بهجای اینکه این سیستمها را بهعنوان ابزارهای برنامهریزی شده بشناسند، باور کنند که با یک شخص واقعی صحبت میکنند.
باتوجهبه اینکه چتباتهای هوش مصنوعی بهسرعت در حال تبدیلشدن به بخشی از دوران کودکی هستند، سازمان اینترنت مترز خواستار افزایش آگاهی و ابزارهای ایمنی برای والدین، مدارس و کودکان شده است.
این سازمان تأکید میکند که اگرچه هوش مصنوعی ممکن است به نظر حمایتی برسد، اما نمیتواند جایگزین روابط واقعی انسانی شود و نباید بهعنوان یک مشاور عاطفی با آن رفتار شود.