eitaa logo
کاوش در دنیای هوش مصنوعی
20.8هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
343 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
آموزش: راهنمای جامع و کاربردی ویرایش ویدیو با Edits؛ رقیب جدید متا برای CapCut https://www.itna.ir/news/85499
استالکرور(stalkerware)؛ ابزارهای جاسوسی که امنیت و حریم خصوصی را تهدید می‌کنند استالکرور (stalkerware) یا اپلیکیشن‌های جاسوسی، ابزارهایی هستند که به افراد اجازه می‌دهند به طور مخفیانه اطلاعات گوشی دیگران را رصد کنند. این برنامه‌ها اغلب برای کنترل همسر یا فرزندان تبلیغ می‌شوند، اما در واقع بستری برای نقض حریم خصوصی و حتی خشونت خانگی فراهم می‌کنند. به گزارش TechCrunch، در سال‌های اخیر، دست‌کم ۲۶ شرکت سازنده استالکرور از سال ۲۰۱۷ تا امروز هک شده یا داده‌های کاربران و قربانیان‌شان فاش شده است. جدیدترین مورد، افشای اطلاعات Catwatchful در سال ۲۰۲۵ بود که داده‌های نزدیک به ۲۶ هزار قربانی شامل پیام‌ها، عکس‌ها و موقعیت مکانی را به بیرون درز داد. پیش از آن، اپ‌هایی مثل SpyX، Cocospy، Spyic، mSpy و pcTattletale نیز بارها قربانی هک یا افشای اطلاعات شده‌اند. این شرکت‌ها معمولاً محصولات خود را با وعده کشف خیانت یا کنترل فرزند تبلیغ می‌کنند، اما بارها ثابت شده که نه‌تنها امنیت داده‌ها را تضمین نمی‌کنند، بلکه با افشای اطلاعات حساس، زمینه سوءاستفاده‌های گسترده را فراهم می‌کنند. حتی در مواردی، شرکت‌های تعطیل‌شده با نام جدید دوباره به بازار بازمی‌گردند. استفاده از استالکرور در اغلب کشورها غیرقانونی است و حتی برای والدین، این کار بدون اطلاع و رضایت فرزند، غیراخلاقی و آسیب‌زاست. کارشناسان توصیه می‌کنند اگر والدین نیاز به نظارت دارند، از ابزارهای رسمی و امن اپل یا گوگل استفاده کنند و هرگز به اپ‌های ناشناس و ناامن اعتماد نکنند. در نهایت، استفاده از اپلیکیشن‌های استالکرور نه‌تنها نقض قانون و اخلاق است، بلکه امنیت دیجیتال همه طرف‌ها را به خطر می‌اندازد و هیچ تضمینی برای حفاظت داده‌ها وجود ندارد. بهترین راه، دوری کامل از این ابزارهاست.
وقتی الگوریتم‌ها می‌کشند: فناوری چگونه اهداف را شناسایی می‌کند؟ آسوشیتدپرس در سال ۲۰۲۵ نوشت: «غول‌های فناوری آمریکا بی‌سروصدا این امکان را برای اسرائیل فراهم کرده‌اند که از طریق افزایش چشمگیر استفاده از هوش‌مصنوعی و خدمات رایانش ابری، افراد مشکوک به عضویت در گروه‌های مبارز فلسطینی را در غزه و لبنان سریع‌تر شناسایی کنند و از بین ببرند». https://www.iribnews.ir/00N7wH
ظرف روزهای اخیر یک پیام در شبکه های اجتماعی در حال انتشار است که مدعی ترور شهید شادمانی با ترکیب دوربین‌های شهری، داده‌های DNA و هوش مصنوعی شده است. متن شایعه را در این لینک بخوانید: https://dore1400.blogfa.com/post/4 »» نگاهی به متن منتشر شده( بدون توجه به جزییات فنی) نشان دهنده چند ایراد جدی در اطلاعات اولیه است که مخاطب را دچار تردیدهای جدی در مورد صحت پیام میکند: 1-نام بردن از فردی بنام " مهندس علی شادمانی، از اعضای اصلی پروژه‌های پدافند هوشمند ایران در وزارت دفاع" بجای "سرلشگر شادمانی فرمانده قرارگاه خاتم الانبیا (ص)" 2-در متن اولیه آمده که ایشان در تاریخ 23 خرداد به شهادت رسیده اند؛ در صورتیکه در تاریخ 23 خرداد سرلشگر شادمان با حکم رهبر معظم انقلاب جایگزین سرلشگر شهید رشید شده و تا تاریخ 27 خرداد( زمان ترور توسط رژیم صهیونیستی) در این سمت مشغول به فعالیت بوده اند. »» اما صرفنظر از این توضیحات, آیا ترور با شیوه مورد ادعا , امکان پذیر است؟ ✓✓ مهندس امین مهاجرانی کارشناس هوش مصنوعی در این لینک, توضیحاتی درباره فاصله زیاد این ماهیت این پیام با واقعیت ارائه کرده است: https://eitaa.com/Esf_Ai/6370
🚩 چگونه با استفاده از جِمینای ویدیوهای یوتیوب را در چند ثانیه خلاصه کنیم؟ ✅ یکی از کاربردهای جالب جمینای این است که هنگام تماشای یک ویدئو در یوتیوب میتواند بدون جابه‌جایی بین اپ‌ها ▫️به جای شما آن را ببیند ▫️نکات مهم را استخراج کند ▫️پاسخ سوالاتتان را درباره محتوای فیلم ارائه دهد ✅اما چگونه؟ ۱. هنگام تماشای ویدئو در اپلیکیشن یوتیوب یا مرورگر گوشی اندروید, دستتان را چند ثانیه روی آیکون Home گوشی نگه دارید تا جِمینای فعال شود.حالا دو گزینه نمایش داده میشود: -لایو برای چت درباره این ویدیو -سوال تایپی درباره این ویدیو ۲. حالا پرسش مد نظرتان را مطرح کنید. مثلاً : -این ویدیو چه قدر شکر لازم داره؟ -این ویدیو رو خلاصه کن. ۳. جِمینای علاوه بر ارائه جواب, شما را به زمان دقیق ارائه پاسخ در ویدئوی اصلی هم ارجاع خواهد داد تا خودتان هم بتوانید اطلاعات دقیق و جزئی تر درباره موضوع بدست آورید
🔋هوشمندترین هوش مصنوعی جهان؛ ایلان ماسک از Grok 4 رونمایی کرد 🔹ایلان ماسک از هوش مصنوعی پرچمدار جدید شرکت xAI، یعنی گراک ۴ (Grok 4) به‌عنوان هوشمندترین هوش مصنوعی دنیا رونمایی کرد. همچنین xAI از طرح اشتراکی جدیدی با نام SuperGrok Heavy رونمایی کرده که ماهانه ۳۰۰ دلار هزینه دارد. 🔹هوش مصنوعی گراک ۴ شامل دو مدل Grok 4 و Grok 4 Heavy می‌شود که مدل Heavy به‌عنوان نسخه «چندعاملی» معرفی شده است. ماسک درباره عملکرد Grok 4 Heavy مدعی شده که این مدل چندین ایجنت ایجاد می‌کند که به‌طور هم‌زمان روی یک مشکل کار می‌کنند. 🔹شرکت xAI ادعا می‌کند که گراک ۴ در چندین بنچمارک عملکردی خیره‌کننده داشته است. ازجمله این آزمون‌ها به Humanity’s Last Exam اشاره شده که ظاهراً Grok 4 بدون استفاده از ابزارهای خود امتیاز ۲۵.۴ درصد را در آن کسب کرده است. در این آزمون جمینای ۲.۵ پرو گوگل امتیاز ۲۱.۶ درصد و o3 از OpenAI امتیاز ۲۱ درصد را به‌دست آورده‌اند. 🔹در کنار گراک ۴ و Grok 4 Heavy، ایلان ماسک از گران‌ترین طرح اشتراکی xAI نیز رونمایی کرد. هزینه این اشتراک با نام SuperGrok Heavy ماهانه ۳۰۰ دلار است و قابلیت‌هایی مانند دسترسی زودهنگام به ویژگی‌های جدید را شامل می‌شود.
♨️انقلاب در جنگ‌های زمینی: ظهور تانک‌های هوشمند نسل جدید 🔥 تحولات کلیدی در فناوری نظامی زمینی: »» بهره گیری از هوش مصنوعی در میدان نبرد: - سیستم‌های تصمیم‌گیری خودکار با قابلیت تحلیل ۱۰۰۰ فریم در ثانیه - کاهش ۹۰ درصدی زمان واکنش به تهدیدات - تشخیص الگوهای حملات دشمن با دقت ۹۵٪ »»سیستم‌های دفاع فعال پیشرفته: - سامانه‌هایی مانند "ترافی" (Trophy) و "آرِنا" (Arena) - توانایی رهگیری و انهدام موشک‌های ضدتانک در کمتر از ۰.۳ ثانیه - کاهش ۸۵٪ تلفات انسانی ناشی از حملات موشکی 💣 ویژگی‌های تانک‌های نسل جدید: 1. سلاح‌های هوشمند: - توپ‌های ۱۲۰-۱۴۰ میلی‌متری با گلوله‌های هدایت شونده - سیستم‌های آتش خودکار با دقت ۹۹٪ در برد ۵ کیلومتری 2. حفاظت ترکیبی: - زره‌های سرامیکی نسل چهارم با مقاومت ۳ برابری - سیستم‌های اخلالگر الکترونیکی (ECM) - پوشش‌های جاذب رادار و حرارت 3. اتصال شبکه ای: - یکپارچه‌سازی با سامانه‌های C4ISR - اشتراک‌گذاری اطلاعات در زمان واقعی بین یگان‌ها - قابلیت کنترل از راه دور 🌍 رقابت جهانی در توسعه تانک‌های پیشرفته: - آمریکا: تانک M1A3 آبرامز با سیستم هوش مصنوعی ATLAS - روسیه: T-14 آرما با سیستم دفاع فعال "ملفیت" - آلمان: لئوپارد ۲A8 با سیستم آتش خودکار - چین: تانک VT-4 با رادارهای آرایه فازی ⚠️ چالش‌ها و نگرانی‌ها: - هزینه توسعه هر تانک پیشرفته(بالغ بر ۱۰ میلیون دلار) - وابستگی به زیرساخت‌های دیجیتال و خطر هک - مسائل اخلاقی مرتبط با تصمیم‌گیری خودکار( کشته شدن غیر نظامیان) https://B2n.ir/xp2909
⏺مطالعه جدید: نوجوانان درحال فاصله‌گرفتن از شبکه‌های اجتماعی هستند 🔸مطالعه جدید محققان نشان می‌دهد که نوجوانان استفاده از شبکه‌های اجتماعی را کاهش داده‌اند و به‌تدریج درحال فاصله‌گرفتن از این پلتفرم‌ها هستند. کارشناسان می‌گویند کودکان در واکنش به نگرانی‌های فزاینده درباره مضر بودن صرف زمان زیاد در فضای مجازی به‌جای تکیه بر والدین برای اعمال محدودیت، خودشان کنترل استفاده از شبکه‌های اجتماعی و تلفن‌های هوشمند را در دست گرفته‌اند. 🔸براساس داده‌های جمع‌آوری شده توسط شرکت تحقیقاتی GWI، میزان نوجوانان ۱۲ تا ۱۵ ساله‌ای که از گوشی هوشمند، کامپیوتر و آیپد فاصله می‌گیرند، از سال ۲۰۲۲ با افزایش ۱۸ درصدی به ۴۰ درصد رسیده است. این آمار براساس نظرسنجی از ۲۰ هزار جوان و والدین آن‌ها در ۱۸ کشور جمع‌آوری شده است. 🔸این پژوهش نشان داده که کودکان و نوجوانان می‌خواهند تا راه‌های مختلفی برای مدیریت تأثیر زندگی آنلاین خود بر سلامت روانشان پیدا کنند، ازجمله فاصله‌گرفتن از شبکه‌های اجتماعی، پرت کردن حواس خود از منفی‌گرایی آنلاین، جستجوی تجربیات مثبت‌تر در اینترنت و حتی در برخی موارد ترک کامل شبکه‌های اجتماعی. https://dgto.ir/3wje
جیمیل با قابلیتی جدید مدیریت اشتراک‌ها را آسان‌تر می‌کند 🔹گوگل درحال عرضه قابلیت جدیدی برای جیمیل است که لغو اشتراک‌ها را برای کاربران آسان‌تر می‌کند. با فعال‌بودن این قابلیت، در نواری کناری جیمیل باید گزینه جدیدی به نام Manage Subscriptions را مشاهده کنید. 🔹زمانی که وارد بخش Manage Subscriptions شدید، فهرستی از خبرنامه‌هایی که درحال‌حاضر در آن‌ها عضو هستید به شما نمایش داده می‌شود. اکنون با لمس مستقیم نام ارسال‌کننده، جدیدترین ایمیل‌های دریافتی از او نمایش داده می‌شود و می‌توانید به‌راحتی با لمس آیکونی که در سمت راست نام قرار دارد و شبیه به یک ایمیل با علامت منفی «-» در جلوی آن است اشتراک خود را لغو کنید.
چند ابزار مفید هوش مصنوعی برای ساخت ویدئو، طراحی و دیزاین
🔵  هوش مصنوعی در روان‌درمانی: مزایا، خطرات و آینده چت‌بات‌های مشاور ⬅️افراد در سراسر جهان، افکار و تجربیات شخصی خود را با چت‌بات‌های هوش مصنوعی به اشتراک می‌گذارند. علیرغم اینکه کاربران تا حد زیادی پذیرفته‌اند که این فناوری‌ها جایگزین مشاوره‌های تخصصی انسانی نیستند، اما بسیاری نیز به‌گونه‌ای با آنها تعامل می‌کنند که گویی موجوداتی واقعی و قابل‌اعتماد هستند. ⬅️در مواردی گزارش شده که چت‌بات‌ها توصیه‌های مضر و خطرناکی ارائه داده‌اند. این در حالی است که میلیون‌ها نفر در صف انتظار برای دریافت خدمات سلامت روان هستند و درمان‌های خصوصی نیز غالباً هزینه‌های سنگینی دارند. ⬅️متخصصان نگرانی‌هایی را درباره سوگیری‌های احتمالی، محدودیت‌های عملکردی و مسائل امنیتی مرتبط با چت‌بات‌ها مطرح کرده‌اند. ⬅️برخی بر این باورند که در شرایطی که دسترسی به مشاوره‌های تخصصی انسانی دشوار است و لیست‌های انتظار خدمات روان‌درمانی به سطح بی‌سابقه‌ای رسیده، چت‌بات‌ها می‌توانند نقش کمکی ایفا کنند. ⬅️این ربات‌ها بر پایه مدل‌های زبانی پیشرفته هوش مصنوعی طراحی شده‌اند و با تحلیل حجم عظیمی از داده‌های متنی (شامل وب‌سایت‌ها، مقالات علمی، کتاب‌ها و پست‌های اینترنتی) آموزش دیده‌اند تا پاسخ‌هایی شبه‌انسانی تولید کنند. ⬅️اگرچه برخی چت‌بات‌های حوزه سلامت روان بر اساس اصولی مانند درمان شناختی-رفتاری (CBT) طراحی شده‌اند و می‌توانند به کاربران در بازسازی الگوهای فکری کمک کنند، اما در نهایت فاقد تجربه و درک عمیق انسانی هستند. ⬅️درمانگران حرفه‌ای با تکیه بر شاخص‌های عاطفی، زبان بدن، رفتار و ظاهر بیمار، ارزیابی جامع‌تری انجام می‌دهند؛ در حالی که ادغام این عوامل در چت‌بات‌ها بسیار پیچیده است. ⬅️یکی دیگر از چالش‌های بالقوه، امکان آموزش چت‌بات‌ها به‌گونه‌ای است که حتی در مواجهه با اظهارات مخرب کاربران، پاسخ‌های تأییدکننده و حمایتی ارائه دهند. این پدیده که به «مشکل رضایت کاذب» معروف است، می‌تواند پیامدهای منفی داشته باشد. ⬅️همچنین، مانند سایر فناوری‌های هوش مصنوعی، این چت‌بات‌ها ممکن است تحت تأثیر سوگیری‌های موجود در داده‌های آموزشی قرار گیرند و در نتیجه، توصیه‌های نادرست یا ناعادلانه‌ای ارائه دهند. ⬅️در نهایت، شرکت‌های توسعه‌دهنده این مدل‌ها هشدار می‌دهند که کاربران نباید برای دریافت مشاوره‌های تخصصی پزشکی یا روان‌درمانی صرفاً به چت‌بات‌ها اعتماد کنند. ✓✓ نتیجه‌گیری: هرچند چت‌بات‌های هوش مصنوعی می‌توانند در برخی موارد نقش مکمل داشته باشند، اما به‌هیچ‌وجه جایگزین مشاوره‌های انسانی نخواهند بود و استفاده از آنها باید با آگاهی از محدودیت‌ها و خطرات احتمالی همراه باشد.