eitaa logo
طارق
366 دنبال‌کننده
3.1هزار عکس
3.9هزار ویدیو
124 فایل
مرکز دشمن شناسی طارق
مشاهده در ایتا
دانلود
🔴 به چشم‌هایتان هم اعتماد نکنید! 🔺تا دیروز اگر می‌خواستیم از صحت چیزی مطمئن شویم، می‌گفتیم: به اندازه چشمانم به آن اطمینان دارم! اما حالا این جمله هم بی‌معنا شده! چون چشمان ما به راحتی فریب می‌خورند! ▪️هوش مصنوعی، با پدیده‌ای به نام دیپ فیک (Deepfake)، از مرزهای واقعیت عبور کرده و حقیقت را به چالشی خطرناک کشانده است. این فناوری، تصاویر و ویدئوهای واقعی را با دقتی باورنکردنی تغییر می‌دهد و افراد را در موقعیت‌هایی نشان می‌دهد که هرگز در آن حضور نداشته‌اند. از ساختن سخنرانی‌های جعلی گرفته تا ویدیوهایی که در آن، یک سیاستمدار، سلبریتی یا حتی یک شهروند عادی کاری را انجام می‌دهد که هرگز واقعاً آن‌را انجام نداده است! 🔺این تکنیک با استفاده از هوش مصنوعی، چهره یا صدای افراد را از ویدئوها استخراج کرده و روی فیلم‌های دیگری جایگذاری می‌کند و ویدئویی جدید می‌سازد که کاملاً واقعی به نظر می‌رسد، اما کاملاً دروغ است! 📌 چرا این فناوری خطرناک است؟ ✅ ، ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی. ✅ ، می‌توان از آن برای تخریب شخصیت‌های سیاسی و اجتماعی استفاده کرد. ✅ و یا حذف رقبا، می‌توان تصاویر افراد را در موقعیت‌های غیرواقعی و رسواکننده مونتاژ کرد. ✅ گسترش ، رسانه‌ها و شبکه‌های اجتماعی ممکن است پر از محتوای جعلی شوند. 🚫عصر جدیدی آغاز شده، عصری که در آن دیگر نمی‌توان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیک‌هاست. بنابراین: 🔹 به هر ویدیویی اعتماد نکنید! 🔹 منابع معتبر را بررسی کنید! 🔹 از ابزارهای تشخیص دیپ فیک استفاده کنید! 🔹 سواد رسانه‌ای خود را افزایش دهید! ✍ ➖➖➖➖➖➖➖➖➖➖➖ 🇮🇷بهترین ها را در کانال https://eitaa.com/khabartahlil