⚠️ پدیدهای به نام #دیپفیک (Deepfake)
این تکنیک با استفاده از #هوش_مصنوعی، چهره یا صدای افراد را از ویدئوها استخراج کرده و روی فیلمهای دیگری جایگذاری میکند و ویدئویی جدید میسازد که کاملاً واقعی به نظر میرسد، اما کاملاً دروغ است!
📍چرا این فناوری خطرناک است؟
🔹#جعل_حقیقت، ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی.
🔹#سوءاستفاده_سیاسی، میتوان از آن برای تخریب شخصیتهای سیاسی و اجتماعی استفاده کرد.
🔹#اخاذی_و_باجگیری و یا حذف رقبا، میتوان تصاویر افراد را در موقعیتهای غیرواقعی و رسواکننده مونتاژ کرد.
🔹گسترش #اخبار_جعلی، رسانهها و شبکههای اجتماعی ممکن است پر از محتوای جعلی شوند.
📍عصر جدیدی آغاز شده، عصری که در آن دیگر نمیتوان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیکهاست. بنابراین:
🔹 به هر ویدیویی اعتماد نکنید!
🔹 منابع معتبر را بررسی کنید!
🔹 از ابزارهای تشخیص دیپ فیک استفاده کنید!
🔹 سواد رسانهای خود را افزایش دهید!
┄┅═══✼---------✼═══┅┄
🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 :
🆔 @nasrafars_ir
🌐نهضت سواد رسانهای انقلاب اسلامی استان فارس