دیپفیکها از دو الگوریتم - یک مولد و یک تفاوتیاب - برای ایجاد و بهبود محتوای جعلی استفاده میکنند. مولد مجموعه داده آموزش را بر اساس خروجی مورد نظر ایجاد میکند و محتوای دیجیتال جعلی اولیه را ایجاد میکند، در حالی که تفاوتیاب تحلیل میکند که نسخه اولیه محتوا چقدر واقعی یا جعلی است. این فرآیند تکرار میشود که به مولد اجازه میدهد تا در ایجاد محتوای واقعیتر ماهرتر شود و تفاوتیاب نیز ماهرتر در شناسایی نقصها برای مولد برای اصلاح شود.
B2n.ir/x41456
#هوش_مصنوعی
#دیپ_فیک
🔅@ensaneagah
🚨دیپفیک؛ دور شدن مخاطبین از واقعیتها
🔹دیپ فیک از ترکیب دو واژه دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین تشکیل شده و براساس هوش مصنوعی قادر است تصاویر انسان را به صورت واقع گرایانه تولید کند.
🔰 چرا این فناوری خطرناک است؟
🔹جعل حقیقت: ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی.
🔹سوءاستفاده سیاسی: میتوان از آن برای تخریب شخصیتهای سیاسی و اجتماعی استفاده کرد.
🔹اخاذی و باجگیری و یا حذف رقبا: میتوان تصاویر افراد را در موقعیتهای غیرواقعی و رسواکننده مونتاژ کرد.
🔹گسترش اخبار جعلی: رسانهها و شبکههای اجتماعی ممکن است پر از محتوای جعلی شوند.
🔰عصر جدیدی آغاز شده، عصری که در آن دیگر نمیتوان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیکهاست. بنابراین:
🔹 به هر ویدیویی اعتماد نکنید!
🔹 منابع معتبر را بررسی کنید!
🔹 از ابزارهای تشخیص دیپ فیک استفاده کنید!
#دیپ_فیک
#هوش_مصنوعی
#فضای_مجازی
#انسان_آگاه
❗ انتشار این محتوا در راستای روشنگری باشما...
👈درایتا به مابپیوندید👇
🔅https://eitaa.com/ensaneagah