#جعل_عمیق
ماجرای ساغر کسرایی و فریب رسانه ای او منو یاد خطر دیگه ای انداخت...
وقتی تصور می کنم تکنولوژی هایی مانند جعل عمیق (deep fake) بکار گرفته شوند واقعا دیگر مردم چگونه می خواهند دور نخورند و گرفتار شگردهای رسانه ای نباشند؟!
#سواد_رسانه_ای در یه جاهایی مقابل این شگردها خلع سلاح میشه و باید با تامل و صبر و بدور از
#سرعت_زدگی رایج و اضافه بار اطلاعاتی و شوک محتوایی، به بررسی محتواهای دریافتی پرداخت و از اونجایی که همه نمی تونن همچی کاری رو بکنن وظیفه خط شکن های این حوزه و در مراحل بعدی وظیفه امثال من و شما سنگین و سنگین تر میشه...
مولای ما علی علیه اسلام چه خوب صبر را کنار بصیرت نشانده:
لَا يَحْمِلُ هَذَا الْعَلَمَ إِلَّا أَهْلُ الْبَصَرِ وَ الصَّبْرِ
▫️دیپ فیک (Deepfake) یا
#جعل_عمیق نوعی فناوری بر پایه هوش مصنوعی است که برای تولید یا تغییر محتوای ویدیویی استفاده میشود تا ویدیو نمایانگر چیزی باشد که، در واقع، اصلاً اتفاق نیفتاده است.
▫️نام گذاری دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes انجام شده است که در دسامبر 2017 از فناوری یادگیری عمیق جهت جایگذاری چهره سلبریتی ها به جای چهره افراد در فیلم های مستهجن استفاده کرده بود. این عبارت، که هم به فناوری مورد استفاده و هم ویدیوهای ساخته شده توسط آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است.
▫️ویدیو جعل عمیق توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد.
▫️تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversaridf al Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.
▫️با بهبود تولید کننده در تولید کلیپ های ویدیویی، تفکیک کننده نیز در شناسایی آنها بهتر میشود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آنها بهتر میشود.
▫️تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوس، بسیار سخت تر بود. با این حال، چون جعل عمیق توسط هوش مصنوعی ساخته میشود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع گرا به روش های دیگر را نیاز ندارد. متاسفانه، این بدان معناست که هرکسی میتواند یک ویدیوی جعلی عمیق برای ترویج موضوع مورد نظر خود تولید کند. یکی از خطرات مرتبط این است که افراد ممکن است این ویدیوها را باور کنند، خطر دیگر این است که ممکن است دیگر به اعتبار هیچ ویدویی نتوان اعتماد کرد.
🌖 برای شناخت و رو کردن جعل عمیق به لحاظ فنی چه باید کرد؟!
🔜
https://shahaab-co.ir/mag/news/deep-networks/what-is-deepfake-and-how-to-detect-it/