ماجرای ساغر کسرایی و فریب رسانه ای او منو یاد خطر دیگه ای انداخت...
وقتی تصور می کنم تکنولوژی هایی مانند جعل عمیق (deep fake) بکار گرفته شوند واقعا دیگر مردم چگونه می خواهند دور نخورند و گرفتار شگردهای رسانه ای نباشند؟!
#سواد_رسانه_ای در یه جاهایی مقابل این شگردها خلع سلاح میشه و باید با تامل و صبر و بدور از #سرعت_زدگی رایج و اضافه بار اطلاعاتی و شوک محتوایی، به بررسی محتواهای دریافتی پرداخت و از اونجایی که همه نمی تونن همچی کاری رو بکنن وظیفه خط شکن های این حوزه و در مراحل بعدی وظیفه امثال من و شما سنگین و سنگین تر میشه...
مولای ما علی علیه اسلام چه خوب صبر را کنار بصیرت نشانده:
لَا يَحْمِلُ هَذَا الْعَلَمَ إِلَّا أَهْلُ الْبَصَرِ وَ الصَّبْرِ
درباره #جعل_عمیق 👇
@savad_resaneh1
28.94M حجم رسانه بالاست
مشاهده در ایتا
برای آشنایی بیشتر با مفهوم #جعل_عمیق یا دیپ فیک
جعل عمیق بحثها درباره ماهیت اخبار جعلی و واقعی را تشدید کرده است. سوال این است که جعل عمیق میتواند دموکراسی را تضعیف کند یا خیر؟ اگر مردم وقایع را باور نکند کارایی دموکراسی از بین میرود. سابقه دستکاری تصاویر به زمان استالین برمیگردد. با پیشرفت تکنولوژی خطر فریب رای دهندگان در کشورهای دموکراتیک با استفاده از جعل عمیق به وجود آمد. جعل عمیق میتواند منجر به بهانه ای برای فرار از نظارت توسط سیاستمداران باشد، دنیا به گونه ای می شود که مردم نمیدانند به چه چیزی اعتماد کنند و بیتفاوتی نسبت به واقعیت رخ میدهد. /انتخاب
@savad_resaneh1
3.13M حجم رسانه بالاست
مشاهده در ایتا
#جعل_عمیق
در این ویدیو براک اوباما حرف هایی را میگوید که هیچ گاه از دهان او خارج نشده ! پیشرفت هوش مصنوعی و یادگیری عمیق به جایی رسیده که می توان کلمات را به راحتی از زبان هر کسی بیان کرد و بر تصویر او قرار داد.
جوردن پیل، بازیگر و کارگردان هالیوود این ویدیو را ساخته تا به مردم هشدار دهد که از این به بعد مراقب تصاویر و ویدیو هایی که در فضای مجازی می بینند، باشند.
@savad_resaneh1
7.09M حجم رسانه بالاست
مشاهده در ایتا
#جعل_عمیق
در این ویدیو که توسط گروه تحقیقاتی دانشگاه واشنگتن آماده شده، روش ساخت ویدیو های جعلی با استفاده از فایل صوتی بیان می شود. همچنین خطر ها و فواید آنها گفته می شود...(بدون ترجمه)
@savad_resaneh1
پاتوق رسانه ای ها
برای آشنایی بیشتر با مفهوم #جعل_عمیق یا دیپ فیک جعل عمیق بحثها درباره ماهیت اخبار جعلی و واقعی را
▫️دیپ فیک (Deepfake) یا #جعل_عمیق نوعی فناوری بر پایه هوش مصنوعی است که برای تولید یا تغییر محتوای ویدیویی استفاده میشود تا ویدیو نمایانگر چیزی باشد که، در واقع، اصلاً اتفاق نیفتاده است.
▫️نام گذاری دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes انجام شده است که در دسامبر 2017 از فناوری یادگیری عمیق جهت جایگذاری چهره سلبریتی ها به جای چهره افراد در فیلم های مستهجن استفاده کرده بود. این عبارت، که هم به فناوری مورد استفاده و هم ویدیوهای ساخته شده توسط آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است.
▫️ویدیو جعل عمیق توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد.
▫️تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversaridf al Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود.
▫️با بهبود تولید کننده در تولید کلیپ های ویدیویی، تفکیک کننده نیز در شناسایی آنها بهتر میشود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آنها بهتر میشود.
▫️تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوس، بسیار سخت تر بود. با این حال، چون جعل عمیق توسط هوش مصنوعی ساخته میشود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع گرا به روش های دیگر را نیاز ندارد. متاسفانه، این بدان معناست که هرکسی میتواند یک ویدیوی جعلی عمیق برای ترویج موضوع مورد نظر خود تولید کند. یکی از خطرات مرتبط این است که افراد ممکن است این ویدیوها را باور کنند، خطر دیگر این است که ممکن است دیگر به اعتبار هیچ ویدویی نتوان اعتماد کرد.
🌖 برای شناخت و رو کردن جعل عمیق به لحاظ فنی چه باید کرد؟!
🔜 https://shahaab-co.ir/mag/news/deep-networks/what-is-deepfake-and-how-to-detect-it/
@savad_resaneh1
7.93M حجم رسانه بالاست
مشاهده در ایتا
🎥ببینید| تدوینگرها را جدی بگیرید!
🔹گاه مسیر #سواد_رسانه از آگاهی های فنی و دقت های محتوایی می گذرد؛ در حالت عادی تشخیص تقطیع و #صداسازی در این موارد قریب به محال به نظر می رسد اما وقتی بدانیم سطح جعل و فریب رسانه ای تا کجا پیشرفت کرده است و از سوی دیگر با ادبیات رسانه ای مسئولین نظام آشنا باشیم متوجه غیر واقعی بودن صدا می شویم!
🔸در عصر #جعل_عمیق (deep fake) از سرچ های هوشمند و تحقیق دیجیتال برای #راستی_آزمایی دیتا غافل نشویم!
🆔 @sedayehowzeh