eitaa logo
پاتوق رسانه ای ها
544 دنبال‌کننده
261 عکس
162 ویدیو
15 فایل
مسیری برای استمرار ارتباط محتوایی و اقدام حمید برزکار هستم و سعی می کنم محتواهایی کارآمد در حوزه های رسانه، فرهنگ و سیاست را به اشتراک بگذارم... @hamid_kheybari پاتوق رسانه ای ها 🔻 @savad_resaneh1
مشاهده در ایتا
دانلود
ماجرای ساغر کسرایی و فریب رسانه ای او منو یاد خطر دیگه ای انداخت... وقتی تصور می کنم تکنولوژی هایی مانند جعل عمیق (deep fake) بکار گرفته شوند واقعا دیگر مردم چگونه می خواهند دور نخورند و گرفتار شگردهای رسانه ای نباشند؟! در یه جاهایی مقابل این شگردها خلع سلاح میشه و باید با تامل و صبر و بدور از رایج و اضافه بار اطلاعاتی و شوک محتوایی، به بررسی محتواهای دریافتی پرداخت و از اونجایی که همه نمی تونن همچی کاری رو بکنن وظیفه خط شکن های این حوزه و در مراحل بعدی وظیفه امثال من و شما سنگین و سنگین تر میشه... مولای ما علی علیه اسلام چه خوب صبر را کنار بصیرت نشانده: لَا يَحْمِلُ هَذَا الْعَلَمَ إِلَّا أَهْلُ الْبَصَرِ وَ الصَّبْرِ درباره 👇 @savad_resaneh1
28.94M حجم رسانه بالاست
مشاهده در ایتا
برای آشنایی بیشتر با مفهوم یا دیپ فیک جعل عمیق بحث‌ها درباره ماهیت اخبار جعلی و واقعی را تشدید کرده است. سوال این است که جعل عمیق می‌تواند دموکراسی را تضعیف کند یا خیر؟ اگر مردم وقایع را باور نکند کارایی دموکراسی از بین می‌رود. سابقه دستکاری تصاویر به زمان استالین برمی‌گردد‌.‌ با پیشرفت تکنولوژی خطر فریب رای دهندگان در کشورهای دموکراتیک با استفاده از جعل عمیق به وجود آمد. جعل عمیق می‌تواند منجر به بهانه ای برای فرار از نظارت توسط سیاستمداران باشد، دنیا به گونه ای می شود که مردم نمی‌دانند به چه چیزی اعتماد کنند‌ و بی‌تفاوتی نسبت به واقعیت رخ می‌دهد. /انتخاب @savad_resaneh1
3.13M حجم رسانه بالاست
مشاهده در ایتا
در این ویدیو براک اوباما حرف هایی را میگوید که هیچ گاه از دهان او خارج نشده ! پیشرفت هوش مصنوعی و یادگیری عمیق به جایی رسیده که می توان کلمات را به راحتی از زبان هر کسی بیان کرد و بر تصویر او قرار داد. جوردن پیل، بازیگر و کارگردان هالیوود این ویدیو را ساخته تا به مردم هشدار دهد که از این به بعد مراقب تصاویر و ویدیو هایی که در فضای مجازی می بینند، باشند. @savad_resaneh1
7.09M حجم رسانه بالاست
مشاهده در ایتا
در این ویدیو که توسط گروه تحقیقاتی دانشگاه واشنگتن آماده شده، روش ساخت ویدیو های جعلی با استفاده از فایل صوتی بیان می شود. همچنین خطر ها و فواید آنها گفته می شود...(بدون ترجمه) @savad_resaneh1
پاتوق رسانه ای ها
برای آشنایی بیشتر با مفهوم #جعل_عمیق یا دیپ فیک جعل عمیق بحث‌ها درباره ماهیت اخبار جعلی و واقعی را
▫️دیپ فیک (Deepfake) یا نوعی فناوری بر پایه هوش مصنوعی است که برای تولید یا تغییر محتوای ویدیویی استفاده میشود تا ویدیو نمایانگر چیزی باشد که، در واقع، اصلاً اتفاق نیفتاده است. ▫️نام گذاری دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes انجام شده است که در دسامبر 2017 از فناوری یادگیری عمیق جهت جایگذاری چهره سلبریتی ها به جای چهره افراد در فیلم های مستهجن استفاده کرده بود. این عبارت، که هم به فناوری مورد استفاده و هم ویدیوهای ساخته شده توسط آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است. ▫️ویدیو جعل عمیق توسط دو سیستم هوش مصنوعی رقیب ایجاد میشود که یکی تولیدکننده و دیگری تفکیک کننده نام دارد. اساساً، تولید کننده، ویدیویی جعلی میسازد و از تفکیک کننده میپرسد که آیا ویدیو واقعی است یا نه. هربار که تفکیک کننده، ویدیویی را به درستی جعلی تشخیص دهد، به تولید کننده سرنخی میدهد درباره کاری که تولید کننده نباید هنگام ساخت ویدیو بعدی انجام دهد. ▫️تولید کننده و تفکیک کننده باهم، یک شبکه تخاصمی تولیدی (Generative Adversaridf al Network) یا GAN تشکیل میدهند. اولین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولید کننده است. هنگامی که تولید کننده شروع به تولید خروجی هایی قابل قبول کند، کلیپ های ویدیویی را می توان وارد تفکیک کننده نمود. ▫️با بهبود تولید کننده در تولید کلیپ های ویدیویی، تفکیک کننده نیز در شناسایی آنها بهتر میشود. برعکس، با بهبود تفکیک کننده در شناسایی ویدیوهای جعلی، تولید کننده در ساخت آنها بهتر میشود. ▫️تا همین اواخر، تغییر محتوای ویدیویی به طرزی محسوس، بسیار سخت تر بود. با این حال، چون جعل عمیق توسط هوش مصنوعی ساخته میشود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع گرا به روش های دیگر را نیاز ندارد. متاسفانه، این بدان معناست که هرکسی میتواند یک ویدیوی جعلی عمیق برای ترویج موضوع مورد نظر خود تولید کند. یکی از خطرات مرتبط این است که افراد ممکن است این ویدیوها را باور کنند، خطر دیگر این است که ممکن است دیگر به اعتبار هیچ ویدویی نتوان اعتماد کرد. 🌖 برای شناخت و رو کردن جعل عمیق به لحاظ فنی چه باید کرد؟! 🔜 https://shahaab-co.ir/mag/news/deep-networks/what-is-deepfake-and-how-to-detect-it/ @savad_resaneh1
7.93M حجم رسانه بالاست
مشاهده در ایتا
🎥ببینید| تدوینگرها را جدی بگیرید! 🔹گاه مسیر از آگاهی های فنی و دقت های محتوایی می گذرد؛ در حالت عادی تشخیص تقطیع و در این موارد قریب به محال به نظر می رسد اما وقتی بدانیم سطح جعل و فریب رسانه ای تا کجا پیشرفت کرده است و از سوی دیگر با ادبیات رسانه ای مسئولین نظام آشنا باشیم متوجه غیر واقعی بودن صدا می شویم! 🔸در عصر (deep fake) از سرچ های هوشمند و تحقیق دیجیتال برای دیتا غافل نشویم! 🆔 @sedayehowzeh