اثر لگد چیست ؟
🔸شواهد متناقض علیه مدل ذهنی ما، حتی ممکن است ما را بر اعتقادمان مصممتر کند! این قضیه را #اثر_لَگَد ( اشاره به لگد و ضربهای که به هنگام خروج گلوله از لوله تفنگ، به تیرانداز وارد میشود) مینامند.
🔸در آزمایشی، نایان و ریفلر، مقالههایی چالشبرانگیز در روزنامهها نوشتند. این مقالات شامل نظرات آنها در مورد چهرههای سیاسی بود که اطلاعات ناصحیحی را ارائه میداد. به عنوان مثال، یک مقاله حاوی نقلِ قول رئیسجمهور وقت ایالات متحده، "جورج دبلیو بوش" بود با این مضمون که: "عراق، سلاحهایِ کشتارجمعیِ زیادی قبل از تهاجم ایالات متحده به این کشور در اختیار داشته است."
🔸بلافاصله پس از مطالعه این مطلبِ ساختگی و اشتباه، مطلب صحیح و واقعی در اختیار افراد قرار میگرفت. مطلب واقعی این بود: "عراق هیچ سلاح کشتار جمعی قبل از حمله آمریکا، نداشته است." در یک اتفاق جالب، مخالفانِ جنگ به سرعت تصحیح مقاله را پذیرفتند، اما در مقابل، موافقان لشکرکشیِ آمریکا به عراق، به شدت با آن مخالفت کردند و جالبتر اینکه بر باور خود بیشتر پافشاری کردند.
🔸این مساله، به تاییدگرا بودن مدل ذهنی تعبیر میشود. مفاهیم تصمیمگیری شخصی عمیق هستند: ما تمایل داریم که همان انتخابهای قبلی را، بر اساس عقیده و فرضیههای مشابه و بارها و بارها انجام دهیم.
🔸زمانی که ما نیاز به توجیه اعتقادمان داریم، به سادگی شواهدی را پیش میکشیم که از دیدگاه ما حمایت میکند و هر چیزی را که ممکن است آن را مخدوش کند، نادیده میگیریم. در نتیجه، تعامل با کسانی که با نظرات ما مخالف هستند، مملو از اختلاف و بیاعتمادی است.
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
5.79M حجم رسانه بالاست
مشاهده در ایتا
رهبر انقلاب: در دوران هوش مصنوعی نمیتوان با همان شیوههای ۴۰ سال پیش کار کرد
بزرگترین توصیۀ امام ادامه راه او و پیروی از میراث اوست. ما باید آن ۳ تحولی که امام ایجاد کرد را دنبال و حفظ کنیم.
در دوران هوش مصنوعی و کوانتوم و... نمیتوان با همان شیوههای ۴۰ سال قبل کار کرد. امروز ابزارها باید متناسب با زمان انتخاب شود.
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
فروتنی فکری، دریچهای به سوی گفتوگوهای سازنده در #شبکههای_اجتماعی
🔸در نخستین سالهای استفادهی گسترده از اینترنت بسیاری فکر میکردند که آدمها هرچه بیشتر با یکدیگر ارتباط برقرار کنند، مهربانتر و آگاهتر میشوند و دنیا جای پرصلح و صفاتری خواهد شد.
🔺اکنون در سال ۲۰۲۳ این باور کمی سادهلوحانه به نظر میرسد. حالا بهخوبی میدانیم که اینترنت انسانها را به هم وصل میکند، اما لزوماً همدلی پدید نمیآورد. بهقول ایان لزلی، روزنامهنگار و نویسندهی بریتانیایی: «اینترنت، در بدترین حالت، مثل دستگاه عظیم تولید نفرتِ متقابل میماند.»
🔹در وهلهی نخست، مشکل از جذاببودن مخالفت نشئت میگیرد. بهقول پل گراهام، کارآفرین سیلیکونولی: «مخالفت بیش از موافقتْ مردم را به هیجان میآورد.» آدمها در هنگام مخالفت حرفهای بیشتری برای گفتن دارند و، البته، در قیاس با موافقت، بهسرعت برانگیخته میشوند. در نتیجه، مطالب یا نظرات ستیزهجویانه بیشتر لایک میخورند و بازتوییت میشوند.
🔺مشکل اما از آنجا آغاز میشود که نظر مخالف را به هویتِ خود یا دیگران گره بزنیم. در این صورت، بهجای آنکه ذهن خود را برای فهم دیدگاه دیگران آماده کنیم، از آن سپری میسازیم و بر دفاع از خویشتن تمرکز میکنیم. [...]
🔺مشکل دیگر ــ و از نظر ما، مهمترین آفت ــ از پرورش نوعی نخوتِ شناختی در شبکههای اجتماعی سرچشمه میگیرد. شواهد نشان میدهد که شیوهی پاداشدهیِ اینترنت بهگونهای است که افراد برآورد نادرستی از میزان داناییِ خود دارند و آن را بهگونهای کاذب دست بالا میگیرند.
🔷زیستمحیطِ اینترنت با پاداشدادن به اتاقهای پژواک و محیطهای همنظر و خودکامروا و تخریب روحیهی پرسشگری و جستوجوی مُجدانهی حقیقت خصلتِ گشودگی به نظرات مخالف را از بین میبَرد.
به عبارت دیگر، اینترنت بر نخوتِ شناختی ما دامن میزند و خیال میکنیم بیش از آنچه میدانیم دانا هستیم. فیدها و الگوریتمهای جهتمندِ شبکههای اجتماعی ما را به درون اتاقهای پژواکی میراند که در آن برای نظرات ما هورا میکشند و نظرات مخالف را دست میاندازند. جماعت دستچینشدهی خودمان ما را، که از چالشهای جدی در امان ماندهایم، تشویق میکنند. بدین ترتیب، کمکم تواناییمان برای خودارزیابیِ دقیق را از دست میدهیم و بهتدریج خودمان را بسیار بیش از آنچه واقعاً هستیم آگاه میدانیم.
💢 اما فروتنی فکری چیست؟
ابتدا باید میان فروتنی، بهطور عام، و فروتنیِ فکری، بهطور خاص، فرق بگذاریم. درحالیکه فروتنی، در معنای عمومی و اخلاقیِ خود، به نگرش انسان در مورد کاستیهای خویش در «تمام حوزهها» بازمیگردد، فروتنیِ فکری عمدتاً به «محدودیتهای شناختی» راجع میشود.
🔸 فروتنی فکری، بهطور ساده و خلاصه، عبارت است از پذیرش محدودیتهای فکریِ خودمان. بدیهی است که فروتنی فکری در این معنا ریشهای دیرینه دارد و تبار آن به جهل سقراطی یا «دانم که ندانم» بازمیگردد. بااینحال، فروتنی فکری، در مقام حوزهای مستقل و متمرکز از پژوهشهای انسانی، مفهومی نو و مدرن به شمار میآید که در دهههای اخیر در مطالعات میانرشتهای بسط و گسترش یافته است. فروتنی فکری مفهومی چندوجهی است و براساس مدلهای گوناگون تعاریفی متفاوت دارد.
💠با این وصف، میتوان برخی از مؤلفههایی را برشمرد که پژوهشگران کمابیش بر سر آن توافق دارند:
• پذیرش اینکه باورها و نظرات ما ممکن است اشتباه باشند؛
• آگاهی از خودفریبیِ ذهن و قبول محدودیتهای فکری؛
• سعی در پرهیز از حالت تدافعیگرفتن در زمانی که نظراتمان به چالش کشیده میشوند؛
• توجه به نظرات دیگران و تأمل بر شواهد تازهای که ممکن است به رد باور کنونی ما بینجامد.
🔺طبق مطالعات انجامشده، کسانی که در آزمونهای فروتنیِ فکری نمرات بالاتری میگیرند به احتمال زیاد در برابر دیدگاههای سیاسی و مذهبیِ مخالف رواداریِ بیشتر و تعصب کمتری از خود نشان میدهند و نسبت به دوستی با اعضای برونگروهی در پلتفرمهای اجتماعی تمایل بیشتری بروز میدهند. همچنین احتمال کمتری دارد که از گروههای مخالف اهریمنسازی کنند یا به آنان انگ نادانی یا شرارت بزنند. بهطورکلی، درحالیکه تفکرِ بسته به تحقیر نظرات و استدلالهای طرف مقابل میانجامد، فروتنی فکری بحثها را بهسوی گفتوگوهای محترمانه سوق میدهد.
⁉️اما چگونه میتوانیم فروتنی فکری را در خود تقویت کنیم و آن را رواج دهیم؟
1⃣ خالیکردن موقتیِ انبار ذهن
2⃣ تمرین استدلال مخالف
3⃣ قدمنهادن در آن سوی پرچینهایی که طی سالها در پیرامون شخصیت خود ساختهایم.
4⃣ تبدیل باور نادرست
5⃣ هنر توجهکردن به نظرات متفاوت دیگران
6⃣ رفتار توأم با درنگ بهجای رفتار تکانشی
7⃣ ابراز مخالفت در قالبی محترمانه و دوستانه
8⃣ در پی حقیقت باشیم، از زبان هرکس که خارج شود.
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
-1128915198_-868802234.pdf
6.22M
⭕️ کتاب رهیافتی بر منظومه فکری امام خامنه ای در فضای مجازی
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
🔶#هوش_مصنوعی چیست و چگونه کار میکند؟/ همه چیز درباره هوش مصنوعی؛ از تاریخچه تا کاربرد
📍هوش مصنوعی در واقع #تکنولوژی است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی میشناسیم تا حد زیادی تفاوت دارد.
▶️هوش مصنوعی چیست؟
🔸خیلی از افراد هنوز هم با شنیدن واژه هوش مصنوعی به #ربات ها فکر میکنند و تصور میکنند که منظور از هوش مصنوعی همان ربات های بی احساسی هستند که برای انجام راحت تر کارها طراحی شدهاند و قرار است در آینده جای انسان ها را بگیرند. مسئول این نوع تفکر به احتمال زیاد فیلم های علمی و تخیلی است اما واقعیت با آنچه که تصور می شود تفاوت دارد.
🔖هوش مصنوعی به انگلیسی #Artificial
#intelligence که به طور مخفف آن را #AI نیز مینامند، در واقع تکنولوژی است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی میشناسیم تا حد زیادی تفاوت دارد، اما در حقیقت سعی دارد تا از آن تقلید کند.
📌مشاهده کامل در لینک زیر
🌐http://amir-sadeghi.com/post/16
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
⁉️فیلترینگ حبابی چیست؟
🔰یکی از تکنیکهای شبکههای اجتماعی مجازی، فیلترینگ حبابی است. یعنی آنکه شما و همفکرانتان در حبابی قرار میگیرید که پیامهای همدیگر را میبینید و مخالفان شما نیز در حبابی دیگر هستند. بنابراین حباب شما را بیاثر میکنند و حباب رقیب را پراثر میکنند.
♻️برای مثال، به پیادهروی عظیم اربعین حسینی توجه نمایید. طبق آمار حدود ۲۰ میلیون نفر در این مراسم باشکوه شرکت میکنند. اگر هر فرد فقط ۲ تصویر یا ویدئو را در شبکههای اجتماعی مجازی به اشتراک بگذارد، #کل_جهان باید با امام حسین (ع) و واقعهی عاشورا آشنا شوند. اما نمیشوند. چرا⁉️⁉️
⬅️و یا اینکه در اینستاگرام، هوش مصنوعی بواسطهی شناختی که از شما بوسیلهی راههای چهارگانه کسب کرده است، پیجها یا اشخاص همفکر یا همجهت با شما را پیشنهاد (suggestion) میکند.
#سواد_رسانهای
#جنگ_شناختی
#جنگ_نرم
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
9.01M حجم رسانه بالاست
مشاهده در ایتا
🎬 تصمیم گیری بر اساس خبرها
🔸در طول روز چقدر اخبار مطالعه می کنیم؟ چه تعداد از این اخبار را باور می کنیم؟ و چه تعداد تصمیم را متناسب با این اخبار میگیریم؟
🔺یکی از مهارت های موجود در سواد رسانه، مهارت تشخیص اخبار جعلی از اخبار واقعی است.
قطعا این توانایی برای همه افراد حاضر در فضای مجازی مهم و حیاتی است، زیرا که امروزه دیگر فقط اخبار نیستند که اخبار جعلی را متنشر می کنند بلکه شبکه های اجتماعی نیز با انتشار یک طنز می توانند اخبار نادرستی را در قالب طنز به مخاطبین برسانند.
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
📛 شگردهای رسانهای در علوم شناختی
🔺 «تكنیك گنجشک در دست»
🔹گنجشک پرنده ظریفی است اگر او را دست گرفته باشید می دانید قلبش چطور تند تند می زند بنا بر این باید او را به گونه ای بگیرید که نه خفه شود نه فرار کند. این حالت در رسانه به شگردی معروف شده است به همین نام ”گنجشک در دست» رسانه ها می دانند که مخاطب این روزها خیلی حساس و دقیق است بنابراین سعی می کنند در ظاهر هم که شده یک طرفه به قاضی نروند.
🔸رسانه هایی مانند بی بی سی فارسی برای سال ها با این شیوه مخاطب را همراه خود نگه داشته است، ظاهرا مخالف و موافق در استودیو با هم حضور دارند، اینگونه مخاطب فرار نمی کند و پای برنامه می ماند و در ضمن در فضای روانی و تحلیل اصلی رسانه درگیر می شود...
⚠️ شگردهای رسانه های بیگانه برای تغییر ذهن مخاطب فارسی زبان هر روز بیشتر می شود، شناختن و درک این جنگ شناختی قسمتی از سواد رسانهای مورد نیاز امروز ماست...
#سواد_رسانه
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
📸 این حجم از انعکاس مطالب بیارزش و مشکوک جناب ظریف در مقطع زمانی فعلی (رونمایی از شاهکار موشکی #فتّاح و همزمان، آزادسازی مطالبات ارزی ایران)، عادی نیست و فقط در راستای #جنگ_ترکیبی دشمن ارزیابی میشود
#جریان_تحریف
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
🔴گولزدن در اینستاگرام ممنوع!
💭یورونیوز:
پارلمان فرانسه لایحهای را برای تنظیم فعالیت اینفلوئنسرهای شبکههای اجتماعی تصویب کرد.
🔺طبق این مصوبه، ترویج برخی کارها ممنوع شده و درصورت رعایتنکردن میتواند تا ۲ سال زندان و ۳۰۰ هزار یورو جریمه درپی داشته باشد.
🔺عمل زیبایی و تبلیغ برخی دستگاههای پزشکی ممنوع است.
🔺تبلیغ محصولات نیکوتیندار ممنوع است.
🔺شرطبندی و قمار ورزشی ممنوع است.
🔺نشاندادن صحنههای نمایشی با حیواناتی که نباید در مالکیت انسان باشند ممنوع است.
🔺در تصاویر تبلیغاتی باید مشخص کنند که آیا تصویر روتوش شده یا برای جذابترشدن از فیلتر استفاده میکنند یا نه.
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
💢 دیپ فیک یا جعل عمیق چیست؟
🔴 دیپ فیک (Deep Fake) فناوری جدیدی بر مبنای هوش مصنوعی است که بهواسطه آن تصاویر و ویدیوهای دروغین اما واقع گرایانه درست میشود و میتواند هر بینندهای را تحت تاثیر خود قرار دهد. امروزه ویدیوهای دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته میشود و بیننده بدون آنکه متوجه عدم صحت و واقعیت آنها شود، محتوای آنها را باور کرده و به انتشار آنها در فضای مجازی دست میزند. در نتیجه با توجه به پیشروی بدون محدودیت این فناوری، باید گفت که به زودی تشخیص بین مرز حقیقت و دروغ کاملا غیرممکن میشود.
🛑 دیپ فیک از ترکیب دو واژه دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین تشکیل شده است و براساس هوش مصنوعی قادر است تصاویر انسان را به صورت واقع گرایانه تولید و سنتز کند. در فناوری Deep Fake یا همان جعل عمیق، از دسته خاصی از الگوریتم یادگیری ماشین با نام «شبکههای مولد تخاصمی» یا «Generative Adversarial Networks» استفاده میشود تا تصاویر یا ویدیوهای موجود روی مجموعهای از تصاویر و ویدیوهای منبع، ترکیب و برهمنهی شود.
❗️تکنولوژی جعل عمیق مبتنی بر روش یادگیری عمیق است و از شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN گفته میشود، استفاده میکند. الگوریتمهای GAN از دو مدل هوش مصنوعی تشکیل میشوند. در این سیستم وظیفه یکی از مدلها تولید محتوا (تولید تصاویر افراد) و وظیفه مدل رقیب، تشخیص واقعی بودن و یا جعلی بودن عکس تولید شده است. گفتنی است در ابتدای کار مدل هوش مصنوعی رقیب قادر است به راحتی عکس جعلی را از عکس واقعی تشخیص دهد اما با گذشت زمان دقت و عملکرد مدل هوش مصنوعی تولید کننده به قدری افزایش مییابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار سخت میشود.
#پدافند_سایبری
#هوش_مصنوعی
#جعل_عمیق
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan