eitaa logo
| اندکی اندیشه |
351 دنبال‌کننده
869 عکس
242 ویدیو
17 فایل
💠💠خُرده تاملات حسینعلی رحمتی در اخلاق فناوری اطلاعات، فلسفه اخلاق ، و برخی موضوعات دیگر. 📌سایت رسمی: www.harahmati.ir 📌آدرس در همه شبکه های اجتماعی: @harahmati 📌 ارتباط با بنده در ایتا: @harahmati2
مشاهده در ایتا
دانلود
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🐕‍🦺 تاثیر «حیوان-ربات ها» بر زیست انسانی و جانوری (۴) ربات ها هر روز شکل و شمایلی نزدیک تر به موجودات حاضر در زندگی ما پیدا می کنند. مثلا ربات های حیوان-نُمایی درست شده که از نظر حرکات و سَکَنات دارند شبیه حیوان های فعلی می شوند و چه بسا در آینده ای نزدیک به عنوان مورد استفاده قرار گیرند. این کار می تواند پرسش ها و چالش هایی را از نظر موجب شود، از جمله این که: 🦖 توسعه هوش مصنوعی چه مزیت ها و مشکلاتی را می تواند برای محیط زیست جانوری ایجاد کند؟ 🦖 آیا ممکن است انسان ها به ربات های حیوانی دلبستگی عاطفی پیدا کنند؟ نسبت به آنها چه وظایف اخلاقی دارند؟ 🦖 آیا ممکن است موجب بی¬مِهری و افزایش خشونت انسان نسبت به حیوان¬های واقعی شوند؟ 🦖 یا از سوی دیگر، آیا ممکن است موجب استفاده کمتر از حیوانات واقعی و درنتیجه آسیب دیدن کمتر آنها شود؟ 🦖 همزیستی حیوانات واقعی با این ربات¬ها آیا ممکن است روی روحیات آنها مثل وفاداری یا محبت به صاحب شان تاثیر منفی بگذارد؟ حسینعلی رحمتی ۱۶ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔥هوش حقیقیِ ایرانی در خدمت هوش مصنوعی (۵) 🔻فناوری هوش مصنوعی در هیچ کشوری از روز اول تخم دوزرده نمی کند؛ بلکه با مجموعه از آزمون و خطا گام به گام توسعه پیدا می کند. در شبکه های اجتماعی، معرفی محصولات دیگر کشورها در زمینه هوش مصنوعی کار خوبی است ولی این نباید موجب غفلت از معرفی کوشش های علمی و دستاوردهای دانشمندان کشورمان، به خصوص جوانان، در این عرصه شود. 💪معرفی دانش و دانشمندان ایرانیِ هوش مصنوعی نوعی قدردانی از زحمات آنها، تشویق‌شان به تلاش بیشتر، دل‌گرمی برای عدم مهاجرت، ایجاد اشتغال و تولید سرمایه در کشور، و پیشتازی کشورمان در میدانِ پررقابتِ هوش مصنوعی می‌شود. از نظر اخلاقی کار خوب از هر کسی که سرزند شایسته تقدیر است ولی چه بهتر که فرزندان میهن مان را بیشتر تشویق کنیم، چرا که حق بیشتری بر گردمان دارند. البته نهادهای حاکمیتی و صاحبان صنایع و سرمایه هم باید بسته به امکانات خود در این کار خیر مشارکت کنند. 🧿ویدیو: معرفی ربات دستیار جراح ساخته شده توسط حسینعلی رحمتی ۱۷ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
6.06M حجم رسانه بالاست
مشاهده در ایتا
♨️ربات‌ها هم عصبانی می‌شوند؟ (۶) 🔻وجود عواطف و احساسات و عکس‌العمل‌هایی چون خشم و عصبانیت در انسان‌ها طبیعی است ولی برای ربات‌ها چه؟ دانشمندان در صدد هستند ربات‌ها را به‌گونه‌ای توسعه دهند که هم احساسات انسان‌ها را درک کنند هم بتوانند رفتارهای احساسی از قبیل غم و شادی را از خود بروز دهند. این کار گرچه در ابتدای راه است ولی به هر حال از منظر می‌تواند پرسش‌هایی را برانگیزد از جمله این که: 🤖 اگر در فهم احساسات انسان اشتباه کردند و عکس‌العمل نامناسبی نشان دادند چه باید کرد؟ 🤖آیا ممکن است کاری کرد که «فقط» احساسات مثبتی چون شفقت و مهربانی نسبت به دیگران داشته باشند؟ 🤖 در این صورت آیا کارشان یک رفتار اخلاقی است یا صرفا یک واکنش مکانیکی؟ 🤖وابستگی عاطفی انسان به ربات‌ها چه تاثیرات اخلاقی روی تعامل انسان با ربات‌ها و با انسان‌های دیگر (و حتی حیوانات) می‌تواند داشته باشد؟ حسینعلی رحمتی ۱۸ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
15.05M حجم رسانه بالاست
مشاهده در ایتا
🌀کوچک شدن ربات ها و کوچک شمردن اخلاق (۷) 👽یکی از تغییرات جالب در عرصه هوش مصنوعی تولید ربات هایی است که از نظر قد و اندازه هر روز کوچک تر می شوند. در طراحی این ربات ها معمولا از حیوانات ریزنقش مثل کِرم و پروانه و زنبور الهام گرفته می شود و حتی به شکل همین حیوانات هم ساخته می شود. البته از آنها ریزتر هم هست که به اندازه یک سرانگشت هستند. 👽 ریزربات ها کارکردهای مختلفی دارند؛ از پزشکی گرفته تا کارهای نظامی و اطلاعاتی. تولید آنها در مواردی که به کاهش صدمه به انسان ها یا درمان آنها یا ممانعت از کارهای تروریستی منجر می شود قطعا از منظر اخلاقی قابل دفاع است. 👽 اما از سوی دیگر درباره آنها دغدغه هایی هم وجود دارد، از جمله این که: چون به قول قدیمی ها عقل آدمی در چشم اوست ممکن است مراعات اصول اخلاقی درباره این ربات ها را چون ریز هستند چندان جدی گرفته نشود (همان طور که ما بزرگ تر ها نوجوان ها را چون بچه حساب می کنیم جدی نمی گیریم). این در حالی است که از نظر مراعات اصول اخلاقی در مورد طراحی، توسعه و استفاده از ربات ها فرقی بین ریز و درشت بودن آنها نیست. حسینعلی رحمتی ۱۹ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
6.68M حجم رسانه بالاست
مشاهده در ایتا
‼️هوش مصنوعی و «کله قند»وارِگیِ اخلاقی (۸) 🦾حدّومرز اخلاقیِ توسعه ماشین های هوشمند تا کجاست؟ آیا طراحان و توسعه دهندگان هوش مصنوعی باید هر چیزی را که «می توانند» تولید کنند؟ رقابت سیری ناپذیرِ شرکت های مختلف در این زمینه چرا، چگونه و توسط چه کسانی باید زا نظر اخلاقی مورد نظارت و کنترل قرار گیرد؟ 🦾 اینها برخی از مهم ترین پرسش هایی است که اخلاق پژوهان هوش مصنوعی باید به‌جدّ در پی پاسخ به آن باشند. اگر به طراحان و تولیدکنندگان این ماشین ها باشد به نظر می رسد آنان هیچ حدّومرزی را برای این کار قائل نیستند. شاهدش این که هر روز ربات یا فناوری جدیدی تولید می کنند بدون این که خبری از «پیوست اخلاقی»اش باشد. 🦾 یکی از پیامدهای این نگاه سودگرایانه به بازار پررونق و رقابت ماشین های هوشمند این است که به زودی ما شاهد انسان(واره)هایی خواهیم بود که ظاهرشان با هم فرق می کند ولی فکر و اخلاق شان (خوب یا بد) عین هم است. درست شبیه کله قندهایِ یک شکل. (ویدیو را ببینید) حسینعلی رحمتی ۲۱ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
16.33M حجم رسانه بالاست
مشاهده در ایتا
🔥آیا ربات ها هم باید اخلاق را مراعات کنند؟ (۹) «آیا ربات ها هم باید در گفتار و رفتارشان با خودشان و انسان ها چارچوب های اخلاقی داشته باشند؟» شاید این پرسش امروز کمی خنده دار و عجیب به نظر آید ولی با توجه به فرایند توسعه ماشین های هوشمند باید به آن جدی تر فکر کرد. و البته هرگونه پاسخ به آن مبتنی است بر این که ببینیم این ماشین ها چه اندازه از «اختیار، استقلال، و خودآگاهی» برخوردار هستند یا در آینده می شوند؛ چرا که این این سه موضوع جزو مبانی اولیه اخلاق هستند. 🍄 اگر به درصدی از امکان تربیت اخلاقی ربات ها باور داشته باشیم، آن گاه باید درباره پرسش هایی از این دست تامل کنیم: ▪️ روش تربیت اخلاقی ربات ها چه گونه است؟ ▪️چه اصول و قواعدی را باید به آنها یاد داد؟ ▪️چه کسی باید این اصول را مشخص کند؟ ▪️ اگر بین اصول اخلاقی ربات ها با اصول اخلاقی انسان های مرتبط با آنها اختلاف پیش آمد چه باید کرد؟ ▪️چه کدهای اخلاقی باید برای آنها نوشت؟ ▪️اگر ربات ها بین خودشان یک نظام اخلاقی جدید پایه گذاری کردند انسان ها چه باید بکنند؟ (ویدیو را ببینید) حسینعلی رحمتی ۲۲ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔴 مگه بیل به کمر ربات‌ها خورده؟ بی‌کاری به مثابه یک چالش اخلاقی (۱۰) 🛠پیدایش «ربات‌های کارگر» اگر یک گروه را خوشحال کند آنها صاحبان کارگاه ها و کارخانه ها هستند؛ چرا که این کارگران جدید نه غرولند می کنند، نه حقوق می خواهند، نه بیمه، نه حق اولاد و عیال، نه اعتصاب می کنند. تازه، زورشان هم زیادتر است، خسته هم نمی شوند. چه از این بهتر؟ اما از سوی دیگر با استفاده از هر ربات، چندین کارگر بی کار می شوند و چندین خانواده از جهات مختلف آسیب می بینند. 🛠این جاست که اخلاق پژوهان فناوری اطلاعات باید وارد شوند و مسوولیت اخلاقی صاحبان کار را در استفاده از ربات ها و مواظبت بر حفظ حقوق و کرامت انسانی کارگران به آنان یادآور شوند. و حتی اگر لازم شد تدابیر حقوقی و قضایی را هم به کار ببرند. نقش ربات ها در افزایش بی کاری، امروزه به یک دغدغه های مهم جهانی تبدیل شده است. ترس از این است که حرمت و کرامت کارگران، که قشر ضعیف و زحمتکش جامعه اند، زیر پای ربات ها و درراستای سرمایه پرستی و سودگرایی صاحبان کارخانه ها و مراکز تولیدی قربانی شود. 🛠پیامدهای اخلاقی و اجتماعی این کار کم‌تر از ضررهای اقتصادی اش نیست. حسینعلی رحمتی ۲۳ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
💢چالش های اخلاقی فناوری های نوپدید، مبتنی بر هوش مصنوعی 🔹گزارش یک نشست علمی این نشست روز چهارشنبه ۲۱ شهریور ماه ۱۴۰۳ برگزارشد. دکتر رحمتی گفت مخاطبان این بحث عموم علاقمندان به و ، به ویژه طلاب و روحانیون هستند که درباره اخلاق اندیشی و اخلاقی پژوهی نسبت به این فناوری ها مسوولیت بیشتری دارند. ایشان تضعیف کرامت انسانی در برابر ماشین، نقض حریم خصوصی،جعل حقیقت، کاهش اقتدار نهادهای سنتی اخلاقی، شکل گیری مشاوران اخلاقی جدید، کاهش عواطف انسانی، اعتیاد مجازی، نقض مالکیت مادی و معنوی دیگران را از جمله این چالشها ذکر کرد. 📌متن کامل گزارش را در اینجا بخوانید 💥اندکی اندیشه ضرر ندارد
💢چالش های اخلاقی فناوری های نوپدید، مبتنی بر هوش مصنوعی 🔹گزارش یک نشست علمی نشست علمی «چالش های اخلاقی فناوری های آینده، ناظر به هوش مصنوعی» روز چهارشنبه ۲۱ شهریور ماه ۱۴۰۳ ساعت ۸ الی 12 با همکاری معاونت پژوهش مدرسه تخصصی زینبیه حوزه علمیه خواهران کرج با حضور حجت الاسلام دکتر حسینعلی رحمتی، عضو هیات علمی گروه اخلاق کاربردی پژوهشگاه قرآن و حدیث برگزار شد. ♨️در ابتدای این نشست که مصادف با روز شهادت امام حسن عسکری (ع) و آغاز امامت امام زمان (عج) بود دکتر رحمتی هدف از بحث خود را «آشنایی با برخی از مهم ترین مشکلات و مسائل اخلاقی ناشی از پیشرفت فناوری های ارتباطی به ویژه هوش مصنوعی در آینده» بیان کرد و گفت مخاطبان این بحث علاقمندان به حوزه اخلاق فناوری اطلاعات و هوش مصنوعی، به ویژه طلاب و روحانیون هستند که درباره اخلاق اندیشی و اخلاقی پژوهی نسبت به این فناوری ها، و ترویج اخلاق در جامعه مسوولیتی سنگین دارند. دکتر رحمتی فناوری های آینده یا نوظهور را فناوری هایی دانست که عمدتا مبتنی بر هوش مصنوعی هستند و از هم اکنون تولید شده اند و در آینده تداوم و توسعه پیدا می کنند، یا فناوری هایی که ممکن است در آینده ای دور یا نزدیک پا به عرصه وجود بگذارند. ایشان با عنوان اینکه حوزه های علمیه و همه اخلاق اندیشان باید در حال حاضر آمادگی لازم برای مواجهه صحیح با بحران های اخلاقی آینده، مدیریت آنها و پرهیز از غافلگیر شدن و یافتن راهکار برای حل این چالش ها و ادای وظیفه نسبت به نسل آینده را داشته باشند، به ضرورت شناسایی این چالش های اخلاقی اشاره کرد. ♨️عضو هئیت علمی پژوهشگاه قرآن و حدیث مسولان چالش شناسی را نهادهای مرتبط با اخلاق خصوصا حوزه های علمیه، و نهادهای مرتبط با فضای مجازی و فناوری عنوان کرد و گفت این کار باید با بهره گیری از دانش آینده پژوهی انجام شود. آن گاه پس از تعریف آینده پژوهی و «آینده پژوهیِ اخلاق»، فرایند و مراحل آن را زیر سه عنوان موضوع شناسی، مسئله شناسی اخلاقی و راهکار شناسی توضیح داد. این محقق اخلاق فناوری اطلاعات، در ادامه با اشاره به روند رو به افزایش استفاده از چت بات ها، پیوند هوش طبیعی به هوش مصنوعی، فراگیر شدن ربات های دستیار، متاورس و واقعیت افزوده، اینترنت اشیاء، بلاک چین، انبار داده های دی ان ای، پرینت سه بعدی ناظر به انسان، و ساخت ابررایانه های محاسبه گر قوی را به عنوان نمونه هایی از فناوری های نوظهور برشمرد. ♨️ایشان مهم ترین چالش‌های اخلاقی مرتبط با این فناوری ها را چنین معرفی کرد: تضعیف کرامت انسانی در برابر ماشین، نقض حریم خصوصی، تحریف و جعل حقیقت، کاهش اقتدار نهادهای سنتی اخلاقی، ترویج اخلاق منهای دین، تضعیف منابع و متون اخلاقی سنتی، شکل گیری مشاوران اخلاقی جدید، ضعیف شدن میزان تاثیرگذاری اخلاقی نهاد خانواده سنتی، کاهش عواطف انسانی، اعتیاد مجازی و مشغول تر شدن انسان ها به فناوری اطلاعات، دسترس پذیری بیشتر به محتوای غیر اخلاقی، تضییع حق الناس، تضییع حق الله، تخریب محیط زیست، سرقت علمی و نقض مالکیت مادی و معنوی دیگران، آسیب دیدن انسان ها توسط ماشین های هوشمند، چالش های مربوط به مسوولیت اخلاقی، تربیت اخلاقی ربات ها، شکل گیری تجربه ها و وضعیت های اخلاقی جدید، کم‌رنگ شدن مرزهای جنسیتی در اخلاق، تهدید امنیت کشور، جهت دهی به معرفت اخلاقی کاربران و تضعیف اختیار و خودآگاهی انسان، تنهایی و جمع گریز شدن انسان ها، کوتاهی در انجام وظایف شخصی و اجتماعی، هک شدن هویت و شخصیت اخلاقی انسان، و فناوری هراسی یا فناوری گرایی افراطی. این نشست با پرسش و پاسخ حاضران به پایان رسید. ✍🏼گزارش: ناهید ملمعی خوزانی
«منبع شناسی هوش مصنوعی و معرفی سایتهای تعامل رایگان با این هوش» به کوشش: محسن بهرامی در این منبع شناسی، کتاب ها، سایت ها، و مقالات فراوانی به زبان های فارسی، عربی و انگلیسی درباره مباحث مرتبط با هوش مصنوعی معرفی شده و لینک دسترسی به برخی از آنها نیز درج شده است. هرچند به نظر می رسد هیچیک از آنها درباره نیست ولی به هر حال برای علاقه مندان به این عرصه مفید است. آدرس: https://tt-ej.ir/post/809
19.18M حجم رسانه بالاست
مشاهده در ایتا
😱رکیک‌گویی، نخستین گامِ‌ حیازدایی از نوجوانان در فضای مجازی (۱) 🧑‍🌾روی ویدیو کلیک می کنی، بچه ای نشسته و در حال گفتن یک جوک نامناسب و شوخی غیراخلاقی است. چنین کاری در شبکه های اجتماعی از سوی همه ناپسند است و از سوی نوجوانان ناپسندتر، چرا که مستقیم و غیرمستقیم بر روی اخلاق و رفتارشان تاثیر منفی می گذارد، زشتی این سخنان را نزد آنها از بین می برد، و آنان را بی حیا بار می آورد. 🧕چنین کودکی یاد می گیرد که برای رسیدن به اهداف خود مجاز است هرکاری را انجام دهد. او فردا در حضور همکلاسی‌ها، دوستان، همکاران، همسر و فرزند، و حتی والدین خود از گفتن چنین شوخی‌هایی ترس ندارد؛ چرا که زشتی و قباحت این کار نزد او از بین رفته است. بگذریم از این که چنین ویدیوهایی در فضای مجازی باقی می ماند و وقتی بچه ها بزرگ شدند برای‌شان مشکل‌ساز می شود. 🧕در بسیاری از موارد ممکن است خود بچه ها متوجه نباشند چه می گویند. این بزرگترها هستند که دراین زمینه باید احساس مسوولیت کنند. ⚠️پ ن: قسمت پایانی این ویدیو به خاطر مراعات اخلاق حذف شده است. حسینعلی رحمتی ۲۵ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد