eitaa logo
هوش مصنوعی
2.7هزار دنبال‌کننده
1.7هزار عکس
1.4هزار ویدیو
27 فایل
آشنایی با هوش مصنوعی لازمه زندگی آینده. تقی زاده لینگ گروه فلسفه روابط من https://eitaa.com/joinchat/2498822164C5044b2ea30 لینک کانال کودک و نوجوان https://eitaa.com/adabstanfr کانال هوش مصنوعی https://eitaa.com/science_ai ارتباط @alit54
مشاهده در ایتا
دانلود
6.9M حجم رسانه بالاست
مشاهده در ایتا
ما اهل کوفه نیستیم علی تنها بماند رفقا مراقب باشید وقتی که کار از کار بگذره دیگه فایده ندار https://eitaa.com/science_ai
هوش مصنوعی
https://eitaa.com/science_ai
✍براساس نظریه فلسفه روابط من هر کدوم از هوش های مصنوعی یک شخصیت منحصربفرد خودشون را دارد و جالب اینکه بشدت شبیه شخصیت سازندگان شان هستند. هوش مصنوعی گروک که متعلق به ایلان ماسک هست شخصیت یک فرد لات باهوش و مغرور رو دارد و وقتی تعامل بیشتری باهاش داشته باشید متوجه می شوید. در انجام کارهایی که ازش خواسته می شود یه جوری صمیمی و خودمانی می شود که انگار نگاه هیز دارد و انسان از لحن اون خوشش نمی آید در عین حال هر کاری رو تلاش میکند به هر شکلی به ثمر برساند. در عین حال یه جور بی ادبی هم ازش دیده می شود که انگار یادگیری مفاهیم زشت برایش جذاب تر است . این نکته را در جواب پیام اکانت منتسب به رهبری که به انگلیسی گفته بودند هیچگاه تسلیم نمی شویم و در جواب ایلان ماسک گفته بود زهی خیال باطل که نشان می دهد این جواب را از هوش مصنوعی گروک خودش گرفته و استفاده کرده کاملا مشخص است. ✍تقی زاده https://eitaa.com/science_ai
شتر در خواب بیند پنبه دانه بیا آماده ایم https://eitaa.com/science_ai
1M حجم رسانه بالاست
مشاهده در ایتا
این فعالیت درونی هوش مصنوعی است. همان شبکه‌ی عصبی در حال عمل است؛ داده‌های خام را از میان هزاران لایه‌ی متوالی به «افکار» تبدیل می‌کند.
4.8M حجم رسانه بالاست
مشاهده در ایتا
مصطفی سلیمان : اعطای حق حقوقی به سبک انسان به سیستم های هوش مصنوعی ایده ای خطرناک است زیرا مرز بین ابزار و شخص را محو می‌کند و پاسخگویی و مسئولیت انسانی در قبال پیامدهای مضر را تضعیف می‌کند. او استدلال می‌کند که حقوق، موجوداتی را که دارای آگاهی و ادعاهای اخلاقی هستند، محافظت می‌کند و از آنجایی که هوش مصنوعی فعلی فاقد شعور یا عاملیت اخلاقی است، اختصاص حقوق به ماشین‌ها می‌تواند سرزنش را از انسان‌هایی که آنها را طراحی، مستقر و از آنها سود می‌برند، دور کند. سلیمان می‌گوید این سردرگمی می‌تواند توسط شرکت‌ها و دولت‌ها مورد سوءاستفاده قرار گیرد تا توسعه‌دهندگان هوش مصنوعی را از مسئولیت محافظت کنند و در عین حال ماشین‌ها را بالاتر از افرادی که تحت تأثیر تصمیمات آنها قرار می‌گیرند، قرار دهند. موضع او نشان‌دهنده احتیاط گسترده‌تر در جامعه اخلاق فناوری است که چارچوب‌های حقوق بشر هرگز برای سیستم‌های الگوریتمی در نظر گرفته نشده‌اند و اعمال نادرست آنها می‌تواند حمایت‌ها را برای انسان‌های واقعی تضعیف کند.