فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
💥کروزول - از پیشتازان #هوش_مصنوعی - به آزمون "اتاق چینی" جان سرل پاسخ میدهد👆 (توضیح این آزمون در پستهای قبلی آمده که قابل جستجوست).
💥سرل البته فهم زبان را بمعنای سابجکتیو آن برای کامپیوترها نفی میکند و نه بمعنای کارکردی. به بیان وی نمادها برای ماشینهای محاسباتی فقط یکسری شکل هستند. فهم هر نمادی وابسته به مشاهدهگر است و فهم نمادها توسّط ماشین، نمیتواند موکول به برنامهنویسی دیگر باشد و این تسلسل ادامه یابد.
💥سرل خود در سال 1980 تعدادی اشکال به استدلال خویش، مطرح کرده که یکی از آنها همین پاسخیست که کروزول در اینجا (سال 2016) داده است: «جواب سیستمها».
ممکن است دور سیستم – شامل فرد داخل اتاق و کتاب راهنما و ... – یک خط بکشیم و بگوییم کلّ سیستم است که پرسشها را درک میکند. این پاسخ میخواهد بگوید فقط یک بخش خاص از سیستم (مانند مرد داخل اتاق چینی) زبان را نمیفهمد؛ بلکه این کلیّت سیستم اتاق چینی است که درک زبان بدو منتسب میشود.
💥جواب سرل اینست که فرض کنید شخص این کتابچه را کاملاً به خاطر سپرده باشد و برنامه را با مراجعه به حافظه خویش، اجرا نماید. در نتیجه کل سیستم دیگر با بدن شخص، یکسان است و او (بمثابه کل سیستم) هنوز چینی را نفهمیده است. (See: Searle, 1980, "Minds, Brains, and Programs)
💥همچنین او خود تصریح دارد که در صدد نفی #آگاهی بمثابه یک ویژگی نوظهوریافته نیست. ادّعای محاسباتی که سرل هدف گرفته، اینست که صِرف پیادهسازی برنامه درست در ماشین، دربردارنده حالات ذهنی خواهد بود. (See: Searle, 1997, pp. 12-13) او خود حامی #نوظهوریافتگی آگاهی از مغز است.
@PhilMid