#مسئله_چارچوب
#فلسفه_هوش_مصنوعی
🔴 دریفوس در برابر #هوش_مصنوعی استدلال می کند که توانایی ما در شناخت جهان و دیگر مردمان، یک نوع مهارت غیر توصیفی از سنخ دانستنِ چگونگی (know-how) است که قابل تقسیم به کدگذاری و برنامه نویسی و ... نیست.
انسانها این توانایی را دارند که براساس تجربه در هر موقعیت به نحوی معقول و متناسب رفتار کنند؛ بدون آنکه نیاز داشته باشند در فعّالیتهای روزمرّه شان بدنبال پیروی از دستورالعملها بروند.
🔵 هرچه بسمت کارکردهای تجربهایتر برویم (مثلاً کارکرد تربیتی)، این تمایز بیشتر آشکار میشود. مربّی در هر لحظه و در مواجهه با هر رفتار کودک، به فراخور تجربهای که از تعامل با او و سایر کودکان اندوخته و برحسب ادراک درونی که از نوع واکنش کودک در آن لحظه دارد، تصمیم خاصّی میگیرد که میتواند کاملاً موردی باشد.
این قبیل مهارتها غیر قابل بیان و پیشا مفهومی اند و یک بُعد #پدیدارشناسی ضروری دارند که نمی تواند بوسیله هیچ سیستم قاعدهمندی به تصویر درآید.
🔴 دریفوس حتّی تأکید داشت که شاید هیچ دسته واقعیتهای رها از کانتکست (Context-free) وجود نداشته باشد که شیوههای رفتاری را مشخّص نماید و ما باید فقط از تجربیات وسیع خود بیاموزیم که چطور به هزاران مورد معمول و رایج، پاسخ بدهیم.
🔵 او همچنین بر اهمیت ظرفیتهایی مانند تخیّل و بکارگیری استعاره و ... تأکید می کرد که همگی در مقابل تلقّی محاسباتی قرار دارند. (Dreyfus, 1999, What Computers Still Can't Do, p. xxvii.)
🔴 آنهایی که انتقاد #دریفوس به GOFAI (هوش مصنوعی کلاسیک) را جدّی میگیرند، میتوانند همانند خود وی برخی تردیدهای مشابه را درباره رویکرد #پیوندگرایی (Connectionism) هم داشته باشند.
🔵 کار در حوزه تقویت یادگیری شبکههای پیوندگرا بر مسائل محدودی تمرکز دارد.
رفتارها البته میتوانند تعریف شوند و به آسانی تمایز یابند، ولی هوش با رفتارهایی سر و کار دارد که دستهبندی مناسب آنها وابسته به شرایط و کانتکست است.
روال رایج در #شبکههای_نورونی مصنوعی که مستلزم دستهبندیهای ساده رفتارهاست، یک عنصر اساسی هوش را دور میزند و نادیده میگیرد؛ یعنی یادگیری این که چطور شرایط و کانتکست، بر اهمیت و معنای رفتار تأثیر میگذارد. (Robinson, 2014, The Cambridge Handbook of Artificial Intelligence, pp. 101-102.)
مهمترین مباحث فلسفی درباره ذهن/نفس و علوم شناختی را اینجا ببینید:
https://eitaa.com/joinchat/183304263Cbe50a0e2d9
🖥 برخی مهندسان و پژوهشگران #هوش_مصنوعی علاقه چندانی به مباحث وجودشناختی AI ندارند و در بین مباحث #فلسفه_هوش_مصنوعی ، حداکثر مسائل #اخلاق_هوش_مصنوعی را بدلیل آنکه اوّلاً کاربردیتر مییابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشماندازهای آتی را به چالش نمیکشد، ترجیح میدهند.
🖥 این اتفاق البته در میان مهندسان #علوم_کامپیوتر در کشورمان بنحوی شایعتر و جدیتر وجود دارد و تعاملات بینارشتهای فلسفی – فنّی که بین برخی دپارتمانها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده میشود در کشور ما تقریباً هیچ نمونهای (ولو تقلیلیافته) ندارد.
🎖درباره ضرورت توجه به متافیزیک هوش مصنوعی میتوان به تأثیر متقابل علمی و تئوریک اشاره کرد. تأملات فلسفی چه در زمانی که رویکرد کلاسیک دیجیتال در پی برنامهنویسیهای کامپیوتری بود و چه در زمانی که نظریات محاسباتی جدید در #پیوندگرایی یا تئوریهای #بدن_مندی به کار گرفته شد، در هر دو جنبه ارائه تئوریهای ایجابی برای ساخت هوش مصنوعی و هم در نقد و نقض آنها فعال بودهاند.
🎖نظریه محاسباتی کلاسیک ذهن (CCTM) که بعدها توسط فودور – فیلسوف ذهن دانشگاه راتگرز - با نظریه بازنمودگرایی تلفیق گردید، زمینه و پایه تولیدات فنّی و پژوهشهای دهه 70 پیرامون هوش مصنوعی را شکل داد.
کما اینکه تأملات و انتقادات امثال هابرت #دریفوس (درباره حسّ عمومی و مرتبط بودن) و #جان_سرل (درباره درک زبانی)، چالشهایی جدّی پیش روی تئوریها و تکنیکهای ساخت هوش مصنوعی قرار داد.
این تعاملات فلسفی – فنّی با زمستان هوش مصنوعی در دهه 80 و ورشکستگی کمپانیها تکمیل شد و دوره جدیدی را با تئوریهایی متفاوت رقم زد.
🎖در دوره جدید نیز تئوریهای پیوندگرایی و بدنمندی با چالشهایی جدی از سوی فیلسوفان مواجه بودهاند. دریفوس در دهه 70 و در مقاله پر ارجاع What Computers Can't Do استدلال میکرد که توانایی ما در تعامل با دیگران، یک نوع مهارت غیر توصیفی و تجربهای از سنخ دانستنِ چگونگی (know how) و دانستنِ گزارهای است که قابل تقلیل به کدگذاریهای گزارهای در برنامهنویسی نیست.
🎖او در سال 1999 و در کتاب What Computers Still Can't Do توانایی شبکههای نورونی پیوندگرا که بر پایه دستهبندی رفتارها برنامهریزی میشود را نیز به چالش کشید.
دستگاههای پیوندگرا قادر به تعمیم هستند و هرگاه با یک الگوی ورودی جدید - که از نوع الگوی تمرینشده قبلی است – مواجه میشوند، خروجیای مشابه تولید خواهند کرد. دریفوس و حامیانش اما اشکال مرتبط بودن را در اینجا نیز تکرار میکنند: «از یک نوع بودن» در دستهبندی و تعمیم رفتارها را چه چیزی مشخّص میکند؟
به اعتقاد اینها مدلسازی نمیتواند جلوی تعمیمهای ناجور و بیجا را بگیرد. کما اینکه اشکال اتاق چینی سرل درباره درک زبانی کامپیوترهای دیجیتال، در برابر شبکههای پیوندگرا نیز قابل بازسازی است و پاسخ روبات وی (Robot Reply) هم در برابر رویکرد بدنمندی.
🎖توجه به مباحث فلسفی هوش مصنوعی نه تنها اشکالات و نواقص نظریههای رایج در ساخت روباتها را گوشزد میکند، بلکه حتی میتواند به رویکردهای جدیدی در تولید #آگاهی_مصنوعی بینجامد. از جمله نظریه #حدوث_جسمانی آگاهی در #علم_النفس #ملاصدرا که زمینه را برای امکان و بلکه شیوه تولید #آگاهی در شبکههای نورونی مصنوعی متناسب با شبکههای نورونی طبیعی، فراهم میآورد.
@PhilMind
11.38M حجم رسانه بالاست
مشاهده در ایتا
🔥این👆بخشی از گفتگوی سبحاش کاک - رییس دپارتمان علوم کامپیوتر دانشگاه اوکلاهاما آمریکا - است که ۱۰ روز قبل منتشر شده و اینجا ترجمه کردهایم.
🔥کاک بعنوان متخصص #محاسبات_کوانتومی توضیح میدهد که چرا متد محاسباتی (هرچقدر هم حجیم و پیچیده بشود)، نمیتواند به تولید #آگاهی_ماشین بینجامد.
او البته #آگاهی_مصنوعی را در قالب ماشینهای بیولوژیک (که احتمالا در آینده جایگزین روش ساخت ماشینهای غیر بیولوژیک فعلی خواهد شد)، امکانپذیر میداند.
هرچند براساس دیدگاه #نوظهورگرایی_قوی اعتقاد دارد آگاهی ماشینهای بیولوژیک (از جمله #مغز) در سطحی غیرفیزیکی از سطح بیولوژیک جهش میکند و ظهور مییابد.
🔥توضیحاتی که کاک در مورد تعارض دستورالعملهای منطقی علوم کامپیوتر با جنبههای جمعالاضدادی آگاهی میدهد، بیانی دیگر از استدلال معروف حس عمومی/ مسئله چارچوب از هیوبرت #دریفوس است که میگفت تجربه آگاهانه جنبهای پیشامفهومی دارد که فراچنگ گزارهها و دستورالعملهای #هوش_مصنوعی نمیآید.
@PhilMind
🖥 نول و سیمون در 1957 نسخه بهروز از برنامه کامپیوتری «نظریه منطق» را با نام «حل مسئله عمومی» عرضه کردند که تکنیکهای جستجوگر بازگشتی را برای حل مسائل ریاضیاتی به کار میگرفت. نظریه منطق و حل مسئله عمومی، توانایی یافتن اثباتهایی برای بسیاری قضایا در کارهای اولیه برتراند راسل و آلفرد وایتهد در نظریه مجموعهها را دارا بود.
🖥 این موفقیتها سیمون و نول را بر آن داشت تا در مقاله 1958 خویش با عنوان Heuristic Problem Solving بگویند: «هماینک ماشینهایی بر روی زمین وجود دارند که "فکر میکنند"، "یاد میگیرند" و "خلق میکنند". علاوه بر این، توانایی آنها برای انجام چنین کارهایی بسرعت در حال افزایش است، تا اینکه در آیندهای نزدیک، طیف مسائلی که میتوانند رسیدگی کنند، با طیف مسائلی که ذهن انسانی بکار گرفته، برابری خواهد کرد» و یک دهه بعد، سیمون پیشبینی کرد که تا سال 1985 «ماشینها توانایی انجام هرکاری که انسانها انجام میدهند را خواهند داشت» (Kurtzweil, 1999, The Age of Spiritual Machines; When Computers Exceed Human Intelligence, p. 58).
🖥 در طول دهه 60، حوزه آکادمیک #هوش_مصنوعی کار بر روی دستورالعملی را آغاز کرد که آلن #تورینگ برای نیم قرن بعدی پیشنهاد کرده بود. کارهایی که نتایجی بعضاً دلگرمکننده و بعضاً ناامیدکننده به دنبال داشت. برنامه دنیل بابرو میتوانست مسائل جبر را از زبان طبیعی حل کند و آزمونهای ریاضیات دبیرستان را بخوبی پشت سر بگذارد. مشابه همین موفقیت برای برنامه توماس ایونس گزارش شده که میتوانست مسائل قیاس هندسی را در آزمون آیکیو حل نماید. حوزه سیستمهای کارشناسی نیز با سیستم DENDRAL ساخته ادوارد فیجنبام آغاز شد که میتوانست پرسشها درباره ترکیبات شیمیایی را پاسخ گوید.
🖥 با فاصله کمی اما انتقادات گستردهای وارد شد که ناتوانی این برنامهها برای انجام واکنشهای بجا در محیطهای متنوع را هدف میگرفت. دیگر مشخص شده بود مسائلی که همگان فکر میکردند مشکل باشند، از حل قضایای ریاضیاتی و بازی ماهرانه شطرنج گرفته تا استدلال در حوزههایی مانند شیمی و داروسازی، آسان بودند و کامپیوترهای دهه 60 و 70 با چندهزار فرمان در ثانیه، غالباً میتوانستند نتایج رضایتبخشی را در این زمینهها فراهم آورند. مسئله گریزپا اما مهارتهایی بود که هر بچه پنجساله هم داراست؛ مثل درک یک کارتون انیمیشینی.
🖥 تأکیدی که یکی از مهمترین منتقدین - هیوبرت دریفوس - بر اهمیت «ارتباط» قائل بود، موضوعیت توانایی انسان در تشخیص امر ذاتی از غیر ذاتی را برجسته میکرد. اینکه انسانها میتوانند بدون زحمت براساس #تجربه_پدیداری خویش در هر موقعیت مرتبط، واکنشی درخور ارائه بدهند. #دریفوس میگفت قائلشدن به چنین تواناییای برای کامپیوترها، لغزشگاهی در برابر هوش مصنوعی قرار میدهد که او معضل بافتار کلگرا (holistic context) نامید. معضلی که همچنان بمثابه یک چالش کلیدی در برابر هوش مصنوعی – قوی و ضعیف – و نیز #علوم_شناختی محاسباتی باقی مانده است.
🖥 یک مربی مهدکودک یا یک مادر در مواجهه با رفتار لجبازانه یکی از بچهها در موقعیتی خاص، ممکن است واکنشی داشته باشد که با واکنش در برابر رفتار مشابه همان بچه در موقعیتی دیگر یا در برابر رفتار مشابه بچهای دیگر در همان موقعیت متفاوت باشد. این نوعی معرفت چگونگی است که از سنخ معرفت گزارهای و مفهومی نیست و بیشتر بر تجربیات پدیداری آن مادر یا مربی تکیه دارد و بسیار وابسته به کانتکست عمل میکند.
🖥 البته این ادعا که مردم در فعالیتهای روزمرهشان دستورالعملهای گزارهای را پیاده نمیکنند، همواره معضلی در برابر هوش مصنوعی و نظریه محاسباتی بوده است. این انتقاد در قالبهای متنوع از سوی فیلسوفان مختلف – از ویتکنشتاین و کواین تا دریفوس و سرل و دیگران - مطرح شده و بر تمایز بین توصیف و علیت، و همچنین بین پیشبینی و تبیین دست میگذارد.
🖥 یک دسته از قوانین (یا بنحو منطقیتر، یک برنامه کامپیوتری) باید یک پدیده شناختی را به اندازه کافی توصیف نماید. آنها باید تمامی دادههای تجربی را متناسبسازی کرده و پیشبینیهای درست را بسازند. اما این بدان معنا نیست که یک بازنمایی کدگذاریشده از قوانین (یا برنامه) درون سر ما وجود دارد که بنحوی علی درگیر تولید پدیده است.
برای مثال، گروهی از قوانین گرامری G میتوانند بنحوی درست، قیود خاص موجود در نحو زبان انگلیسی را توصیف نمایند. ولی این بدان معنا نیست که گویندگان زبان انگلیسی یک کدگذاری از قوانین G درون مغزهایشان دارند که باعث تولید سخن مطابق G از سوی آنها میشود. بنابراین با اینکه G میتواند بدرستی رفتار زبانی انسانها را پیشبینی نماید، اما ضرورتاً آن را توضیح نمیدهد.
@PhilMind