eitaa logo
فلسفه ذهن
956 دنبال‌کننده
140 عکس
69 ویدیو
21 فایل
محتوای تخصصی در حوزه #فلسفه_ذهن و فلسفه #علوم_شناختی توسط: مهدی همازاده ابیانه @MHomazadeh عضو هیات علمی موسسه حکمت و فلسفه ایران با همکاری هیئت تحریریه
مشاهده در ایتا
دانلود
🔴 دریفوس در برابر استدلال می‏ کند که توانایی ما در شناخت جهان و دیگر مردمان، یک نوع مهارت غیر توصیفی از سنخ دانستنِ چگونگی (know-how) ‌است که قابل تقسیم به کدگذاری‏ و برنامه‏ نویسی و ... نیست. انسان‏ها این توانایی را دارند که براساس تجربه در هر موقعیت به نحوی معقول و متناسب رفتار کنند؛ بدون آن‌که نیاز داشته باشند در فعّالیت‏های روزمرّه‏ شان بدنبال پیروی از دستورالعمل‏ها بروند. 🔵 هرچه بسمت کارکردهای تجربه‌ای‌تر برویم (مثلاً کارکرد تربیتی)، این تمایز بیشتر آشکار می‌شود. مربّی در هر لحظه و در مواجهه با هر رفتار کودک، به فراخور تجربه‌ای که از تعامل با او و سایر کودکان اندوخته و برحسب ادراک درونی که از نوع واکنش کودک در آن لحظه دارد، تصمیم خاصّی می‌گیرد که می‌تواند کاملاً موردی باشد. این قبیل مهارت‏ها غیر قابل بیان و پیشا مفهومی‏ اند و یک بُعد ضروری دارند که نمی‏ تواند بوسیله هیچ سیستم قاعده‌مندی به تصویر درآید. 🔴 دریفوس حتّی تأکید داشت که شاید هیچ دسته واقعیت‏های رها از کانتکست (Context-free) وجود نداشته باشد که شیوه‌های رفتاری را مشخّص نماید و ما باید فقط از تجربیات وسیع خود بیاموزیم که چطور به هزاران مورد معمول و رایج، پاسخ بدهیم. 🔵 او همچنین بر اهمیت ظرفیت‏هایی مانند تخیّل و بکارگیری استعاره و ... تأکید می‏ کرد که همگی در مقابل تلقّی محاسباتی قرار دارند. (Dreyfus, 1999, What Computers Still Can't Do, p. xxvii.) 🔴 آن‌هایی که انتقاد به GOFAI (هوش مصنوعی کلاسیک) را جدّی می‌گیرند، می‌توانند همانند خود وی برخی تردیدهای مشابه را درباره رویکرد (Connectionism) هم داشته باشند. 🔵 کار در حوزه تقویت یادگیری شبکه‎‌های پیوندگرا بر مسائل محدودی تمرکز دارد. رفتارها البته می‌توانند تعریف شوند و به آسانی تمایز یابند، ولی هوش با رفتارهایی سر و کار دارد که دسته‌بندی مناسب آن‌ها وابسته به شرایط و کانتکست است. روال رایج در مصنوعی که مستلزم دسته‌بندی‌های ساده رفتارهاست، یک عنصر اساسی هوش را دور می‌زند و نادیده می‌گیرد؛ یعنی یادگیری این که چطور شرایط و کانتکست، بر اهمیت و معنای رفتار تأثیر می‌گذارد. (Robinson, 2014, The Cambridge Handbook of Artificial Intelligence, pp. 101-102.) مهمترین مباحث فلسفی درباره ذهن/نفس و علوم شناختی را اینجا ببینید: https://eitaa.com/joinchat/183304263Cbe50a0e2d9
🖥 برخی مهندسان و پژوهشگران علاقه چندانی به مباحث وجودشناختی AI ندارند و در بین مباحث ، حداکثر مسائل را بدلیل آن‌که اوّلاً کاربردی‌تر می‌یابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشم‌اندازهای آتی را به چالش نمی‌کشد، ترجیح می‌دهند. 🖥 این اتفاق البته در میان مهندسان در کشورمان بنحوی شایع‌تر و جدی‌تر وجود دارد و تعاملات بینارشته‌ای فلسفی – فنّی که بین برخی دپارتمان‌ها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده می‌شود در کشور ما تقریباً هیچ نمونه‌ای (ولو تقلیل‌یافته) ندارد. 🎖درباره ضرورت توجه به متافیزیک هوش مصنوعی می‌توان به تأثیر متقابل علمی و تئوریک اشاره کرد. تأملات فلسفی چه در زمانی که رویکرد کلاسیک دیجیتال در پی برنامه‌نویسی‌های کامپیوتری بود و چه در زمانی که نظریات محاسباتی جدید در یا تئوری‌های به کار گرفته شد، در هر دو جنبه ارائه‌ تئوری‌های ایجابی برای ساخت هوش مصنوعی و هم در نقد و نقض آن‌ها فعال بوده‌اند. 🎖نظریه محاسباتی کلاسیک ذهن (CCTM) که بعدها توسط فودور – فیلسوف ذهن دانشگاه راتگرز - با نظریه بازنمودگرایی تلفیق گردید، زمینه و پایه تولیدات فنّی و پژوهش‌های دهه 70 پیرامون هوش مصنوعی را شکل داد. کما این‌که تأملات و انتقادات امثال هابرت (درباره حسّ عمومی و مرتبط بودن) و (درباره درک زبانی)، چالش‌هایی جدّی پیش روی تئوری‌ها و تکنیک‌های ساخت هوش مصنوعی قرار داد. این تعاملات فلسفی – فنّی با زمستان هوش مصنوعی در دهه 80 و ورشکستگی کمپانی‌ها تکمیل شد و دوره جدیدی را با تئوری‌هایی متفاوت رقم زد. 🎖در دوره جدید نیز تئوری‌های پیوندگرایی و بدن‌مندی با چالش‌هایی جدی از سوی فیلسوفان مواجه بوده‌اند. دریفوس در دهه 70 و در مقاله پر ارجاع What Computers Can't Do استدلال می‏کرد که توانایی ما در تعامل با دیگران، یک نوع مهارت غیر توصیفی و تجربه‌ای از سنخ دانستنِ چگونگی (know how)‌ و دانستنِ گزاره‌ای است که قابل تقلیل به کدگذاری‏های گزاره‏ای در برنامه‏نویسی نیست. 🎖او در سال 1999 و در کتاب What Computers Still Can't Do توانایی شبکه‏های نورونی پیوندگرا که بر پایه دسته‌بندی رفتارها برنامه‌ریزی می‌شود را نیز به چالش کشید. دستگاه‌های پیوندگرا قادر به تعمیم هستند و هرگاه با یک الگوی ورودی جدید - که از نوع الگوی تمرین‌شده قبلی است – مواجه می‌شوند، خروجی‌ای مشابه تولید خواهند کرد. دریفوس و حامیانش اما اشکال مرتبط بودن را در این‌جا نیز تکرار می‌کنند: «از یک نوع بودن» در دسته‌بندی و تعمیم رفتارها را چه چیزی مشخّص می‏کند؟ به اعتقاد این‌ها مدل‌سازی نمی‌تواند جلوی تعمیم‌های ناجور و بی‌جا را بگیرد. کما این‌که اشکال اتاق چینی سرل درباره درک زبانی کامپیوترهای دیجیتال، در برابر شبکه‌های پیوندگرا نیز قابل بازسازی است و پاسخ روبات وی (Robot Reply) هم در برابر رویکرد بدن‌مندی. 🎖توجه به مباحث فلسفی هوش مصنوعی نه تنها اشکالات و نواقص نظریه‌های رایج در ساخت روبات‌ها را گوشزد می‌کند، بلکه حتی می‌تواند به رویکردهای جدیدی در تولید بینجامد. از جمله نظریه آگاهی در که زمینه را برای امکان و بلکه شیوه تولید در شبکه‌های نورونی مصنوعی متناسب با شبکه‌های نورونی طبیعی، فراهم می‌آورد. @PhilMind
11.38M حجم رسانه بالاست
مشاهده در ایتا
🔥این👆بخشی از گفتگوی سبحاش کاک - رییس دپارتمان علوم کامپیوتر دانشگاه اوکلاهاما آمریکا - است که ۱۰ روز قبل منتشر شده و اینجا ترجمه کرده‌ایم. 🔥کاک بعنوان متخصص توضیح می‌دهد که چرا متد محاسباتی (هرچقدر هم حجیم و پیچیده بشود)، نمی‌تواند به تولید بینجامد. او البته را در قالب ماشین‌های بیولوژیک (که احتمالا در آینده جایگزین روش ساخت ماشین‌های غیر بیولوژیک فعلی خواهد شد)، امکان‌پذیر می‌داند. هرچند براساس دیدگاه اعتقاد دارد آگاهی ماشین‌های بیولوژیک (از جمله ) در سطحی غیرفیزیکی از سطح بیولوژیک جهش می‌کند و ظهور می‌یابد. 🔥توضیحاتی که کاک در مورد تعارض دستورالعمل‌های منطقی علوم کامپیوتر با جنبه‌های جمع‌الاضدادی آگاهی می‌دهد، بیانی دیگر از استدلال معروف حس عمومی/ مسئله چارچوب از هیوبرت است که می‌گفت تجربه آگاهانه جنبه‌ای پیشامفهومی دارد که فراچنگ گزاره‌ها و دستورالعمل‌های نمی‌آید. @PhilMind
🖥 نول و سیمون در 1957 نسخه به‌روز از برنامه کامپیوتری «نظریه منطق» را با نام «حل مسئله عمومی» عرضه کردند که تکنیک‏های جستجوگر بازگشتی را برای حل مسائل ریاضیاتی به کار می‏گرفت. نظریه منطق و حل مسئله عمومی، توانایی یافتن اثبات‏هایی برای بسیاری قضایا در کارهای اولیه برتراند راسل و آلفرد وایتهد در نظریه مجموعه‏ها را دارا بود. 🖥 این موفقیت‏ها‌ سیمون و نول را بر آن داشت تا در مقاله 1958 خویش با عنوان Heuristic Problem Solving بگویند: «هم‏اینک ماشین‏هایی بر روی زمین وجود دارند که "فکر می‏کنند"، "یاد می‏گیرند" و "خلق می‏کنند". علاوه بر این، توانایی آن‏ها برای انجام چنین کارهایی بسرعت در حال افزایش است، تا این‏که در آینده‏ای نزدیک،‌ طیف مسائلی که می‏توانند رسیدگی کنند، با طیف مسائلی که ذهن انسانی بکار گرفته، برابری خواهد کرد» و یک دهه بعد، سیمون پیش‏بینی کرد که تا سال 1985 «ماشین‏ها توانایی انجام هرکاری که انسان‏ها انجام می‏دهند را خواهند داشت» (Kurtzweil, 1999, The Age of Spiritual Machines; When Computers Exceed Human Intelligence, p. 58). 🖥 در طول دهه 60، حوزه آکادمیک کار بر روی دستورالعملی را آغاز کرد که آلن برای نیم قرن بعدی پیشنهاد کرده بود. کارهایی که نتایجی بعضاً دلگرم‏کننده و بعضاً ناامیدکننده به دنبال داشت. برنامه دنیل بابرو می‏توانست مسائل جبر را از زبان طبیعی حل کند و آزمون‏های ریاضیات دبیرستان را بخوبی پشت سر بگذارد. مشابه همین موفقیت برای برنامه توماس ایونس گزارش شده که می‏توانست مسائل قیاس هندسی را در آزمون آی‏کیو حل نماید. حوزه سیستم‏های کارشناسی نیز با سیستم DENDRAL ساخته ادوارد فیجنبام آغاز شد که می‏توانست پرسش‏ها درباره ترکیبات شیمیایی را پاسخ گوید. 🖥 با فاصله کمی اما انتقادات گسترده‏ای وارد شد که ناتوانی این برنامه‌ها برای انجام واکنش‏های بجا در محیط‏های متنوع را هدف می‏گرفت. دیگر مشخص شده بود مسائلی که همگان فکر می‏کردند مشکل باشند، از حل قضایای ریاضیاتی و بازی ماهرانه شطرنج گرفته تا استدلال در حوزه‏هایی مانند شیمی و داروسازی،‌ آسان بودند و کامپیوترهای دهه 60 و 70 با چندهزار فرمان در ثانیه، غالباً می‏توانستند نتایج رضایت‏بخشی را در این زمینه‏ها فراهم آورند. مسئله گریزپا اما مهارت‏هایی بود که هر بچه پنج‏ساله هم داراست؛ مثل درک یک کارتون انیمیشینی. 🖥 تأکیدی که یکی از مهم‌ترین منتقدین - هیوبرت دریفوس - بر اهمیت «ارتباط» قائل بود، موضوعیت توانایی انسان در تشخیص امر ذاتی از غیر ذاتی را برجسته می‌کرد. این‏که انسان‌ها می‏توانند بدون زحمت براساس خویش در هر موقعیت مرتبط، واکنشی درخور ارائه بدهند. می‌گفت قائل‏شدن به چنین توانایی‏ای برای کامپیوترها، لغزشگاهی در برابر هوش مصنوعی قرار می‏دهد که او معضل بافتار کل‌گرا (holistic context) نامید. معضلی که همچنان بمثابه یک چالش کلیدی در برابر هوش مصنوعی – قوی و ضعیف – و نیز محاسباتی باقی مانده است. 🖥 یک مربی مهدکودک یا یک مادر در مواجهه با رفتار لجبازانه یکی از بچه‌ها در موقعیتی خاص، ممکن است واکنشی داشته باشد که با واکنش در برابر رفتار مشابه همان بچه در موقعیتی دیگر یا در برابر رفتار مشابه بچه‌ای دیگر در همان موقعیت متفاوت باشد. این نوعی معرفت چگونگی است که از سنخ معرفت گزاره‌ای و مفهومی نیست و بیشتر بر تجربیات پدیداری آن مادر یا مربی تکیه دارد و بسیار وابسته به کانتکست عمل می‌کند. 🖥 البته این ادعا که مردم در فعالیت‏های روزمره‏شان دستورالعمل‏های گزاره‌ای را پیاده نمی‏کنند، همواره معضلی در برابر هوش مصنوعی و نظریه محاسباتی بوده است. این انتقاد در قالب‏های متنوع از سوی فیلسوفان مختلف – از ویتکنشتاین و کواین تا دریفوس و سرل و دیگران - مطرح شده و بر تمایز بین توصیف و علیت،‌ و همچنین بین پیش‏بینی و تبیین دست می‏گذارد. 🖥 یک دسته از قوانین (یا بنحو منطقی‎‏تر، یک برنامه کامپیوتری) باید یک پدیده شناختی را به اندازه کافی توصیف نماید. آن‏ها باید تمامی داده‏های تجربی را متناسب‏سازی کرده و پیش‏بینی‏های درست را بسازند. اما این بدان معنا نیست که یک بازنمایی کدگذاری‏شده از قوانین (یا برنامه) درون سر ما وجود دارد که بنحوی علی درگیر تولید پدیده است. برای مثال، گروهی از قوانین گرامری G می‏توانند بنحوی درست، قیود خاص موجود در نحو زبان انگلیسی را توصیف نمایند. ولی این بدان معنا نیست که گویندگان زبان انگلیسی یک کدگذاری از قوانین G درون مغزهایشان دارند که باعث تولید سخن مطابق G از سوی آن‏ها می‏شود. بنابراین با این‏که G می‏تواند بدرستی رفتار زبانی انسان‌ها را پیش‏بینی نماید، اما ضرورتاً آن را توضیح نمی‌دهد. @PhilMind