اندیشکده حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی عنوان مقاله: "حکمرانی هوش مصنوعی در کانادا: یافتهها و فرصتها از بررسی ۸۴ ابتکار حکمرا
مهمترین نکات مقاله:
"حکمرانی هوش مصنوعی در کانادا: یافتهها و فرصتها از بررسی ۸۴ ابتکار حکمرانی هوش مصنوعی"
پیشگامی کانادا در حکمرانی هوش مصنوعی: کانادا در سال ۲۰۱۷ اولین کشور بود که یک استراتژی ملی برای هوش مصنوعی تعریف کرد. در این راستا، تلاشها در سطح ملی و استانی با هدف تقویت تحقیقات، نوآوری و هدایت کاربردهای هوش مصنوعی با تاکید بر اخلاق و چندذینفعی صورت گرفته است.
تمرکز بر نوآوری و صنعت: در بررسی این ۸۴ ابتکار، بسیاری از پروژهها به ارتقای صنعت و نوآوری و تولید و استفاده از فناوریهای هوش مصنوعی اختصاص دارند. به عنوان مثال، برنامههای مرتبط با استراتژی پان-کانادایی هوش مصنوعی توسط موسسه پژوهشی CIFAR برای ارتقاء پژوهش، نوآوری و آموزش در حوزه هوش مصنوعی تأسیس شدهاند.
توزیع ابتکارات و عدم تمرکز بر آموزش و زیرساختهای دیجیتال: در حالی که بخش عمدهای از این پروژهها در حوزه صنعت و نوآوری متمرکز شدهاند، توجه کمتری به آموزش و زیرساختهای دیجیتال اختصاص یافته است. این عدم تمرکز میتواند به عدم تعادل در کاربردهای اجتماعی و آموزشی هوش مصنوعی منجر شود.
چالشهای اعتماد عمومی و شفافیت: در میان ابتکارات، برخی چالشها از جمله عدم شفافیت کافی و مشارکت عمومی در طراحی و پیادهسازی پروژهها شناسایی شده است. به عنوان مثال، برخی ابتکارات فاقد معیارهای دقیق برای سنجش موفقیت بوده و اطلاعات کافی دربارهی نتایج و اثربخشی آنها منتشر نمیشود.
تاکید بر حاکمیت دادهها و حریم خصوصی: حفاظت از دادهها و حریم خصوصی از مسائل مهم در حکمرانی هوش مصنوعی کانادا بوده و سیاستها و قوانینی مانند "قانون منشور دیجیتال" برای تنظیم فعالیتها در این زمینه اجرا شدهاند. اما به نظر میرسد برخی از این قوانین، نظیر "قانون اجرای منشور دیجیتال"، هنوز به اصلاحات و شفافیت بیشتر نیاز دارند.
فرصتها برای پژوهش و عملیاتیسازی بهتر: مقاله فرصتهایی را برای پژوهشگران و سیاستگذاران مطرح میکند، از جمله:
تمرکز بر سنجش نتایج و اثربخشی ابتکارات برای اطمینان از تحقق اهداف
افزایش تعاملات با عموم مردم در فرآیندهای طراحی و اجرای ابتکارات
گسترش دامنهی تاثیرات اجتماعی و محیط زیستی هوش مصنوعی
نیاز به یک رویکرد ملی یکپارچهتر: این مقاله توصیه میکند که کانادا برای بهبود هماهنگی و همکاری بین استانها و ارگانهای مختلف، به سمت یک رویکرد ملی و یکپارچهتر حرکت کند تا بتواند در پاسخگویی به چالشها و استفاده از فرصتهای ناشی از هوش مصنوعی موفقتر عمل کند.
#مقاله #مقالهخوانی
ایتا | بله | روبیکا
🆔 @AiGovernance
تلگرام
🆔 @AiGovernanc
2311.10054v3.pdf
1.25M
یک مقاله جالب که در کنفرانس EMNLP ۲۰۲۴ منتشر شده ، تاثیر شخصیت (Persona) در پرامپت را بررسی کرده و نتایج جالبی به دست آورده.
عنوان مقاله : وقتی "یک دستیار مفید" واقعاً مفید نیست: چگونه شخصیتها در پیامهای سیستمی (system prompt) بر عملکرد مدلهای زبانی بزرگ تأثیر میگذارند.
#مقاله
#مقالهخوانی
ایتا | بله | روبیکا
🆔 @AiGovernance
تلگرام
🆔 @AiGovernanc
اندیشکده حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
یک مقاله جالب که در کنفرانس EMNLP ۲۰۲۴ منتشر شده ، تاثیر شخصیت (Persona) در پرامپت را بررسی کرده
عنوان مقاله با این مضمون: وقتی "یک دستیار مفید" واقعاً مفید نیست: چگونه شخصیتها در پیامهای سیستمی (system prompt) بر عملکرد مدلهای زبانی بزرگ تأثیر میگذارند.
سوالهایی که این مقاله سعی کرده جواب بده:
آیا برخی شخصیتها پاسخهای بهتری میدهند؟آیا چارچوب پیامها بر عملکرد مدل تأثیر میگذارد - آیا بهتر است مدل یک دانشآموز باشد یا با یک دانشآموز صحبت کند؟آیا برخی شخصیتها بهتر از بقیه هستند؟چرا برخی شخصیتها به دقت بالاتر منجر میشوند؟اگر بتوانیم "شخصیت مناسب" را برای پرسیدن سوال انتخاب کنیم چه؟
پیامها نحوه ارتباط ما با مدلهای زبانی بزرگ (LLM) هستند. بسیاری از سیستمها، مانند ChatGPT، از یک پیام سیستم پیشفرض استفاده میکنند: "شما یک دستیار مفید هستید." اما آیا افزودن یک شخصیت واقعاً عملکرد LLM را بهبود میبخشد؟
این مطالعه ارزیابی میکند که چگونه افزودن شخصیتها (مانند دستیار مفید، متخصص، دوست و غیره) بر عملکرد LLM تأثیر میگذارد.
محققان 162 شخصیت را تعریف کردند که شامل 6 نوع رابطه (مانند دوست، مربی) و 8 حوزه تخصصی (مانند علم، مالی) میشوند. هر شخصیت برای بررسی اینکه آیا دقت واقعی را بهبود میبخشد، آزمایش شد.
نتایج: هیچ مزیت روشنی نداشت.
افزودن شخصیتها به پیامهای سیستم به طور مداوم عملکرد مدل را افزایش نداد. LLMها هنگام دریافت سوالات واقعی با و بدون پیام شخصیت، عملکرد مشابهی داشتند.
با این حال، این مطالعه نشان داد که ویژگیهای شخصیت - مانند جنسیت، نوع رابطه و حوزه - میتواند بر نتایج تأثیر بگذارد. برخی از شخصیتها در زمینههای خاص افزایش جزئی دقت را نشان دادند.
تیم استراتژیهای مختلفی را امتحان کردند، حتی نتایج را از "بهترین شخصیت" برای هر سوال جمعآوری کردند. این کار دقت را بهبود بخشید اما همچنان با چالشهایی روبرو بود: پیشبینی شخصیت ایدهآل همچنان به اندازه پرتاب سکه تصادفی است!
در حالی که برخی از شخصیتها مزایای جزئی ارائه میدهند، اثر آن به طور کلی غیرقابل پیشبینی است. افزودن یک شخصیت تضمینکننده نتایج بهتر نیست - یافتن "شخصیت مناسب" یک چالش بزرگ است.
در مجموع، اختصاص شخصیتها در پیامهای سیستم مسیر روشنی برای بهبود عملکرد LLM نیست. ممکن است گاهی کار کند، اما اثر آن تا حد زیادی تصادفی است.
#مقاله
#مقالهخوانی
ایتا | بله | روبیکا
🆔 @AiGovernance
تلگرام
🆔 @AiGovernanc
چرا سوگیریهای شناختی در هوش مصنوعی اهمیت دارند؟
🧠 هوش مصنوعی، بهعنوان بازتابی از دادهها و تصمیمات انسانی، ممکن است همان سوگیریهایی را که در ذهن انسانها وجود دارد، بازتولید کند. این سوگیریها، که بهعنوان سوگیریهای شناختی شناخته میشوند، میتوانند به تصمیمات ناعادلانه و حتی تقویت نابرابریها منجر شوند.
📊 چه نوع سوگیریهایی در هوش مصنوعی دیده میشود؟
1️⃣ سوگیری دادهها: دادههای آموزشی ناکافی یا غیردقیق ممکن است به پیشبینیهای اشتباه منجر شوند.
2️⃣ سوگیری الگوریتمی: طراحی یا انتخاب الگوریتمها میتواند نتایج را بهسمت نابرابری هدایت کند.
3️⃣ سوگیری تأییدی: مدلها به دادههایی که فرضیات موجود را تأیید میکنند، اولویت میدهند.
4️⃣ سوگیری نمایش: اگر ویژگیهای خاصی در دادهها بهاندازه کافی نمایش داده نشوند، مدلها نمیتوانند بهخوبی تعمیم دهند.
🚨 چرا مهم است؟
این سوگیریها نهتنها میتوانند تصمیمات اشتباه را تقویت کنند، بلکه اعتماد عمومی به فناوری را نیز تضعیف میکنند.
📢 به این سوال فکر کنید: آیا هوش مصنوعی میتواند واقعاً بیطرف باشد؟
#هوش_مصنوعی #سوگیری_شناختی #الگوریتم_عادلانه #تکنولوژی_اخلاقی
#مقاله
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
https://eitaa.com/AIGovernance
https://ble.ir/aigovernance
https://rubika.ir/aigovernance
https://t.me/AiGovernanc
چطور سوگیریها در هوش مصنوعی ایجاد میشوند؟
📚 هوش مصنوعی بر اساس دادههای انسانی آموزش میبیند. این دادهها میتوانند شامل پیشداوریهای اجتماعی، فرهنگی و تاریخی باشند. به همین دلیل:
1️⃣ مدلهای استخدام ممکن است مردان را به زنان ترجیح دهند.
2️⃣ سیستمهای قضایی مبتنی بر هوش مصنوعی ممکن است احکام ناعادلانه صادر کنند.
3️⃣ الگوریتمهای تبلیغاتی ممکن است کلیشههای جنسیتی یا نژادی را بازتولید کنند.
💡 هوش مصنوعی، اگرچه پیشرفته به نظر میرسد، اما به جای "فکر کردن" به شناسایی الگوهای آماری محدود است.
📊 یک مثال قابل توجه:
سیستم استخدامی آمازون که به دلیل ترجیح دادن مردان، کنار گذاشته شد. دلیل؟ دادههای آموزشیاش از الگوهای گذشته الهام گرفته بود.
⚠️ نتیجهگیری: سوگیریهای موجود در دادهها میتوانند به سوگیری در تصمیمات هوش مصنوعی تبدیل شوند.
#داده_آموزشی #توسعه_اخلاقی #هوش_مصنوعی_شفاف #شفافیت_داده
#مقاله
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
https://eitaa.com/AIGovernance
https://ble.ir/aigovernance
https://rubika.ir/aigovernance
https://t.me/AiGovernanc
✨ آیا راهحلی برای کاهش سوگیریهای هوش مصنوعی وجود دارد؟
✅ بله! محققان و متخصصان پیشنهادهای متنوعی ارائه کردهاند:
1️⃣ طراحی دادههای متنوع و جامع: دادهها باید نمایانگر تمام گروهها و جمعیتها باشند.
2️⃣ الگوریتمهای شفاف: مدلهایی که تصمیماتشان قابل توضیح باشد، اعتماد بیشتری ایجاد میکنند.
3️⃣ نظارت مستمر: پس از اجرای مدلها، عملکردشان باید ارزیابی و تنظیم شود.
4️⃣ همکاری بینرشتهای: متخصصان فناوری، اخلاق و قانون باید با هم کار کنند.
📢 چشمانداز آینده:
یک اکوسیستم قابل اعتماد که از شفافیت، اخلاق و عدالت حمایت میکند. آیا این هدف قابل دستیابی است؟ شما چه فکر میکنید؟
#داده_آموزشی #توسعه_اخلاقی #هوش_مصنوعی_شفاف #شفافیت_داده
#مقاله
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
https://eitaa.com/AIGovernance
https://ble.ir/aigovernance
https://rubika.ir/aigovernance
https://t.me/AiGovernanc
چرا سوگیریهای هوش مصنوعی مسئلهای جهانی است؟
⚖️ سوگیریهای هوش مصنوعی میتوانند نابرابریهای اجتماعی را افزایش دهند:
در سیستمهای قضایی: تصمیمات ناعادلانه علیه گروههای خاص.
در خدمات مالی: عدم تخصیص وام به افراد کمدرآمد.
در پزشکی: ارائه درمانهای نابرابر برای گروههای مختلف.
🔗 پیامدهای اخلاقی:
عدم توجه به این مسائل میتواند اعتماد عمومی را به فناوری تضعیف کند و چالشهای قانونی و اجتماعی ایجاد کند.
📢 راهحل چیست؟
با افزایش آگاهی عمومی و ایجاد قوانین جامع، میتوان هوش مصنوعی را به ابزاری عادلانه تبدیل کرد.
#داده_آموزشی #توسعه_اخلاقی #هوش_مصنوعی_شفاف #شفافیت_داده
#مقاله
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
https://eitaa.com/AIGovernance
https://ble.ir/aigovernance
https://rubika.ir/aigovernance
https://t.me/AiGovernanc
چالشهای اخلاقی سوگیری در هوش مصنوعی
🔍 چه کسانی مسئول هستند؟
1️⃣ توسعهدهندگان فناوری: اطمینان از طراحی سیستمهای عادلانه.
2️⃣ سیاستگذاران: ایجاد قوانین شفاف برای کنترل فناوری.
3️⃣ کاربران: بررسی نتایج و بازخورد دادن.
💡 چرا این مهم است؟
هوش مصنوعی نباید ابزاری برای تقویت نابرابریها باشد. تنها با یک تلاش جمعی میتوانیم آیندهای شفافتر و عادلانهتر بسازیم.
✨ چشمانداز: هوش مصنوعی، نهتنها پیشرفته بلکه اخلاقی.
#داده_آموزشی #توسعه_اخلاقی #هوش_مصنوعی_شفاف #شفافیت_داده
#مقاله
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
https://eitaa.com/AIGovernance
https://ble.ir/aigovernance
https://rubika.ir/aigovernance
https://t.me/AiGovernanc
Artificial Intelligence.pdf
369.3K
برای اطلاعات بیشتر: مقالهای جامع در این زمینه، منتشر شده در Journal of Innovation Economics & Management، شماره 44 (2024).
عنوان انگلیسی مقاله:
Artificial Intelligence and Cognitive Biases: A Viewpoint
عنوان فارسی مقاله:
هوش مصنوعی و سوگیریهای شناختی: یک دیدگاه
خلاصه مقاله و موضوع:
این مقاله به بررسی سوگیریهای شناختی در هوش مصنوعی میپردازد و نشان میدهد که چگونه این سوگیریها، که ناشی از دادهها و تصمیمگیریهای انسانی هستند، میتوانند در الگوریتمهای هوش مصنوعی ظاهر شوند و به تقویت نابرابریهای اجتماعی منجر شوند. نویسندگان به سوگیریهایی مانند سوگیری دادهها، سوگیری الگوریتمی، و سوگیری تأییدی اشاره میکنند و راهکارهایی مانند طراحی دادههای جامع، شفافیت الگوریتمها، و نظارت مستمر را برای کاهش این مشکلات پیشنهاد میدهند. مقاله تأکید دارد که حل این چالش نیازمند همکاری بینرشتهای، نظارت قانونی، و تعهد به اصول اخلاقی در توسعه هوش مصنوعی است.
موضوع اصلی مقاله:
تأثیر سوگیریهای شناختی بر عملکرد هوش مصنوعی و راهکارهای مقابله با آن برای ایجاد سیستمهای عادلانه و شفاف.
#داده_آموزشی #توسعه_اخلاقی #هوش_مصنوعی_شفاف #شفافیت_داده
#مقاله
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
https://eitaa.com/AIGovernance
https://ble.ir/aigovernance
https://rubika.ir/aigovernance
https://t.me/AiGovernanc
Storm AI
⭕️ قویترین هوش مصنوعی برای نوشتن مقاله! Storm Ai
✍️ این هوش مصنوعی حدود چند دقیقه تایتل و موضوع شمارو پردازش و تحلیل میکنه و بعد از اون یه مقاله از دقیقترین منابع موجود در اینترنت ارائه میده!
✔️ نتیجه، متنی بینقص و قابلقبول؛ البته زبانش انگلیسیه که با ChatGPT یا Gemini خیلی راحت میتونی ترجمه دقیق بکنی!
✅ فرقی نمیکنه مقاله شما تو حوزه مهندسی، علوم انسانی یا علوم پایه باشه...!
✅ یکی از بزرگترین مشکلات در نگارش مقالات علمی، مدیریت منابع و رفرنسدهیه که این ابزار حلش کرده ؛)
https://storm.genie.stanford.edu/
با این هوش مصنوعی گزارشی مشابه ویکی پدیا در مورد موضوع خود دریافت کنید.
#ابزار
#مقاله
#storm
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
🆔 @AIGovernance
t.me/AiGovernanc
AIChatbot.pdf
110.8K
برای نمونه از هوش مصنوعی storm خواسته ام که با موضوع چت باتهای هوش مصنوعی یک مقاله تولید نماید.
و هدف آن مقاله را بررسی آینده چت بات ها گذاشته ام.
در کمتر از پنج دقیقه برای من نمونه بالا را تولید کرد
همه منابع را هم نوشته است .
فقط زبان انگلیسی هست که راحت می توانیم آن را توسط چت جی پی تی ترجمه نماییم .
#چتباتها
#مقاله
#ابزار
#storm
🔻🔻🔻حکمرانی هوشمند🔻🔻🔻
🆔 @AIGovernance
t.me/AiGovernanc
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
👌دوره رایگان کاربرد هوش مصنوعی در مقاله نویسی، پایان نامه نویسی و پروپوزال نویسی
😊این دوره برای تمامی دانشجویان، پژوهشگران، اساتید و علاقمندان به نشر #مقاله و مستندات علمی، #مفید و #موثر است.
🌟مدرس: دکتر محمد همت
"جز یک درصد دانشمندان برتر جهان"
💥ثبت نام به صورت #رایگان می باشد.
💐💐لطفا این پست را #سخاوتمندانه برای کسانی که حضور در دوره برایشان مفید است، #ارسال کنید.
💢لینک ثبت نام رایگان دوره:
https://formafzar.com/form/zk2qy
⏱زمان: جمعه ۱۹ بهمن؛ ساعت ۱۸
#دکترهمت
#مقاله_نویسی
○┈••••✾•🍀💐☘️•✾•••┈○
کانال دکتر همت در ایتا و تلگرام
🆔 @dr_hemmatt
ایتا | بله | روبیکا
🆔 @AiGovernance
تلگرام
🆔 @AiGovernanc