eitaa logo
اندیشکده حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
3.4هزار دنبال‌کننده
1.4هزار عکس
365 ویدیو
42 فایل
آخرین اخبار مقاله ها ویدئوهای آموزشی کاربردی آخرین دستاوردها طرح های پژوهشی دوره‌های آموزشی کنفرانس ها، سمینارها، کارگاه‌های آموزشی‌، رویدادها #هوش_مصنوعی ارتباط با ادمین : @AIGovernanceAdmin
مشاهده در ایتا
دانلود
اندیشکده حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی عنوان مقاله: "حکمرانی هوش مصنوعی در کانادا: یافته‌ها و فرصت‌ها از بررسی ۸۴ ابتکار حکمرا
مهم‌ترین نکات مقاله: "حکمرانی هوش مصنوعی در کانادا: یافته‌ها و فرصت‌ها از بررسی ۸۴ ابتکار حکمرانی هوش مصنوعی" پیشگامی کانادا در حکمرانی هوش مصنوعی: کانادا در سال ۲۰۱۷ اولین کشور بود که یک استراتژی ملی برای هوش مصنوعی تعریف کرد. در این راستا، تلاش‌ها در سطح ملی و استانی با هدف تقویت تحقیقات، نوآوری و هدایت کاربردهای هوش مصنوعی با تاکید بر اخلاق و چندذینفعی صورت گرفته است. تمرکز بر نوآوری و صنعت: در بررسی این ۸۴ ابتکار، بسیاری از پروژه‌ها به ارتقای صنعت و نوآوری و تولید و استفاده از فناوری‌های هوش مصنوعی اختصاص دارند. به عنوان مثال، برنامه‌های مرتبط با استراتژی پان-کانادایی هوش مصنوعی توسط موسسه پژوهشی CIFAR برای ارتقاء پژوهش، نوآوری و آموزش در حوزه هوش مصنوعی تأسیس شده‌اند. توزیع ابتکارات و عدم تمرکز بر آموزش و زیرساخت‌های دیجیتال: در حالی که بخش عمده‌ای از این پروژه‌ها در حوزه صنعت و نوآوری متمرکز شده‌اند، توجه کمتری به آموزش و زیرساخت‌های دیجیتال اختصاص یافته است. این عدم تمرکز می‌تواند به عدم تعادل در کاربردهای اجتماعی و آموزشی هوش مصنوعی منجر شود. چالش‌های اعتماد عمومی و شفافیت: در میان ابتکارات، برخی چالش‌ها از جمله عدم شفافیت کافی و مشارکت عمومی در طراحی و پیاده‌سازی پروژه‌ها شناسایی شده است. به عنوان مثال، برخی ابتکارات فاقد معیارهای دقیق برای سنجش موفقیت بوده و اطلاعات کافی درباره‌ی نتایج و اثربخشی آن‌ها منتشر نمی‌شود. تاکید بر حاکمیت داده‌ها و حریم خصوصی: حفاظت از داده‌ها و حریم خصوصی از مسائل مهم در حکمرانی هوش مصنوعی کانادا بوده و سیاست‌ها و قوانینی مانند "قانون منشور دیجیتال" برای تنظیم فعالیت‌ها در این زمینه اجرا شده‌اند. اما به نظر می‌رسد برخی از این قوانین، نظیر "قانون اجرای منشور دیجیتال"، هنوز به اصلاحات و شفافیت بیشتر نیاز دارند. فرصت‌ها برای پژوهش و عملیاتی‌سازی بهتر: مقاله فرصت‌هایی را برای پژوهشگران و سیاست‌گذاران مطرح می‌کند، از جمله: تمرکز بر سنجش نتایج و اثربخشی ابتکارات برای اطمینان از تحقق اهداف افزایش تعاملات با عموم مردم در فرآیندهای طراحی و اجرای ابتکارات گسترش دامنه‌ی تاثیرات اجتماعی و محیط زیستی هوش مصنوعی نیاز به یک رویکرد ملی یکپارچه‌تر: این مقاله توصیه می‌کند که کانادا برای بهبود هماهنگی و همکاری بین استان‌ها و ارگان‌های مختلف، به سمت یک رویکرد ملی و یکپارچه‌تر حرکت کند تا بتواند در پاسخگویی به چالش‌ها و استفاده از فرصت‌های ناشی از هوش مصنوعی موفق‌تر عمل کند. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
2311.10054v3.pdf
1.25M
یک مقاله جالب که در کنفرانس EMNLP ۲۰۲۴ منتشر شده ، تاثیر شخصیت (Persona) در پرامپت را بررسی کرده  و نتایج جالبی به دست آورده. عنوان مقاله : وقتی "یک دستیار مفید" واقعاً مفید نیست: چگونه شخصیت‌ها در پیام‌های  سیستمی (system prompt) بر عملکرد مدل‌های زبانی بزرگ تأثیر می‌گذارند. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
اندیشکده حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
یک مقاله جالب که در کنفرانس EMNLP ۲۰۲۴ منتشر شده ، تاثیر شخصیت (Persona) در پرامپت را بررسی کرده 
عنوان مقاله با این مضمون: وقتی "یک دستیار مفید" واقعاً مفید نیست: چگونه شخصیت‌ها در پیام‌های  سیستمی (system prompt) بر عملکرد مدل‌های زبانی بزرگ تأثیر می‌گذارند. سوالهایی که این مقاله سعی کرده جواب بده: آیا برخی شخصیت‌ها پاسخ‌های بهتری می‌دهند؟آیا چارچوب پیام‌ها بر عملکرد مدل تأثیر می‌گذارد - آیا بهتر است مدل یک دانش‌آموز باشد یا با یک دانش‌آموز صحبت کند؟آیا برخی شخصیت‌ها بهتر از بقیه هستند؟چرا برخی شخصیت‌ها به دقت بالاتر منجر می‌شوند؟اگر بتوانیم "شخصیت مناسب" را برای پرسیدن سوال انتخاب کنیم چه؟ پیام‌ها نحوه ارتباط ما با مدل‌های زبانی بزرگ (LLM) هستند. بسیاری از سیستم‌ها، مانند ChatGPT، از یک پیام سیستم پیش‌فرض استفاده می‌کنند: "شما یک دستیار مفید هستید." اما آیا افزودن یک شخصیت واقعاً عملکرد LLM را بهبود می‌بخشد؟ این مطالعه ارزیابی می‌کند که چگونه افزودن شخصیت‌ها (مانند دستیار مفید، متخصص، دوست و غیره) بر عملکرد LLM تأثیر می‌گذارد. محققان 162 شخصیت را تعریف کردند که شامل 6 نوع رابطه (مانند دوست، مربی) و 8 حوزه تخصصی (مانند علم، مالی) می‌شوند. هر شخصیت برای بررسی اینکه آیا دقت واقعی را بهبود می‌بخشد، آزمایش شد. نتایج: هیچ مزیت روشنی نداشت. افزودن شخصیت‌ها به پیام‌های سیستم به طور مداوم عملکرد مدل را افزایش نداد. LLMها هنگام دریافت سوالات واقعی با و بدون پیام شخصیت، عملکرد مشابهی داشتند. با این حال، این مطالعه نشان داد که ویژگی‌های شخصیت - مانند جنسیت، نوع رابطه و حوزه - می‌تواند بر نتایج تأثیر بگذارد. برخی از شخصیت‌ها در زمینه‌های خاص افزایش جزئی دقت را نشان دادند. تیم استراتژی‌های مختلفی را امتحان کردند، حتی نتایج را از "بهترین شخصیت" برای هر سوال جمع‌آوری کردند. این کار دقت را بهبود بخشید اما همچنان با چالش‌هایی روبرو بود: پیش‌بینی شخصیت ایده‌آل همچنان به اندازه پرتاب سکه تصادفی است! در حالی که برخی از شخصیت‌ها مزایای جزئی ارائه می‌دهند، اثر آن به طور کلی غیرقابل پیش‌بینی است. افزودن یک شخصیت تضمین‌کننده نتایج بهتر نیست - یافتن "شخصیت مناسب" یک چالش بزرگ است. در مجموع، اختصاص شخصیت‌ها در پیام‌های سیستم مسیر روشنی برای بهبود عملکرد LLM نیست. ممکن است گاهی کار کند، اما اثر آن تا حد زیادی تصادفی است. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
چرا سوگیری‌های شناختی در هوش مصنوعی اهمیت دارند؟ 🧠 هوش مصنوعی، به‌عنوان بازتابی از داده‌ها و تصمیمات انسانی، ممکن است همان سوگیری‌هایی را که در ذهن انسان‌ها وجود دارد، بازتولید کند. این سوگیری‌ها، که به‌عنوان سوگیری‌های شناختی شناخته می‌شوند، می‌توانند به تصمیمات ناعادلانه و حتی تقویت نابرابری‌ها منجر شوند. 📊 چه نوع سوگیری‌هایی در هوش مصنوعی دیده می‌شود؟ 1️⃣ سوگیری داده‌ها: داده‌های آموزشی ناکافی یا غیردقیق ممکن است به پیش‌بینی‌های اشتباه منجر شوند. 2️⃣ سوگیری الگوریتمی: طراحی یا انتخاب الگوریتم‌ها می‌تواند نتایج را به‌سمت نابرابری هدایت کند. 3️⃣ سوگیری تأییدی: مدل‌ها به داده‌هایی که فرضیات موجود را تأیید می‌کنند، اولویت می‌دهند. 4️⃣ سوگیری نمایش: اگر ویژگی‌های خاصی در داده‌ها به‌اندازه کافی نمایش داده نشوند، مدل‌ها نمی‌توانند به‌خوبی تعمیم دهند. 🚨 چرا مهم است؟ این سوگیری‌ها نه‌تنها می‌توانند تصمیمات اشتباه را تقویت کنند، بلکه اعتماد عمومی به فناوری را نیز تضعیف می‌کنند. 📢 به این سوال فکر کنید: آیا هوش مصنوعی می‌تواند واقعاً بی‌طرف باشد؟ 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
چطور سوگیری‌ها در هوش مصنوعی ایجاد می‌شوند؟ 📚 هوش مصنوعی بر اساس داده‌های انسانی آموزش می‌بیند. این داده‌ها می‌توانند شامل پیش‌داوری‌های اجتماعی، فرهنگی و تاریخی باشند. به همین دلیل: 1️⃣ مدل‌های استخدام ممکن است مردان را به زنان ترجیح دهند. 2️⃣ سیستم‌های قضایی مبتنی بر هوش مصنوعی ممکن است احکام ناعادلانه صادر کنند. 3️⃣ الگوریتم‌های تبلیغاتی ممکن است کلیشه‌های جنسیتی یا نژادی را بازتولید کنند. 💡 هوش مصنوعی، اگرچه پیشرفته به نظر می‌رسد، اما به جای "فکر کردن" به شناسایی الگوهای آماری محدود است. 📊 یک مثال قابل توجه: سیستم استخدامی آمازون که به دلیل ترجیح دادن مردان، کنار گذاشته شد. دلیل؟ داده‌های آموزشی‌اش از الگوهای گذشته الهام گرفته بود. ⚠️ نتیجه‌گیری: سوگیری‌های موجود در داده‌ها می‌توانند به سوگیری در تصمیمات هوش مصنوعی تبدیل شوند. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
✨ آیا راه‌حلی برای کاهش سوگیری‌های هوش مصنوعی وجود دارد؟ ✅ بله! محققان و متخصصان پیشنهادهای متنوعی ارائه کرده‌اند: 1️⃣ طراحی داده‌های متنوع و جامع: داده‌ها باید نمایانگر تمام گروه‌ها و جمعیت‌ها باشند. 2️⃣ الگوریتم‌های شفاف: مدل‌هایی که تصمیماتشان قابل توضیح باشد، اعتماد بیشتری ایجاد می‌کنند. 3️⃣ نظارت مستمر: پس از اجرای مدل‌ها، عملکردشان باید ارزیابی و تنظیم شود. 4️⃣ همکاری بین‌رشته‌ای: متخصصان فناوری، اخلاق و قانون باید با هم کار کنند. 📢 چشم‌انداز آینده: یک اکوسیستم قابل اعتماد که از شفافیت، اخلاق و عدالت حمایت می‌کند. آیا این هدف قابل دستیابی است؟ شما چه فکر می‌کنید؟ 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
چرا سوگیری‌های هوش مصنوعی مسئله‌ای جهانی است؟ ⚖️ سوگیری‌های هوش مصنوعی می‌توانند نابرابری‌های اجتماعی را افزایش دهند: در سیستم‌های قضایی: تصمیمات ناعادلانه علیه گروه‌های خاص. در خدمات مالی: عدم تخصیص وام به افراد کم‌درآمد. در پزشکی: ارائه درمان‌های نابرابر برای گروه‌های مختلف. 🔗 پیامدهای اخلاقی: عدم توجه به این مسائل می‌تواند اعتماد عمومی را به فناوری تضعیف کند و چالش‌های قانونی و اجتماعی ایجاد کند. 📢 راه‌حل چیست؟ با افزایش آگاهی عمومی و ایجاد قوانین جامع، می‌توان هوش مصنوعی را به ابزاری عادلانه تبدیل کرد. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
چالش‌های اخلاقی سوگیری در هوش مصنوعی 🔍 چه کسانی مسئول هستند؟ 1️⃣ توسعه‌دهندگان فناوری: اطمینان از طراحی سیستم‌های عادلانه. 2️⃣ سیاست‌گذاران: ایجاد قوانین شفاف برای کنترل فناوری. 3️⃣ کاربران: بررسی نتایج و بازخورد دادن. 💡 چرا این مهم است؟ هوش مصنوعی نباید ابزاری برای تقویت نابرابری‌ها باشد. تنها با یک تلاش جمعی می‌توانیم آینده‌ای شفاف‌تر و عادلانه‌تر بسازیم. ✨ چشم‌انداز: هوش مصنوعی، نه‌تنها پیشرفته بلکه اخلاقی. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
Artificial Intelligence.pdf
369.3K
برای اطلاعات بیشتر: مقاله‌ای جامع در این زمینه، منتشر شده در Journal of Innovation Economics & Management، شماره 44 (2024). عنوان انگلیسی مقاله: Artificial Intelligence and Cognitive Biases: A Viewpoint عنوان فارسی مقاله: هوش مصنوعی و سوگیری‌های شناختی: یک دیدگاه خلاصه مقاله و موضوع: این مقاله به بررسی سوگیری‌های شناختی در هوش مصنوعی می‌پردازد و نشان می‌دهد که چگونه این سوگیری‌ها، که ناشی از داده‌ها و تصمیم‌گیری‌های انسانی هستند، می‌توانند در الگوریتم‌های هوش مصنوعی ظاهر شوند و به تقویت نابرابری‌های اجتماعی منجر شوند. نویسندگان به سوگیری‌هایی مانند سوگیری داده‌ها، سوگیری الگوریتمی، و سوگیری تأییدی اشاره می‌کنند و راهکارهایی مانند طراحی داده‌های جامع، شفافیت الگوریتم‌ها، و نظارت مستمر را برای کاهش این مشکلات پیشنهاد می‌دهند. مقاله تأکید دارد که حل این چالش نیازمند همکاری بین‌رشته‌ای، نظارت قانونی، و تعهد به اصول اخلاقی در توسعه هوش مصنوعی است. موضوع اصلی مقاله: تأثیر سوگیری‌های شناختی بر عملکرد هوش مصنوعی و راهکارهای مقابله با آن برای ایجاد سیستم‌های عادلانه و شفاف. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
Storm AI ⭕️ قوی‌ترین هوش مصنوعی برای نوشتن مقاله! Storm Ai ✍️ این هوش مصنوعی حدود چند دقیقه تایتل و موضوع شمارو پردازش و تحلیل می‌کنه و بعد از اون یه مقاله از دقیق‌ترین منابع موجود در اینترنت ارائه میده! ✔️ نتیجه، متنی بی‌نقص و قابل‌قبول؛ البته زبانش انگلیسیه که با ChatGPT یا Gemini خیلی راحت میتونی ترجمه دقیق بکنی! ✅ فرقی نمی‌کنه مقاله شما تو حوزه مهندسی، علوم انسانی یا علوم پایه باشه...! ✅ یکی از بزرگ‌ترین مشکلات در نگارش مقالات علمی، مدیریت منابع و رفرنس‌دهیه که این ابزار حلش کرده ؛) https://storm.genie.stanford.edu/ با این هوش مصنوعی گزارشی مشابه ویکی پدیا در مورد موضوع خود دریافت کنید. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 🆔 @AIGovernance t.me/AiGovernanc
AIChatbot.pdf
110.8K
برای نمونه از هوش مصنوعی storm خواسته ام که با موضوع چت باتهای هوش مصنوعی یک مقاله تولید نماید. و هدف آن مقاله را بررسی آینده چت بات ها گذاشته ام. در کمتر از پنج دقیقه برای من نمونه بالا را تولید کرد همه منابع را هم نوشته است . فقط زبان انگلیسی هست که راحت می توانیم آن را توسط چت جی پی تی ترجمه نماییم . 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 🆔 @AIGovernance t.me/AiGovernanc
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
👌دوره رایگان کاربرد هوش مصنوعی در مقاله نویسی، پایان نامه نویسی و پروپوزال نویسی 😊این دوره برای تمامی دانشجویان، پژوهشگران، اساتید و علاقمندان به نشر و مستندات علمی، و است. 🌟مدرس: دکتر محمد همت "جز یک درصد دانشمندان برتر جهان" 💥ثبت نام به صورت می باشد. 💐💐لطفا این پست را برای کسانی که حضور در دوره برایشان مفید است، کنید. 💢لینک ثبت نام رایگان دوره: https://formafzar.com/form/zk2qy ⏱زمان: جمعه ۱۹ بهمن؛ ساعت ۱۸ ○┈••••✾•🍀💐☘️•✾•••┈○ کانال دکتر همت در ایتا و تلگرام 🆔 @dr_hemmatt ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc