📚 فصلنامه علمی پژوهشی مطالعات اخلاق کاربردی
📙 شماره ۷۸ | ۲۳۲ صفحه | ۲ مگابایت
📥 دریافت: m8r.ir/akhlagh78
🆔 @libisca
📢 فراخوان مقاله چهارمین کنگره بین المللی راه نجات، نهج البلاغه و حکمرانی علوی
🔰چهارمین کنگره بین المللی راه نجات، نهج البلاغه و حکمرانی علوی روز چهارشنبه، 21 آبان، 1404 توسط دانشگاه آزاد اسلامی واحد اصفهان (خوراسگان), مرکز تحقیقات نهج البلاغه استان اصفهان در شهر اصفهان برگزار می شود.
🔰دانشجویان علاقه مند می توانند جهت ارسال مقالات خود حداکثر تا 15 آبان ماه با توجه به محورهای این دوره همایش اقدام نمایند. علاقه مندان می توانند جهت دریافت اطلاعات تکمیلی به پایگاه اطلاع رسانی همایش مراجعه و یا با دبیرخانه آن ارتباط برقرار نمایند.
🔹جهت کسب اطلاعات بیشتر به صفحه همایش مراجعه فرمایید:
🔗 مشاهده صفحه همایش
🆔 @libisca
❇️ دوره آموزشی رایگان هوش مصنوعی و یادگیری عمیق پیشرفته
11 جلسه
18 ساعت ویدیو
🔹مدرس: علیرضا اخوان پور،مدرس دانشگاه شهید رجایی
🌐https://B2n.ir/we4268
🆔 @libisca
ساخت عکس پرسنلی با هوش مصنوعی فقط در ۲ دقیقه!
دیگه لازم نیست برای گرفتن عکس پرسنلی به آتلیه برید یا ساعتها منتظر چاپ باشید. با ابزارهای هوش مصنوعی مثل سایت Cutout میتونید در عرض چند دقیقه عکس پرسنلی حرفهای بسازید!
مراحل ساده ساخت عکس:
1. وارد سایت Cutout بشید و با اکانت جیمیل لاگین کنید.
2. عکس خودتون رو آپلود کنید (ترجیحاً با نور طبیعی و پسزمینه ساده).
3. رنگ پسزمینه، سایز عکس و لباس رسمی دلخواه رو انتخاب کنید.
4. روی گزینه "Done" بزنید و عکس نهایی رو با کیفیت HD دانلود کنید.
💡 نکات مهم:
- از عکس سلفی استفاده نکنید؛ زاویه مستقیم و نور مناسب خیلی مهمه.
- برای نتیجه بهتر، از نور نرم کنار پنجره استفاده کنید.
- اگر لباس رسمی ندارید، سایت خودش کت و کراوات مجازی براتون میذاره!
این روش برای ساخت عکسهای فوری، مخصوصاً برای رزومه، فرمهای اداری یا شبکههای اجتماعی عالیه. امتحانش کن و ببین چقدر راحت و حرفهای میشه!
https://www.cutout.pro/passport-photo-maker
🆔 @libisca
صد پرامپت پژوهشی.pdf
حجم:
277.1K
🔻صد پرامپت پژوهشی
🔸 "پرامپت" همان عبارت یا جمله کوتاهی است که به هوش مصنوعی برای تولید محتوای دلخواه می دهیم.
🔸در واقع پرامپت زبان ارتباط گیری با ابزار های هوش مصنوعی است و هرچه دقیق تر باشد، خروجی هوش مصنوعی به خواسته ما نزدیک تر خواهد بود.
🆔 @libisca
🔹اولین همایش ملی مقاومت دلهرهها و امیدها در ادبیات معاصر
⏰چهارشنبه ٢مهرماه|دانشگاه قم
🆔 @libisca
📚 معرفی کتاب اخلاق در پژوهش علوم اجتماعی: بینشهای روز و راهبردهای عملی
به کوشش: اتو فدریکو فن فایگنبلات، محمد رضاول اسلام
🔰این کتاب به بررسی جامع و کاربردی اخلاق پژوهش در رشتههای مختلف علوم اجتماعی میپردازد. فراتر از مباحث نظری، راهنماییهای عملی برای پژوهشگران فراهم میآورد و با ارائه راهبردهای مشخص، مطالعات موردی و نمونهها، مسیر رویارویی با چالشهای اخلاقی در زمینههای پژوهشی گوناگون را روشن میسازد.
🔰اثر حاضر خوانندگان را به بینشها و ابزارهای عملی برای تصمیمگیری اخلاقی مجهز میکند و ارزش آن را بهعنوان منبعی کاربردی دوچندان میسازد. هر فصل حاصل دانش و تجربه پژوهشگران برجستهای از سراسر جهان است که فهمی دقیقتر از بافتهای متنوع پژوهش اجتماعی به دست میدهد. این نگاه میانرشتهای، کتاب را برای طیف گستردهتری از مخاطبان قابل استفاده و سودمند میکند.
🔰فصلها شامل تحولات اخیر، مسائل نوپدید اخلاقی و تغییرات مرتبط با دستورالعملها و مقررات هستند. سبک نگارش روان و قابلفهم آن نیز مفاهیم و چارچوبهای پیچیده اخلاقی را بهگونهای روشن و قابلدسترس ارائه میدهد.
🔰بینشها و راهبردهای مطرحشده در کتاب، درک عمیقتری از اهمیت اخلاق در پژوهش و شناخت دقیقتری از مسئولیتهای اخلاقی در علوم اجتماعی ایجاد میکنند.
🆔 @libisca
Ethics in Social Science Research- Current Insights and -- Otto Federico von Feigenblatt (editor), M. Rezaul Islam -- ( WeLib.org ).pdf
حجم:
3.4M
Ethics in Social Science Research: Current Insights and Practical Strategies
🆔 @libisca
📌 شماره 7 دوفصلنامه علمی ـ تخصصی «فقه و سیاست» منتشر شد
✅ هفتمین شماره فصلنامه علمی فقه و سیاست مربوط به بهار و تابستان 1402 منتشر و مقالات این شماره هماکنون از طریق سامانه نشریه به نشانی ijp.isca.ac.ir در دسترس علاقهمندان قرار گرفته است.
🆔 @libisca
❇️ دوره آموزشی رایگان متنکاوی
🔰متنکاوی یا تحلیل متن به ما فرایند استخراج اطلاعات باکیفیت از یک متن را آموزش میدهد. متنکاوی میتواند برروی وبسایتها، کتابها، ایمیلها، بازخوردهای کاربران و یا مقالات اعمال شود. متنکاوی معمولا شامل ساختاربندی متن ورودی و کشف الگوهایی در داده ساختاریافته است.
9 جلسه
1:19 ساعت ویدیو
🔹مدرس: جواد کاظمیتبار
🌐https://B2n.ir/es2012
🆔 @libisca
🔷 راستگویی دربارهی استفاده از هوش مصنوعی در محل کار باعث کاهش اعتماد دیگران میشود
🔰فرقی نمیکند از هوش مصنوعی برای نوشتن نامههای کاری، تصحیح مقالهها یا طراحی کمپینهای تبلیغاتی استفاده کنید_شاید بهتر باشد پیش از گفتنش به دیگران، خوب فکر کنید.
🔰پژوهش تازهی ما که در یک مقالهی داوریشده منتشر شده، نشان میدهد صرفاً اطلاعرسانی دربارهی استفاده از هوش مصنوعی میتواند باعث شود دیگران کمتر به شما اعتماد کنند.
🔰ما که پژوهشگرانی در حوزهی اعتماد هستیم، این یافته را نوعی تناقض میدانیم. معمولاً تصور میشود که صداقت و شفافیت، باعث افزایش اعتماد دیگران میشود. اما در ۱۳ آزمایش مختلف با بیش از ۵ هزار شرکتکننده، الگوی ثابتی یافتیم: اگر کسی بگوید که در کارش از هوش مصنوعی کمک گرفته، در نگاه دیگران فردی کماعتمادتر تلقی میشود.
🔰شرکتکنندگان این پژوهش شامل دانشجویان، تحلیلگران حقوقی، مدیران استخدام و سرمایهگذاران بودند. نکتهی جالب این است که حتی افرادی که با فناوری آشنا بودند نیز به کسانی که استفاده از هوش مصنوعی را اعلام میکردند، کمتر اعتماد داشتند. اگرچه نگرش مثبت نسبت به فناوری، این اثر را تا حدودی کاهش میداد، اما آن را کاملاً از بین نمیبرد.
چرا اعلام استفاده از هوش مصنوعی باعث بیاعتمادی میشود؟
یکی از دلایل، این است که مردم هنوز انتظار دارند تلاش انسانی پشت فعالیتهایی مانند نوشتن، اندیشیدن و نوآوری باشد. وقتی هوش مصنوعی این نقش را ایفا کند و شما آن را برجسته کنید، کارتان کمتر مشروع به نظر میرسد.
اما یک هشدار هم وجود دارد: اگر در محل کار از هوش مصنوعی استفاده میکنید، پنهانکاری ممکن است بدتر از خودِ ماجرا باشد. یافتههای ما نشان میدهد اگر بعدها مشخص شود که شما بهصورت پنهانی از هوش مصنوعی استفاده کردهاید، کاهش اعتماد بسیار شدیدتر خواهد بود. بنابراین ممکن است صداقت، در نهایت انتخاب بهتری باشد.
چرا این مسئله مهم است؟
یک نظرسنجی جهانی از ۱۳ هزار نفر نشان داد که حدود نیمی از آنها در محل کار از هوش مصنوعی استفاده کردهاند—اغلب برای کارهایی مانند نوشتن ایمیل یا تحلیل داده. تصور رایج این است که اعلام این استفاده، انتخاب درست و اخلاقی است.
اما پژوهش ما نشان میدهد که این رویکرد ممکن است نتیجهی معکوس داشته باشد. این یافته، کسانی را که به صداقت پایبندند اما برای حفظ رابطه با همکاران و مشتریان به اعتماد نیاز دارند، در دو راهی قرار میدهد. در حوزههایی که اعتبار شغلی بسیار مهم است_مانند امور مالی، سلامت و آموزش عالی_حتی یک افت کوچک در اعتماد، میتواند به شغل یا برند فرد آسیب بزند.
🔰پیامدها فقط به شهرت فردی محدود نمیشود. اعتماد، همان «چسب اجتماعی» است که جامعه را کنار هم نگه میدارد. اعتماد باعث همکاری، افزایش روحیه و وفاداری مشتریان میشود. وقتی این اعتماد خدشهدار شود، کل سازمان میتواند با افت بهرهوری، کاهش انگیزه و تضعیف همبستگی تیمی روبهرو شود.
اگر اعلام استفاده از هوش مصنوعی، تردید برانگیزد، کاربران با انتخاب دشواری مواجهاند: شفافیت و پذیرش واکنش منفی، یا سکوت و خطر افشا شدن_که یافتههای ما نشان میدهد اثر دوم حتی بدتر است.
🔰از همین رو، درک این معضل شفافیت در استفاده از هوش مصنوعی بسیار اهمیت دارد. چه یک مدیر باشید که فناوری جدیدی را معرفی میکند، یا یک هنرمند که تصمیم دارد نقش هوش مصنوعی را در کار خود بازگو کند_میزان حساسیت روز به روز بیشتر میشود.
چه چیزهایی هنوز روشن نیست؟
هنوز مشخص نیست که این «جریمهی شفافیت» با گذشت زمان از بین خواهد رفت یا نه. ممکن است با فراگیر شدن هوش مصنوعی و افزایش اعتماد به عملکرد آن، اعلام استفاده از آن دیگر عجیب یا مشکوک به نظر نرسد.
در مورد سیاستگذاری هم هنوز اجماع وجود ندارد. یک گزینه، شفافیت داوطلبانه است که تصمیمگیری دربارهی اعلام استفاده از هوش مصنوعی را به خود افراد میسپارد. گزینهی دیگر، سیاست افشای اجباری است که مستلزم نظارت جدی از طریق ابزارهایی مانند تشخیصدهندههای هوش مصنوعی است.
رویکرد سوم، رویکرد فرهنگی است: یعنی ساختن محیط کاریای که در آن، استفاده از هوش مصنوعی عادی، پذیرفتهشده و مشروع تلقی شود. بهنظر ما، چنین محیطی میتواند اثرات منفی بر اعتماد را کاهش دهد و همزمان شفافیت و اعتبار را حفظ کند.
🌐https://doi.org/10.1016/j.obhdp.2025.104405
🆔 @libisca
🚀 وبینار رایگان معرفی ابزارهای جدید هوش مصنوعی
🗓 تاریخ: ۲۹ شهریور ۱۴۰۴ – ساعت ۱۹:۰۰
⏱️ مدت: ۱ ساعت و ۳۰ دقیقه
در این وبینار با ترندهای داغ دو ماه اخیر آشنا میشیم:
✨ Nano Banana (تصویرسازی ۳D گوگل)
✨ Genie 3 (جهانساز تعاملی DeepMind)
✨Webflow AI (ساخت سایت با پرامپت)
✨ Adobe AI Agents
✨ YouTube AI Tools
✨ Moonshot AI
🔗 https://eseminar.tv/wb164548
🆔 @libisca