eitaa logo
کتابخانه ها و اسناد پژوهشگاه علوم و فرهنگ اسلامی
648 دنبال‌کننده
2.6هزار عکس
130 ویدیو
188 فایل
اشاعه گزینشی اطلاعات در حوزه علوم اسلامی و انسانی تازه های نشریات و کنفرانس‌های علمی و همچنین اطلاع‌رسانی اخبار و تازه های اداره کتابخانه‌ها و اسناد پژوهشگاه علوم و فرهنگ اسلامی انتقادات و پیشنهادات: @rasalib @imannarimani95 https://zil.ink/libisca
مشاهده در ایتا
دانلود
@qomirib به امین بگو دوستش دارم 20.mp3
زمان: حجم: 16.2M
🏷 کتاب به امین بگو دوستش دارم ▫️ راوی: محمودرضا قدیریان (فصل آخر) 🆔 @libisca
📚 فصلنامه علمی پژوهشی مطالعات اخلاق کاربردی 📙 شماره ۷۸ | ۲۳۲ صفحه | ۲ مگابایت 📥 دریافت: m8r.ir/akhlagh78 🆔 @libisca
📢 فراخوان مقاله چهارمین کنگره بین المللی راه نجات، نهج البلاغه و حکمرانی علوی 🔰چهارمین کنگره بین المللی راه نجات، نهج البلاغه و حکمرانی علوی روز چهارشنبه، 21 آبان، 1404 توسط دانشگاه آزاد اسلامی واحد اصفهان (خوراسگان), مرکز تحقیقات نهج البلاغه استان اصفهان در شهر اصفهان برگزار می شود. 🔰دانشجویان علاقه مند می توانند جهت ارسال مقالات خود حداکثر تا 15 آبان ماه با توجه به محورهای این دوره همایش اقدام نمایند. علاقه مندان می توانند جهت دریافت اطلاعات تکمیلی به پایگاه اطلاع رسانی همایش مراجعه و یا با دبیرخانه آن ارتباط برقرار نمایند. 🔹جهت کسب اطلاعات بیشتر به صفحه همایش مراجعه فرمایید: 🔗 مشاهده صفحه همایش 🆔 @libisca
❇️ دوره آموزشی رایگان هوش مصنوعی و یادگیری عمیق پیشرفته 11 جلسه 18 ساعت ویدیو 🔹مدرس: علیرضا اخوان پور،مدرس دانشگاه شهید رجایی 🌐https://B2n.ir/we4268 🆔 @libisca
ساخت عکس پرسنلی با هوش مصنوعی فقط در ۲ دقیقه! دیگه لازم نیست برای گرفتن عکس پرسنلی به آتلیه برید یا ساعت‌ها منتظر چاپ باشید. با ابزارهای هوش مصنوعی مثل سایت Cutout می‌تونید در عرض چند دقیقه عکس پرسنلی حرفه‌ای بسازید! مراحل ساده ساخت عکس: 1. وارد سایت Cutout بشید و با اکانت جیمیل لاگین کنید. 2. عکس خودتون رو آپلود کنید (ترجیحاً با نور طبیعی و پس‌زمینه ساده). 3. رنگ پس‌زمینه، سایز عکس و لباس رسمی دلخواه رو انتخاب کنید. 4. روی گزینه "Done" بزنید و عکس نهایی رو با کیفیت HD دانلود کنید. 💡 نکات مهم: - از عکس سلفی استفاده نکنید؛ زاویه مستقیم و نور مناسب خیلی مهمه. - برای نتیجه بهتر، از نور نرم کنار پنجره استفاده کنید. - اگر لباس رسمی ندارید، سایت خودش کت و کراوات مجازی براتون می‌ذاره! این روش برای ساخت عکس‌های فوری، مخصوصاً برای رزومه، فرم‌های اداری یا شبکه‌های اجتماعی عالیه. امتحانش کن و ببین چقدر راحت و حرفه‌ای میشه! https://www.cutout.pro/passport-photo-maker 🆔 @libisca
صد پرامپت پژوهشی.pdf
حجم: 277.1K
🔻صد پرامپت پژوهشی 🔸 "پرامپت" همان عبارت یا جمله کوتاهی است که به هوش مصنوعی برای تولید محتوای دلخواه می دهیم. 🔸در واقع پرامپت زبان ارتباط گیری با ابزار های هوش مصنوعی است و هرچه دقیق تر باشد، خروجی هوش مصنوعی به خواسته ما نزدیک تر خواهد بود. 🆔 @libisca
🔹اولین همایش ملی مقاومت دلهره‌ها و امیدها در ادبیات معاصر ⏰چهارشنبه ٢مهرماه|دانشگاه قم 🆔 @libisca
📚 معرفی کتاب اخلاق در پژوهش علوم اجتماعی: بینش‌های روز و راهبردهای عملی به کوشش: اتو فدریکو فن فایگنبلات، محمد رضاول اسلام 🔰این کتاب به بررسی جامع و کاربردی اخلاق پژوهش در رشته‌های مختلف علوم اجتماعی می‌پردازد. فراتر از مباحث نظری، راهنمایی‌های عملی برای پژوهشگران فراهم می‌آورد و با ارائه راهبردهای مشخص، مطالعات موردی و نمونه‌ها، مسیر رویارویی با چالش‌های اخلاقی در زمینه‌های پژوهشی گوناگون را روشن می‌سازد. 🔰اثر حاضر خوانندگان را به بینش‌ها و ابزارهای عملی برای تصمیم‌گیری اخلاقی مجهز می‌کند و ارزش آن را به‌عنوان منبعی کاربردی دوچندان می‌سازد. هر فصل حاصل دانش و تجربه پژوهشگران برجسته‌ای از سراسر جهان است که فهمی دقیق‌تر از بافت‌های متنوع پژوهش اجتماعی به دست می‌دهد. این نگاه میان‌رشته‌ای، کتاب را برای طیف گسترده‌تری از مخاطبان قابل استفاده و سودمند می‌کند. 🔰فصل‌ها شامل تحولات اخیر، مسائل نوپدید اخلاقی و تغییرات مرتبط با دستورالعمل‌ها و مقررات هستند. سبک نگارش روان و قابل‌فهم آن نیز مفاهیم و چارچوب‌های پیچیده اخلاقی را به‌گونه‌ای روشن و قابل‌دسترس ارائه می‌دهد. 🔰بینش‌ها و راهبردهای مطرح‌شده در کتاب، درک عمیق‌تری از اهمیت اخلاق در پژوهش و شناخت دقیق‌تری از مسئولیت‌های اخلاقی در علوم اجتماعی ایجاد می‌کنند. 🆔 @libisca
📌 شماره 7 دوفصلنامه علمی ـ تخصصی «فقه و سیاست» منتشر شد ✅ هفتمین شماره فصلنامه علمی فقه و سیاست مربوط به بهار و تابستان 1402 منتشر و مقالات این شماره هم‌اکنون از طریق سامانه نشریه به نشانی ijp.isca.ac.ir در دسترس علاقه‌مندان قرار گرفته است. 🆔 @libisca
❇️ دوره آموزشی رایگان متن‌کاوی 🔰متن‌کاوی یا تحلیل متن به ما فرایند استخراج اطلاعات باکیفیت از یک متن را آموزش می‌دهد. متن‌کاوی می‌تواند برروی وبسایت‌ها، کتاب‌ها، ایمیل‌ها، بازخوردهای کاربران و یا مقالات اعمال شود. متن‌کاوی معمولا شامل ساختاربندی متن ورودی و کشف الگوهایی در داده ساختاریافته است. 9 جلسه 1:19 ساعت ویدیو 🔹مدرس: جواد کاظمی‌تبار 🌐https://B2n.ir/es2012 🆔 @libisca
🔷 راست‌گویی درباره‌ی استفاده از هوش مصنوعی در محل کار باعث کاهش اعتماد دیگران می‌شود 🔰فرقی نمی‌کند از هوش مصنوعی برای نوشتن نامه‌های کاری، تصحیح مقاله‌ها یا طراحی کمپین‌های تبلیغاتی استفاده کنید_شاید بهتر باشد پیش از گفتنش به دیگران، خوب فکر کنید. 🔰پژوهش تازه‌ی ما که در یک مقاله‌ی داوری‌شده منتشر شده، نشان می‌دهد صرفاً اطلاع‌رسانی درباره‌ی استفاده از هوش مصنوعی می‌تواند باعث شود دیگران کمتر به شما اعتماد کنند. 🔰ما که پژوهشگرانی در حوزه‌ی اعتماد هستیم، این یافته را نوعی تناقض می‌دانیم. معمولاً تصور می‌شود که صداقت و شفافیت، باعث افزایش اعتماد دیگران می‌شود. اما در ۱۳ آزمایش مختلف با بیش از ۵ هزار شرکت‌کننده، الگوی ثابتی یافتیم: اگر کسی بگوید که در کارش از هوش مصنوعی کمک گرفته، در نگاه دیگران فردی کم‌اعتمادتر تلقی می‌شود. 🔰شرکت‌کنندگان این پژوهش شامل دانشجویان، تحلیل‌گران حقوقی، مدیران استخدام و سرمایه‌گذاران بودند. نکته‌ی جالب این است که حتی افرادی که با فناوری آشنا بودند نیز به کسانی که استفاده از هوش مصنوعی را اعلام می‌کردند، کمتر اعتماد داشتند. اگرچه نگرش مثبت نسبت به فناوری، این اثر را تا حدودی کاهش می‌داد، اما آن را کاملاً از بین نمی‌برد. چرا اعلام استفاده از هوش مصنوعی باعث بی‌اعتمادی می‌شود؟ یکی از دلایل، این است که مردم هنوز انتظار دارند تلاش انسانی پشت فعالیت‌هایی مانند نوشتن، اندیشیدن و نوآوری باشد. وقتی هوش مصنوعی این نقش را ایفا کند و شما آن را برجسته کنید، کارتان کمتر مشروع به نظر می‌رسد. اما یک هشدار هم وجود دارد: اگر در محل کار از هوش مصنوعی استفاده می‌کنید، پنهان‌کاری ممکن است بدتر از خودِ ماجرا باشد. یافته‌های ما نشان می‌دهد اگر بعدها مشخص شود که شما به‌صورت پنهانی از هوش مصنوعی استفاده کرده‌اید، کاهش اعتماد بسیار شدیدتر خواهد بود. بنابراین ممکن است صداقت، در نهایت انتخاب بهتری باشد. چرا این مسئله مهم است؟ یک نظرسنجی جهانی از ۱۳ هزار نفر نشان داد که حدود نیمی از آن‌ها در محل کار از هوش مصنوعی استفاده کرده‌اند—اغلب برای کارهایی مانند نوشتن ایمیل یا تحلیل داده. تصور رایج این است که اعلام این استفاده، انتخاب درست و اخلاقی است. اما پژوهش ما نشان می‌دهد که این رویکرد ممکن است نتیجه‌ی معکوس داشته باشد. این یافته، کسانی را که به صداقت پایبندند اما برای حفظ رابطه با همکاران و مشتریان به اعتماد نیاز دارند، در دو راهی قرار می‌دهد. در حوزه‌هایی که اعتبار شغلی بسیار مهم است_مانند امور مالی، سلامت و آموزش عالی_حتی یک افت کوچک در اعتماد، می‌تواند به شغل یا برند فرد آسیب بزند. 🔰پیامدها فقط به شهرت فردی محدود نمی‌شود. اعتماد، همان «چسب اجتماعی» است که جامعه را کنار هم نگه می‌دارد. اعتماد باعث همکاری، افزایش روحیه و وفاداری مشتریان می‌شود. وقتی این اعتماد خدشه‌دار شود، کل سازمان می‌تواند با افت بهره‌وری، کاهش انگیزه و تضعیف همبستگی تیمی روبه‌رو شود. اگر اعلام استفاده از هوش مصنوعی، تردید برانگیزد، کاربران با انتخاب دشواری مواجه‌اند: شفافیت و پذیرش واکنش منفی، یا سکوت و خطر افشا شدن_که یافته‌های ما نشان می‌دهد اثر دوم حتی بدتر است. 🔰از همین رو، درک این معضل شفافیت در استفاده از هوش مصنوعی بسیار اهمیت دارد. چه یک مدیر باشید که فناوری جدیدی را معرفی می‌کند، یا یک هنرمند که تصمیم دارد نقش هوش مصنوعی را در کار خود بازگو کند_میزان حساسیت روز به روز بیشتر می‌شود. چه چیزهایی هنوز روشن نیست؟ هنوز مشخص نیست که این «جریمه‌ی شفافیت» با گذشت زمان از بین خواهد رفت یا نه. ممکن است با فراگیر شدن هوش مصنوعی و افزایش اعتماد به عملکرد آن، اعلام استفاده از آن دیگر عجیب یا مشکوک به نظر نرسد. در مورد سیاست‌گذاری هم هنوز اجماع وجود ندارد. یک گزینه، شفافیت داوطلبانه است که تصمیم‌گیری درباره‌ی اعلام استفاده از هوش مصنوعی را به خود افراد می‌سپارد. گزینه‌ی دیگر، سیاست افشای اجباری است که مستلزم نظارت جدی از طریق ابزارهایی مانند تشخیص‌دهنده‌های هوش مصنوعی است. رویکرد سوم، رویکرد فرهنگی است: یعنی ساختن محیط کاری‌ای که در آن، استفاده از هوش مصنوعی عادی، پذیرفته‌شده و مشروع تلقی شود. به‌نظر ما، چنین محیطی می‌تواند اثرات منفی بر اعتماد را کاهش دهد و همزمان شفافیت و اعتبار را حفظ کند. 🌐https://doi.org/10.1016/j.obhdp.2025.104405 🆔 @libisca