eitaa logo
سیاست بدون خط خوردگی
3.3هزار دنبال‌کننده
61.2هزار عکس
1.6هزار ویدیو
363 فایل
♦️سروش سیاسی لند:👇 sapp.ir/siasiland ♦️ تلگرام سیاسی لند:👇 t.me/siasiland
مشاهده در ایتا
دانلود
سلاح‌های خودکار و هوش مصنوعی قسمت هفتم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛  انبوهی از سلاح‌های خودران را می‌توان برای هدف قرار دادن و کشتن هزاران نفر در یک زمان مستقر کرد، که باعث می‌شود بمب‌های هوشمند امروزی در مقایسه با آنها دست و پا چلفتی به نظر برسند. یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح‌های هسته‌ای است. در سال 2022، ایالات متحده اعلام کرد که برای تصمیم‌گیری در مورد استفاده از سلاح‌های هسته‌ای همیشه «انسان در حلقه» را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال 2022 اتخاذ کرد. با این حال روسیه و چین چنین نکرده‌اند. به نظر می‌رسد کنترل انسان بر سلاح های هسته‌ای نقطه شروع آسانی برای توافق بین‌المللی باشد، اما مسکو تمایل نگران کننده‌ای برای ادغام اتوماسیون پرخطر در عملیات هسته‌ای خود نشان داده است. این چیز جدیدی نیست: پس از پایان جنگ سرد، مقامات شوروی سابق توضیح دادند که اتحاد جماهیر شوروی یک سیستم حمله اتمی تلافی جویانه نیمه خودکار به نام "Perimeter" ساخته است. پس از فعال شدن، از یک سری حسگرهای خودکار برای تشخیص حمله هسته ای در خاک شوروی استفاده می کند. اگر یکی از آنها شناسایی می‌شد و هیچ پاسخی از سوی رهبران کشور وجود نداشت - احتمالاً به این دلیل که آنها در این حمله کشته شده بودند - سیستم به طور خودکار اختیار پرتاب هسته‌ای را به یک افسر نسبتاً کوچک در یک پناهگاه امن منتقل می‌کرد. ✍ ترجمه و تحقیق: علیرضا زمانیان @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت هشتم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ مقامات روسی در سال 2018 اعلام کردند که این سیستم هنوز فعال است و حتی ارتقا یافته است. اخیراً، مسکو شروع به توسعه یک پهپاد زیردریایی خودمختار با سلاح هسته‌ای کرده است. پهپادهای مجهز به سلاح هسته‌ای در دریا یا هوا می‌توانند برای گشت زنی فرستاده شوند و خطر تصادف یا از دست دادن کنترل یک سلاح هسته‌ای را به همراه داشته باشند. استقرار گسترده سلاح‌های خودمختار که با سایر جنبه‌های هوش مصنوعی نظامی ادغام شده‌اند، می‌توانند به عصر جدیدی از جنگ ماشین‌محور منجر شوند. برنامه های کاربردی هوش مصنوعی نظامی می توانند پردازش اطلاعات و تصمیم‌گیری را تسریع کنند. چرخه‌های تصمیم گیری با استفاده از هوش مصنوعی و اتوماسیون کشورها برای کاهش زمان یافتن، شناسایی و حمله به اهداف دشمن کوتاه می شود. در تئوری، این می‌تواند زمان بیشتری را برای تصمیم‌گیری‌های متفکرانه و عمدی در اختیار انسان بگذارد. در عمل، رقبا احساس خواهند کرد که مجبور خواهند شد به طور مشابه پاسخ دهند و از اتوماسیون برای سرعت بخشیدن به عملیات خود برای حفظ سرعت استفاده کنند. نتیجه یک مارپیچ در حال افزایش از اتوماسیون بیشتر و کنترل کمتر انسانی خواهد بود. وضعیت نهایی این رقابت احتمالاً جنگی خواهد بود که با سرعت ماشین و خارج از کنترل انسان اجرا می‌شود. ✍ ترجمه و تحقیق: علیرضا زمانیان ——————— با ما همراه باشید! 👇🏻 🌐 @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت نهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ در امور مالی، استفاده گسترده از الگوریتم‌ها در معاملات با فرکانس بالا منجر به معامله سهام به صورت مستقل و با سرعت فوق بشری شده است. چن هانگهویی، محقق نظامی چینی از دانشکده فرماندهی ارتش آزادی‌بخش خلق، در مورد «تکینگی» در میدان نبرد فرضیه‌ای را مطرح کرده است، نقطه‌ای که در آن سرعت جنگ ماشین‌محور به طور مشابه از سرعت تصمیم‌گیری انسانی پیشی می‌گیرد. این نقطه عطف انسان‌ها را مجبور می‌کند که هم برای تصمیم‌گیری‌های تاکتیکی و هم برای استراتژی‌های جنگی در سطح عملیاتی، کنترل را به ماشین‌ها واگذار کنند. ماشین‌ها نه تنها اهداف فردی را انتخاب می‌کنند، بلکه کل کمپین‌ها را نیز برنامه‌ریزی و اجرا می‌کنند. نقش انسان‌ها به روشن کردن ماشین‌ها و نشستن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگ‌ها کاهش می‌یابد. ✍ ترجمه و تحقیق: علیرضا زمانیان ——————— برای اطلاع از اخبار [خیلی] منتخب روز با ما همراه باشید! 👇🏻 🌐 @KHABARCHII_IR
سلاح‌های خودکار و هوش مصنوعی قسمت دهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ مقررات بین‌المللی، اگر با دقت طراحی و اجرا شوند، می‌توانند به کاهش برخی از بدترین آسیب‌های سلاح‌های خودران کمک کنند. حدود 30 کشور و کنسرسیومی از سازمان‌های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام آور قانونی برای ممنوعیت سلاح‌های خودمختار قبل از استقرار آنها شده اند. دولت‌ها در ممنوعیت سلاح‌های شیمیایی و بیولوژیکی، مهمات خوشه‌ای و استفاده از محیط زیست به عنوان سلاح موفقیت نسبی داشته اند. اما پیشرفت مشابه در تنظیم سلاح‌های خودمختار چالش برانگیز بوده است. ممنوعیت همه جانبه، به ویژه، بعید است. از آنجایی که تسلیحات خودمختار هنوز به طور کامل توسعه نیافته‌اند، آسیب‌های احتمالی و ارزش نظامی آنها ناشناخته است. بنابراین، دولت‌ها به دلیل ادعاهای نامشخص در مورد آسیب‌های احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند. ✍ ترجمه و تحقیق: علیرضا زمانیان ——————— برای اطلاع از اخبار [خیلی] منتخب روز با ما همراه باشید! 👇🏻 🌐 @KHABARCHII_IR
سلاح‌های خودکار و هوش مصنوعی قسمت یازدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ بحث در مورد چگونگی تنظیم سلاح‌های خودمختار در بسیاری از انجمن‌ها در حال انجام است. در سطح بین‌المللی، دولت‌ها از سال 2014 در مورد سلاح‌های خودمختار در کنوانسیون سازمان ملل درباره برخی سلاح‌های متعارف بحث می‌کنند. CCW یک مجمع بین‌المللی برای تنظیم سلاح‌هایی است که به نظر می‌رسد برای رزمندگان یا غیرنظامیان مضر هستند، مانند مین‌های زمینی و لیزرهای کورکننده. این شامل 126 کشور است و توافق نیاز به حمایت همه دولت‌های شرکت‌کننده دارد که دستوری برای اختلال در عملکرد است. روسیه و ایالات متحده، به ویژه، سرسختانه با معاهده ممنوعیت سلاح‌های خودمختار مخالفت کرده‌اند و استدلال می‌کنند که قوانین موجود در قانون جنگ برای رسیدگی به هرگونه آسیب احتمالی کافی است. ✍ ترجمه و تحقیق: علیرضا زمانیان @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت دوازدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛  به جای این رویکردهای متوقف شده، پنج ابتکار مکمل وجود دارد که کشورها می توانند برای کاهش خطر سلاح‌های خودمختار دنبال کنند. اول، دولت‌ها می‌توانند یک اصل گسترده را اتخاذ کنند که حداقل مشارکت انسانی لازم را در تصمیم گیری‌های مرگبار ایجاد کند. چنین اصلی می‌تواند به عنوان یک قانون الزام آور قانونی، یا از طریق CCW یا مجمع عمومی، یا می‌تواند یک اعلامیه الزام آور سیاسی باشد. این استاندارد باید مستلزم آن باشد که تصمیم گیرنده انسانی اطلاعات مشخص و کافی در مورد هدف مورد نظر، سلاح، محیط و زمینه حمله داشته باشد تا مشخص کند که آیا حمله قبل از اینکه مجاز باشد قانونی است یا خیر. کشورها همچنین می‌توانند توافق کنند که برای اینکه کنترل انسانی معنادار باشد، هرگونه استفاده از سلاح های خودمختار باید از نظر جغرافیایی، زمانی و اهداف مورد حمله محدود شود. اگرچه چنین اصلی همه سلاح‌های خودمختار را ممنوع نمی‌کند – در واقع، استفاده از آن‌ها را در هنگام پیروی از این قوانین مشروع می‌سازد، اما اصولی را در مورد نحوه استفاده کشورها از سلاح‌های خودمختار فراهم می‌کند و از دخالت انسان در حیاتی‌ترین تصمیم‌ها برای صدور مجوز حملات اطمینان می‌دهد. ✍ ترجمه و تحقیق: علیرضا زمانیان @siasiland
سیاست بدون خط خوردگی
سلاح‌های خودکار و هوش مصنوعی قسمت شانزدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ دولت‌ها می‌توانند قوانین یکسانی جاده‌ای را برای هواپیماهای بدون سرنشین خود مختار اتخاذ کنند تا خطر تصادفات را کاهش دهند. از آنجایی که کشورها هواپیماهای بدون سرنشین بیشتری را در هوا و دریا به کار می‌برند - و هر چه این پهپادها به طور فزاینده‌ای خودمختار می‌شوند - احتمال وقوع یک حادثه یا اشتباه محاسباتی می‌تواند باعث بروز یک حادثه بین‌المللی شود. برای مثال، در سال ۲۰۱۹، پدافند هوایی ایران یک پهپاد گلوبال هاوک آمریکا را بر فراز تنگه هرمز سرنگون کرد. در مارس ۲۰۲۳، یک جت جنگنده روسی با هواپیمای بدون سرنشین ام کیو-۹ ریپر آمریکا در دریای سیاه تداخل کرد و باعث سقوط این پهپاد شد. از آنجایی که این پهپادها از راه دور کنترل می شدند، یک انسان تصمیم گرفت که چگونه پاسخ دهد. اما پهپادهای هوایی و دریایی آینده می‌توانند مستقل باشند. این بدان معناست که اگر موقعیت‌های مشابهی اتفاق بیفتد، پهپاد به طور مستقل اقداماتی را که برای انجام آن برنامه ریزی شده بود انجام می‌دهد. اگر برای شلیک برنامه‌ریزی شده بود، این کار را انجام می‌داد و به طور بالقوه یک حادثه بین‌المللی را بدون هیچ تصمیم عمدی انسانی برای انجام آن تشدید می‌کرد. دولت‌ها باید اطمینان حاصل کنند که هر گونه رفتار خودمختار با نیت انسان سازگار است. توافقنامه حوادث دریایی ایالات متحده و شوروی در سال 1972 به کاهش تعداد حوادث برنامه ریزی نشده بین نیروی دریایی ایالات متحده و شوروی در طول جنگ سرد کمک کرد. یک توافقنامه حوادث خودمختار مشابه به کشورها کمک می‌کند تا از خطرات ناشی از دوئل سیستم‌های خودگردان مستقر در مناطق مورد مناقشه عبور کنند و از حوادث ناخواسته و برنامه ریزی نشده اجتناب کنند. ✍ ترجمه و تحقیق: علیرضا زمانیان ——————— با ما همراه باشید! 👇🏻 🌐 @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت سیزدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ دولت‌ها می‌توانند سلاح‌های خودمختار را که مردم را هدف قرار می‌دهند، ممنوع کنند. در دنیایی که بسیاری از رزمندگان یونیفورم نمی‌پوشند، حتی انسان‌ها نیز اغلب برای تشخیص دقیق غیرنظامیان از سربازان تلاش می‌کنند. الگوریتم‌ها برای نتیجه‌گیری اینکه فردی که تفنگ در دست دارد یک مبارز است یا یک کشاورز که از زمین خود محافظت می‌کند، کار بسیار سخت‌تری خواهد داشت. همچنین احتمال کمتری وجود دارد که یک ماشین بتواند به طور دقیق و قابل اعتماد تشخیص دهد که آیا یک سرباز واقعاً در تلاش تسلیم شدن است یا فقط تظاهر به تسلیم شدن دارد. در نتیجه، تسلیحات خودمختار ضد نفر خطرات بیشتری نسبت به آنهایی دارند که فقط وسایل نقلیه یا تجهیزات را هدف قرار می‌دهند و آسیبی که این سلاح ها می‌توانند وارد کنند بسیار بیشتر از ارزش نظامی آنها است. دولت‌ها می‌توانند قبل از فراگیر شدن استفاده از آنها را ممنوع کنند. ✍ ترجمه و تحقیق: علیرضا زمانیان ——————— با ما همراه باشید! 👇🏻 🌐 @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت چهاردهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ کشورها می‌توانند بهترین شیوه‌ها را برای آزمایش هوش مصنوعی نظامی و سیستم‌های خودمختار برای جلوگیری از حوادث منتشر کنند. هدف اصلی بیانیه سیاسی سال 2023 به رهبری ایالات متحده این است که با بهبود آزمایش، اطمینان حاصل شود که سیستم‌های هوش مصنوعی نظامی ایمن هستند. واشنگتن باید پا را فراتر بگذارد و بهترین شیوه‌های آزمایش سیستم‌های هوش مصنوعی را برای بهبود ایمنی آنها با دیگر کشورها به اشتراک بگذارد. این کار می‌تواند به روشی مشابه نحوه اشتراک‌گذاری اطلاعات مربوط به فرآیند بازبینی سلاح‌های قانونی توسط ایالات متحده، بدون انتشار محتوای بازبینی‌های خاص انجام شود. دولت‌ها می‌توانند قبل از فراگیر شدن استفاده از سلاح‌های خود مختار ضد نفر را ممنوع کنند. ✍ ترجمه و تحقیق: علیرضا زمانیان @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت پانزدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ ایالات متحده باید با بریتانیا شریک شود تا دیگر قدرت‌های هسته‌ای را متقاعد کند تا توافقی را دنبال کنند که کنترل دقیق انسانی بر سلاح‌های هسته‌ای را تضمین کند. لندن به دلیل سیاست حفظ کنترل انسانی بر زرادخانه هسته‌ای خود شریک مناسبی برای این تلاش است. تضمین بیانیه‌های یکجانبه مشابه از دیگر قدرت‌های هسته‌ای یا در حالت ایده‌آل، یک توافق چندجانبه، گام مهمی در جهت اطمینان از اینکه خطرناک‌ترین سلاح‌های بشریت در کنترل انسان‌ها باقی می‌ماند، خواهد بود. توافق میان پنج عضو دائمی شورای امنیت سازمان ملل متحد بیانیه‌ای قدرتمند خواهد بود. واشنگتن همچنین باید در مذاکرات جدید هوش مصنوعی دوجانبه آمریکا و چین، پکن را در مورد این موضوع تحت فشار قرار دهد. ✍ ترجمه و تحقیق: علیرضا زمانیان @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت هفدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ این ابتکارات برای مقابله با خطرات تسلیحات خودمختار می‌تواند با هم یا جداگانه، از طریق کانال‌های مختلف و در بازه‌های زمانی مختلف دنبال شود. CCW، مجمع عمومی، ابتکار بیانیه سیاسی به رهبری ایالات متحده، شورای امنیت، گفتگوهای دوجانبه ایالات متحده و چین، و دیگر مجامع چندجانبه، همگی فضاهایی برای همکاری جهانی هستند که باید مورد توجه قرار گیرند. همکاری واشنگتن با پکن بسیار مهم خواهد بود. توافق بین ایالات متحده و چین، به عنوان ابرقدرت‌های نظامی، اقتصادی و تکنولوژیکی پیشرو در جهان، گامی دشوار و در عین حال حیاتی به جلو در مدیریت خطرات سلاح های خودمختار خواهد بود. ✍ ترجمه و تحقیق: علیرضا زمانیان @siasiland
سلاح‌های خودکار و هوش مصنوعی قسمت هجدهم شورای روابط خارجی ایالات متحده آمریکا در مقاله‌ای معتقد است؛ سلاح‌های خودمختار می‌آیند. تلاش برای ممنوعیت کامل آنها، هرچند به معنای خوب، احتمالاً بیهوده است. ارزش نظامی آنها خیلی زیاد است. با این حال کشورها در مورد نحوه استفاده از تسلیحات خودمختار حق انتخاب دارند. بدون محدودیت‌های مؤثر، سلاح‌های خودمختار کنترل انسان بر جنگ را کاهش می‌دهند، خطر بیشتری را برای غیرنظامیان و رزمندگان ایجاد می‌کنند و ثبات بین‌المللی را تضعیف می‌کنند. برای مقابله با بدترین خطرات این تسلیحات باید فوراً اقداماتی انجام شود. انجام این کار مستلزم حرکت فراتر از انتخاب ساده و گمراه‌کننده کنونی بین ممنوعیت همه سلاح‌های خودمختار و بدون محدودیت است. ✍ ترجمه و تحقیق: علیرضا زمانیان ——————— با ما همراه باشید! 👇🏻 🌐 @siasiland