خبر های ویژه

بعد از دعوا. فیزیکدان وسوولود در دانشگاه مسکو

6 آذر 1402

قوانین جدید برچسب‌گذاری اتحادیه اروپا برای ماندگاری طولانی‌تر باتری‌ها و دور نگه داشتن آنها از محل‌های دفن زباله

28 آبان 1402

هوش مصنوعی به این معنی است که مردم دیگر نیازی به کار ندارند.

12 آبان 1402

هوای پاک از فناوری دریچه مکش کنار جاده ای

11 آبان 1402

تماس صوتی و تصویری از ایکس

4 آبان 1402

آمازون برای اینترنت ماهواره ای قدم جلو می گذارد

18 مهر 1402

توضیح شرکت «اپل» درباره دلیل داغ شدن بیش از حد آیفون ۱۵

12 مهر 1402

کیف پول رمزگذاری شده در تلگرام

1 مهر 1402

تفسیر قدقد مرغ ها با هوش مصنوعی

31 شهریور 1402

اتومبیل‌های شاسی بلند و وانت های بزرگ‌تر باعث ایجاد یک بحران ایمنی در خیابان‌ها می‌شوند

15 مرداد 1402

هوش مصنوعی برنده مسابقه هوش مصنوعی است

13 مرداد 1402

از توییتر تا X: ایلان ماسک شروع به پاک کردن یک برند اینترنتی نمادین می کند

3 مرداد 1402

چگونه آژانس های حمل و نقل برای اختلالات ترافیکی در مقیاس بزرگ برنامه ریزی می کنند

9 تیر 1402

خلق جنین انسان بدون نیاز به اسپرم و تخمک

25 خرداد 1402

هیدروژن چیست و آیا واقعاً می تواند به یک راه حل تغییر آب و هوا تبدیل شود؟

22 خرداد 1402

جعبه سیاه چیست؟

2 خرداد 1402

6 اسفند 1401

جنگ در اوکراین حرکت جهانی به سمت روبات های قاتل را تسریع می کند

هوش مصنوعی تسلیحاتی آینده جنگ است

ارتش ها درس مهمی در سراسر جهان از عملیات های جنگی اخیر در اوکراین و قره باغ گرفته اند: هوش مصنوعی تسلیحاتی آینده جنگ است. ..................کمپین توقف ربات‌های قاتل، همراه با دیده‌بان حقوق بشر، استدلال می‌کند که سیستم‌های تسلیحاتی خودمختار فاقد قضاوت انسانی لازم برای تمایز بین غیرنظامیان و اهداف نظامی قانونی هستند. آنها همچنین با کاهش خطرات درک شده، آستانه جنگ را پایین می آورند و کنترل معنادار انسان را بر آنچه در میدان نبرد اتفاق می افتد از بین می برند. این سازمان‌ها استدلال می‌کنند که ارتش‌هایی که بیشترین سرمایه‌گذاری را روی سیستم‌های تسلیحاتی خودمختار انجام می‌دهند، از جمله ایالات متحده، روسیه، چین، کره جنوبی و اتحادیه اروپا، جهان را وارد یک مسابقه تسلیحاتی جدید پرهزینه و بی‌ثبات می‌کنند. یک پیامد می تواند این باشد که این فناوری جدید خطرناک به دست تروریست ها و دیگران خارج از کنترل دولت بیفتد.

تبریز امروز:

 

جنگ در اوکراین حرکت جهانی به سمت روبات های قاتل را تسریع می کند

ارتش ایالات متحده در حال افزایش تعهد خود به توسعه و استفاده از تسلیحات خودمختار است، همانطور که با به روز رسانی دستورالعمل وزارت دفاع تأیید شده است. این به روز رسانی که در 25 ژانویه 2023 منتشر شد، اولین مورد در یک دهه است که بر روی سلاح های خودران هوش مصنوعی تمرکز می کند. این به دنبال یک طرح اجرایی مرتبط است که توسط ناتو در 13 اکتبر 2022 منتشر شد، که با هدف حفظ "نقطه فن آوری" اتحاد در آنچه که گاهی اوقات "ربات های قاتل" نامیده می شود، انجام می شود.

هر دو اعلامیه منعکس کننده درس مهمی است که ارتش ها در سراسر جهان از عملیات های جنگی اخیر در اوکراین و قره باغ گرفته اند: هوش مصنوعی تسلیحاتی آینده جنگ است.

ریچارد مویز، مدیر ماده 36، یک سازمان بشردوستانه متمرکز بر کاهش آسیب های ناشی از سلاح ها، در مصاحبه ای با من گفت: "ما می دانیم که فرماندهان ارزش نظامی در مهمات سرگردان در اوکراین می بینند." این سلاح‌ها که تلاقی بین بمب و پهپاد هستند، می‌توانند برای مدت‌های طولانی در حال انتظار برای رسیدن به هدف باشند. او گفت که در حال حاضر، چنین موشک های نیمه خودران عموماً با کنترل قابل توجه انسانی بر تصمیمات کلیدی مورد استفاده قرار می گیرند.

روبات های قاتل

فشار جنگ
اما با افزایش تلفات در اوکراین، فشار برای دستیابی به مزیت های تعیین کننده در میدان نبرد با سلاح های کاملاً خودمختار نیز افزایش می یابد - روبات هایی که می توانند بدون نیاز به نظارت انسانی، اهداف خود را انتخاب، شکار و حمله کنند.

در این ماه، یک تولیدکننده مهم روسی اعلام کرد که قصد دارد نسخه جنگی جدیدی از ربات شناسایی مارکر خود را توسعه دهد، یک وسیله نقلیه زمینی بدون سرنشین، تا نیروهای موجود در اوکراین را تقویت کند. پهپادهای کاملاً خودمختار در حال حاضر برای دفاع از تأسیسات انرژی اوکراین در برابر سایر پهپادها استفاده می شوند. وحید نوابی، مدیرعامل پیمانکار دفاعی ایالات متحده که پهپاد نیمه خودران سوئیچ بلید را تولید می کند، گفت که این فناوری در حال حاضر برای تبدیل این تسلیحات به حالت کاملا خودمختار در دسترس است.

میخائیلو فدوروف، وزیر تحول دیجیتال اوکراین، استدلال کرده است که سلاح‌های کاملاً خودمختار «گام بعدی منطقی و اجتناب‌ناپذیر» جنگ هستند و اخیراً گفته است که سربازان ممکن است آنها را در شش ماه آینده در میدان نبرد ببینند.

طرفداران سیستم های تسلیحاتی کاملاً خودمختار استدلال می کنند که این فناوری با دور نگه داشتن سربازان از میدان جنگ، آنها را از خطر دور نگه می دارد. آنها همچنین اجازه می دهند تا تصمیمات نظامی با سرعت فوق بشری گرفته شود و قابلیت های دفاعی به طور اساسی بهبود یابد.

در حال حاضر، سلاح های نیمه خودران، مانند مهمات پرسه زن که خود را بر روی اهداف ردیابی و منفجر می کنند، به یک "انسان در حلقه" نیاز دارند. آنها می توانند اقداماتی را توصیه کنند اما از اپراتورهای خود می خواهند که آنها را آغاز کنند.

در مقابل، پهپادهای کاملاً خودمختار، مانند به اصطلاح «شکارچی‌های هواپیماهای بدون سرنشین» که اکنون در اوکراین مستقر شده‌اند، می‌توانند هواپیماهای بدون سرنشین ورودی را در روز و شب، بدون نیاز به مداخله اپراتور و سریع‌تر از سیستم‌های تسلیحاتی کنترل‌شده توسط انسان، ردیابی و غیرفعال کنند.

تماس برای تایم اوت
منتقدانی مانند کمپین توقف ربات‌های قاتل بیش از یک دهه است که از ممنوعیت تحقیق و توسعه سیستم‌های تسلیحاتی خودمختار حمایت می‌کنند. آنها به آینده ای اشاره می کنند که در آن سیستم های تسلیحاتی خودمختار به طور خاص برای هدف قرار دادن انسان ها طراحی شده اند، نه فقط وسایل نقلیه، زیرساخت ها و سایر سلاح ها. آنها استدلال می کنند که تصمیمات زمان جنگ در مورد زندگی و مرگ باید در دستان انسان باقی بماند. تبدیل آنها به یک الگوریتم به شکل نهایی غیرانسانی سازی دیجیتالی است.

کمپین توقف ربات‌های قاتل، همراه با دیده‌بان حقوق بشر، استدلال می‌کند که سیستم‌های تسلیحاتی خودمختار فاقد قضاوت انسانی لازم برای تمایز بین غیرنظامیان و اهداف نظامی قانونی هستند. آنها همچنین با کاهش خطرات درک شده، آستانه جنگ را پایین می آورند و کنترل معنادار انسان را بر آنچه در میدان نبرد اتفاق می افتد از بین می برند.

سربازی روی زمین خم می شود و به جعبه سیاه نگاه می کند تا پرتابه های کوچک با بال از لوله های دو طرف او پرتاب می شود.

این تصویر ترکیبی یک پهپاد مهمات سرگردان «Switchblade» را نشان می‌دهد که از یک لوله پرتاب می‌شود و بال‌های تا شده خود را دراز می‌کند.
این سازمان‌ها استدلال می‌کنند که ارتش‌هایی که بیشترین سرمایه‌گذاری را روی سیستم‌های تسلیحاتی خودمختار انجام می‌دهند، از جمله ایالات متحده، روسیه، چین، کره جنوبی و اتحادیه اروپا، جهان را وارد یک مسابقه تسلیحاتی جدید پرهزینه و بی‌ثبات می‌کنند. یک پیامد می تواند این باشد که این فناوری جدید خطرناک به دست تروریست ها و دیگران خارج از کنترل دولت بیفتد.

دستورالعمل به روز شده وزارت دفاع تلاش می کند برخی از نگرانی های کلیدی را برطرف کند. اعلام می کند که ایالات متحده از سیستم های تسلیحاتی خودمختار با "سطوح قضاوت انسانی مناسب در مورد استفاده از زور" استفاده خواهد کرد. دیده‌بان حقوق بشر بیانیه‌ای صادر کرد و گفت که دستورالعمل جدید معنای عبارت «سطح مناسب» را روشن نمی‌کند و دستورالعمل‌هایی را برای تعیین آن تعیین نمی‌کند.

اما همانطور که گرگوری آلن، کارشناس اندیشکده دفاع ملی و روابط بین‌الملل مرکز مطالعات استراتژیک و بین‌المللی، استدلال می‌کند، این زبان آستانه پایین‌تری نسبت به «کنترل معنی دار انسانی» که منتقدان درخواست می‌کنند، ایجاد می‌کند. او خاطرنشان می کند که عبارت وزارت دفاع این امکان را فراهم می کند که در موارد خاص، مانند هواپیماهای جاسوسی، سطح کنترل انسانی مناسب در نظر گرفته شود «ممکن است کم باشد یا هیچ».

دستورالعمل به روز شده همچنین شامل زبان نویدبخش استفاده اخلاقی از سیستم های تسلیحاتی خودمختار است، به ویژه با ایجاد یک سیستم نظارت برای توسعه و به کارگیری فناوری، و با اصرار بر استفاده از سلاح ها مطابق با قوانین بین المللی جنگ موجود. اما مویس در موضوع  ماده 36 خاطرنشان کرد که حقوق بین‌الملل در حال حاضر چارچوب مناسبی برای درک مفهوم استقلال سلاح و حتی بیشتر از آن تنظیم نمی‌کند.

برای مثال، چارچوب قانونی کنونی روشن نمی‌کند که فرماندهان مسئول درک این هستند که چه چیزی سیستم‌هایی را که استفاده می‌کنند راه‌اندازی می‌کند، یا اینکه باید محدوده و زمانی را که این سیستم‌ها در آن عمل می‌کنند محدود کنند. مویس گفت: "خطر این است که مرز روشنی بین جایی که اکنون هستیم و جایی که غیرقابل قبول بودن را پذیرفته ایم وجود ندارد."

تعادل غیر ممکن؟
به روز رسانی پنتاگون نشان دهنده تعهد همزمان به استقرار سیستم های تسلیحاتی خودمختار و رعایت قوانین بشردوستانه بین المللی است. اینکه ایالات متحده چگونه این تعهدات را متعادل خواهد کرد و آیا چنین توازنی حتی ممکن است، باید دید.

کمیته بین‌المللی صلیب سرخ، متولی حقوق بشردوستانه بین‌المللی، اصرار دارد که تعهدات قانونی فرماندهان و اپراتورها «نمی‌تواند به یک ماشین، الگوریتم یا سیستم تسلیحاتی منتقل شود». در حال حاضر، انسان ها مسئول حفاظت از غیرنظامیان و محدود کردن خسارات جنگی با اطمینان از متناسب بودن استفاده از زور با اهداف نظامی هستند.

اگر و زمانی که سلاح‌های هوشمند مصنوعی در میدان نبرد مستقر شوند، چه کسی باید در هنگام وقوع مرگ‌های غیرنظامی پاسخگو باشد؟ پاسخ روشنی برای این سوال بسیار مهم وجود ندارد.

ارتباط با تبریز امروز

اخبار ، گزارشات ، عکسها و فیلم های خود را برای ما ارسال دارید . برای ارسال میتوانید از طریق آدرس تلگرامی یا ایمیل استفاده کنید.

info@tabriz-emrooz.ir

اشتراک در خبرنامه

برای اطلاع از آخرین خبرهای تبریز امروز در کانال تلگرام ما عضو شوید.

کانل تلگرام تبریز امروز

فرم تماس با تبریز امروز

کلیه حقوق این سایت متعلق به پایگاه خبری تبریز امروز بوده و استفاده از مطالب آن با ذکر منبع بلامانع است.
طراحی وتولید توسططراح وب سایت