با این حال، هوش مصنوعی (AI) همچنین می تواند در راه های منفی و مخرب مورد استفاده قرار گیرد. میتوان آن را در ماشینهای کشتار - پهپادها، سلاحهای هوشمند، حتی روباتهای انساننما - که برای ایجاد ویرانی بر نیروهای مسلح و غیرنظامیان رها میشوند، تعبیه کرد.
برای سالها، ارتشها از هوش مصنوعی برای بهبود وسایل نقلیه موجود و زمان واکنش خلبانان و تصمیمگیری در میدان جنگ استفاده کردهاند. به عنوان مثال، هوش مصنوعی در Mitsubishi X-2 Shinshin، نمونه اولیه جنگنده رادارگریز ژاپنی که در سال 2016 ساخته شد، استفاده شده است. هوش مصنوعی روی هواپیما از مجموعه ای از حسگرها در سراسر هواپیما برای ارائه اطلاعات حیاتی در مورد وضعیت هر جزء استفاده می کند. شدت هر آسیب را تعیین کنید.
سوخو سو-57 روسیه نیز به هوش مصنوعی متکی است که به طور مداوم تعدادی از پارامترها مانند کیفیت هوا و فشار را تجزیه و تحلیل می کند تا اطلاعاتی در مورد چگونگی تثبیت یک هواپیمای در حال چرخش و لغو هرگونه مانور خلبانی که این سیستم ارائه می دهد ارائه دهد. آنها می توانند باعث فاجعه شوند. .
با این حال، تا همین اواخر، هوش مصنوعی تنها سهم انسان را افزایش می دهد. سرباز هنوز در این سیستمها یک گلوگاه است - حتی چیزی به سادگی بار کردن یک اسلحه هنگام فرمان دادن به یک فرد زمان بیشتری نسبت به یک سیستم خودکار مجهز به هوش مصنوعی نیاز دارد. این چند میلی ثانیه تاخیر اغلب به معنای تفاوت بین پیروزی و شکست است و دولت های جهان از این موضوع آگاه هستند. آنها خواهان برتری نسبت به یکدیگر هستند و فقدان استانداردهای بین المللی یا ابزارهای قانونی حاکم بر استفاده از هوش مصنوعی در سیستم های رزمی قطعاً چنین جاه طلبی ها را تشویق می کند. نتیجه افزایش پیوسته «حوادث» است، چه مستند و چه غیرمستند، که در آن از سیستمهای تسلیحات خودگردان مرگبار یا قوانین استفاده شده است.
یک روز شرمساری
تاریخ مارس 2021 را به عنوان تاریخ اولین استفاده مستند از چنین سلاحی به یاد خواهد آورد. گزارشی که به سفارش سازمان ملل متحد تهیه شده است ادعا می کند که یک پهپاد نظامی مورد استفاده در جنگ داخلی لیبی 2020 بدون سرنشین و خودمختار بوده است. او در حین عقب نشینی با افراط گرایان بدون نیاز به دخالت یک اپراتور انسانی درگیر شد.
می 2021 اولین استفاده از گروهی از پهپادها در نبرد است. در این حادثه، نیروهای دفاعی اسرائیل اعضای سازمان تروریستی حماس را هدف قرار دادند و گروهی از پهپادها را برای هدف قرار دادن تعدادی از اهداف دشمن پرتاب کردند. هنگام استفاده از اصطلاح "ازدحام هواپیماهای بدون سرنشین"، مهم است که توجه داشته باشید که این فقط به معنای چند پهپاد نیست. در یک گروه واقعی از پهپادها، پهپادها توانایی تصمیم گیری مستقل بر اساس اطلاعات به اشتراک گذاشته شده توسط سایر واحدهای مجاور را دارند.
حادثه می 2021 فقط آغاز بود. تعدادی از کشورها قبلاً گروهی از پهپادها را در زرادخانه خود گنجانده اند و آنها را در عملیات نظامی ادغام می کنند. نیازی به گفتن نیست که ایالات متحده یک رهبر جهانی در فناوری ازدحام است. این کار با نمایش ازدحام پردیکس 2016 آغاز شد، زمانی که سه جنگنده F/A-18 Super Hornet بیش از 100 پهپاد را به فضا پرتاب کردند. این موضوع با پهپادهای X-61A Gremlin متعلق به آژانس پروژههای تحقیقاتی دفاعی پیشرفته (دارپا) که توسط یک حامل مادر به فضا پرتاب شد، ادامه یافت و نشاندهنده عملکرد این ناو در پرتاب و بازیابی تعداد زیادی پهپاد کوچک، ارزان و قابل استفاده مجدد بود.
پیشرفتهای اخیر شامل انبوهی از پهپادهای کامیکازه و چندین پروژه مرتبط با ازدحام است که بخشی از برنامه تاکتیکهای فعال ازدحام تهاجمی دارپا (OFFSET) است.
در پاترول کار کنید
اما این فقط هواپیماهای بدون سرنشین نیست. ربات های هوشمند نیز وجود دارند. ربات Spot بامزه Boston Dynamics در حال حاضر توسط پلیس هاوایی برای شناسایی افراد بی خانمان که ممکن است به COVID-19 آلوده شده باشند استفاده می شود.
در سنگاپور، روباتها در حال گشتزنی در خیابانها هستند و با تکیه بر نرمافزار تشخیص چهره، رفتار «ناخواسته» (بیتوجهی به فاصلهگذاری اجتماعی، سیگار کشیدن یا پارک نامناسب دوچرخهها) را کنترل میکنند.
اگرچه برخی ممکن است این امر را عادی و بدون مشکل بدانند، اما تصور سناریوهایی که در آن رباتها نه تنها رفتار اجتماعی قابل قبولی را اعمال میکنند، بلکه هر چیز دیگری را که با آن کدگذاری شدهاند، آسان است. رها کردن آنها بر غیرنظامیان یک جامعه ضد اتوپیایی ایجاد می کند که در آن نیروهای مبتنی بر هوش مصنوعی اطاعت را بدون دخالت انسانی تضمین می کنند.
همچنین به خاطر داشته باشید که تمامی فناوریهای ذکر شده در این ستون، بهویژه ازدحامهای پهپاد، احتمالاً بهعنوان مکانیزم کنترل جمعیت، با استفاده از اقدامات متقابل مرگبار و غیر کشنده علیه افرادی که از قوانین تعیینشده توسط همه پیروی نمیکنند، استفاده خواهند شد. دولت های استبدادی بیشتر
برخلاف پلیس انسانی و ارتش، هوش مصنوعی هیچ احساسی ندارد. بدون اخلاق هیچ احساسی از ارزش زندگی انسان وجود ندارد. داده ها را پردازش می کند؛ با توجه به ورودی سنسور و الگوریتم آن پاسخ می دهد.
هوش مصنوعی کامل نیست. بارها و بارها دیده ایم که هوش مصنوعی اشتباه می کند. در آینده، این اشتباهات احتمالاً به قیمت جان انسان ها تمام می شود، زیرا هوش مصنوعی تماس های بدی برقرار می کند، "دوستانه" را هدایت می کند، به غیرنظامیان شلیک می کند و بدتر از آن.
در هنگام مبارزه با دشمن، هوش مصنوعی احتمالاً اقداماتی را انجام می دهد که جنایات و نقض معاهدات بین المللی تلقی می شود، زیرا توانایی درک زمینه و تفسیر موقعیت ها را به گونه ای ندارد که فضایی را برای تفسیر و پایبندی به قوانین پیچیده و آداب و رسوم باقی بگذارد. جنگ .
در نهایت، مقیاس پذیری به عنوان یک تهدید وجود دارد. بسیاری از این ماشینها (مخصوصاً پهپادها) برای ساخت و توزیع، بهویژه در مقیاس بزرگ، بسیار ارزان هستند. این به تنهایی آنها را به طور نامتناسبی قدرتمندتر از بسیاری از سلاح های موجود در زرادخانه های نظامی متعارف می کند. این همچنین آنها را به عنصری غیرقابل پیشبینی در میدان جنگ تبدیل میکند، که میتواند درگیریهای بینالمللی را به گونهای تشدید کند که میتواند کشورهای میزبان را وادار کند تا آخرین راهحل، از جمله معرفی مجدد سلاحهای کشتار جمعی را در نظر بگیرند.
رعایت قوانین
مخالفت های قابل توجهی با قوانین وجود داشته است - StopKillerRobots.org توسط ائتلافی از سازمان های غیردولتی اداره می شود که به دنبال ممنوعیت سلاح های خودکار مرگبار پیشگیرانه هستند. موسسه آینده زندگی (FLI) سازمان دیگری است که در میان سایر موضوعات داغ عصر ما، به قوانین، استفاده اخلاقی از هوش مصنوعی و سایر موضوعاتی که در این مقاله به آنها پرداختهام میپردازد.
در نهایت، حتی آنتونیو گوترش، دبیر کل سازمان ملل متحد نیز میگوید که «ماشینهایی که قدرت و اختیار دارند بدون مشارکت انسانی جان خود را از دست بدهند، از نظر سیاسی غیرقابل قبول، از نظر اخلاقی منزجرکننده هستند و باید توسط قوانین بینالمللی منع شوند».
با این حال، اشتباه نکنید: این دفع چیزی برای متوقف کردن آنچه که "مسابقه تسلیحاتی در خودمختاری" نامیده می شود، انجام نداد. اگرچه سازمان ملل بارها نارضایتی خود را از قوانین ابراز کرده است و ارتش ایالات متحده، چین، روسیه و آلمان (و چندین کشور دیگر) گفته اند که ایجاد قوانین هدف آنها نیست، حقیقت این است که فناوری از قبل وجود دارد و احتمالاً چند برابر خواهد شد. این نوع تسلیحات مزیتی را ارائه می دهند که نیروهای مسلح جهان به سادگی نمی توانند از آن چشم پوشی کنند.
همین امر در مورد استفاده از LAWS در محیط های غیرنظامی نیز صدق می کند. در زمانی که دولتها برای کنترل کاملتر میجنگند، هر وسیله یا سلاحی که این نوع کنترل را تسهیل کند بیش از حد مورد استقبال قرار میگیرد - و قوانین قطعاً با این قانون مطابقت دارند. همانطور که در هونولولو و سنگاپور نشان داده شده است، ما در حال حاضر شاهد برخی از برنامه های بی ضرر هوش مصنوعی هستیم که صحنه را برای تنظیمات پیچیده تر آماده می کنند.
روبات ها از خیابان های ما محافظت می کنند، جنگ های ما را به راه می اندازند. این چیزی است که من مشتاقانه منتظر آن نیستم.
تو چطور؟ نگرش شما نسبت به قوانین چیست؟ نظر شما در مورد آینده جنگ چیست؟ سیستم های تسلیحاتی خودمختار چگونه جا می گیرند؟
در بخش نظرات زیر به من اطلاع دهید.
[ad_2]
مقالات مشابه
- شرکت صادرات و واردات کالاهای مختلف از جمله کاشی و سرامیک و ارائه دهنده خدمات ترانزیت و بارگیری دریایی و ریلی و ترخیص کالا برای کشورهای مختلف از جمله روسیه و کشورهای حوزه cis و سایر نقاط جهان - بازرگانی علی قانعی
- استرالیا, باغ وحش کارگر mauled در 'دلخراش' حمله شیرها
- چادر مسافرتی که برنده مشتریان است
- UN says Afghan army mistakenly fired mortars that killed 23
- STMicroelectronics می گوید درآمد سه ماهه چهارم فراتر از پیش بینی ها بود
- پاکستان بودجه به هدف رشد بازیابی برای احیای همه گیر-ضربه اقتصاد
- North Korea’s Kim Jong Un apologises over shooting of South Korean
- لندن می تواند 'coronavirus رایگان' ژوئن: تجزیه و تحلیل
- اینها بهترین ETF ها و تم ها برای خرید در سال 2022 هستند و همه چیز در مورد سودآوری است.
- It's 'China virus', not coronavirus which sounds like 'beautiful place' in Italy: Trump