«Майбутнє, в якому машини знищать людство, вже близько» – Amnesty Int. закликає заборонити роботів-убивць
Експерти в Женеві обговорюють етичний бік використання автоматизованих систем озброєння

Правозахисна організація Amnesty International закликає держави розпочати переговори з метою створення нового міжнародного права, яке б забороняло використання «роботів-убивць» – повністю автономних систем озброєння. Про це йдеться в заяві організації.
Увага до даного питання привертається в зв’язку з тим, що з 27 по 31 серпня в Женеві проходять переговори урядових експертів зі смертоносних автономних систем озброєнь (САС) під егідою ООН.
«Роботи-убивці перестають бути предметом наукової фантастики. Від безпілотників зі штучним інтелектом до автоматизованих гармат, які можуть самі вибирати ціль, технологічні досягнення в галузі озброєнь набагато випереджають міжнародне право. Ми наближаємося до майбутнього, коли людство можна буде знищити просто після чийогось рішення про застосування такої зброї», – зазначив Раша Абдул Рахім, дослідник і радник з питань штучного інтелекту і прав людини в Amnesty International.
За даними організації, в квітні 2018 року 26 держав оголосили про вимогу повністю заборонити таку зброю, в тому числі Австрія, Бразилія, Єгипет і Китай. Проти виступили держави, які, «як відомо, вже розробляють автономні системи озброєнь» – Франція, Ізраїль, Росія, Південна Корея, США і Великобританія.
«Ще не пізно змінити курс і припинити гонку озброєнь між певними державами, яка може призвести до широкого розповсюдження автономної зброї», – сказав Абдул Рахім.
Amnesty International закликає до створення обов’язкових юридично стандартів,згідно з якими люди мають залишатися в центрі «критичних функцій» систем озброєнь, таких як ідентифікація і відбір цілей. Тільки це може забезпечити дотримання міжнародного права і вирішувати етичні проблеми щодо рішення про життя і смерть, ідеться в заяві.
Перша сесія групи урядових експертів ООН щодо САС пройшла в Женеві в листопаді 2017 року. Тоді за повну заборону «роботів-вбивць» виступили понад 20 лауреатів Нобелівської премії миру, 150 релігійних лідерів і 3 тисячі фахівців зі штучного інтелекту.
Пропонуємо вам подивитися, до чого може призвести використання дронів-кіллерів:
Дрони кіллериСучасні технології вбивства: дрони-кіллери Уявіть, що з допомогою сучасних технологій ви зможете обрати свою жертву та завантажити інформацію у комп'ютер. А машини без вас впізнають ціль та знищать її Джерело: Stop Autonomous Weapons https://goo.gl/e8ynLx
Posted by Mind. UA on Monday, 20 November 2017
Нагадаємо, Китай випробував гіперзвуковий літальний апарат, який може прорвати будь-яку систему ПРО.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].