Застосування штучного інтелекту (АІ) в сфері озброєння зростає. Розробники використовують технології АІ для зменшення кількості солдат та уникнення їх потрапляння в смертельну небезпеку. Така зброя може вражати об’єкти та населення без прямої участі людей. Але настільки інтенсивне використання подібних технологій в озброєнні тривожить науковців, оскільки така зброя стає непередбачуваною. Про це повідомляє IBT.
В серпні 116 експертів з АІ, в тому числі ї Ілон Маск, підписали відкритого листа до ООН із вимогою заборонити розробку автономної летальної зброї. У листі зазначалось, що зброя, розроблена із застосуванням технологій штучного інтелекту є «третьою революцією в озброєнні» після винаходження пороху та ядерної зброї.
ООН у відповідь організувала нараду, на яку зібрались провідні експерти з АІ-технологій. До участі долучились 70 країн – членів ООН. Ця зустріч стала першою офіційною міжурядовою дискусією щодо того, як автономна зброя вплине на майбутнє міжнародної безпеки.
Конвенція про конкретні види звичайної зброї була прийнята ще в 1980 році, до неї не було внесено жодних змін після астрономічного розвитку, інтеграції безпілотних літальних апаратів та впровадження АІ в сферу озброєння.
«Прийшов час для країн переходити від розмов щодо етичних та інших проблем, пов’язаних зі смертельними загрозами, які несе автономна зброя, до прийняття профілактичних заходів», – заявила координатор кампанії із зупинення роботів-убивць Мері Верем та закликала заборонити зброю, яка може обирати по кому стріляти та робить це без контролю з боку людини.
Інша кампанія стосувалась заборони дронів-убивць. Координатори показали відео, на якому такий безпілотник, використовуючи функцію розпізнавання облич, здійснив масове вбивство в одном із навчальних закладів.
Нагадаємо: провідний фізик Стівен Гокінг під час технологічної конференції Web Summit у Лісабоні сказав, що поява штучного інтелекту може стати «найгіршою подією в історії нашої цивілізації»