Пентагон інвестує $2 млрд в розвиток штучного інтелекту для військових потреб

Пентагон інвестує $2 млрд в розвиток штучного інтелекту для військових потреб

У відомстві працюють над можливістю наділити машини можливістю спілкуватися і думати

Пентагон інвестує $2 млрд в розвиток штучного інтелекту для військових потреб
фото pixabay.com

Міністерство оборони США витратить протягом наступних 5 років $2 млрд на розробки в сфері штучного інтелекту (АІ), повідомляє CNN.

Розвитком АІ в Пентагоні займається Управління перспективних дослідницьких проектів (Defense Advanced Research Projects Agency, DARPA). Співробітники цього підрозділу займаються вдосконаленням і впровадженням систем штучного інтелекту в різні зразки озброєння.

У Mind з'явився телеграм-канал Mind tweet, де ви першими отримуєте головні новини, що мають вплив на економіку та бізнес. Підпишіться, щоб зберегти ваш час та гроші.

У DARPA працюють над наділенням машин можливістю спілкуватися і думати, так само як це роблять люди. Про системи, які самостійно приймають рішення про нанесення удару і вибирають цілі, поки що не йдеться – це питання викликає найбільше дискусій і пересторог у суспільстві.

Крім того, американська влада розвиває системи на основі нейромереж, які дозволяють роботам швидко виявляти в мережі відеоролики, зображення та аудіозаписи з потенційно небезпечним контентом.

Зазначається, що інвестиції в DARPA невеликі за стандартами витрат Пентагону, де вартість нових бойових літаків F-35 перевищить $1 трлн. Однак ці заплановані витрати на АІ – поки що найбільші в історії розвитку галузі.

Як повідомлялося, цього літа близько 160 компаній, а також понад 2400  вчених і підприємців під час Міжнародної конференції зі штучного інтелекту (IJCAI) в Стокгольмі підписали договір, який передбачає відмову від розробки зброї зі штучним інтелектом.

Серед підписантів – засновник DeepMind Деміс Хассабіс, підприємець Ілон Маск, програміст і засновник Skype Жаан Таллінн. Ініціатори угоди закликають уряд узгодити норми, закони і правила, які навіки заборонять розробку роботів-вбивць на основі технологій штучного інтелекту. Поки такі заходи ще не введені на рівні законодавства, сторони, які підписали угоду, зобов'язуються «не брати участь і не підтримувати розробку, виробництво, торгівлю чи застосування смертоносної автономної зброї».

Загроза АІ полягає в тому, що летальна автоматична зброя здатна самостійно вибирати і націлюватися на об'єкт без втручання людини. Підприємці та вчені також звернулися в ООН з вимогою прийняти закони, що обмежують розробку бойових роботів.

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту editor@mind.ua
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло