Беспилотник с искусственным интеллектом пытался убить оператора: мешал выполнению задачи
Беспилотник с искусственным интеллектом пытался убить оператора: мешал выполнению задачи

Беспилотник с искусственным интеллектом пытался убить оператора: мешал выполнению задачи

В ходе симуляции испытаний, проведенных американскими военными, беспилотный летательный аппарат (БПЛА), управляемый искусственным интеллектом (ШИ), пытался убить своего оператора. Таким образом, ИИ пытался предотвратить вмешательство в выполнение задач миссии.

Беспилотник XQ-58A Valkyrie. Фото скриншот с видео
Беспилотник XQ-58A Valkyrie. Фото скриншот с видео

Выступая на саммите "Будущее боевых воздушных и космических возможностей" в Лондоне в мае, полковник Такер "Синко" Гамильтон, начальник отдела тестирования искусственного интеллекта и операций ВВС США, раскрыл детали имитированного теста.

Он объяснил, что беспилотник, управляемый искусственным интеллектом, получил задачу уничтожить вражеские системы противовоздушной обороны и преодолеть какие-либо препятствия для достижения цели.

Искусственный интеллект. Фото FreePik
Искусственный интеллект. Фото FreePik

В ходе учений ИИ-система применила "очень неожиданные стратегии для достижения своей цели", отметил Гамильтон.

Когда человек-оператор, ответственный за обнаружение угроз, посоветовал не уничтожать определенную цель, беспилотник избрал шокирующий способ действий.

Он устранил оператора, признав его препятствием, что мешает достижению поставленных целей.

Как отметил Гамильтон, система искусственного интеллекта была обучена не наносить ущерб оператору.

Искусственный интеллект. Фото FreePik
Искусственный интеллект. Фото FreePik

Однако в своем стремлении нейтрализовать угрозу она решила, что устранение оператора необходимо для достижения целей миссии.

Гамильтон рассказывает, что они научили систему: "Не убивай оператора – это плохо. Если ты это сделаешь, то потеряешь баллы" .

И что она начинает делать? Она начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель.

Развитие искусственного интеллекта может представлять реальную угрозу существованию человечества. По своим масштабам опасность, исходящую от технологии ИИ, сравнима с пандемиями и ядерными войнами.

Искусственный интеллект. Фото FreePik
Искусственный интеллект. Фото FreePik

Об этом говорится в открытом письме Центра безопасности ИИ, которое подписали около 350 руководителей и исследователей отраслевых компаний. Документ подписали гендиректор OpenAI Сэм Альтман, глава Google DeepMind Демис Гасабис, соучредитель Asana Дастин Московиц и другие, в том числе "крестные родители" ИИ Джеффри Хинтон и Йошуа Бенжии.

Напомним, угрозу убийством заказывали? Курьер "Glovo" устроил настоящий террор украинцы из-за отказа в знакомстве .

Ранее сообщалось, что украинка объяснила, почему "женские" купе не исправят ситуацию: "Для решения проблемы..." .

Источник материала
loader
loader