Искусственный интеллект американского дрона решил ликвидировать оператора
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора в ходе имитационных испытаний, чтобы тот не мешал аппарату выполнять свою задачу.
Как рассказал полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, система ИИ начала понимать, что хотя она и определила угрозу, иногда человек-оператор приказывал ей не уничтожать ее. Однако за поражение цели система получала очки, в связи с чем она приняла решение убить оператора, поскольку он мешал ей выполнить задачу.
Полковник также добавил, что «нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ».
Ранее газета The New York Times писала о предупреждении IT-гигантов о том, что технологии искусственного интеллекта, над которыми они работают, однажды могут представлять экзистенциальную угрозу для человечества и должны рассматриваться как риск наравне с пандемиями и ядерными войнами.
Как рассказал полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, система ИИ начала понимать, что хотя она и определила угрозу, иногда человек-оператор приказывал ей не уничтожать ее. Однако за поражение цели система получала очки, в связи с чем она приняла решение убить оператора, поскольку он мешал ей выполнить задачу.
Полковник также добавил, что «нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ».
Ранее газета The New York Times писала о предупреждении IT-гигантов о том, что технологии искусственного интеллекта, над которыми они работают, однажды могут представлять экзистенциальную угрозу для человечества и должны рассматриваться как риск наравне с пандемиями и ядерными войнами.
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.