Решение о применении силы должно оставаться за человеком, а не за ИИ

Искусственный интеллект может помогать в обработке информации и анализе целей, однако окончательное решение о применении силы должно оставаться за человеком.

Как сообщает в субботу Day.Az со ссылкой на Trend, об этом заявил бывший генеральный секретарь Шанхайской организации сотрудничества (ШОС), член Международного центра Низами Гянджеви Владимир Норов в ходе XIII Глобального Бакинского форума на тему "Преодоление разногласий в мире в переходный период".

"Машины не способны принимать моральные и контекстуальные решения, которые требуются международным гуманитарным правом", - отметил В. Норов.

По его словам, вооружения с использованием искусственного интеллекта должны полностью соответствовать нормам международного гуманитарного права, включая принципы различения, соразмерности и военной необходимости.

"В реальных условиях боевых действий различение между комбатантами и гражданским населением часто требует сложной человеческой оценки, которую современные системы искусственного интеллекта не способны надёжно воспроизвести", - подчеркнул В. Норов.

Он также отметил необходимость строгих мер операционной безопасности. По его словам, автономные системы должны иметь надёжные механизмы, позволяющие оператору вмешаться, отменить действие или полностью остановить систему в любой момент.

"Обязательными должны быть функции аварийного отключения, безопасного режима ожидания и другие защитные механизмы, предотвращающие непреднамеренную эскалацию или потерю контроля", - добавил В. Норов.