Люди должны иметь возможность осуществлять значимый контроль над системами с поддержкой ИИ.
Искусственный интеллект должен находиться под контролем человека, позволяя людям исправлять или отключать его в случае непредвиденного поведения, высказали мнение депутаты Европейского парламента.
В опубликованном депутатами отчете содержится призыв к ЕС по созданию правовой базы использования ИИ с определениями и этическими принципами, включая его использование в военных целях. Авторы документа также призывают ЕС и его государства-члены обеспечить гарантию того, что ИИ и связанные с ним технологии будут предназначены для служения человечеству и общему благу.
Как подчеркнули депутаты, человеческое достоинство и права должны уважаться во всей деятельности ЕС, связанной с обороной. Системы с поддержкой ИИ должны позволять людям осуществлять значимый контроль, предоставляя возможность брать на себя ответственность и подотчетность за их использование.
Использование автономных систем летального вооружения (lethal autonomous weapons systems — LAWS) поднимает фундаментальные этические и юридические вопросы по контролю над людьми. Решение выбрать цель и совершить летальное действие с использованием автономной системы вооружения всегда должно приниматься человеком, осуществляющим значимый контроль и суждение, в соответствии с принципами соразмерности и необходимости.
Депутаты призывают ЕС взять на себя ведущую роль в создании и продвижении глобальной структуры, регулирующей военное использование ИИ, наряду с ООН и международным сообществом.
Кроме того, более широкое использование систем искусственного интеллекта в государственных службах, особенно в здравоохранении и правосудии, не должно заменять человеческий контакт или вести к дискриминации. Людей всегда следует информировать, если в решении ситуации принимает участие ИИ, и предоставлять возможность обжаловать это.
Депутаты Европарламента также предупредили об угрозах фундаментальным правам человека и государственному суверенитету, возникающих в результате использования технологий искусственного интеллекта для массового гражданского и военного наблюдения. Они призывают к запрету государственным органам использовать «крайне навязчивые приложения социальной оценки». В отчете также высказываются опасения по поводу «дипфейк-технологий», которые могут «дестабилизировать страны, распространять дезинформацию и влиять на выборы». Создатели подобного контента должны маркировать такие материалы как «не оригинальные», и необходимо провести дополнительные исследования технологий, чтобы противодействовать этому явлению.
Источник: securitylab