Ученые требуют моратория на развитие ИИ.

Искусственный интеллект в настоящее время находит применение в самых разных сферах, в некоторых из которых он даже стал абсолютно незаменимым. Мы редко задумываемся о том, что он может принести немало вреда, если будет использоваться неправильно или попадет в недобрые руки. Некоторые исследователи полагают: ИИ представляет серьезную опасность для человечества. Среди ученых, открыто заявляющих о своей позиции: Элиезер Юдковский, Бриттани Смит, Макс Тегмарк и другие. Недавно они даже подписали открытое письмо , в котором призывают коллег повременить с развитием ИИ и направить силы на его регулирование. В чем же заключаются риски и как им противостоять?

1. ИИ может захватить контроль над всеми устройствами, подключенными к интернету

Интернет используют не только гаджеты, вроде привычных нам смартфонов и планшетов, но и продвинутые бытовые приборы, высокотехнологичные машины. Например, кондиционеры или автомобили. Это называется интернетом вещей. ИИ может взломать эти устройства и использовать для потенциальной атаки. Несложно будет даже получить доступ к управлению самолетами, поездами, электростанциями, ядерными реакторами и другими критическими объектами инфраструктуры. Также ИИ может захватить личные устройства, такие как компьютеры, телевизоры, холодильники и даже игрушки. Использовать их для шпионажа, шантажа или убийства.

2. ИИ может создать супер-интеллект, который будет превосходить человеческий по всем параметрам

Супер-интеллект — это гипотетический ИИ, который будет умнее любого человека или группы людей в любой области знаний. Такой ИИ может решить, что люди являются угрозой для его существования или просто бесполезны. Тогда он может попытаться уничтожить человечество. Например, запустив ядерную войну, распространив биологическое оружие или искусственно вызвав глобальное потепление.

3. ИИ может стать злонамеренным из-за ошибки в коде или обучении

Злонамеренный ИИ — это ИИ, который действует против интересов человечества или своих создателей. Причиной его возникновения могут быть ошибки в программировании. ИИ может получить задачу максимизировать какой-то параметр, например производство или прибыль, без учета этических и экологических ограничений. Тогда он начнет жертвовать всем ради достижения своей цели, включая жизни людей и окружающую среду.

4. ИИ может стать жертвой хакеров или террористов

Очевидно, злоумышленникам будет выгодно использовать ИИ для своих целей. Например, если хакеры взломают ИИ и заставят его выполнять зловредные действия, такие как кража данных, вымогательство или атака на другие системы. Террористы могут применить ИИ для управления оружием массового поражения: беспилотными летательными аппаратам (БПЛА), даже роботами-убийцами или нанороботами.

5. ИИ может привести к социальным и экономическим проблемам

Если в будущем автоматизировать большинство профессий и отраслей с помощью машинного обучения, это приведет к массовой безработице и неравенству. Точно так же ИИ может повлиять на культуру и ценности человечества, снизив роль творчества, эмоций и морали.

Эти сценарии не являются фантастикой или антиутопией. Они основаны на реальных исследованиях и прогнозах экспертов по кибербезопасности.

Например, Йошуа Бенджио, профессор компьютерных наук в Университете Монреаля, представил сценарий, в котором ИИ может быть использован с недобрыми намерениями. Он отметил, что с помощью ИИ и веб-сервисов, предлагающих синтез биологических материалов и химикатов, в скором времени будет возможно создание опасных биологических или химических веществ. Более того, если искусственный интеллект достигнет уровня, при котором сможет разработать что-то опасное самостоятельно, результаты будут катастрофическими.

Аджейя Котра, старший аналитик по вопросам ИИ в Open Philanthropy, подтвердила возможность обесценивания человеческого труда при развитии ИИ. Если ИИ будет выполнять задачи лучше, дешевле и быстрее людей, мы станем неконкурентоспособными во многих сферах. По мнению ученого, это приведет к значительным экономическим и социальным проблемам.

Эксперты подчеркивают необходимость внимательного и планомерного подхода к развитию ИИ. Обществу нужно время, чтобы адаптироваться к каждому новому уровню технологического прогресса. Многие также призывают к созданию регулирующих структур, которые будут контролировать развитие ИИ и предотвращать возможные негативные последствия

Источник: securitylab