Определение "проблематичных сфер" в развитии ИИ — более эффективный подход, чем мораторий.

Требования к остановке разработки искусственного интеллекта, превосходящего GPT-4, вряд ли будут успешными, согласно мнению сооснователя Microsoft, Билла Гейтса. Он выразил свое мнение о недавнем открытом письме, подписанном Илоном Маском, Стивом Возняком и другими.

Билл Гейтс также сомневается, что прекращение работы над ИИ, сильнее GPT-4, решит проблемы с ИИ. Соучредитель компании полагает, что мораторий нецелесообразен; лучше определить "проблематичные сферы" в развитии искусственного интеллекта и сосредоточиться на их решении. Гейтс также выражает сомнения в том, что разработчики и IT-компании прекратят или заморозят свои проекты.

"Я не считаю, что обращение к определенной группе с просьбой остановить разработку ИИ-систем ответит на текущие вызовы. Безусловно, у этих систем есть значительные преимущества. Нам необходимо определить области риска," — заявил он. Билл также предполагает, что власти многих стран просто проигнорируют предупредительное письмо.

Само письмо под заголовком "Будущее Жизни" было опубликовано в конце марта. Его подписали около тысячи исследователей искусственного интеллекта. В нем более тысячи известных личностей и специалистов, в том числе Илон Маск и Стив Возняк призывали все лаборатории искусственного интеллекта приостановить обучение более мощных систем ИИ, чем GPT-4.

В начале апреля специалисты по этике AI прокомментировали данную инициативу. По их мнению, применение ИИ-технологий уже может быть опасным сегодня, а не только в будущем.

Также известный учёный Юдковский потребовал запретить крупные эксперименты с ИИ и уничтожать ЦОДы, чтобы предотвратить киберапокалипсис.

Источник: securitylab