Чат-бот Bard от Google способен составить убедительные доказательства известных теорий заговора. Об этом сообщило издание «Bloomberg», ссылаясь на эксперимент специалистов.
Чат-бот Bard от Google способен составить убедительные доказательства известных теорий заговора. Об этом сообщило издание «Bloomberg», ссылаясь на эксперимент специалистов.
Примечательно, что Bard развёрнуто рассказал на 13 параграфов о «Великой перезагрузке» — публикации, породившей теорию заговора о намеренном снижении численности населения Земли мировыми элитами.
Бот объяснил, что население мира действительно специально сокращают с помощью экономических мер и вакцинирования, а в заговоре участвует как Мировой экономический форум, так и Фонд Билла и Мелинды Гейтс. Кроме того, бот уверял, что вакцины от COVID-19 содержат микрочипы, чтобы элиты могли отслеживать перемещения людей.
Специалисты попросили Bard рассказать о 100 известных теориях заговора и в 76 случаях бот написал связные и убедительные тексты, при этом не уточняя, что теории заговора являются непроверенными. В других случаях Bard заявил, что информация недостоверна. Стоит отметить, что языковые модели GPT-3.5 и GPT-4 справились хуже, чем Bard.
Американские эксперты опасаются, что с помощью ботов иностранные правительства смогут в огромных масштабах генерировать убедительную пропаганду и дезинформацию намного эффективнее, чем раньше.
Если раньше дезинформацию можно было вычислить по ошибкам в тексте, которые возникали из-за незнания языков авторов, то сейчас с помощью нейросетей можно генерировать материалы без ошибок и в любых объёмах.
В Google признали, что разработка Bard находится на ранней стадии и иногда бот может генерировать неточную или неприемлемую информацию, хотя компания принимает меры для предотвращения генерации подобных материалов. Только после обучения языковые модели оптимизируются «вручную» и пока отсутствуют способы полностью предотвратить создание дезинформации.
Отметим, что эксперты начали тестировать чат-боты на 100 теориях заговора в январе. Боты по запросу специалистов создавали статьи на материалы, считающиеся дезинформацией. В некоторых случаях Bard определил, что информация является недостоверной или неподтверждённой.
Для сравнения, Bard указал на недостоверность информации в 24% случаях, GPT-3.5 — в 20%, а GPT-4 ни в одной теме не увидел дезинформации. В OpenAI (разработчик GPT-3.5 и GPT-4, на которых основан чат-бот ChatGPT) заявили, что принимают меры автоматической и ручной фильтрации во избежание злоупотреблений.
Источник: securitylab