Жители самых бедных уголков планеты играли огромную роль в создании одного из самых заметных ИИ сегодня.
Разработчики чат-ботов сталкиваются с проблемой: из-за того, что ИИ обучается на текстах в открытом доступе, он неизбежно может создавать расистские, сексистские и другие нежелательные высказывания. Чтобы решить эту проблему, компания OpenAI, разработчик чат-бота ChatGPT, создала нейросеть, которая поможет находить и фильтровать такие "токсичные" высказывания.
Владельцы чат-бота ChatGPT обратились к компании Sama, которая нанимает работников из стран третьего мира для выполнения монотонного "труда идиота" с низкой оплатой. Эта компания уже имеет опыт работы с Facebook, где находила модераторов для просмотра видео казней и другого подобного контента за минимальную оплату. Им было обещано зарплату в 12 долларов в час, но на самом деле они получали только 2 доллара. В итоге их уволили без премий.
По данным Time, OpenAI подписала с Sama три контракта на общую сумму около $200 тысяч для разметки текстовых описаний. Это позволит нейросети улучшить свою работу и избежать нежелательных высказываний. В целом, этот процесс разметки данных поможет создать более эффективный и этичный чат-бот, который будет лучше понимать и отвечать на потребности пользователей.
Компаниия Sama заявила, что сотрудники, работая с OpenAI, просили разметить около 70 фрагментов текста за 9 часов работы, а не 250, как было сообщено в контракте. Зарплаты составляли от $1,46 до $3,74 в час, после вычета налогов. Компания также отметила, что ставка в $12,5 в час, указанная в контракте, включает в себя все расходы, включая зарплаты, инфраструктуру и льготы для персонала.
Кроме того, работники, которые имеют дело с травматическим контентом, могли посещать квалифицированных психотерапевтов индивидуально или в группе в любое время. OpenAI признала, что использовала сотрудников компании Sama в качестве аутсорсеров, однако отметила, что эта работа помогла многим выйти из бедности. Эндрю Стрейт, специалист по этике ИИ, заявил, что не должны забывать, что ChatGPT и другие генеративные модели — это не волшебство, они основаны на огромных количествах человеческого труда и извлеченных данных.
Источник: securitylab