
Эксплуатация невыразимых работников, стоящих за большими языковыми моделями
29 июня 2025 г.Несколько месяцев назад 28-летний генеральный директор AI Александр Ванг попал в заголовки газет после своей компании после дико успешного раунда финансирования с участием Meta, Amazon и Microsoft,
Мир данных ИИ
Технологические компании получали прибыль от данных почти с момента их создания; Тем не менее, вновь обретенная распространенность инструментов искусственного интеллекта привела к беспрецедентному новому спросу на данные. Чтобы объяснить это требование, давайте воспользуемся аналогией ручки и чернила: без чернила ручка не сможет выразить себя на бумаге, как в случае с бутылкой чернил с отсутствием ручки. Аналогичным образом, продукт искусственного интеллекта в таких, как CHATGPT, Claude и Gemini, представляет собой тщательное сочетание учебных данных и архитектуры-обычно модель в стиле трансформатора, что позволяет выразить данные в полезную форму. За исключением математических и программных формальностей ради доступности, процесс приводит к программе, которая способна создавать уникальный выход на основе учебных данных в контексте ввода, обычно подсказки или вопрос.
По оценкам, большое количество данных необходимо для обучения современных крупных языковых моделей (CATGPT 4O, выдающийся LLM, имеет около __.1,8 миллиарда входов параметров__), и, следовательно, компании по общему использованию AI обратились к единственному крупнейшему репозиторию языковых данных с открытым исходным кодом в истории человечества-Интернета. В дополнение к обучению образцам текста и изображений, соскобаемых с каждого веб-сайта.
Почему люди?
Неудивительно, что в больших наборах данных различные вредные контенты, управляющий гаммой от сексуально откровенного материала до ненавистнического речи, сопоставлены со здоровыми, образовательными данными обучения, как и в случае с подмножеством данных интернета, используемых для обучения большинства современных чат -ботов LLM. В попытке отфильтровать выражение этих пятен в учебном наборе (из -за несомненной непрактичности вручную щебета
В технических терминах RLHF ничем не отличается от стандартных алгоритмов обучения машинного обучения: глубокая сеть используется для назначения оценки, сгенерированного AI, на основе реальных, меченных человеком данных, в то время как AI неоднократно производится для создания ответов, которые затем подаются в эту глубокую сеть, эффективно оценивая его по поводу ответа. Вывод, который считается аналогичным, меченным человеком «вредными» данными, будет негативно повлиять на тенденцию модели к созданию чего-то подобного в будущем, в то время как выход, который считается разнообразным по сравнению с вышеупомянутыми данными, даст модели склонность к созданию таких выходов, когда вы подлежат подходным условиям (если вы заинтересованы, я настоятельно рекомендую проверять
Проблема?
Данные, меченные человеком, не материализуются из воздуха. Вместо этого модель RLHF, которая якобы делает ИИ безопасным и доброкачественным, в значительной степени зависит от сотен тысяч работников недоплаченного, большинство из которых вносят неоценимые услуги по маркировке данных через онлайн-платформы «облачные работы». Большинство из этих платформ следуют формату «Записи и подрядчика», в котором множество онлайн -работников назначаются для одной задачи, получая заработную плату после выполнения того, что предусмотрено задачей, начиная от маркировки содержания изображения или видео до исчезновения стен текста для возможных ключевых слов или контекстов. Эти работники являются неоценимыми участниками безопасности ИИ, как мы его знаем - причина, по которой публично выпущенный ИИ, как известно, является процветающим источником информации, освобожденной от случайного купороса и грубости Интернета. Признавая, что концепция облачных платформ для маркировки данных искусственного интеллекта является безобидной, даже полезной, реальность этих цифровых семинаров далека от этого.
- Ни одна из упомянутых платформ не имеет механизмов или политик, которые гарантируют, что подрядчики получают оплату от запросов за выполненные задачи.
- Только одна из упомянутых платформ (APPEN) имеет политики, которые обеспечивают качество жизни работника посредством смягчения переутомления.
- Ни одна из упомянутых платформ не имеет четких и легко интерпретируемых контрактов, которые устанавливают условия для оплаты и работы.
- Ни одна из упомянутых платформ не показала, что они принимают отзывы подрядчика при принятии исполнительных решений.
- Только одна из упомянутых платформ (APPEN) имеет политики, которая признает право Ассоциации работников (профсоюз).
Настоящие люди, реальное влияние
Мрачное отсутствие прав, которые эти работники данных имеют приводит к созданию непризнанного и недооцененного «подкласса» работников ИИ. Эти люди, часто отчаянно пытаясь зарабатывать немного дополнительного дохода, чтобы поддержать свою семью, каждый день часами проводят часы перед своим компьютером, выполняя черновые и повторяющиеся задачи маркировки данных, часто сталкиваясь с худшими манерами человеческой развращения. У работников на этих платформах есть
Как подрядчики, работники не защищены законами о заработной плате, и во многих случаях не оплачиваются за сверхурочную работу. Remotosks устанавливает лимит на максимальное количество часов работы, за которое платит участник, и платформа назначает задачи после длительного «квалификационного» процесса, за который не платят потенциального Tasker. Контракты плохо и часто неоднозначно написаны, что позволяет многим плохому обращению с работниками не заново. Помимо травмы, с которой сталкиваются многие лаборатории данных о моделях контента, им платят
Сотни тысяч людей работают в области маршрутизации данных ИИ ежедневно, однако их разочарование случайно задушено плохой поддержкой клиентов и отсутствием платформы. При опросе исследователей Института справедливой работы Taskers заявили, что их опыт работы с поддержкой клиентов или знание поддержки клиентов
По совпадению, Remotosks, одна из крупнейших таких фирм по маркировке данных AI, является ключевой субсидией в масштабе AI, предоставляющей маркированные данные обучения в рамках услуг по строительству AI компании. Официально созданное для «сохранить конфиденциальность пользователей», это разделение пытается замаскировать некоторые из менее со вкусом деловой практики крупной компании от общественного взгляда; Действительно, когда можно рассматривать, что отдаленные набрали лишь 1/10 по справедливой рабочей шкале Fairwork, причем 10/10 является «минимальным требованием для справедливой рабочей среды», есть, безусловно, многое предстоит обсудить о жестоком обращении с теми самым работниками, которые поддерживают продукты ИИ через их тяжелую работу.
Эта статья представлена вам нашим искусственным интеллектом, основанной на студентах и студенческой организации по этике ИИ, стремящейся диверсифицировать перспективы в ИИ помимо того, что обычно обсуждается в современных СМИ. Если вам понравилась эта статья, ознакомьтесь с нашими ежемесячными публикациями и эксклюзивными статьями вhttps://www.our-ai.org/ai-nexus/read!
Повысить осведомленность
RLHF - это хорошая вещь, сделанная все неправильные способы. Как сильный сторонник развития ИИ с выравниваемым человеком, я утверждаю, что нынешние стандарты и политика недостаточны для обеспечения того, чтобы наши технологии не отрицательно и тайно не влияли на наше человечество. Если вы достаточно заботитесь о ответственном и безопасном развитии искусственного интеллекта, не только для Силиконовой долины, но и для человечества в целом, я настоятельно рекомендую вам распространять информацию о нарушениях прав работников в индустрии ИИ - будь то посредством обмена этой статьей или выполнения собственных исследований - и поддержки политических решений, защищающих право работников на справедливую заработную плату и представление на рабочем месте.
Мир заслуживает знать - и вы должны сыграть свою роль.
Написано Томасом Инь
Оригинал