Эксплуатация невыразимых работников, стоящих за большими языковыми моделями

Эксплуатация невыразимых работников, стоящих за большими языковыми моделями

29 июня 2025 г.

Несколько месяцев назад 28-летний генеральный директор AI Александр Ванг попал в заголовки газет после своей компании после дико успешного раунда финансирования с участием Meta, Amazon и Microsoft,собрал более 1 млрд долларов в венчурном капиталеПолем Хотя история успеха Вана драматична-от 19-летнего выброса MIT до самого молодого самодельного миллиардера в мире-и хорошо известно, гораздо меньше о том, как появилась его компания, массовая фирма по маркировке данных. Благодаря часам исследований институциональных исследований и относительно неясной отчетности, я все больше осознаю серию столь же драматических поворотов в недавней истории компании, которые переплетают истории сотен тысяч людей и окончательную судьбу нашего мира после революции ИИ. В этой статье подробно объясняются мои открытия и знания, касающиеся одолетеня человеческой изобретательности, вездесущему в аутсорсингах по маркировке данных ИИ и о том, как общество в целом должно принять меры для их решения.

Мир данных ИИ

Технологические компании получали прибыль от данных почти с момента их создания; Тем не менее, вновь обретенная распространенность инструментов искусственного интеллекта привела к беспрецедентному новому спросу на данные. Чтобы объяснить это требование, давайте воспользуемся аналогией ручки и чернила: без чернила ручка не сможет выразить себя на бумаге, как в случае с бутылкой чернил с отсутствием ручки. Аналогичным образом, продукт искусственного интеллекта в таких, как CHATGPT, Claude и Gemini, представляет собой тщательное сочетание учебных данных и архитектуры-обычно модель в стиле трансформатора, что позволяет выразить данные в полезную форму. За исключением математических и программных формальностей ради доступности, процесс приводит к программе, которая способна создавать уникальный выход на основе учебных данных в контексте ввода, обычно подсказки или вопрос.


По оценкам, большое количество данных необходимо для обучения современных крупных языковых моделей (CATGPT 4O, выдающийся LLM, имеет около __.1,8 миллиарда входов параметров__), и, следовательно, компании по общему использованию AI обратились к единственному крупнейшему репозиторию языковых данных с открытым исходным кодом в истории человечества-Интернета. В дополнение к обучению образцам текста и изображений, соскобаемых с каждого веб-сайта.Собственные наборы данныхи избеседы со своими пользователямиПолем Недоверительная потребность в лучшем данных приводит к тому, что целый рынок для надежной информации, используемой для обучения ИИ, само по себе горькая этическая дилемма, которую мы разбиваем в будущих статьях.

Почему люди?

Неудивительно, что в больших наборах данных различные вредные контенты, управляющий гаммой от сексуально откровенного материала до ненавистнического речи, сопоставлены со здоровыми, образовательными данными обучения, как и в случае с подмножеством данных интернета, используемых для обучения большинства современных чат -ботов LLM. В попытке отфильтровать выражение этих пятен в учебном наборе (из -за несомненной непрактичности вручную щебетатерабайты учебных данных), большинство компаний искусственного интеллекта используют меры для обнаружения и исправления этих побочных эффектов. Чтобы пойти на компромисс между использованием человеческого обзора и сохранением масштабируемости модели, компании ИИ приняли модель подкрепления, обучающуюся на человеческой обратной связи (RLHF). По сути, человеческие работники будут маркировать и классифицировать потенциально вредные данные, которые затем питаются последовательной последовательности подкрепления, чтобы настроить модель в соответствии с содержимым обучающих данных.

В технических терминах RLHF ничем не отличается от стандартных алгоритмов обучения машинного обучения: глубокая сеть используется для назначения оценки, сгенерированного AI, на основе реальных, меченных человеком данных, в то время как AI неоднократно производится для создания ответов, которые затем подаются в эту глубокую сеть, эффективно оценивая его по поводу ответа. Вывод, который считается аналогичным, меченным человеком «вредными» данными, будет негативно повлиять на тенденцию модели к созданию чего-то подобного в будущем, в то время как выход, который считается разнообразным по сравнению с вышеупомянутыми данными, даст модели склонность к созданию таких выходов, когда вы подлежат подходным условиям (если вы заинтересованы, я настоятельно рекомендую проверятьэтот пост в блогеОбъяснение псевдотехнических деталей, касающихся использования RLHF в современных LLMS). Другими словами, этот процесс «учит» модели ИИ для создания ответов максимально разнородными для вредных человеком вредных данных, эффективно настраивая ее без необходимости переподготовки.

Проблема?

Данные, меченные человеком, не материализуются из воздуха. Вместо этого модель RLHF, которая якобы делает ИИ безопасным и доброкачественным, в значительной степени зависит от сотен тысяч работников недоплаченного, большинство из которых вносят неоценимые услуги по маркировке данных через онлайн-платформы «облачные работы». Большинство из этих платформ следуют формату «Записи и подрядчика», в котором множество онлайн -работников назначаются для одной задачи, получая заработную плату после выполнения того, что предусмотрено задачей, начиная от маркировки содержания изображения или видео до исчезновения стен текста для возможных ключевых слов или контекстов. Эти работники являются неоценимыми участниками безопасности ИИ, как мы его знаем - причина, по которой публично выпущенный ИИ, как известно, является процветающим источником информации, освобожденной от случайного купороса и грубости Интернета. Признавая, что концепция облачных платформ для маркировки данных искусственного интеллекта является безобидной, даже полезной, реальность этих цифровых семинаров далека от этого.Отчет о справедливой работе на 2024 году Оксфордского интернет -институтаПодчеркивает бизнес-хаоперплавание, предпринимаемые работниками, на крупных платформах по маркировке данных облачной работы, такими как Amazon Mechanical Turk, Appen и Remotasks. В отчете определено, что:

  • Ни одна из упомянутых платформ не имеет механизмов или политик, которые гарантируют, что подрядчики получают оплату от запросов за выполненные задачи.
  • Только одна из упомянутых платформ (APPEN) имеет политики, которые обеспечивают качество жизни работника посредством смягчения переутомления.
  • Ни одна из упомянутых платформ не имеет четких и легко интерпретируемых контрактов, которые устанавливают условия для оплаты и работы.
  • Ни одна из упомянутых платформ не показала, что они принимают отзывы подрядчика при принятии исполнительных решений.
  • Только одна из упомянутых платформ (APPEN) имеет политики, которая признает право Ассоциации работников (профсоюз).

Настоящие люди, реальное влияние

Мрачное отсутствие прав, которые эти работники данных имеют приводит к созданию непризнанного и недооцененного «подкласса» работников ИИ. Эти люди, часто отчаянно пытаясь зарабатывать немного дополнительного дохода, чтобы поддержать свою семью, каждый день часами проводят часы перед своим компьютером, выполняя черновые и повторяющиеся задачи маркировки данных, часто сталкиваясь с худшими манерами человеческой развращения. У работников на этих платформах естьнеоднократно сообщалось о травмеПо графическим и подробным описаниям или изображениям изнасилования, кровь, самоповреждения и злоупотребления животными свидетельство всех, кто является частью их ожидаемой обязанности, без последующего наблюдения или консультирования.

Как подрядчики, работники не защищены законами о заработной плате, и во многих случаях не оплачиваются за сверхурочную работу. Remotosks устанавливает лимит на максимальное количество часов работы, за которое платит участник, и платформа назначает задачи после длительного «квалификационного» процесса, за который не платят потенциального Tasker. Контракты плохо и часто неоднозначно написаны, что позволяет многим плохому обращению с работниками не заново. Помимо травмы, с которой сталкиваются многие лаборатории данных о моделях контента, им платятжалко-Даже опытные работники, способные выполнять задачи, эффективно иногда пытаются зарабатывать по рекламной ставке 10-15 долларов в час, и менее способным участникам было заплачено еще меньше, менее чем 2 доллара в некоторых случаях. Даже если они могут заработать немного денег, задачи также страдают от нечестности запрашивания и задержек. В одном вопиющем примере плохого обращения с работниками Amazon Mechanical Turk отказался вмешаться для своих работников после AI Insights, фирмы по данным искусственного интеллекта, ровноотказался платитьСотни данных ИИ за их работу-более 70 000 задач-на том основании, что они были неудовлетворительными.

Сотни тысяч людей работают в области маршрутизации данных ИИ ежедневно, однако их разочарование случайно задушено плохой поддержкой клиентов и отсутствием платформы. При опросе исследователей Института справедливой работы Taskers заявили, что их опыт работы с поддержкой клиентов или знание поддержки клиентовв целом были плохими; Некоторые задачи даже сообщили обзоре MIT Tech, что иногда поддержка клиентовотказался претендовать на свои претензии о просроченной оплатеПолем

По совпадению, Remotosks, одна из крупнейших таких фирм по маркировке данных AI, является ключевой субсидией в масштабе AI, предоставляющей маркированные данные обучения в рамках услуг по строительству AI компании. Официально созданное для «сохранить конфиденциальность пользователей», это разделение пытается замаскировать некоторые из менее со вкусом деловой практики крупной компании от общественного взгляда; Действительно, когда можно рассматривать, что отдаленные набрали лишь 1/10 по справедливой рабочей шкале Fairwork, причем 10/10 является «минимальным требованием для справедливой рабочей среды», есть, безусловно, многое предстоит обсудить о жестоком обращении с теми самым работниками, которые поддерживают продукты ИИ через их тяжелую работу.

Эта статья представлена ​​вам нашим искусственным интеллектом, основанной на студентах и ​​студенческой организации по этике ИИ, стремящейся диверсифицировать перспективы в ИИ помимо того, что обычно обсуждается в современных СМИ. Если вам понравилась эта статья, ознакомьтесь с нашими ежемесячными публикациями и эксклюзивными статьями вhttps://www.our-ai.org/ai-nexus/read!

Повысить осведомленность

RLHF - это хорошая вещь, сделанная все неправильные способы. Как сильный сторонник развития ИИ с выравниваемым человеком, я утверждаю, что нынешние стандарты и политика недостаточны для обеспечения того, чтобы наши технологии не отрицательно и тайно не влияли на наше человечество. Если вы достаточно заботитесь о ответственном и безопасном развитии искусственного интеллекта, не только для Силиконовой долины, но и для человечества в целом, я настоятельно рекомендую вам распространять информацию о нарушениях прав работников в индустрии ИИ - будь то посредством обмена этой статьей или выполнения собственных исследований - и поддержки политических решений, защищающих право работников на справедливую заработную плату и представление на рабочем месте.

Мир заслуживает знать - и вы должны сыграть свою роль.


Написано Томасом Инь


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE