Некоторые сотрудники компании по производству генеративного искусственного интеллекта написали письмо с просьбой «право предупреждать» о рисках
7 июня 2024 г.Некоторые нынешние и бывшие сотрудники OpenAI, Google DeepMind и Anthropic опубликовали 4 июня письмо с просьбой обеспечить защиту информаторов, более открытый диалог о рисках и «культуру открытой критики» в крупных компаниях, занимающихся генеративным ИИ.
Письмо «Право на предупреждение» освещает некоторые внутренние процессы работы немногих известных компаний, находящихся в центре внимания генеративного ИИ. OpenAI имеет особый статус некоммерческой организации, пытающейся «преодолеть огромные риски» теоретического «общего» ИИ.
Для предприятий это письмо появилось в то время, когда все больше внимания уделяется внедрению инструментов генеративного ИИ; оно также напоминает лицам, принимающим решения в сфере технологий, о важности строгой политики в отношении использования ИИ.
В письме «Право на предупреждение» содержится просьба к приграничным компаниям, занимающимся искусственным интеллектом, не принимать ответных мер против информаторов и не только
Требования следующие:
- Компании, занимающиеся передовым искусственным интеллектом, не должны обеспечивать соблюдение соглашений, предотвращающих «унижение» этих компаний.
Создание анонимного и одобренного канала, позволяющего сотрудникам выражать обеспокоенность по поводу рисков компаниям, регулирующим органам или независимым организациям.
Поддержка «культуры открытой критики» в отношении рисков с учетом коммерческой тайны.
Конец репрессиям информаторов.
Письмо пришло примерно через две недели после того, как внутренние перестановки в OpenAI выявили ограничительные соглашения о неразглашении информации для увольняющихся сотрудников. Предположительно, нарушение соглашения о неразглашении информации и неуважении может привести к утрате прав сотрудников на принадлежащий им капитал в компании, который может значительно перевесить их зарплату. 18 мая генеральный директор OpenAI Сэм Альтман заявил на X, что он «смущен» возможностью отзыва принадлежащих сотрудникам акций и что соглашение будет изменено.
Из сотрудников OpenAI, подписавших письмо «Право на предупреждение», все нынешние сотрудники внесли свой вклад анонимно.
Какие потенциальные опасности генеративного ИИ рассматриваются в письме?
В открытом письме рассматриваются потенциальные опасности, связанные с генеративным ИИ, называя риски, которые «начиная от дальнейшего усиления существующего неравенства до манипуляций и дезинформации, до потери контроля над автономными системами ИИ, что потенциально может привести к вымиранию человечества».
Заявленная цель OpenAI с момента ее создания заключалась в создании и защите общего искусственного интеллекта, иногда называемого общим ИИ. AGI означает теоретический ИИ, который умнее и способнее людей, и это определение вызывает в воображении научно-фантастические образы машин-убийц и людей как граждан второго сорта. Некоторые критики ИИ называют эти страхи отвлечением от более насущных проблем на стыке технологий и культуры, таких как кража творческих работ. Авторы писем упоминают как экзистенциальные, так и социальные угрозы.
Как осторожность внутри технологической отрасли может повлиять на то, какие инструменты ИИ будут доступны предприятиям?
Компании, которые не являются передовыми компаниями в области ИИ, но, возможно, решают, как продвигаться вперед в области генеративного ИИ, могут воспользоваться этим письмом как моментом для рассмотрения своей политики использования ИИ, проверки безопасности и надежности продуктов ИИ и процесса происхождения данных при использовании генеративного ИИ. .
СЭЭ: Организациям следует тщательно продумать политику этики ИИ, адаптированную к их бизнес-целям.
Джульетта Пауэлл, соавтор книги «Дилемма ИИ» и профессор Нью-Йоркского университета по этике искусственного интеллекта и машинного обучения, в течение многих лет изучала результаты протестов сотрудников против корпоративных практик.
«Открытые письма с предостережениями от сотрудников сами по себе мало что значат без поддержки общественности, у которой есть еще несколько механизмов власти в сочетании с механизмами прессы», — сказала она в электронном письме TechRepublic. Например, сказал Пауэлл, написание статей, общественное давление на советы директоров компаний или отказ от инвестиций в передовые компании, занимающиеся искусственным интеллектом, могут быть более эффективными, чем подписание открытого письма.
Пауэлл сослался на прошлогоднюю просьбу о шестимесячной паузе в развитии ИИ как на еще один пример письма такого типа.
«Я думаю, что вероятность того, что крупные технологические компании согласятся с условиями этих писем – И ОБЕСПЕЧИТЬ ИХ СОБЛЮДЕНИЕ – примерно так же вероятны, как если бы компьютерные и системные инженеры были привлечены к ответственности за то, что они построили, так же, как инженер-строитель, инженер-механик или электрик инженер», — сказал Пауэлл. «Таким образом, я не вижу подобного письма, влияющего на доступность или использование инструментов искусственного интеллекта для бизнеса/предприятий».
OpenAI всегда признавала риск в своем стремлении к более и более эффективному генеративному ИИ, поэтому возможно, что это письмо появилось в то время, когда многие компании уже взвесили все «за» и «против» использования продуктов генеративного ИИ для себя. Обсуждения в организациях политики использования ИИ могли бы включать политику «культуры открытой критики». Руководители бизнеса могли бы рассмотреть вопрос о применении мер защиты для сотрудников, которые обсуждают потенциальные риски, или выбрать инвестирование только в те продукты ИИ, которые, по их мнению, имеют ответственную экосистему социального, этического и управления данными.
Оригинал