OpenAI объявляет о создании нового комитета по безопасности, поскольку гонка ИИ набирает обороты и растут опасения по поводу этики

OpenAI объявляет о создании нового комитета по безопасности, поскольку гонка ИИ набирает обороты и растут опасения по поводу этики

30 мая 2024 г.

OpenAI, технологическая компания, создавшая ChatGPT объявила о создании «Комитета по безопасности и защите», целью которого является ознакомление с подходом фирмы к ИИ более ответственен и последователен с точки зрения безопасности.

Ни для кого не секрет, что OpenAI и генеральный директор Сэм Альтман, который будет входить в комитет, хотят первыми достичь AGI (искусственного общего интеллекта), который широко рассматривается как достижение искусственного интеллекта, который будет напоминать человеческий интеллект и может обучаться сам. . Недавно дебютировав GPT-4o для широкой публики, OpenAI уже обучает модель GPT следующего поколения, которая, как ожидается, станет одной из них. шаг ближе к AGI.

GPT-4o был дебютировали 13 мая как мультимодальный модуль следующего уровня (способный обрабатываться в нескольких "режимах") генеративная модель ИИ, способная обрабатывать вводимые данные и реагировать на них со звуком, текстом и изображениями. В целом это было встречено положительно, но с тех пор вокруг инновации возникло больше дискуссий относительно ее реальных возможностей, последствий и этики в отношении подобных технологий.

Чуть больше недели назад OpenAI подтвердила Wired, что ее предыдущая команда, ответственная за надзор за безопасностью моделей искусственного интеллекта, была расформирована и вновь включена в состав других существующих команд. Это последовало за заметным уходом ключевых фигур компании, таких как соучредитель и главный научный сотрудник OpenAI Илья Суцкевер и соруководитель группы «сверхсогласования» по безопасности искусственного интеллекта Ян Лейке. Сообщается, что их уход был связан с их опасениями по поводу того, что OpenAI и Альтман в частности не делают достаточно для ответственного развития своих технологий и отказываются от проведения комплексной проверки.

Похоже, это дало OpenAI повод для размышлений, и в ответ на это был сформирован комитет по надзору. В объявлении В сообщении о формировании комитета OpenAI также заявляет, что приветствует «активные дебаты в этот важный момент». Первой задачей комитета будет «оценка и дальнейшее развитие процессов и мер безопасности OpenAI» в течение следующих 90 лет. дней, а затем поделитесь рекомендациями с советом директоров компании.

meeting

(Изображение предоставлено: Bild von Бесплатные фотографии на Pixabay)

Что произойдет по истечении 90 дней? 

Рекомендации, которые впоследствии будут приняты, будут доведены до сведения общественности «таким образом, который соответствует принципам безопасности и защиты».

В состав комитета войдут председатель Брет Тейлор, генеральный директор Quora Адам Д'Анджело, и Николь Селигман, бывший исполнительный директор Sony Entertainment, а также шесть сотрудников OpenAI, в том числе Сэм Альтман, как уже упоминалось, и Джон Шульман, исследователь и соучредитель OpenAI. По данным Bloomberg, OpenAI заявила, что в рамках этого процесса она также будет консультироваться с внешними экспертами.

Я оставлю свое мнение до тех пор, пока не будут опубликованы принятые OpenAI рекомендации, и я увижу, как они реализуются, но интуитивно у меня нет ни малейшей уверенности в том, что OpenAI (или любая крупная технологическая фирма) отдает приоритет безопасности и этике, поскольку так же, как они пытаются выиграть гонку ИИ.

Это позор, и прискорбно, что, вообще говоря, те, кто стремится быть лучшим, несмотря ни на что, часто не спешат учитывать цену и последствия своих действий, а также то, как они могут реально повлиять на других - даже если они будут значительными. потенциально может пострадать большое количество людей.

Я буду рад, если меня оправдают, и я надеюсь, что это так, и в идеальном мире все технологические компании, независимо от того, участвуют они в гонке ИИ или нет, должны уделять первоочередное внимание этике и безопасности того, что они делают. на том же уровне, на котором они стремятся к инновациям. Пока что в сфере искусственного интеллекта это не так, с моей точки зрения, и, если не будет реальных последствий, я не вижу, чтобы такие компании, как OpenAI, настолько сильно склонялись к изменению своего общего идеала или поведения.

ВАМ ТАКЖЕ МОЖЕТ ПОНРАВИТЬСЯ...


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE