Секреты OpenAI украдены в 2023 году после взлома внутреннего форума

9 июля 2024 г.

Онлайн-форум, который сотрудники OpenAI используют для конфиденциального внутреннего общения, был взломан в прошлом году, сообщили анонимные источники The New York Times. Хакеры извлекли подробную информацию о разработке технологий искусственного интеллекта компании из сообщений на форумах, но они не проникли в системы, в которых OpenAI фактически размещает и создает свой искусственный интеллект.

Руководители OpenAI объявили об инциденте всей компании во время общего собрания в апреле 2023 года, а также проинформировали совет директоров. Однако это не было раскрыто общественности, поскольку никакая информация о клиентах или партнерах не была украдена.

По словам источников, руководители не проинформировали правоохранительные органы, поскольку не верили, что хакер был связан с иностранным правительством, и, следовательно, инцидент не представлял угрозы национальной безопасности.

Представитель OpenAI сообщил TechRepublic по электронной почте: «Как мы поделились с нашим советом директоров и сотрудниками в прошлом году, мы выявили и устранили основную проблему и продолжаем инвестировать в безопасность».

Как некоторые сотрудники OpenAI отреагировали на этот взлом?

Новость о взломе форума вызвала беспокойство у других сотрудников OpenAI, сообщает NYT; они считали, что это указывает на уязвимость в компании, которой в будущем могут воспользоваться спонсируемые государством хакеры. Если передовая технология OpenAI попадет в чужие руки, она может быть использована в гнусных целях, которые могут поставить под угрозу национальную безопасность.

SEE: исследование показало, что GPT-4 OpenAI может автономно использовать 87% однодневных уязвимостей

Кроме того, отношение руководителей к инциденту заставило некоторых сотрудников усомниться в том, что OpenAI делает достаточно для защиты своей собственной технологии от иностранных противников. Леопольд Ашенбреннер, бывший технический менеджер компании, сказал, что его уволили после того, как он поднял эти опасения перед советом директоров в подкасте с Дваркешем Пателем.

Компания OpenAI опровергла это в своем заявлении для The New York Times, а также заявила, что она не согласна с «характеристиками нашей безопасности» Ашенбреннера.

Больше новостей о безопасности OpenAI, в том числе о приложении ChatGPT для macOS

Нарушение форума — не единственный недавний признак того, что безопасность не является главным приоритетом OpenAI. На прошлой неделе инженер по обработке данных Педро Хосе Перейра Виейто сообщил, что новое приложение ChatGPT для macOS хранит данные чата в виде обычного текста, а это означает, что злоумышленники могут легко получить доступ к этой информации, если они завладеют Mac. После того, как The Verge узнала об этой уязвимости, OpenAI выпустила обновление, которое шифрует чаты, отметили в компании.

Представитель OpenAI сообщил TechRepublic по электронной почте: «Мы знаем об этой проблеме и выпустили новую версию приложения, которое шифрует эти разговоры. Мы стремимся предоставлять полезный пользовательский опыт, сохраняя при этом наши высокие стандарты безопасности по мере развития наших технологий».

ПОСМОТРЕТЬ: Миллионы приложений Apple оказались уязвимы для атаки на цепочку поставок CocoaPods

В мае 2024 года OpenAI опубликовала заявление, в котором говорилось, что она сорвала пять тайных операций влияния, инициированных в России, Китае, Иране и Израиле, которые стремились использовать ее модели для «обманной деятельности». Действия, которые были обнаружены и заблокированы, включают создание комментариев и статей, создание имен и биографий для учетных записей в социальных сетях и перевод текстов.

В том же месяце компания объявила, что сформировала Комитет по безопасности и защите для разработки процессов и мер защиты, которые она будет использовать при разработке своих передовых моделей.

Является ли взлом форумов OpenAI свидетельством увеличения количества инцидентов безопасности, связанных с ИИ?

Доктор Илья Колоченко, партнер и руководитель практики кибербезопасности Platt Law LLP, сказал, что, по его мнению, этот инцидент безопасности на форумах OpenAI, вероятно, будет одним из многих. Он сообщил TechRepublic в электронном письме: «Глобальная гонка ИИ стала вопросом национальной безопасности для многих стран, поэтому поддерживаемые государством группы киберпреступников и наемники агрессивно нападают на поставщиков ИИ, от талантливых стартапов до таких технологических гигантов, как Google или OpenAI».

Хакеры нацелены на ценную интеллектуальную собственность ИИ, такую ​​как большие языковые модели, источники обучающих данных, технические исследования и коммерческую информацию, добавил д-р Колоченко. Они также могут использовать бэкдоры, чтобы контролировать или срывать операции, подобно недавним атакам на критически важную национальную инфраструктуру в западных странах.

Он сказал TechRepublic: «Все корпоративные пользователи поставщиков GenAI должны быть особенно осторожны и осмотрительны, когда они делятся или предоставляют доступ к своим собственным данным для обучения или точной настройки LLM, поскольку их данные - включая конфиденциальную информацию адвоката и клиента и торговую информацию секреты ведущих промышленных или фармацевтических компаний и секретная военная информация — также находятся под прицелом киберпреступников, жаждущих искусственного интеллекта, которые готовы активизировать свои атаки».

Можно ли снизить риски нарушения безопасности при разработке ИИ?

Не существует простого ответа на вопрос, как снизить все риски нарушения безопасности со стороны иностранных противников при разработке новых технологий искусственного интеллекта. OpenAI не может дискриминировать работников по признаку их национальности, а также не хочет ограничивать свой кадровый потенциал, нанимая сотрудников только в определенных регионах.

Также трудно предотвратить использование систем искусственного интеллекта в гнусных целях до того, как эти цели станут известны. Исследование Anthropic показало, что LLM были лишь немногим более полезны злоумышленникам для приобретения или разработки биологического оружия, чем стандартный доступ в Интернет. Другой сотрудник OpenAI пришел к аналогичному выводу.

С другой стороны, некоторые эксперты сходятся во мнении, что, хотя сегодня алгоритмы ИИ и не представляют угрозы, они могут стать опасными, когда станут более совершенными. В ноябре 2023 года представители 28 стран подписали Декларацию Блетчли, в которой содержится призыв к глобальному сотрудничеству для решения проблем, связанных с ИИ. «Существует вероятность серьезного, даже катастрофического вреда, как преднамеренного, так и непреднамеренного, вытекающего из наиболее значительных возможностей этих моделей ИИ», — говорится в документе.

Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться
Подпишитесь на новостную рассылку Innovation Insider Узнайте о последних технологических инновациях, которые меняют мир, включая Интернет вещей, 5G, последние новости о телефонах, безопасности, умных городах, искусственном интеллекте, робототехнике и многом другом. Доставка по вторникам и пятницам Адрес электронной почты Подписываясь на нашу рассылку, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Вы можете отписаться в любое время. Подписаться

Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE