Международный отчет о безопасности ИИ в Великобритании показывает, что прогресс находится на головой скорости
8 февраля 2025 г.В новом отчете, опубликованном правительством Великобритании, говорится, что модель Operai O3 провела прорыв на абстрактном критерии, который многие эксперты считали «недоступными». Это показатель темпа, в котором продвигается исследование искусственного интеллекта, и что политикам, возможно, вскоре потребуется решить, вмешаться ли до того, как придет время собрать большой пул научных доказательств.
Без таких доказательств не может быть известно, представляет ли конкретный прогресс ИИ или будет представлен риск. «Это создает компромисс»,-написали авторы отчета. «Реализация превентивных или ранних мер смягчения последствий может оказаться ненужным, но ожидание убедительных доказательств может оставить общество уязвимым для рисков, которые быстро появляются».
В ряде тестов программирования, абстрактных рассуждений и научных рассуждений модель Ope O3 Openai выполнялась лучше, чем «любая предыдущая модель» и «много (но не все) человеческие эксперты», но в настоящее время нет никаких признаков его мастерства с реальным. мировые задачи.
Смотрите: Openai переключает внимание на суперинтеллигенность в 2025 году.
Отчет о безопасности ИИ был составлен 96 глобальными экспертами
O3 Openai был оценен в рамках Международного отчета о безопасности ИИ, который был составлен 96 глобальными экспертами ИИ. Цель состояла в том, чтобы суммировать всю существующую литературу о рисках и возможностях передовых систем ИИ, чтобы установить общее понимание, которое может поддержать принятие правительственных решений.
Участники первого саммита по безопасности ИИ в 2023 году согласились установить такое понимание, подписав декларацию Блетчли о безопасности ИИ. Промежуточный отчет был опубликован в мае 2024 года, но эта полная версия должна быть представлена на вершине Paris Ai Action Action в конце этого месяца.
Неоплаченные результаты теста O3 также подтверждают, что простое насыщение моделей с большей вычислительной мощностью улучшит их производительность и позволит им масштабироваться. Тем не менее, существуют ограничения, такие как доступность данных обучения, чипов и энергии, а также стоимость.
См.: Нехватка электроэнергии рост центров обработки данных в Великобритании, Европе
Выпуск DeepSeek-R1 в прошлом месяце действительно поднял надежду на то, что цена может быть снижена. Эксперимент, который стоит более 370 долларов США с моделью O1 Openai, по словам Nature, будет стоить менее 10 долларов с R1.
«Возможности ИИ общего назначения быстро увеличились в последние годы и месяцы. В то время как это имеет большой потенциал для общества », - сказал в пресс -релизе Йошуа Бенгио, председатель отчета и лауреат премии Тьюринга. «ИИ также представляет значительные риски, которые должны тщательно управлять правительствами по всему миру».
Международный отчет о безопасности искусственного интеллекта подчеркивает растущее число гнусных вариантов использования ИИ
В то время как возможности ИИ быстро продвигаются, как в случае с O3, так и потенциал для их использования в злонамеренных целях, согласно отчету.
Некоторые из этих вариантов использования полностью установлены, такие как мошенничество, предубеждения, неточности и нарушения конфиденциальности, и «до сих пор никакое сочетание методов не может полностью их разрешить», по словам экспертных авторов.
Другие гнусные варианты использования все еще растут в распространенности, и эксперты не согласны с тем, будет ли это на десятилетия или годы, пока они не станут серьезными проблемами. К ним относятся крупномасштабные потери рабочих мест, кибератаки с поддержкой AI, биологические атаки и общество, теряющие контроль над системами искусственного интеллекта.
По словам авторов, с момента публикации промежуточного отчета в мае 2024 года ИИ стал более способным в некоторых из этих доменов. Например, исследователи создали модели, которые «способны найти и использовать некоторые уязвимости кибербезопасности самостоятельно и, с помощью человека, обнаруживают ранее неизвестную уязвимость в широко используемом программном обеспечении».
См.: GPT-4 от Openai может автономно использовать 87% однодневных уязвимостей, исследования на основе исследования
Достижения в области рассуждений моделей искусственного интеллекта означает, что они могут «помочь исследованиям по патогенам» с целью создания биологического оружия. Они могут генерировать «пошаговые технические инструкции», которые «превзойдут планы, написанные экспертами с докторской докторской и поверхностной информацией, которую эксперты пытаются найти в Интернете».
По мере продвижения ИИ, как и меры по снижению рисков, которые нам нужны
К сожалению, в отчете подчеркивается ряд причин, по которым снижение вышеупомянутых рисков особенно сложно. Во -первых, модели ИИ имеют «необычайно широкие» варианты использования, что затрудняет снижение всех возможных рисков и потенциально позволяя больше возможностей для обходных путей.
Разработчики, как правило, не до конца понимают, как работают их модели, что затрудняет полное обеспечение их безопасности. Растущий интерес к агентам искусственного интеллекта - то есть системы, которые действуют автономно - представляли новые риски, которым исследователи не готовы к управлению.
См.: Оператор: Следующий шаг Openai к «агентскому» будущему
Такие риски связаны с тем, что пользователь не знает о том, что делают их агенты ИИ, его врожденную способность работать вне контроля пользователя и потенциальные взаимодействия AI-AI. Эти факторы делают агенты ИИ менее предсказуемыми, чем стандартные модели.
Проблемы по снижению рисков являются не только техническими; Они также связаны с человеческим фактором. Компании ИИ часто удерживают подробности о том, как их модели работают от регулирующих органов и сторонних исследователей, чтобы поддерживать конкурентное преимущество и предотвратить попадание конфиденциальной информации в руки хакеров. Это отсутствие прозрачности затрудняет развитие эффективных гарантий.
Кроме того, давление на инновации и оставаться впереди конкурентов может «побудить компании инвестировать меньше времени или других ресурсов в управление рисками, чем они были бы в противном случае», говорится в отчете.
В мае 2024 года была расформирована команда безопасности Superintelligence Openai, и несколько старших персонала остались на фоне опасений, что «культура безопасности и процессы ушли на заднее сиденье для блестящих продуктов».
Тем не менее, это не все гибель и мрак; В заключении в заключении говорится, что переживание преимуществ передового ИИ и побеждая его риски не являются взаимоисключающими.
«Эта неопределенность может вызвать фатализм и сделать ИИ казаться чем -то, что с нами происходит», - написали авторы.
«Но это будут решения общества и правительств о том, как ориентироваться в этой неопределенности, которые определяют, какой путь мы будем идти».
Оригинал