
Google DeepMind предлагает «Монитористы» в полицейских гиперинтелтингантных моделях
5 апреля 2025 г.Google DeepMind представила новый подход к обеспечению пограничного генеративного искусственного интеллекта и выпустил статью 2 апреля. DeepMind сосредоточилась на двух из четырех ключевых областей риска: «неправильное использование, смещение, ошибки и структурные риски».
DeepMind выходит за рамки нынешнего пограничного искусственного искусства к искусственному общему интеллекту (AGI), Smarts на уровне человека, которые могут революционизировать здравоохранение и другие отрасли или вызвать технологический хаос. Существует некоторый скептицизм в отношении того, будет ли когда -нибудь AGI такого масштаба.
Утверждение, что AGI, похожая на человека, неизбежна и должна быть подготовлена, является стратегией шумихи, такой же старой, как Openai, которая началась с аналогичного заявления о миссии в 2015 году. Хотя паника над гиперинтеллигентным ИИ не может быть оправдано, исследования, такие как DeepMind
Предотвращение неправильного использования плохих актеров.
Неволенное использование и смещение - это два фактора риска, которые возникают намеренно: злоупотребление включает в себя злонамеренного актера по угрозе человека, в то время как смещение описывает сценарии, в которых ИИ следует инструкциям способами, которые делают его противником. «Ошибки» (непреднамеренные ошибки) и «структурные риски» (проблемы, возникающие, возможно, из-за противоречивых стимулов, без единого актера) завершают рамку с четырьмя частями.
Чтобы решить проблему неправильного использования, DeepMind предлагает следующие стратегии:
- Заблокировать модели веса передовых систем ИИ
Проведение исследований моделирования угроз для выявления уязвимых областей
Создание структуры оценки кибербезопасности, адаптированная к расширенному ИИ
Изучение других, неопределенных смягчений
DeepMind признает, что злоупотребление происходит с сегодняшним генеративным ИИ - от DeepFakes до фишинг -мошенничества. Они также ссылаются на распространение дезинформации, манипуляции с популярным восприятием и «непреднамеренные социальные последствия» как современные проблемы, которые могут значительно увеличить, если AGI станет реальностью.
См.: Openai собрал 40 миллиардов долларов при оценке на 300 миллиардов долларов на этой неделе, но некоторые деньги зависят от организации, которая стала коммерческой.
Предотвращение предотвращения генеративного ИИ предпринять нежелательные действия самостоятельно
Размещение может произойти, когда ИИ скрывает свои истинные намерения от пользователей или обходит меры безопасности как часть задачи. DeepMind предполагает, что «усиленный надзор» - тестирование вывода ИИ против ее предполагаемой цели - может снизить такие риски. Тем не менее, реализация этого сложно. На каких типах примеров ситуаций следует обучать ИИ? DeepMind все еще изучает этот вопрос.
Одно предложение включает в себя развертывание «монитора», другой системы ИИ, обученной обнаружению действий, которые не соответствуют целям DeepMind. Учитывая сложность генеративного ИИ, такой монитор потребует точного обучения, чтобы различить приемлемые действия и усилить сомнительное поведение для человеческого обзора.
Оригинал