Трамп признал: проверка ИИ‑систем Mythos нужна

Трамп признал: проверка ИИ‑систем Mythos нужна

7 мая 2026 г.

Тема всплыло в ветке r/technology на Reddit. Пост о том, что президент США вынужден признать правоту Байдена в вопросе тестов безопасности ИИ, собрал более четырёх тысяч голосов за сутки. Людей задело: в эпоху «ИИ‑паука» каждый ищет, кто будет держать его за хвост.

Как это дошло до Белого дома

Компания Anthropic представила Mythos — модель, способную находить уязвимости в других ИИ. Вскоре администрация Трампа заявила о «секретных рисках» и потребовала ограничить доступ к системе. По словам источников из Axios, в Пентагон готовят законопроект, обязывающий проверять каждую модель, которую используют федеральные, штатные и местные органы.

Сами чиновники называют это «необходимостью», но критики слышат в этом попытку цензуры. На фоне уже одобренных в январе десяти миллионов долларов на расширение Центра аналитики и безопасности искусственного интеллекта (CAISI) возник вопрос: хватит ли средств?

Голоса из комментариев

«Это заголовок предполагает, что у Трампа есть способность «понять», что он ошибался. Даже если бы он смог задуматься, он слишком ленив, чтобы что‑то менять», — Roadwing.

«Anthropic не поцеловала его задницу, и это ранит его чувства», — Thatoneguy_The_First.

«Он никогда не признает, что ошибся», — JWAdvocate83.

Почему это важно за пределами США

Если правительство начнёт требовать обязательные проверки, рынок получит новый слой регуляции. Компании, работающие с ИИ в Европе и Азии, могут столкнуться с аналогичными требованиями. Уже сейчас в ЕС обсуждают «право на объяснимость» ИИ‑моделей.

Анализ рынка: что уже существует

В России

  • AI Safety Lab — небольшая команда, предлагает сервисы статического анализа кода ИИ‑моделей, ориентирован на стартапы.
  • NeuroGuard — приложение для Android, сканирует модели на наличие известных уязвимостей, но работает только с открытыми моделями.
  • CAISI.RU — портал новостей о безопасности ИИ, без инструментов для практического тестирования.

За рубежом

  • Robust Intelligence — SaaS‑платформа, автоматизирует проверку устойчивости моделей к атаке «adversarial». Подписка для компаний любого размера.
  • Deepchecks — открытый набор проверок, интегрируется в пайплайн CI/CD, популярный среди инженеров в США.
  • Securify AI — облачный сервис, оценивает риск раскрытия конфиденциальных данных в генеративных моделях.

Незакрытая ниша: в России нет полноценного облачного сервиса, позволяющего проводить независимую проверку ИИ‑моделей, используемых в государственных закупках, с поддержкой нормативных требований.

💡 Идеи для предпринимательства

Сайты

  • «AI‑Контроль» — онлайн‑платформа для проверки моделей на уязвимости и соответствие российским регламентам. Платный доступ к отчётам, бесплатный базовый скан.
  • «Гос‑ИИ‑Тест» — агрегатор требований разных ведомств к ИИ, с генератором чек‑листов для подрядчиков.

Мобильные приложения

  • «SafeModel» — приложение для Android, позволяющее загрузить небольшую модель и запустить набор тестов «adversarial», результаты в виде простого балла.
  • Telegram‑бот «ИИ‑Контроль» — подписка на ежедневные уведомления о новых уязвимостях и рекомендациях по их исправлению.

Бизнес‑идеи

  • Консультация «ИИ‑безопасность для госзакупок» — индивидуальная проверка моделей, используемых в проектах, с подготовкой отчётов под требования CAISI.
  • Независимая лаборатория «Тест‑Mythos» — предоставление услуг по стресс‑тестированию моделей Mythos и аналогов, аренда вычислительных мощностей.

Читайте также

Аудио-версия статьи:


Оригинал