Трамп признал: проверка ИИ‑систем Mythos нужна
7 мая 2026 г.Тема всплыло в ветке r/technology на Reddit. Пост о том, что президент США вынужден признать правоту Байдена в вопросе тестов безопасности ИИ, собрал более четырёх тысяч голосов за сутки. Людей задело: в эпоху «ИИ‑паука» каждый ищет, кто будет держать его за хвост.
Как это дошло до Белого дома
Компания Anthropic представила Mythos — модель, способную находить уязвимости в других ИИ. Вскоре администрация Трампа заявила о «секретных рисках» и потребовала ограничить доступ к системе. По словам источников из Axios, в Пентагон готовят законопроект, обязывающий проверять каждую модель, которую используют федеральные, штатные и местные органы.
Сами чиновники называют это «необходимостью», но критики слышат в этом попытку цензуры. На фоне уже одобренных в январе десяти миллионов долларов на расширение Центра аналитики и безопасности искусственного интеллекта (CAISI) возник вопрос: хватит ли средств?
Голоса из комментариев
«Это заголовок предполагает, что у Трампа есть способность «понять», что он ошибался. Даже если бы он смог задуматься, он слишком ленив, чтобы что‑то менять», — Roadwing.
«Anthropic не поцеловала его задницу, и это ранит его чувства», — Thatoneguy_The_First.
«Он никогда не признает, что ошибся», — JWAdvocate83.
Почему это важно за пределами США
Если правительство начнёт требовать обязательные проверки, рынок получит новый слой регуляции. Компании, работающие с ИИ в Европе и Азии, могут столкнуться с аналогичными требованиями. Уже сейчас в ЕС обсуждают «право на объяснимость» ИИ‑моделей.
Анализ рынка: что уже существует
В России
- AI Safety Lab — небольшая команда, предлагает сервисы статического анализа кода ИИ‑моделей, ориентирован на стартапы.
- NeuroGuard — приложение для Android, сканирует модели на наличие известных уязвимостей, но работает только с открытыми моделями.
- CAISI.RU — портал новостей о безопасности ИИ, без инструментов для практического тестирования.
За рубежом
- Robust Intelligence — SaaS‑платформа, автоматизирует проверку устойчивости моделей к атаке «adversarial». Подписка для компаний любого размера.
- Deepchecks — открытый набор проверок, интегрируется в пайплайн CI/CD, популярный среди инженеров в США.
- Securify AI — облачный сервис, оценивает риск раскрытия конфиденциальных данных в генеративных моделях.
Незакрытая ниша: в России нет полноценного облачного сервиса, позволяющего проводить независимую проверку ИИ‑моделей, используемых в государственных закупках, с поддержкой нормативных требований.
💡 Идеи для предпринимательства
Сайты
- «AI‑Контроль» — онлайн‑платформа для проверки моделей на уязвимости и соответствие российским регламентам. Платный доступ к отчётам, бесплатный базовый скан.
- «Гос‑ИИ‑Тест» — агрегатор требований разных ведомств к ИИ, с генератором чек‑листов для подрядчиков.
Мобильные приложения
- «SafeModel» — приложение для Android, позволяющее загрузить небольшую модель и запустить набор тестов «adversarial», результаты в виде простого балла.
- Telegram‑бот «ИИ‑Контроль» — подписка на ежедневные уведомления о новых уязвимостях и рекомендациях по их исправлению.
Бизнес‑идеи
- Консультация «ИИ‑безопасность для госзакупок» — индивидуальная проверка моделей, используемых в проектах, с подготовкой отчётов под требования CAISI.
- Независимая лаборатория «Тест‑Mythos» — предоставление услуг по стресс‑тестированию моделей Mythos и аналогов, аренда вычислительных мощностей.
Читайте также
- Coinbase уменьшает штат на 14%: что происходит и какое будущее у криптовалют
- Anthropic и Google: сделка на 200 миллиардов долларов
- Coinbase сокращает 700 сотрудников в рамках ИИ‑реорганизации
Аудио-версия статьи:
Оригинал