DeepMind утверждает: большие языковые модели не смогут стать сознательными

DeepMind утверждает: большие языковые модели не смогут стать сознательными

28 апреля 2026 г.

Тема пришла из обсуждения на Reddit: в ветке r/technology пользователи спорили о статье Google DeepMind, где учёный утверждает, что большие языковые модели никогда не обретут сознание. Пост собрал более четырёх тысяч голосов «за», а значит, задел животрепещущую проблему.

Как возник спор

В научном докладе старшего исследователя DeepMind Александра Лерхнера говорится, что любой искусственный интеллект остаётся лишь «картографом», а сознание требует живого агента‑человека, способного «алфавитировать» непрерывную физику в конечные состояния. Эта позиция резко контрастирует с заявлениями руководителей компаний, которые обещают искусственный общий интеллект, сравнимый с индустриальной революцией.

Критики отмечают, что такие аргументы не новы: философы и биологи поднимают их уже десятилетиями, но теперь они звучат от лица крупного технологического гиганта.

Что говорят комментаторы

«Илон Маск… а вот Лерхнер уже давно говорил, что без живого тела сознание невозможно», — пользователь ujiuxle
«Исследователи AI живут в своей «пузыре», не знают биологических корней слов «агент» и «интеллект», – цитата из интервью Джагера, приведённая в статье», — Calm‑Inevitable5207
«Это капиталистическая мечта: делать больше капитала с минимальными человеческими усилиями», — EnamelKant

Почему это важно

Если крупные компании продолжают продавать миф о «сознательных» машинах, инвесторы могут устать от пустых обещаний, а общество — от постоянного хайпа. Понимание реальных ограничений поможет сформировать более взвешенную политику регулирования и образование.

Анализ рынка

В России

  • Яндекс Алиса — голосовой помощник, умеет вести диалог, но не претендует на сознание; доступен в мобильных приложениях и умных колонках.
  • СберГПТ — отечественная языковая модель, предлагается бизнес‑клиентам как сервис генерации текста, без заявлений о самосознании.
  • ChatGPT‑русский интерфейс — сервис OpenAI, адаптированный под русский язык, широко используется в образовании и маркетинге.

За рубежом

  • OpenAI ChatGPT — крупнейший публичный генератор текста, позиционирует себя как «инструмент», а не «разум».
  • Anthropic Claude — модель, ориентированная на безопасный диалог, с открытыми ограничениями по «самоосознанию».
  • Google Gemini — новая модель от Google, обещающая более глубокое понимание контекста, но без заявлений о сознании.

Незакрытая ниша: в России отсутствует независимая платформа, где академики и философы могли бы публиковать и сравнивать аргументы о сознании ИИ, а также вести открытый диалог между исследователями и широкой публикой.

💡 Идеи для предпринимательства

Сайты

  • «AI‑Дебаты» — онлайн‑платформа, где эксперты публикуют статьи, аргументы и контр‑аргументы о сознании ИИ; подписка на премиум‑доступ к экспертным материалам.
  • «Консультант по ИИ‑этике» — сервис, позволяющий компаниям проверять свои рекламные заявления о «разумных» системах через чек‑лист, основанный на философских критериях.

Мобильные приложения

  • «Разум‑Тест» — приложение, которое задаёт пользователю серию вопросов о работе языковых моделей и показывает, где находятся границы имитации сознания.
  • «Теле‑бот «Философ ИИ» — телеграм‑бот, ежедневно присылает короткие выдержки из классических трудов о сознании и новости из мира ИИ, с возможностью подписки на расширенный контент.

Бизнес‑идеи

  • Консультации для стартапов по этике ИИ — индивидуальные сессии, где специалист помогает сформулировать корректные маркетинговые сообщения без обещаний сознания.
  • Независимый аудит заявлений о «самосознании» — сервис, проверяющий публичные заявления компаний и выдающий сертификат «Без претензий к сознанию».

Читайте также

Аудио-версия статьи:


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE