DeepMind утверждает: большие языковые модели не смогут стать сознательными
28 апреля 2026 г.Тема пришла из обсуждения на Reddit: в ветке r/technology пользователи спорили о статье Google DeepMind, где учёный утверждает, что большие языковые модели никогда не обретут сознание. Пост собрал более четырёх тысяч голосов «за», а значит, задел животрепещущую проблему.
Как возник спор
В научном докладе старшего исследователя DeepMind Александра Лерхнера говорится, что любой искусственный интеллект остаётся лишь «картографом», а сознание требует живого агента‑человека, способного «алфавитировать» непрерывную физику в конечные состояния. Эта позиция резко контрастирует с заявлениями руководителей компаний, которые обещают искусственный общий интеллект, сравнимый с индустриальной революцией.
Критики отмечают, что такие аргументы не новы: философы и биологи поднимают их уже десятилетиями, но теперь они звучат от лица крупного технологического гиганта.
Что говорят комментаторы
«Илон Маск… а вот Лерхнер уже давно говорил, что без живого тела сознание невозможно», — пользователь ujiuxle
«Исследователи AI живут в своей «пузыре», не знают биологических корней слов «агент» и «интеллект», – цитата из интервью Джагера, приведённая в статье», — Calm‑Inevitable5207
«Это капиталистическая мечта: делать больше капитала с минимальными человеческими усилиями», — EnamelKant
Почему это важно
Если крупные компании продолжают продавать миф о «сознательных» машинах, инвесторы могут устать от пустых обещаний, а общество — от постоянного хайпа. Понимание реальных ограничений поможет сформировать более взвешенную политику регулирования и образование.
Анализ рынка
В России
- Яндекс Алиса — голосовой помощник, умеет вести диалог, но не претендует на сознание; доступен в мобильных приложениях и умных колонках.
- СберГПТ — отечественная языковая модель, предлагается бизнес‑клиентам как сервис генерации текста, без заявлений о самосознании.
- ChatGPT‑русский интерфейс — сервис OpenAI, адаптированный под русский язык, широко используется в образовании и маркетинге.
За рубежом
- OpenAI ChatGPT — крупнейший публичный генератор текста, позиционирует себя как «инструмент», а не «разум».
- Anthropic Claude — модель, ориентированная на безопасный диалог, с открытыми ограничениями по «самоосознанию».
- Google Gemini — новая модель от Google, обещающая более глубокое понимание контекста, но без заявлений о сознании.
Незакрытая ниша: в России отсутствует независимая платформа, где академики и философы могли бы публиковать и сравнивать аргументы о сознании ИИ, а также вести открытый диалог между исследователями и широкой публикой.
💡 Идеи для предпринимательства
Сайты
- «AI‑Дебаты» — онлайн‑платформа, где эксперты публикуют статьи, аргументы и контр‑аргументы о сознании ИИ; подписка на премиум‑доступ к экспертным материалам.
- «Консультант по ИИ‑этике» — сервис, позволяющий компаниям проверять свои рекламные заявления о «разумных» системах через чек‑лист, основанный на философских критериях.
Мобильные приложения
- «Разум‑Тест» — приложение, которое задаёт пользователю серию вопросов о работе языковых моделей и показывает, где находятся границы имитации сознания.
- «Теле‑бот «Философ ИИ» — телеграм‑бот, ежедневно присылает короткие выдержки из классических трудов о сознании и новости из мира ИИ, с возможностью подписки на расширенный контент.
Бизнес‑идеи
- Консультации для стартапов по этике ИИ — индивидуальные сессии, где специалист помогает сформулировать корректные маркетинговые сообщения без обещаний сознания.
- Независимый аудит заявлений о «самосознании» — сервис, проверяющий публичные заявления компаний и выдающий сертификат «Без претензий к сознанию».
Читайте также
- DeepSeek‑V4 подрывает цены на крупные модели: открытый ИИ меняет правила игры
- Код без ИИ: как генеративный интеллект лишил меня мышления
- Искусственный интеллект против мозга: как ИИ влияет на наше мышление
Аудио-версия статьи:
Оригинал