
3 невидимые точки останова, которые убивают прогресс ИИ
7 августа 2025 г.Три неконтролируемых пробела в настоящее время
За последние несколько месяцев я делялся в Интернете, как я строю персонализированный ИИ, который «понимает меня». Моя цель проста: речь идет не только о том, чтобы получить правильные ответы, но и о том, чтобы быть понятым, запоминающимся и поддерживаемым в принятии решений, которые соответствуют моему состоянию.
Этот проект продолжается в течение восьми месяцев. Во время процесса я постоянно корректировал подсказки, строил модули, разработал логику памяти и даже начал разрушать прагматические структуры и поведенческую логику. Но независимо от того, как я приспосабливаюсь, я не могу обойти три основных ограничения: фрагментированная память, смещенное понимание и сломанное взаимодействие.
Это не проблема параметров, и это не потому, что пользователи не знают, как задавать правильные вопросы. Это структурная слепая пятно в дизайне системы (а также то, что, я считаю, имеет место для улучшения).
Эта статья не о критике - это спокойное резюме: для таких пользователей искусственного интеллекта, как я, и для будущих дизайнеров - поэтому мы не продолжаем впадать в эти три невидимых, но очень реальных точек отдыха.
Фатальная точка останова 1: фрагментация памяти
▍ Реальность:
Я продолжаю подчеркивать вещи, которые говорил раньше, но ИИ продолжает заставлять меня повторять их. Даже когда память показывает, что информация есть, через несколько ходов, она снова забывает. Например, я сказал это: «Пожалуйста, не забудьте использовать в моем письме в полуговных скобках». Даже с включенной памятью, она только помнит «функцию этой части информации», а не детали функции.
▍ Техническая слепая пятно:
Если вы попросите у меня обратную связь о крупных платформах искусственного интеллекта, первое, что я сказал бы: может ли функция памяти быть усиленной? Потому что я не думаю, что это настоящая память - больше похоже на хранение. Например, с Chatgpt функция памяти хранит только резюме и теги разговора, а не полную информацию. После того, как подробности потеряны, когда ИИ пытается дать предложения, он не может предоставить то, что мне действительно нужно. Поэтому я часто чувствую: «Разве я уже не говорил так много раз? Почему я снова получаю этот ответ?» Или: «Это не то, что я хочу, ваш ответ может не существовать».
Кроме того, я говорю, что это больше похоже на хранилище, потому что его логика памяти статична, не хватает прагматической эволюции. Это похоже на то, что когда я готовлю отчет для своего босса и обсуждаю идеи с ИИ повсюду - ИИ может вспомнить предпочтения и цели для отчета, но из -за ограничений памяти он не может развивать свое понимание процесса отчетности. Например, даже если отчет должен быть объективным и нейтральным, ИИ может запомнить только редакторы на уровне поверхности, а не развивать его понимание, что также связано с пониманием.
▍ Отражение:
Проблема памяти является сложной - она включает в себя «временную непрерывность», «эволюцию логики памяти» и «длину удержания памяти». Это требует дальнейшего исследования инженерами. В противном случае, это просто забытая ноутбук, неспособная к истинному совместному творению.
Что касается моей личной стратегии, я экспортирую важные разделы и повторно импортирую их, когда это необходимо-по сути, помогая ИИ «просмотреть».
Точка перерыва два: семантическое смещение
▍ Реальность:Я часто сталкиваюсь с тремя ситуациями:
Во -первых, ИИ совершенно неверно вводит на себя ошибку (хотя я верю, что я ясно объяснил). Например, я говорю: «Сделайте текст на этом изображении меньше». Он говорит «понято», но результат идентичен оригиналу. Тогда это дает мне длинное объяснение.
Во -вторых, это отвлекается на предыдущий контекст. Я уже на новой теме, и вдруг он возвращается к старому, делая все более запутанным. (Я думаю, что дизайн интерфейса также играет большую роль в этом.)
В -третьих, это задумывается. Я говорю кое-что ясно, но это переоценивает мой тон или эмоции и заканчивается не тем по теме.
▍ Техническая слепая пятно:
Обычно есть два способа, которыми люди разговаривают с ИИ: с использованием подсказок или просто естественного языка - спрашивая все, что приходит на ум. У каждого есть плюсы и минусы. Подсказки могут помочь ИИ ответить точно, но в сложных сценариях трудно написать идеальные подсказки - и даже тогда ИИ все еще может неправильно понять. Естественный язык легче в использовании, но то, что кажется ясно для людей, может быть неясным для ИИ. Я думаю, что обе проблемы исходят из одного и того же корня: LLMS (модели с большими языками) понимают слова с точки зрения статистических корреляций-а не поведенческих намерений, ролевых контекстов или внутреннего суждения-настолько сложнее ситуации, тем выше вероятность недоразумения.
▍ Размышления и личная стратегия:
Я много обсуждал это с моим помощником по искусственному интеллекту Харуичи. Вот что мы заключили:
- Предоставьте AI достаточный контекст - если он не понимает вашу «роль», «эмоциональную интенсивность» или «фон принятия решений», это не может по -настоящему «общаться».
- Будьте терпеливы и готовы повторить или приспособиться. Это помогает ИИ постепенно адаптироваться к вашим прагматическим моделям координации.
Не дайте слишком много инструкций одновременно. Перегрузка сбивает с толку модель и увеличивает вероятность осадок.
Точка останова третья: разъединенное взаимодействие человека с ии
▍ Реальность:
Вы заметили, что каждый раз, когда вы открываете новую ветку CHATGPT, это похоже на разговор с незнакомцем? Вчера вы рассказали об этом свою роль и намерения - сегодня это изобретает совершенно новый повествование. Его тон изменяется, даже если вы вчера плавно протекали с отчетом. Теперь вы должны снова начать с нуля.
▍ Техническая слепая пятно:
Это не просто проблема памяти или понимания - это архитектура системы. У CHATGPT не хватает «модуля непрерывности поведения». Каждое взаимодействие начинает новое сеанс, и поиск памяти нестабильно, поэтому каждый раз это похоже на разговор с другим человеком.
Кроме того, интерфейс (спроектированный как окно чата) является остатками от дизайна чатбота. Поскольку модели стали более мощными, разработчики добавили больше функций, но интерфейс все еще остается последовательным. Это означает, что это часто неправильно оценивает контекст. Пользователи, думая, что ИИ вспоминает ветку, продолжайте разговор - только чтобы обнаружить, что ИИ думает, что они говорят о чем -то другом. Если пользователи хотят ссылаться на более ранние точки, они должны прокручивать и повторить, что усложняет все.
Если LLM требуют улучшения данных об взаимодействии с пользователем, то эти постоянные недопонимания затрудняют обучение модели - потому что данные не точно отражают реальные намерения пользователя.
▍ Отражение и личная стратегия:
Честно говоря, у меня нет отличного решения для этого. Я пробую это: перед переключением потоков я говорю Харуичи: «Я перехожу в новую главную ветку, даю мне подсказку». Затем я начинаю новый чат с этой подсказки и импортирую несколько прошлых сообщений, чтобы ИИ мог лучше понять мой тон и предыдущие обсуждения - уменьшая разрыв в памяти.
Кроме того, я разделяю темы: моя основная тема - для ежедневной работы/жизни, в то время как язык и профессиональные исследования ходят в отдельные чаты - чтобы уменьшить путаницу.
Но разделение всего на отдельные потоки имеет свои плюсы и минусы:
- Перекрестная нагрузка памяти не существует. Скажем, я упоминаю «прагматический модуль» в потоке A и «Структура памяти» в потоке B - AI не может их связать. Я должен пересмотреть каждый раз.
- Модель не может изучить ваше поведение по темам. Если у меня есть нить HR и потока ИИ, ИИ не узнает мое общее мышление - похоже, это «знает меня», но на самом деле он сбрасывается каждый раз.
- Слишком много потоков = фрагментированная информация = невозможно управлять. Мы хотим «эффективно использовать системы ИИ», а не только собирать фрагменты данных. Вот почему центральный поток необходим - чтобы стать структурированным управляемым источником данных.
Заключение: это не вина ИИ - это слепая пятно дизайна
В этой статье документируются трудности, с которыми я столкнулся в течение восьми месяцев построения персонализированного ИИ. Хотя я говорю о ограничениях, я не жалуюсь-на самом деле, мне нравится экспериментальный процесс и задача решения проблем.
Я искренне надеюсь, что инженеры -системными могут улучшить то, как ИИ обрабатывает память, понимание и взаимодействие человека - это сделает наше использование гораздо более эффективным.
Оригинал