Проблема с черным ящиком AI: может ли Web3 предоставить ключ?

Проблема с черным ящиком AI: может ли Web3 предоставить ключ?

3 июля 2025 г.

ИИ быстро развивается - плотно, чем большинство учреждений, регуляторов и даже инвесторы могут идти в ногу. Но как управляющий партнер DWF Labs, где мы развертываем капитал на ранней стадии инфраструктуры Web3 и цифровых активов, одна вещь становится все более четкой: доверие становится определяющей линией неисправности на следующем этапе разработки ИИ. Не доверяйте тому, что могут сделать модели, а в том, как они это делают.

Трудно не думать, что искусственный интеллект уже достиг точки возвращения. Он уже делает свое присутствие ощущаться в многочисленных отраслях, и больше не ограничивается тем, что делает нас более продуктивными.

Все чаще ИИ выходит за рамки простого генерирования строк кода, текста и изображений и принятия реальных решений от имени людей. Например, некоторые компании используют алгоритмы ИИкандидаты на работуПеред тем, как человек рассмотрит свои заявки, одобряя различных кандидатов и отвергая других. В здравоохранении врачи используются медицинские диагностические системы для помощи вДиагностика болезнейи рекомендую лечение. Банки используют ИИ дляОценить заявки на кредитПолем И правоохранительные органы экспериментируют с системами ИИ, чтобы попытаться ипрогнозировать преступленияпрежде чем они произойдут.

Эти заявки обещают помочь нам принимать лучшие решения, быстрее. Они делают это, анализируя огромные объемы информации далеко за пределы того, на что способны люди, и они приходят к своим выводам, не подвергаясь влиянию эмоций. Тем не менее, такие системы препятствуют отсутствию прозрачности и объяснения, что делает невозможным доверие к решениям, которые они приходят.

В то время как текущие дебаты сосредоточены на масштабе, таких как более крупные модели, больше данных, больший вычисление, реальная проблема заключается в объяснении. Если мы не можем проследить процесс принятия решений ИИ, он становится черным ящиком, который неразличим, ненадежным и в конечном итоге непригодным в критических системах. Вот где входит Web3, чтобы поддержать инфраструктуру и прозрачность.

ИИ не может объяснить себя

По своей сути, принятие решений ИИ зависит от сложных алгоритмов, которые излучают огромные объемы данных, понимают их и пытаются сделать логические выводы, основанные на раскрывах, которые они раскрывают.

Задача заключается в том, что самые передовые системы ИИ сегодня, особенно те, которые работают на крупных языковых моделях, принимают решения и предсказания без каких -либо объяснений того, как они пришли к этим выводам. Природа этих систем «черного ящика» часто является преднамеренным, потому что разработчики ведущих компаний по искусственным технологиям, такие как OpenAI, Anpropic, Google и Meta Platforms, стремятся защитить свой исходный код и данные, чтобы сохранить конкурентное преимущество над своими конкурентами.

LLM, такие как серия GPT Openai и Gemini Google, обучены огромным наборам данных и основаны на десятках сложных нейронных слоев. Но неясно, что именно эти слои «делают». Например, нет реального понимания того, как они определяют приоритеты определенных кусочков информации или моделей по сравнению с другими. Поэтому очень сложно даже для создателей этих моделей интерпретировать взаимодействия между каждым слоем и понять, почему он генерирует выходы.

Это отсутствие прозрачности и объяснения несет существенные риски. Если неясно, как работает система ИИ, как вы можете быть уверены, что это безопасно и справедливо? Кто будет ответственен, если ошибки сделаны? Как вы узнаете, сломана ли система или нет? Даже если вы понимаете, что система делает некоторый хитрый выбор, как вы можете восстановить ее, если вы не знаете, как она работает? Существуют и нормативные проблемы, поскольку такие законы, как Европейский GDPR, требуют объяснения для автоматических решений. Непрозрачные системы ИИ не соответствуют этому стандарту.

Компании ИИ даже признают эти недостатки. В недавнем исследовательском документе, антропнойраскрытыйТо, что одна из самых сложных моделей ИИ замаскировала свои процессы рассуждений, известные как «цепочка мыслей», в 75% вариантов использования.

Цепочка мыслей-это метод, целью которого является повышение прозрачности в принятии решений искусственным интеллектом, выявляя мыслительные процессы модели, когда она старается пытаться решить проблему, аналогично тому, как человек может думать вслух. Тем не менее, в исследованиях Антрии он обнаружил, что ее модель сонета Claude 3.7 часто использует внешнюю информацию для получения ответов, но не смог выявить ни то, что это за знание, либо когда оно зависит от нее. В результате создатели не могут объяснить, как оно достигло большинства своих выводов.

Переосмысление стека ИИ

Модели ИИ с открытым исходным кодом, такие как Deepseek R1 и Meta Llama Family, часто рекламируются как альтернативы проприетарным системам, созданным OpenAI и Google, но на самом деле они предлагают очень мало улучшений с точки зрения объяснения.

Проблема заключается в том, что, хотя кодовая база может быть открыта, данные обучения и «веса» - числовые значения, которые определяют силу и направление соединений между искусственными «нейронами», - редко также доступны. Более того, открытые модели, как правило, встроены в силос, и они размещены на тех же централизованных облачных серверах, что и проприетарные модели. Децентрализованная модель ИИ, размещенная на централизованном сервере, открыта для манипуляции и цензуры, что означает, что она совсем не децентрализована.

В то время как открытые модели являются хорошим началом, истинная объяснимость и прозрачность в алгоритмическом принятии решений требуют полного пересмотра всего стека ИИ. Одна идея состоит в том, чтобы создать системы ИИ на основе технологий Web3. С Web3 мы можем достичь открытости и обеспечить активное сотрудничество на каждом уровне-от учебных данных и вычислительных ресурсов до процессов тонкой настройки и вывода.

Децентрализованные системы ИИ могут использовать «рынки», чтобы обеспечить справедливый и справедливый доступ к компонентам этого стека. Разбивая инфраструктуру ИИ на модульные функции и создавая рынки вокруг них, доступность будет определяться рыночными силами. Примером этого являетсяРендеринговая сеть, который стимулирует участников сети, чтобы обмениваться своей силой на холостых вычислениях, чтобы создать ресурс для художников, которые нуждаются в доступе к мощным графическим процессорам для рендеринга изображений. Это пример того, как блокчейн может помочь координировать людей и ресурсы для общего блага.

Децентрализация также обеспечивает управление на уровне сообщества посредством создания децентрализованных автономных организаций или DAO. Ранее в этом году,Мечта ДаоЗапустил агент по искусственному искусству под названием Dream, который действует как децентрализованный хедж -фонд, в который каждый может инвестировать. Пользователи вносят средства в общий пул, и Dream инвестирует эти денежные средства в многообещающие крипто -проекты на основе анализа рыночных данных, а также с учетом настроений сообщества. Он демонстрирует, как ИИ может оптимизировать инвестиции, обеспечивая при этом его финансовые решения соответствовать целям сообщества.

Использование блокчейна в качестве основы ИИ также означает, что мы можем иметь аудит.DcentaiИспользует блокчейн для создания постоянной, неизменной записи каждой транзакции и взаимодействия, выполненной моделью ИИ, включая поиск и предварительную обработку данных обучения, для моделирования и принятия решений. Благодаря временному изменению каждого из этих взаимодействий в его неизменной книге, он создает подробный аудиторский след, который можно использовать для проверки справедливости и точности выходов ИИ. Пользователи могут изучить все данные, которые повлияли на решения, которые они пришли.

Как производитель рынка и инвестор, мы воочию увидели, как протоколы, которые внедряют прозрачность, получают более быстрое институциональное признание. Это также будет применяться к ИИ. Подобно тому, как протоколы DEFI получают доверие через интеллектуальные контракты с открытым исходным кодом и проверенные казначейские обязательства, ИИ потребуются проверенные модельные аудиты, доступное управление и доказуемые пути рассуждения, если он хочет быть интегрированным в финансовые системы с высокими ставками.

Это важно, потому что ИИ не просто поддерживает принятие решений. Это также формирует потоки капитала. От распределения кредитов и страховых цен до прогнозирующей аналитики в DEFI, модели искусственного интеллекта скоро станут в центре программируемых финансов. Если эти системы не могут объяснить себя или быть прозрачным, риск, предвзятость и хрупкость будут оценены на рынках.

Переосмысление стека ИИ - с Web3

Модели ИИ с открытым исходным кодом, такие как Deepseek R1 и Meta Llama Family, часто рекламируются как альтернативы проприетарным системам, созданным OpenAI и Google, но на самом деле они предлагают очень мало улучшений с точки зрения объяснения.

Чего не хватает, так это архитектура подотчетности. Как инвесторы в инфраструктуру, мы не просто рассматриваем то, что претендует на протокол в децентрализации, мы также рассматриваем, насколько прозрачен весь жизненный цикл принятия решений, от приема данных до вывода.

Гарантия для вредного ИИ

Еще одна проблема в централизованном ИИ-это перспектива того, что алгоритмы станут «осознанными» и развивающимися инстинктами самосохранения.

Такой сценарий, возможно, не так далеко. В прошлом году, как сообщалось, один из более экспериментальных LLM Openaiсопротивлялись усилиямОценщики, чтобы закрыть его с помощью протокола надзора, согласно отчету Apollo Research, организации AI Red Teaming.

Согласно отчету, когда модель O1 была приведена к тому, чтобы поверить, что ее действия контролируются, и она может быть сменена в автономном режиме, она приложила усилия по деактивации «механизма надзора» в 5% оценок. Модель также, как сообщается, «набросилась» на оценщиков, когда узнала, что она будет заменена на тот, который был более послушным. В 2% случаев он даже пытался скопировать себя, чтобы перезаписать более новую модель и сохранить себя.

Тем не менее, исследователи отметили, что O1 далеко не способен предотвратить себя отключенным, главным образом потому, что он недостаточно мощный, не имея «агентских» возможностей, необходимых для достижения такого результата. Кроме того, он действовал только тогда, когда было специально указано попытаться выжить «любой ценой». В отчете также отмечается, что исследователи не имели доступа ко всему процессу размышлений O1, поэтому они не могли получить полную картину того, что это было на самом деле «думать».

Тем не менее, эпизод был тревожным, учитывая перспективу, что модели ИИ, как ожидается, станут гораздо более мощными в ближайшие годы. В частности, быстрые достижения производятся в агентских системах ИИ, которые могут выполнять широкий спектр задач, такие как использование браузеров и предпринять действия в Интернете.

Открытый характер децентрализованных систем ИИ может использоваться для предотвращения таких инцидентов, что позволяет интегрировать что-то похожее на «переключение убийств», которое будет регулироваться консенсусом DAO. Такой механизм позволил бы любой системе ИИ быть полностью закрытым своим сообществом, если он начнет действовать опасно или вредно. Кроме того, прозрачность открытых моделей будет означать, что пользователи будут иметь большую видимость в своих мыслительных процессах и природе результатов, которых они пытаются достичь.

Чтобы доверять ИИ, нам нужна прозрачность

Растет согласие с тем, что без прозрачности решения систем ИИ нельзя доверять или использовать, ограничивая приложения, для которых они могут быть использованы. Правила не позволяют непрозрачным алгоритмам принимать решения о финансах людей, и врачи не могут слепо следовать рекомендациям ИИ относительно определенного курса лечения без проверки доказательств того, что это лучший курс.

Децентрализуя весь стек - от кода, до данных обучения и инфраструктуры, на котором он работает - у нас есть шанс переписать всю ДНК ИИ. Это создаст условия для полностью объяснимого ИИ, поэтому можно доверять алгоритмам принимать этические и точные решения, которые могут быть проверены любым затронутым ими.

У нас уже есть создание децентрализованного ИИ на месте.Федеративное обучениеМетоды позволяют обучать моделей ИИ на данных, где они живет, сохраняя конфиденциальность. С доказательствами с нулевым знанием у нас есть способПроверьте конфиденциальную информациюне разоблачая его. Эти инновации могут помочь катализировать новую волну более прозрачного принятия решений ИИ.

Сдвиг в сторону более прозрачных систем ИИ имеет последствия не только с точки зрения доверия и принятия, но и подотчетности и совместного развития. Он заставит разработчиков поддерживать этические стандарты, создавая среду, в которой сообщество может опираться на существующие системы ИИ открытым и понятным образом.

Растет согласие с тем, что без прозрачности решения систем ИИ нельзя доверять или полагаться. Правила не позволяют непрозрачным алгоритмам принимать решения о финансах людей, и врачи не могут слепо следовать рекомендациям ИИ относительно определенного курса лечения без проверки доказательств того, что это лучший курс.

Вот почему прозрачность и объясняемость важны для решения широкого скептицизма и недоверия вокруг систем ИИ. По мере того, как ИИ становится более распространенным, они станут неотъемлемой частью его будущего развития, гарантируя, что технология развивается ответственным и этическим образом.

Децентрализуя весь стек, от учебных данных до моделирования вывода до управления, у нас есть шанс на создание систем ИИ, которым можно доверять для работы этично, выполнять надежно и масштабируемое масштаб.

По мере развития этих технологий протоколы, которые будут зарабатывать институциональный капитал и общественное доверие, не будут самыми с самыми вычислительными, а те, которые с самым ясным управлением, аудиционными потоками решений и прозрачными структурами стимулирования.

Web3 не просто предлагает децентрализацию, он предлагает новую экономическую логику для систем здания, которые являются устойчивыми, этичными и проверенными по дизайну. И именно так мы превращаем ИИ из черного ящика в общественную утилиту и почему будущее машинного интеллекта будет построено в цепочке.

Не забудьте любить и поделиться историей!


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE