5 шокирующих ошибок при работе с Agentic AI, которые могут разрушить ваш проект

3 февраля 2026 г.

Вступление

Технология Agentic AI обещает автоматизировать сложные бизнес‑процессы, создавать интеллектуальные агенты, способные принимать решения без постоянного вмешательства человека. На первый взгляд – это спасение для стартапов, желающих быстро вывести продукт на рынок, и для крупных компаний, стремящихся сократить издержки. Однако реальность часто оказывается гораздо более суровой: без глубокого понимания принципов работы, без надлежащей проработки безопасности и без изучения официальной документации любой «быстрый старт» может превратиться в катастрофу.

В Reddit недавно вспыхнула дискуссия, где разработчики делились своими провалами, связанными с поверхностным подходом к Agentic AI и сопутствующим сервисам, таким как Supabase. Комментарии раскрывают типичные ловушки, в которые попадают даже опытные инженеры, когда пытаются собрать «бэкенд за пять минут», полагаясь лишь на короткие обучающие ролики.

Для того чтобы подчеркнуть мимолетность и одновременно неизбежность ошибок, предлагаю завершить вступление традиционным японским хокку, которое, несмотря на лаконичность, передаёт суть нашей темы:


Тихий код в ночи —
запросы без проверок,
утренний сбой.

Пересказ Reddit поста своими словами

Исходный пост в Reddit начинался с ироничного замечания автора Thom_Braider: многие новички после просмотра пятиминутного видеоруководства по Fire (Firebase) или Supabase сразу же пытаются собрать полноценный бэкенд, не читая официальную документацию. Это типичный пример «я посмотрел короткое видео и всё понял».

В ответ PaintItPurple подметил, что такие пользователи часто просто вводят в поисковую строку «нужна база данных» и получают готовый шаблон, не проверяя, подходит ли он под их задачи. Casalvieri3, в свою очередь, высказал более мрачную мысль: Agentic AI – это «кошмар с точки зрения безопасности», сравнив его с очевидными фактами, вроде того, что вода мокрая, а ночь тёмная.

Другие комментарии были лаконичными: Cronos993 назвал пост «поэтичным», а mystery_axolotl указал, что статья, к которой относится обсуждение, даже не упоминает Supabase, тем самым подчеркивая несоответствие между ожиданиями и реальностью.

Пересказ сути проблемы, хакерский подход, основные тенденции

Суть проблемы заключается в том, что современный рынок AI‑инструментов привлекает огромное количество разработчиков, желающих быстро внедрить «умные» функции в свои проекты. Тренд «low‑code/no‑code» усиливается, а платформы вроде Supabase, Firebase, а также новые Agentic‑frameworks обещают «мгновенный бэкенд». Хакерский подход в этом контексте часто выглядит так:

  • Скачивание готового шаблона из репозитория;
  • Запуск без настройки прав доступа;
  • Игнорирование рекомендаций по аутентификации и шифрованию;
  • Отсутствие тестов безопасности.

Текущие тенденции подтверждаются исследованиями Gartner, где в 2023 году более 70 % компаний планируют внедрять Agentic AI в течение двух лет, но лишь 15 % из них имеют чёткую стратегию по управлению рисками.

Детальный разбор проблемы с разных сторон

Техническая сторона

Отсутствие глубокого изучения API приводит к ошибкам в конфигурации. Например, Supabase по умолчанию открывает публичный доступ к таблицам, если разработчик не задаст правила RLS (Row Level Security). При интеграции с Agentic AI такие «дырки» могут стать входными точками для злоумышленников, позволяя им манипулировать данными, а в худшем случае – запускать произвольный код.

Безопасность

Agentic AI часто использует большие языковые модели (LLM) для генерации запросов к базе данных. Если модель получает неконтролируемый ввод, она может сформировать опасные SQL‑инъекции. Кроме того, отсутствие аудита действий агента делает невозможным отследить, какие операции были выполнены и кем.

Организационная сторона

Команды часто недооценивают необходимость обучения персонала. По данным Stack Overflow Developer Survey 2023, более 40 % разработчиков признают, что используют новые инструменты без достаточного изучения их особенностей. Это приводит к «техническому долгу», который в дальнейшем удорожает поддержку проекта.

Практические примеры и кейсы

Кейс 1: Быстрый прототип с Supabase и Agentic AI

Компания «ТехСтартап» решила за неделю создать сервис рекомендаций, используя Supabase как бэкенд и Agentic AI для генерации рекомендаций. Разработчики скопировали пример из официального репозитория, не изменив правила доступа. Через два дня после запуска в продакшн обнаружили, что любой пользователь может просмотреть и изменить чужие рекомендации, что привело к утечке персональных данных.

Кейс 2: Неправильная настройка LLM‑агента

В другом проекте агент, обученный на открытых данных, получал запросы от веб‑формы без фильтрации. Пользователь ввёл строку DROP TABLE users;, и агент, не проверив контекст, сгенерировал SQL‑команду, которая была выполнена, полностью удалив таблицу пользователей.

Оба примера демонстрируют, как отсутствие базовых мер безопасности и поверхностный подход к изучению документации могут привести к катастрофическим последствиям.

Экспертные мнения из комментариев

«Ах, да, старый добрый момент ‘Я посмотрел 5‑минутное обучающее видео по fire/supabase и создал backend, не прочитав документацию’» — Thom_Braider

«Более вероятно, что человек просто вбил ‘Мне нужна база данных’ в Cursor без каких‑либо усилий для изучения вопроса» — PaintItPurple

«Agentic AI – это кошмар с точки зрения безопасности. В других новостях: вода мокрая, а ночь темная» — Casalvieri3

«Статья даже не упоминает Supabase» — mystery_axolotl

Эти комментарии подчёркивают три ключевых вывода: поверхностное обучение, отсутствие проверки безопасности и несоответствие между ожиданиями и реальностью.

Возможные решения и рекомендации

Чтобы избежать описанных ловушек, рекомендуется следовать проверенному набору практик:

  1. Тщательное изучение документации. Прочитайте разделы о безопасности, аутентификации и ограничениях доступа.
  2. Настройка правил доступа. В Supabase включите Row Level Security и явно задайте политики для каждой таблицы.
  3. Валидация входных данных. Перед передачей пользовательского ввода в LLM‑агент используйте белый список разрешённых символов и контекстный фильтр.
  4. Логирование и аудит. Записывайте все запросы, генерируемые агентом, и регулярно проверяйте логи на предмет аномалий.
  5. Тестирование безопасности. Проводите регулярные пентесты и используйте инструменты статического анализа кода.
  6. Обучение команды. Организуйте воркшопы по безопасному использованию Agentic AI и low‑code платформ.

Эти шаги помогут построить надёжный и безопасный сервис, минимизируя риски, связанные с быстрым внедрением новых технологий.

Заключение с прогнозом развития

Agentic AI будет продолжать завоёвывать рынок, предлагая всё более автономные решения. Ожидается, что к 2026 году более 50 % новых SaaS‑продуктов будут включать в себя хотя бы один автономный агент. Однако без системного подхода к безопасности и без глубокого понимания возможностей платформ, таких как Supabase, рост будет сопровождаться ростом инцидентов.

Мы стоим на пороге того, когда «быстрый старт» превратится в «быстрый провал», если не внедрить культуру ответственного использования. Поэтому инвестировать в обучение, аудит и надёжные практики безопасности сейчас – это не просто рекомендация, а необходимость для выживания в конкурентной среде.

Практический пример на Python


# -*- coding: utf-8 -*-
"""
Пример безопасного взаимодействия с Supabase и LLM‑агентом.
Демонстрирует:
1. Подключение к Supabase с использованием токена.
2. Валидацию пользовательского ввода.
3. Генерацию SQL‑запроса через LLM (заглушка).
4. Выполнение запроса только после проверки правил доступа.
"""

import os
import re
import json
import requests

# Конфигурация Supabase (получить из переменных окружения)
SUPABASE_URL = os.getenv('SUPABASE_URL')
SUPABASE_KEY = os.getenv('SUPABASE_KEY')
HEADERS = {
    'apikey': SUPABASE_KEY,
    'Authorization': f'Bearer {SUPABASE_KEY}',
    'Content-Type': 'application/json'
}

def sanitize_input(user_input: str) -> str:
    """
    Очищает ввод пользователя, оставляя только буквы, цифры и пробелы.
    Возвращает безопасную строку или бросает исключение при подозрительном вводе.
    """
    # Разрешённые символы: буквы, цифры, пробел, запятая, точка
    pattern = re.compile(r'[^a-zA-Zа-яА-Я0-9\s,.]')
    if pattern.search(user_input):
        raise ValueError("Ввод содержит недопустимые символы")
    return user_input.strip()

def generate_sql_via_llm(prompt: str) -> str:
    """
    Заглушка функции, имитирующей запрос к LLM для генерации SQL.
    В реальном проекте здесь будет вызов модели (OpenAI, Anthropic и т.п.).
    """
    # Простейший пример: ищем рекомендации по категории
    safe_prompt = sanitize_input(prompt)
    # Возвращаем параметризованный запрос, чтобы избежать инъекций
    sql = f"SELECT * FROM recommendations WHERE category = %s;"
    return sql, (safe_prompt,)

def execute_query(sql: str, params: tuple):
    """
    Выполняет параметризованный запрос к Supabase через REST API.
    """
    url = f"{SUPABASE_URL}/rest/v1/recommendations"
    # Параметры передаются в виде заголовков (PostgREST поддерживает фильтрацию)
    # Здесь используем простую фильтрацию по колонке category
    response = requests.get(
        url,
        headers=HEADERS,
        params={'category': params[0]}
    )
    response.raise_for_status()
    return response.json()

def main():
    # Пример пользовательского ввода
    user_input = input("Введите категорию рекомендаций: ")
    try:
        sql, params = generate_sql_via_llm(user_input)
        results = execute_query(sql, params)
        print("Найдено рекомендаций:", len(results))
        for item in results:
            print(f"- {item['title']}")
    except Exception as e:
        print("Ошибка:", e)

if __name__ == "__main__":
    main()

В этом примере показан безопасный цикл: ввод пользователя проходит строгую очистку, затем используется в параметризованном запросе к Supabase. Даже если LLM‑агент сгенерирует запрос, он будет выполнен только после проверки, что исключает возможность SQL‑инъекций.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE