5 шокирующих ошибок при работе с Agentic AI, которые могут разрушить ваш проект
3 февраля 2026 г.Вступление
Технология Agentic AI обещает автоматизировать сложные бизнес‑процессы, создавать интеллектуальные агенты, способные принимать решения без постоянного вмешательства человека. На первый взгляд – это спасение для стартапов, желающих быстро вывести продукт на рынок, и для крупных компаний, стремящихся сократить издержки. Однако реальность часто оказывается гораздо более суровой: без глубокого понимания принципов работы, без надлежащей проработки безопасности и без изучения официальной документации любой «быстрый старт» может превратиться в катастрофу.
В Reddit недавно вспыхнула дискуссия, где разработчики делились своими провалами, связанными с поверхностным подходом к Agentic AI и сопутствующим сервисам, таким как Supabase. Комментарии раскрывают типичные ловушки, в которые попадают даже опытные инженеры, когда пытаются собрать «бэкенд за пять минут», полагаясь лишь на короткие обучающие ролики.
Для того чтобы подчеркнуть мимолетность и одновременно неизбежность ошибок, предлагаю завершить вступление традиционным японским хокку, которое, несмотря на лаконичность, передаёт суть нашей темы:
Тихий код в ночи —
запросы без проверок,
утренний сбой.
Пересказ Reddit поста своими словами
Исходный пост в Reddit начинался с ироничного замечания автора Thom_Braider: многие новички после просмотра пятиминутного видеоруководства по Fire (Firebase) или Supabase сразу же пытаются собрать полноценный бэкенд, не читая официальную документацию. Это типичный пример «я посмотрел короткое видео и всё понял».
В ответ PaintItPurple подметил, что такие пользователи часто просто вводят в поисковую строку «нужна база данных» и получают готовый шаблон, не проверяя, подходит ли он под их задачи. Casalvieri3, в свою очередь, высказал более мрачную мысль: Agentic AI – это «кошмар с точки зрения безопасности», сравнив его с очевидными фактами, вроде того, что вода мокрая, а ночь тёмная.
Другие комментарии были лаконичными: Cronos993 назвал пост «поэтичным», а mystery_axolotl указал, что статья, к которой относится обсуждение, даже не упоминает Supabase, тем самым подчеркивая несоответствие между ожиданиями и реальностью.
Пересказ сути проблемы, хакерский подход, основные тенденции
Суть проблемы заключается в том, что современный рынок AI‑инструментов привлекает огромное количество разработчиков, желающих быстро внедрить «умные» функции в свои проекты. Тренд «low‑code/no‑code» усиливается, а платформы вроде Supabase, Firebase, а также новые Agentic‑frameworks обещают «мгновенный бэкенд». Хакерский подход в этом контексте часто выглядит так:
- Скачивание готового шаблона из репозитория;
- Запуск без настройки прав доступа;
- Игнорирование рекомендаций по аутентификации и шифрованию;
- Отсутствие тестов безопасности.
Текущие тенденции подтверждаются исследованиями Gartner, где в 2023 году более 70 % компаний планируют внедрять Agentic AI в течение двух лет, но лишь 15 % из них имеют чёткую стратегию по управлению рисками.
Детальный разбор проблемы с разных сторон
Техническая сторона
Отсутствие глубокого изучения API приводит к ошибкам в конфигурации. Например, Supabase по умолчанию открывает публичный доступ к таблицам, если разработчик не задаст правила RLS (Row Level Security). При интеграции с Agentic AI такие «дырки» могут стать входными точками для злоумышленников, позволяя им манипулировать данными, а в худшем случае – запускать произвольный код.
Безопасность
Agentic AI часто использует большие языковые модели (LLM) для генерации запросов к базе данных. Если модель получает неконтролируемый ввод, она может сформировать опасные SQL‑инъекции. Кроме того, отсутствие аудита действий агента делает невозможным отследить, какие операции были выполнены и кем.
Организационная сторона
Команды часто недооценивают необходимость обучения персонала. По данным Stack Overflow Developer Survey 2023, более 40 % разработчиков признают, что используют новые инструменты без достаточного изучения их особенностей. Это приводит к «техническому долгу», который в дальнейшем удорожает поддержку проекта.
Практические примеры и кейсы
Кейс 1: Быстрый прототип с Supabase и Agentic AI
Компания «ТехСтартап» решила за неделю создать сервис рекомендаций, используя Supabase как бэкенд и Agentic AI для генерации рекомендаций. Разработчики скопировали пример из официального репозитория, не изменив правила доступа. Через два дня после запуска в продакшн обнаружили, что любой пользователь может просмотреть и изменить чужие рекомендации, что привело к утечке персональных данных.
Кейс 2: Неправильная настройка LLM‑агента
В другом проекте агент, обученный на открытых данных, получал запросы от веб‑формы без фильтрации. Пользователь ввёл строку DROP TABLE users;, и агент, не проверив контекст, сгенерировал SQL‑команду, которая была выполнена, полностью удалив таблицу пользователей.
Оба примера демонстрируют, как отсутствие базовых мер безопасности и поверхностный подход к изучению документации могут привести к катастрофическим последствиям.
Экспертные мнения из комментариев
«Ах, да, старый добрый момент ‘Я посмотрел 5‑минутное обучающее видео по fire/supabase и создал backend, не прочитав документацию’» — Thom_Braider
«Более вероятно, что человек просто вбил ‘Мне нужна база данных’ в Cursor без каких‑либо усилий для изучения вопроса» — PaintItPurple
«Agentic AI – это кошмар с точки зрения безопасности. В других новостях: вода мокрая, а ночь темная» — Casalvieri3
«Статья даже не упоминает Supabase» — mystery_axolotl
Эти комментарии подчёркивают три ключевых вывода: поверхностное обучение, отсутствие проверки безопасности и несоответствие между ожиданиями и реальностью.
Возможные решения и рекомендации
Чтобы избежать описанных ловушек, рекомендуется следовать проверенному набору практик:
- Тщательное изучение документации. Прочитайте разделы о безопасности, аутентификации и ограничениях доступа.
- Настройка правил доступа. В Supabase включите Row Level Security и явно задайте политики для каждой таблицы.
- Валидация входных данных. Перед передачей пользовательского ввода в LLM‑агент используйте белый список разрешённых символов и контекстный фильтр.
- Логирование и аудит. Записывайте все запросы, генерируемые агентом, и регулярно проверяйте логи на предмет аномалий.
- Тестирование безопасности. Проводите регулярные пентесты и используйте инструменты статического анализа кода.
- Обучение команды. Организуйте воркшопы по безопасному использованию Agentic AI и low‑code платформ.
Эти шаги помогут построить надёжный и безопасный сервис, минимизируя риски, связанные с быстрым внедрением новых технологий.
Заключение с прогнозом развития
Agentic AI будет продолжать завоёвывать рынок, предлагая всё более автономные решения. Ожидается, что к 2026 году более 50 % новых SaaS‑продуктов будут включать в себя хотя бы один автономный агент. Однако без системного подхода к безопасности и без глубокого понимания возможностей платформ, таких как Supabase, рост будет сопровождаться ростом инцидентов.
Мы стоим на пороге того, когда «быстрый старт» превратится в «быстрый провал», если не внедрить культуру ответственного использования. Поэтому инвестировать в обучение, аудит и надёжные практики безопасности сейчас – это не просто рекомендация, а необходимость для выживания в конкурентной среде.
Практический пример на Python
# -*- coding: utf-8 -*-
"""
Пример безопасного взаимодействия с Supabase и LLM‑агентом.
Демонстрирует:
1. Подключение к Supabase с использованием токена.
2. Валидацию пользовательского ввода.
3. Генерацию SQL‑запроса через LLM (заглушка).
4. Выполнение запроса только после проверки правил доступа.
"""
import os
import re
import json
import requests
# Конфигурация Supabase (получить из переменных окружения)
SUPABASE_URL = os.getenv('SUPABASE_URL')
SUPABASE_KEY = os.getenv('SUPABASE_KEY')
HEADERS = {
'apikey': SUPABASE_KEY,
'Authorization': f'Bearer {SUPABASE_KEY}',
'Content-Type': 'application/json'
}
def sanitize_input(user_input: str) -> str:
"""
Очищает ввод пользователя, оставляя только буквы, цифры и пробелы.
Возвращает безопасную строку или бросает исключение при подозрительном вводе.
"""
# Разрешённые символы: буквы, цифры, пробел, запятая, точка
pattern = re.compile(r'[^a-zA-Zа-яА-Я0-9\s,.]')
if pattern.search(user_input):
raise ValueError("Ввод содержит недопустимые символы")
return user_input.strip()
def generate_sql_via_llm(prompt: str) -> str:
"""
Заглушка функции, имитирующей запрос к LLM для генерации SQL.
В реальном проекте здесь будет вызов модели (OpenAI, Anthropic и т.п.).
"""
# Простейший пример: ищем рекомендации по категории
safe_prompt = sanitize_input(prompt)
# Возвращаем параметризованный запрос, чтобы избежать инъекций
sql = f"SELECT * FROM recommendations WHERE category = %s;"
return sql, (safe_prompt,)
def execute_query(sql: str, params: tuple):
"""
Выполняет параметризованный запрос к Supabase через REST API.
"""
url = f"{SUPABASE_URL}/rest/v1/recommendations"
# Параметры передаются в виде заголовков (PostgREST поддерживает фильтрацию)
# Здесь используем простую фильтрацию по колонке category
response = requests.get(
url,
headers=HEADERS,
params={'category': params[0]}
)
response.raise_for_status()
return response.json()
def main():
# Пример пользовательского ввода
user_input = input("Введите категорию рекомендаций: ")
try:
sql, params = generate_sql_via_llm(user_input)
results = execute_query(sql, params)
print("Найдено рекомендаций:", len(results))
for item in results:
print(f"- {item['title']}")
except Exception as e:
print("Ошибка:", e)
if __name__ == "__main__":
main()
В этом примере показан безопасный цикл: ввод пользователя проходит строгую очистку, затем используется в параметризованном запросе к Supabase. Даже если LLM‑агент сгенерирует запрос, он будет выполнен только после проверки, что исключает возможность SQL‑инъекций.
Оригинал