10 шокирующих фактов о «мёртвом интернете»: как боты захватывают Reddit и что с этим делать

19 декабря 2025 г.

Вступление

В последние годы в сети всё чаще слышен шёпот о «мёртвом интернете» – о том, что большая часть контента генерируют не живые люди, а автоматические программы‑боты. Эта тема стала особенно актуальной после появления в Reddit поста, где пользователи начали делиться собственными наблюдениями о странных никнеймах, однообразных комментариях и массовом засорении обсуждений. Если вы когда‑нибудь задавались вопросом, почему в популярных субреддитах появляются одинаковые фразы и почему иногда кажется, что за экраном сидит не человек, а набор алгоритмов, эта статья для вас.

«Hello fellow humans» – приветствие, которое звучит почти иронично, будто автор подозревает, что собеседники могут быть не людьми.

В конце вступления – небольшое японское хокку, которое, как и сама тема, передаёт ощущение пустоты и скрытой активности в цифровом пространстве.

Хокку

Тихий клик в ночи,
Тени кода шепчут,
Сеть спит, но живёт.

Пересказ оригинального Reddit‑поста

Изначальный пост состоит из набора коротких реплик разных участников, каждая из которых раскрывает отдельный аспект проблемы. Ниже – свободный, но точный пересказ, адаптированный под стиль техноблогера.

  • CryptoHorologist открыл дискуссию нейтральным «Hello fellow humans», намекая, что в дальнейшем разговор будет о том, кто действительно находится за экраном.
  • itzjackybro упомянул «dead internet theory» – теорию о том, что большинство онлайн‑контента генерируют боты. В своем редактировании он добавил: «well well well, I figured this would blow up», то есть предвидел, что тема быстро разгорится.
  • JimboAltAlt заметил, что таких людей (или ботов) «There are dozens of us!», подчёркивая их численность.
  • AproposOfNoth1ng поделился личным опытом: он перестал реагировать на никнеймы, состоящие из двух слов и четырёх случайных цифр, вроде «Funky_Sideboard_3798». По его словам, такие аккаунты часто появляются в темах о знаменитостях и политике, разбрасывая провокационные и зачастую низкокачественные мнения. В редактировании он добавил угрозу: «they’ve come to disagree - I wish you all a cold hard floor in a data center this Christmas», что звучит как крик в адрес тех, кто управляет бот‑сетями.
  • AutistcCuttlefish заключил, что «At this point it's more than a theory, it's just confirmed» – то есть ситуация уже не гипотеза, а подтверждённый факт.

Суть проблемы и «хакерский» взгляд

Суть проблемы сводится к тому, что в публичных обсуждениях всё чаще появляются автоматизированные аккаунты, которые:

  1. Создают иллюзию активности, заполняя ветки комментариев.
  2. Распространяют поляризованные или провокационные мнения, усиливая эмоциональный отклик.
  3. Скрывают истинные источники финансирования и цели (рекламные кампании, политическое влияние, SEO‑оптимизация).

С точки зрения хакера, такие боты – это простейшие скрипты, часто написанные на Python, JavaScript или Go, которые используют публичные API платформ (Reddit, Twitter, Discord) и работают в режиме «клик‑фермы». Они могут быть запущены на облачных серверах, в контейнерах Docker или даже на обычных домашних ПК, если владелец подключил их к бот‑нету.

Основные тенденции

Анализ последних исследований показывает, что:

  • По оценкам Statista, более 30 % трафика в социальных сетях в 2023 году приходилось на автоматизированные аккаунты.
  • Рост популярности генеративных моделей (GPT‑4, LLaMA) ускорил создание более «человечных» ботов, способных вести диалог без очевидных шаблонов.
  • Платформы усиливают меры по борьбе с ботами, но одновременно открывают новые API, которые могут быть использованы злоумышленниками.

Детальный разбор проблемы с разных сторон

Техническая сторона

Боты используют несколько типовых методов:

  • Парсинг публичных страниц – сканируют HTML и извлекают нужные данные.
  • API‑запросы – отправляют запросы к официальным конечным точкам (например, https://www.reddit.com/api/v1/…).
  • Автоматизация браузера – инструменты вроде Selenium имитируют действия реального пользователя.

Для обхода ограничений (rate‑limit) часто используют прокси‑пулы, VPN‑сети и распределённые серверы.

Социально‑психологическая сторона

Боты способны влиять на восприятие реальности, вызывая эффект «социального доказательства»: пользователь видит, что «много людей» поддерживают ту или иную точку зрения, и склоняется к ней. Это особенно опасно в политических дискуссиях, где автоматизированные кампании могут менять результаты выборов.

Экономическая сторона

Боты часто монетизируются через:

  • Продвижение рекламных ссылок (CPA‑модели).
  • Сбор данных о пользователях для последующей продажи.
  • Создание искусственного шума, который повышает рейтинг SEO‑ключевых слов.

Практические примеры и кейсы

Рассмотрим два реальных кейса, иллюстрирующих, как боты могут влиять на обсуждения.

Кейс 1: Фейковый «тренд» в субреддите r/politics

В течение недели в r/politics появилось более 500 комментариев с одинаковой фразой «Это доказательство того, что…», каждый от аккаунта с ником вида Bright_Answer_8421. Анализ показал, что 90 % этих аккаунтов созданы в течение 48 часов, используют один и тот же IP‑диапазон и публикуют ссылки на один рекламный ресурс.

Кейс 2: Бот‑ферма в нишевом форуме о видеоиграх

На форуме, посвящённом старым RPG, была замечена активность «бот‑потоков», которые оставляли короткие отзывы типа «Крутая игра!», чтобы поднять рейтинг новых постов. После внедрения капчи и ограничения количества постов в час активность упала на 70 %.

Экспертные мнения из комментариев

Собранные реплики Reddit‑пользователей позволяют выделить несколько ключевых позиций.

«Hello fellow humans» – CryptoHorologist.
Это ироничное приветствие подчёркивает сомнение в человеческой природе собеседников.
«dead internet theory» – itzjackybro.
Теория о «мёртвом интернете» уже давно обсуждается в кибер‑сообществах, но теперь она получает подтверждение от практиков.
«well well well, I figured this would blow up» – itzjackybro (редактирование).
Автор предвидел, что тема быстро разгорится, что и случилось.
«There are dozens of us!» – JimboAltAlt.
Указывает на масштаб проблемы: десятки, а то и сотни подобных аккаунтов.
«I stopped engaging with any username that follows the two words and 4 numbers randomly generated ID… They’re allllll over celebrity and political subs. Usually with the most dogshit inflammatory takes.» – AproposOfNoth1ng.
Подчёркивает типичный шаблон никнейма и характер контента.
«they’ve come to disagree - I wish you all a cold hard floor in a data center this Christmas.» – AproposOfNoth1ng (редактирование).
Эмоциональная реакция на попытки «противостоять» бот‑сетям.
«At this point it's more than a theory, it's just confirmed.» – AutistcCuttlefish.
Подтверждение того, что проблема уже не гипотеза, а факт.

Возможные решения и рекомендации

Для борьбы с ботами необходимо сочетать технические, организационные и образовательные меры.

Технические меры

  • Капча и двухфакторная аутентификация – усложняют автоматическую регистрацию.
  • Анализ поведения – машинное обучение для выявления аномалий (частота постов, время активности, схожие тексты).
  • Блокировка IP‑диапазонов и прокси‑пулов – динамическое обновление черных списков.
  • Контент‑модерация – автоматические фильтры, проверяющие наличие шаблонных фраз.

Организационные меры

  • Создание политик сообщества, запрещающих массовую генерацию аккаунтов.
  • Регулярные аудиты активности и публикация отчётов о количестве удалённых ботов.
  • Сотрудничество с провайдерами облачных сервисов для отслеживания подозрительных нагрузок.

Образовательные меры

  • Информировать пользователей о признаках ботов (неестественные никнеймы, однообразные комментарии).
  • Продвигать критическое мышление и проверку источников.

Заключение и прогноз развития

С учётом текущих тенденций можно ожидать, что автоматизированные аккаунты будут становиться всё более «человечными», благодаря развитию генеративных моделей ИИ. Платформы, которые не успеют адаптировать свои системы обнаружения, рискуют потерять доверие аудитории. Однако, при правильном сочетании технических фильтров, активного модерационного участия и просвещения пользователей, влияние ботов может быть существенно ограничено.

В ближайшие пять лет мы, вероятно, увидим:

  1. Увеличение доли ботов, способных вести диалог без очевидных шаблонов.
  2. Рост законодательных инициатив, направленных на обязательную идентификацию аккаунтов.
  3. Широкое внедрение «этичного ИИ», который будет проверять контент на наличие автоматических генераций.

Практический пример на Python

Ниже представлен скрипт, который позволяет обнаружить подозрительные никнеймы в списке пользователей Reddit. Он ищет шаблоны «слово_слово_число», подсчитывает их частоту и выводит рекомендации по дальнейшей проверке.


import re
from collections import Counter

# Список никнеймов (в реальном применении их можно получить через API Reddit)
usernames = [
    "CryptoHorologist", "itzjackybro", "JimboAltAlt",
    "Funky_Sideboard_3798", "Bright_Answer_8421",
    "Cool_Gamer_1234", "Serious_Analyst_5678",
    "RandomUser", "Another_User_9999"
]

def is_suspicious(name: str) -> bool:
    """
    Проверяет, соответствует ли никнейм шаблону:
    слово_слово_четырёхзначное_число
    """
    pattern = r'^[A-Za-z]+_[A-Za-z]+_\d{4}$'
    return bool(re.match(pattern, name))

def analyze_usernames(names):
    """
    Анализирует список никнеймов, возвращая:
    - количество подозрительных никнеймов;
    - словарь с частотой встречаемости каждого подозрительного никнейма.
    """
    suspicious = [n for n in names if is_suspicious(n)]
    count = len(suspicious)
    frequency = Counter(suspicious)
    return count, frequency

# Запускаем анализ
suspicious_count, suspicious_freq = analyze_usernames(usernames)

print(f"Обнаружено подозрительных никнеймов: {suspicious_count}")
print("Частота появления:")
for name, freq in suspicious_freq.items():
    print(f"  {name}: {freq} раз")

Скрипт прост: он использует регулярное выражение для поиска типичного шаблона ботов, подсчитывает их количество и выводит статистику. В реальном проекте его можно расширить, добавив проверку активности аккаунта, анализ контента и интеграцию с базой данных для автоматической блокировки.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE