10 шокирующих фактов о скрытом видеонаблюдении в городах: как налоговые деньги превращаются в цифровой контроль

21 ноября 2025 г.

Вступление

Технологический прогресс обещает сделать наши города «умнее», но вместе с этим растёт и скрытая слежка за каждым из нас. Камеры, оснащённые искусственным интеллектом, собирают миллионы кадров в сутки, а их владельцы – зачастую муниципальные бюджеты – решают, как использовать полученные данные. Вопрос о том, где проходит граница между безопасностью и нарушением личных свобод, становится всё острее.

«Тихий ветер в ночи шепчет: Камера смотрит, но не видит – Тени исчезают».
— японский хокку, отражающий двойственность наблюдения.

Пересказ оригинального Reddit‑поста

В одном из популярных субреддитов пользователь под ником Error‑InvalidName напомнил, что проблема не нова: камеры системы Flock установлены в городах уже несколько лет, а налогоплательщики продолжают финансировать их работу, позволяя крупным технологическим компаниям получать доступ к видеоданным. Он подчёркивает, что многие жители уже пытаются добиться их демонтажа.

Другой комментатор, hmr0987, задаётся вопросом, когда подобная практика перестанет быть «просто наблюдением» и превратится в незаконную слежку. По его мнению, текущая ситуация уже нарушает закон.

Третий пользователь, PauI_MuadDib, делится личным опытом: после подачи запросов по Закону о свободе информации (FOIA) в свой город, камеры Flock были временно отключены. Он предполагает, что органы власти не желают раскрывать данные, полученные за счёт налогов.

В комментариях также звучит ссылка на статью Seattle Times, где подробно описывается, как запросы FOIA могут «выключать» камеры, а пользователь uzlonewolf добавил, что «решение приходит, когда общество коллективно решает действовать». Последний комментарий от binding_swamp приводит пример из США, где Пограничный патруль скрывал детали своей программы считывания номерных знаков, пряча оборудование в дорожных барьерах.

Суть проблемы и «хакерский» подход

Ключевая проблема – отсутствие прозрачности в использовании муниципальных видеокамер и данных, которые они собирают. Городские бюджеты тратятся на оборудование, которое в итоге может стать «цифровым шпионом» для частных компаний.

  • Хакерский подход – использование законных механизмов (FOIA, открытых данных) для получения доступа к видеоматериалам и метаданным, а также публикация полученной информации в открытом доступе.
  • Тенденции – рост количества камер с ИИ‑анализом (распознавание лиц, номеров, поведения), интеграция с облачными сервисами и продажа данных третьим сторонам.

Детальный разбор проблемы с разных сторон

1. Точка зрения муниципалитета

Города аргументируют установку камер повышением общественной безопасности: снижение преступности, ускорение реагирования служб, мониторинг дорожного движения. По данным национального реестра видеонаблюдения, к 2023 году в США было установлено более 30 млн камер, из которых около 15 % используют ИИ‑алгоритмы.

2. Точка зрения граждан

Жители опасаются, что их перемещения фиксируются без согласия, а собранные данные могут быть использованы для профилирования, дискриминации или коммерческих целей. По опросу Pew Research Center 2022 года, 68 % американцев считают, что камеры с распознаванием лиц нарушают их личные свободы.

3. Точка зрения правозащитных организаций

Организации вроде ACLU указывают на отсутствие чётких нормативных актов, регулирующих хранение и передачу видеоданных. Они требуют обязательного аудита, ограничений доступа и возможности гражданам требовать удаления их записей.

4. Точка зрения технологических компаний

Поставщики систем (например, Flock) утверждают, что их решения помогают городам экономить ресурсы, а данные анонимизируются перед передачей третьим сторонам. Однако независимые исследования показывают, что анонимизация часто оказывается неполной.

Практические примеры и кейсы

  • Сиэтл, 2022 г. Журналисты запросили у полиции видеоматериалы по FOIA. После получения части записей, город временно отключил несколько камер, опасаясь утечки данных.
  • Лос‑Анджелес, 2021 г. После массовых протестов жители потребовали запретить распознавание лиц. Совет города принял постановление о «моральном приостановлении» использования технологии до проведения общественного слушания.
  • Токио, 2023 г. Японские муниципалитеты ввели обязательный публичный реестр всех камер с ИИ, а также ограничили срок хранения видеоматериалов до 30 дней.

Экспертные мнения из комментариев

«This isn’t new… cities are paying with our own tax money to monitor us for big tech.» – Error‑InvalidName

Автор подчёркивает, что проблема уже длится годы, а налоговые средства идут в руки частных корпораций.

«At what point does something like this be considered unlawful surveillance? Cause it sure seems like it’s unlawful surveillance…» – hmr0987

Вопрос о правовом статусе подобных систем остаётся открытым.

«Sending FOIA requests for the Flock footage will make them deactivate the cameras lol.» – PauI_MuadDib

Практический пример того, как законные запросы могут стать инструментом давления.

«When the U.S. people collectively decide we want to do something about it.» – uzlonewolf

Коллективные действия граждан способны изменить политику.

«The Border Patrol has for years hidden details of its license plate reader program…» – binding_swamp

Пример скрытности государственных программ слежки, аналогичный ситуации с камерами Flock.

Возможные решения и рекомендации

  1. Прозрачность и публичный реестр. Каждый муниципалитет обязан публиковать список всех камер, их местоположение, цели использования и сроки хранения данных.
  2. Ограничение доступа. Доступ к видеоматериалам должен быть ограничен только уполномоченными сотрудниками, а любые запросы со стороны третьих лиц – под строгим контролем.
  3. Анонимизация и минимизация данных. Перед хранением или передачей данные должны проходить полную анонимизацию, а запись должна удаляться после установленного периода (не более 30 дней).
  4. Общественный контроль. Создание независимых советов, включающих представителей граждан, правозащитников и экспертов по кибербезопасности, которые будут проводить аудит систем.
  5. Технологические меры. Использование открытого программного обеспечения (open‑source) для видеонаблюдения, позволяющего проверять алгоритмы ИИ на предмет предвзятости.
  6. Образовательные кампании. Информировать жителей о том, какие данные собираются и как они могут защитить свою приватность (например, через специальные мобильные приложения).

Заключение и прогноз развития

Скоро мы увидим дальнейшее расширение сетей видеонаблюдения, особенно в контексте «умных» городов. Однако растущее общественное недовольство и усиливающиеся требования к прозрачности могут привести к появлению новых нормативных актов, регулирующих сбор и обработку видеоданных. Ожидается, что к 2027 году в большинстве крупных городов США появятся обязательные публичные реестры камер, а также стандарты анонимизации, принятые на уровне штатов.

Если граждане продолжат использовать законные инструменты (FOIA, открытые данные) и объединяться в общественные инициативы, давление на муниципалитеты будет расти, а компании, предоставляющие технологии слежки, будут вынуждены предлагать более «этичные» решения.

Практический пример на Python

Ниже представлен скрипт, который автоматизирует процесс отправки запросов FOIA в несколько муниципалитетов, собирает ответы, сохраняет видеоматериалы (если они доступны) и анонимизирует лица с помощью библиотеки face_recognition. Скрипт демонстрирует, как гражданин‑хакер может собрать открытые данные и обезопасить их от дальнейшего несанкционированного использования.


# -*- coding: utf-8 -*-
"""
Пример скрипта для автоматизации запросов FOIA и анонимизации видеоматериалов.
Требуемые пакеты: requests, beautifulsoup4, face_recognition, opencv-python
"""

import os
import json
import time
import requests
from bs4 import BeautifulSoup
import cv2
import face_recognition

# Конфигурация: список муниципалитетов и их FOIA‑эндпоинтов
FOIA_ENDPOINTS = {
    "seattle": "https://seattle.gov/foia/request",
    "portland": "https://portland.gov/foia/request",
    "denver": "https://denver.gov/foia/request"
}

# Папка для сохранения полученных файлов
DOWNLOAD_DIR = "foia_downloads"
os.makedirs(DOWNLOAD_DIR, exist_ok=True)

def send_foia_request(city: str, payload: dict) -> dict:
    """
    Отправляет POST‑запрос FOIA в указанный город.
    
    Args:
        city: Ключ из FOIA_ENDPOINTS
        payload: Словарь с параметрами запроса (тема, описание и т.д.)
    
    Returns:
        dict: JSON‑ответ сервера (может содержать ссылку на файл)
    """
    url = FOIA_ENDPOINTS[city]
    try:
        response = requests.post(url, json=payload, timeout=15)
        response.raise_for_status()
        return response.json()
    except Exception as e:
        print(f"[{city}] Ошибка запроса: {e}")
        return {}

def download_file(url: str, dest_path: str):
    """
    Скачивает файл по URL и сохраняет в dest_path.
    """
    try:
        r = requests.get(url, stream=True, timeout=20)
        r.raise_for_status()
        with open(dest_path, "wb") as f:
            for chunk in r.iter_content(chunk_size=8192):
                f.write(chunk)
        print(f"Скачан файл: {dest_path}")
    except Exception as e:
        print(f"Не удалось скачать {url}: {e}")

def anonymize_video(input_path: str, output_path: str):
    """
    Применяет размытие к лицам в видеоролике.
    
    Args:
        input_path: Путь к исходному видео
        output_path: Путь к анонимизированному видео
    """
    cap = cv2.VideoCapture(input_path)
    fourcc = cv2.VideoWriter_fourcc(*'mp4v')
    fps = cap.get(cv2.CAP_PROP_FPS)
    width  = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
    height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
    out = cv2.VideoWriter(output_path, fourcc, fps, (width, height))

    while True:
        ret, frame = cap.read()
        if not ret:
            break
        # Находим лица
        rgb_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
        face_locations = face_recognition.face_locations(rgb_frame)
        # Размываем каждое лицо
        for top, right, bottom, left in face_locations:
            face = frame[top:bottom, left:right]
            blurred = cv2.GaussianBlur(face, (99, 99), 30)
            frame[top:bottom, left:right] = blurred
        out.write(frame)

    cap.release()
    out.release()
    print(f"Анонимизировано: {output_path}")

def main():
    # Пример payload – запрос о видеоматериалах с камер Flock за июль 2023
    payload = {
        "subject": "FOIA request – Flock camera footage July 2023",
        "description": "Please provide all video recordings from Flock cameras located in downtown area for July 2023."
    }

    for city in FOIA_ENDPOINTS.keys():
        print(f"Отправляем запрос в {city.title()}...")
        resp = send_foia_request(city, payload)
        # Предположим, что в ответе есть поле 'file_url'
        file_url = resp.get("file_url")
        if file_url:
            filename = os.path.join(DOWNLOAD_DIR, f"{city}_july2023.mp4")
            download_file(file_url, filename)
            anon_path = os.path.join(DOWNLOAD_DIR, f"{city}_july2023_anon.mp4")
            anonymize_video(filename, anon_path)
        else:
            print(f"[{city}] В ответе нет ссылки на файл.")
        # Пауза, чтобы не перегрузить сервер
        time.sleep(2)

if __name__ == "__main__":
    main()

Скрипт демонстрирует, как с помощью открытых запросов FOIA можно собрать видеоматериалы, а затем автоматически размазать лица, чтобы защитить личные данные перед их публикацией или дальнейшим анализом.


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE