03.04.2025
Камеры стали «умными». Детектируют движение, распознают лица, запускают тревоги. А что если мы скажем, что ночью вся эта система может не заметить человека, прошедшего прямо под объективом? Речь идёт о слабых местах систем видеонаблюдения, основанных на ИИ, и о том, как они теряют эффективность в ночном ИК-режиме. Обнаружение объектов, которое днём работает уверенно, ночью может давать сбои.
Многие специалисты по безопасности уже замечали, что ИИ в камерах не всегда справляется даже с базовыми задачами, если условия отличаются от «идеальных». Видим это на пусконаладке: телекамера, установленная под потолком, «теряет» лица. Детектирование объектов работает нестабильно. Но заказчик настаивает — «поднимите выше, чтобы не украли». Парадокс: защищаемся от кражи — за счёт потери функциональности.
Схожая ситуация наблюдается и при переходе камеры в ночной режим. Как только уровень освещённости падает ниже определённого порога, камера автоматически переходит в чёрно-белый режим и активирует встроенную инфракрасную подсветку. Одновременно отключается ИК-фильтр, и сенсор начинает воспринимать инфракрасное излучение — обычно на длине волны 850 нм.
На практике это означает следующее: изображение становится монохромным, исчезают цветовые различия, фактура одежды и текстуры теряются. Все объекты выглядят более однообразно. Если днём система различает человека по цвету куртки, контрасту силуэта и теням, то ночью этих признаков нет. Камера фиксирует «пятно», а ИИ может просто не распознать в нём человека.
Ещё одна проблема — переэкспонирование. Источник инфракрасной подсветки находится слишком близко к объективу, и при определённых условиях в кадре могут появляться засветки. Автоматическая настройка яркости может затемнять изображение, из-за чего важные детали теряются.
Авторы материала, опубликованного под заголовком «Слепая зона искусственного интеллекта: как «обмануть» камеры видеонаблюдения с ИК-подсветкой и что с этим делать», ссылаются на исследование из Японии. Учёные доказали: ИИ действительно можно обмануть — не сетевой атакой, а с помощью паттерна из лент, видимого только в ИК-диапазоне. Такой шаблон «ломает» силуэт человека в глазах алгоритма. Камера его видит, а аналитика — нет.
Особенно это критично в условиях, где камера и ИК-подсветка встроены в один модуль и смотрят в одну точку. Свет отражается прямо в объектив, создавая засветку. Камера адаптирует экспозицию — и объект пропадает из кадра. В таких условиях тревога не срабатывает, а запись может даже не начаться.
Проблема касается не только «бюджетных» решений. Даже популярные модели с ИИ-поддержкой могут быть подвержены этому сценарию, если сенсор работает только в ИК. Аналитика преимущественно обучалась на дневных изображениях и не всегда адаптирована к условиям ночного режима. Кроме того, может отсутствовать дополнительная подсветка.
В статье рассказывается о результатах экспериментов, проведённых в лабораторных и полевых условиях. Использовались реальные камеры массового сегмента с ИК-подсветкой, а также модель аналитики, широко используемая в системах видеонаблюдения для детектирования объектов в режиме реального времени. На определённой дистанции алгоритм действительно не распознаёт человека, если на одежде закреплён специальный паттерн. В том же материале — подробный разбор механизма атаки, снимки с реальных тестов, чек-лист для оценки уязвимости и советы по защите без замены оборудования.
Рекомендуем внимательно ознакомиться с этим материалом, чтобы понять: как это работает, где вас могут обойти и что с этим делать на практике.
Читать статью >>
Компания:
ИА Безопасность Сегодня / ТЕРАТЕК (TERATEK), Группа компаний