Video Surveillance

Что такое биометрия сегодня?

Новости видеонаблюдения Программное обеспечение Оборудование
Что такое биометрия
Вопрос, который ещё два десятилетия назад интересовал разве что производителей паспортного оборудования и футурологов, теперь превратился в одно из самых горячих полей правового спора. Камеры научились видеть слишком много: эмоции, возраст, пол, детали одежды, походку, а подчас и то, что человек предпочёл бы скрыть даже от самого себя. Но если технологии рвутся к предсказанию, то закон пытается удержать их в рамках того, что общество готово считать приемлемым. И в каждой стране эти рамки разные, порой настолько, что одна и та же система видеонаблюдения одновременно оказывается невинной аналитикой в Москве, опасным искусственным интеллектом в Брюсселе, потенциальным основанием для многомиллионного иска в Иллинойсе и просто «обычной камерой с умными функциями» где-нибудь в Сингапуре.

В центре этого хаоса находится простое слово — биометрия. Звучит футуристично, но с правовой точки зрения оно означает не какая-то высокая технология, а вполне понятную сущность: данные о человеке, по которым можно установить его личность и которые используются для её установления. Но за этой формулой скрывается огромное количество нюансов. Так ли уж просто разобраться, когда система анализирует эмоции, а когда — неявно проводит идентификацию? Считает ли определение возраста биометрией? А определение цвета волос? А анализ «похожих лиц»? И что делать с видеосистемами, которые вообще-то следят не за людьми, а за коровами, свиньями, лошадьми и курицами?

Если в России ответ на большинство этих вопросов звучит удивительно прямо, то в других странах подходы куда тоньше — и куда суровее. Европа строит сложнейший правовой лабиринт, в котором распознавание эмоций может оказаться под запретом даже в школах. Америка живёт в рваной сетке региональных законов, где в одном штате вы можете спокойно использовать алгоритмы анализа лиц, а в другом вас ждут гигантские судебные иски. Китай с характерной решительностью объявляет всё, что связано с распознаванием лиц, чувствительными данными, требующими строгого контроля, вплоть до полного ограничения коммерческого использования. На этом фоне Россия выглядит почти островком здравого смысла: если технология не устанавливает личность — это не биометрия, а значит не подпадает под жёсткое регулирование.

Европейский подход заслуживает отдельного внимания хотя бы потому, что именно Европа сегодня формирует глобальную моду на законодательный перфекционизм. В рамках GDPR лицо само по себе не является биометрией — только когда лицо обрабатывается с целью уникально идентифицировать человека, возникает та самая «особая категория персональных данных». Но стоило европейцам попытаться заглянуть глубже — а именно в сферу эмоций, поведенческих признаков и психологического анализа, — как выяснилось, что привычных определений уже недостаточно. Новый AI Act, который в 2025 году начал вступать в силу, выделяет распознавание эмоций в отдельный тип систем: не биометрия, но и не обычная аналитика. Это технологии повышенного риска, особенно когда речь идёт о трудовых отношениях или учебном процессе. Европе показалось, что система, определяющая эмоциональное состояние студента или сотрудника, сама по себе нарушает фундаментальный баланс отношений между человеком и организацией. И поэтому такие системы фактически запрещены, независимо от того, насколько они точны или полезны.

Американская модель — это противоположность европейской. Там нет единого закона, и каждая территория живёт по своим правилам. Иллинойс с его BIPA — легенда юридического мира: закон, который сделал биометрию самым дорогостоящим видом данных. Под действие БИПА попадает практически всё, что хоть немного связано с лицом: шаблоны, распознавание, сравнение, анализ особенности черт. В суд шли Facebook, Google, сотни компаний поменьше — и почти всегда проигрывали, выплачивая многомиллионные компенсации. В других штатах таких ограничений нет, поэтому в США биометрия стала настоящей юридической рулеткой: один и тот же сервис может быть совершенно законным в Калифорнии и полностью запрещённым в Иллинойсе.

Китай же пошёл по пути, в котором нет места сомнениям. Здесь лицо — это всегда чувствительная информация. Эмоции — тоже чувствительная информация. Анализ поведения — чувствительная информация. Коммерческое использование подобных данных возможно лишь в условиях жёсткого контроля, а любые попытки использовать распознавание эмоций или возрастной анализ без однозначного согласия пользователя считаются нарушением. Китайскому законодательному подходу чужды полутона: если технология потенциально может воздействовать на поведение граждан, она должна находиться под тотальным надзором.

На этом фоне российское регулирование выглядит почти иронично простым. Закон не пытается отнести к биометрии всё, что попадает в объектив камеры. Напротив: эмоции — не биометрия. Возраст — не биометрия. Очки, борода, цвет волос, тип одежды — не биометрия. Даже определение пола — не биометрия. Любая аналитика, которая не направлена на установление личности конкретного человека, остаётся обычной обработкой персональных данных.

Ключевой критерий в российском праве — цель. Не факт, что система может что-то распознать, а намерение использовать это для идентификации. Если камера видит, что человек улыбается — закон не видит в этом проблемы. Если камера видит Иванова и выдаёт: «Иванов улыбается» — это уже идентификация, и сразу включается режим биометрических данных. Россия проводит здесь логическую границу: когда алгоритм начинает устанавливать личность, он должен подчиняться строгому режиму 152-ФЗ и 572-ФЗ, а если он просто анализирует изображение без привязки к конкретному человеку, то это остаётся допустимой аналитикой.

Особо забавно в этой логике смотрится сельское хозяйство — отрасль, где «распознавание лиц» развивается не менее активно, чем в городских системах наблюдения. Идентификация коровы по морде, анализ поведения свиней, отслеживание здоровья птицы — всё это уже давно реальность. Но животные не являются субъектами персональных данных ни в одной стране мира, и поэтому никакое распознавание коровьих физиономий не становится биометрией. Единственная опасность — случайно распознать фермера, который стоит рядом.

Все эти различия создают удивительный эффект: мира с единой дефиницией биометрии не существует. Европа опасается манипуляций и вторжения в личную жизнь. Америка боится судебных исков и поэтому разбивает регулирование на мозаичные региональные режимы. Китай боится неконтролируемого использования технологий и потому предпочитает регулировать всё, что связано с человеческим лицом. Россия боится лишь того, что действительно угрожает идентификации человека, и потому оставляет достаточно пространства для анонимной видеоаналитики.

Но если отбросить юридические тонкости, остаётся один важный вывод: биометрия — это территория, где сталкиваются технологии, культура, политика и страхи общества. Эмоции, возраст, поведение — это вещи, которые люди всю жизнь считывали друг с друга интуитивно, а теперь этим занимается алгоритм. И реакция законодателей часто говорит о них больше, чем о самих технологиях. Европа боится эмоционального контроля. Америка боится судебных рисков. Китай боится неуправляемой информации.

И в конечном счёте главный вопрос не в том, что именно камера способна распознать. А в том, как общество решит ограничить ту часть цифрового зрения, которая переступает границу между наблюдением и властью над человеком.