Как вице-президент «Яндекса» боролся с видеонаблюдением
17 июля 2017 — 00:49
Вице-президент «Яндекса» Григорий Бакунов опубликовал в своём канале в Telegram историю создания алгоритма, который придумывал макияж для лица,с помощью которого можно было обмануть системы распознавания лиц.
В конце прошлого года мне внезапно очень надоел хайп, вокруг систем распознавания лиц. Системы эти используются разными людьми в разных целях, а количество камер, которые фиксируют ваши лица стремительно растет. Особенно меня восхитило, насколько кучно покрыта камерами Москва — кажется в пределах МКАД уже нельзя пройти и сотни метров, чтобы не попасть в объектив камеры. Я не параноик (вроде бы), но сам факт, что кто-то может проследить все мои перемещения раздражает. А если учесть прогресс в разработке и доступность готовых сетей для распознавания лиц — уверен,такую слежку организовать по-настоящему легко.
И тогда у нашего небольшого коллектива появилась свеженькая идея — а почему бы не построить алгоритм, который позволяет противодействовать если не слежке, то хотя бы идентификации человека в кадре. Проект этот,конечно, с самого начала был некоммерческим, хотя придумать метод заработка на этой системе — легко. Взяли фотографии разных знакомых и поставил пачку простых экспериментов, которые подтвердили — достаточно нескольких линий футуристичного макияжа на лице, чтобы даже самые популярные личности перестали однозначно идентифицироваться алгоритмами, публично доступными из соцсетей и публичных сервисов. Так сформулировалась идея: создать сервис, который проектирует уникальный случайный макияж, позволяющий избежать идентификации. Дальше — проще,я знаю очень крутую девушку, которая рисует по лицам так, что лучшие художники завидуют.
Довольно быстро был написал не очень сложный, но эффективный генетический алгоритм, который получал на входе фотографию, а потом итеративно сравнивал ее с оригиналом, добиваясь максимального анти-сходства. По достижении нужных нам результатов формулировался план макияжа, который и претворялся в жизнь.
Эффективность системы, конечно, потрясала — можно было получить самые разные результаты: от «Вася чуть-чуть не похож на себя», до «совсем не похож на Васю» и даже «вообще не Вася, а скорее Коля». Да что там, базово системы распознавания зачастую переставали находить даже контур лица. В общем посмотрели мы на результат один раз, другой. Почесали голову. Даже используя ту максимально-футуристичную схему макияжа, которую рисовали мы, можно в принципе и банки обманывать, и от слежки уходить. Так решили продукт не выпускать — слишком уж велик шанс использовать его не для добра, а вовсе с другими целями. Потому что технологии — это конечно хорошо, но совесть мне как-то дороже.
Источник: Роем
Комментарии (0)