Подобрать нейросеть для распознавания лиц под разные устройства стало проще и быстрее

Ученые Университета МИСИС,  НИУ ВШЭ и AIRI предложили новую нейросетевую технологию, которая при установке на смартфон, планшет или устройство «умного» дома анализирует их технические характеристики и подбирает наиболее оптимальную версию приложения для распознавания лиц, которая будет лучшим образом работать на каждом конкретном устройстве. Особенно актуально это проблема стоит перед компаниями-производителями, у которых большие партии техники с различными микрочипами и характеристиками. Им необходим точный ответ, какую именно нейронную сеть для распознавания лиц лучше поставить на отдельно взятую модель устройства.

Быстро выбрать наилучшую архитектуру нейросети для конкретного мобильного устройства –  сложная задача. Вычислительные мощности дешевых и дорогих смартфонов существенно различаются, поэтому невозможно найти единственную универсальную нейросеть с высокой точностью и приемлемой производительностью для всех устройств.

На сегодняшний день существуют разные архитектуры, но их невозможно адаптировать для конкретного устройства. Преимущества новой методики в том, что её легко интегрировать в любую технику и не нужно обучать с нуля. Устройство отправит информацию о времени работы каждого слоя нейросети на сервер, а тот в ответ вышлет оптимальную для него модель.

«При установке на смартфон специальное приложение анализирует технические возможности конкретного устройства, а затем из обученной нейронной сети SuperNet с помощью предложенного алгоритма выбирается наиболее точная подсеть, которая будет анализировать изображение лица за заданное время на этом устройстве. Наличие уже обученной нейросети, нескольких подсетей и демонстрационного приложения для Android облегчает практическое внедрение предложенного фреймворка», — говорит соавтор исследования Илья Макаров, директор центра искусственного интеллекта НИТУ МИСИС, руководитель группы “ИИ в промышленности” института искусственного интеллекта AIRI.

Одной из наиболее сложных задач распознавания образов являются задачи проверки и идентификации лиц. В типичных сценариях обучающий набор содержит небольшое количество фотографий по каждому интересующему человеку. В настоящее время эти задачи решаются путем извлечения признаков, или же дескрипторов, с помощью глубокой нейронной сети, предварительно обученной на больших внешних наборах данных. К сожалению, даже современные дескрипторы лица характеризуются расовой предвзятостью, низкой точностью при низкой освещенности и зачастую требуют повторной идентификации. Практически невозможно обучить универсальный дескриптор лица, который можно было бы использовать для распознавания лиц в реальном времени с высокой точностью на всех устройствах. Одним из потенциальных решений как раз является использование поисковика нейронной архитектуры для правильного выбора нейронной сети для конкретного устройства и методов автоматического машинного обучения (AutoML). Подробно технология описана в научном журнале IEEE Access (Q1).

«Мы сделали не продукт, а открытую технологию, которую могут использовать все желающие. Представьте, что у вас есть партии из миллиона планшетов, на которые надо установить модуль для идентификации лиц. У них конкретные микрочипы и определенные технические мощности. Можно взять из коробки одно устройство, установить наше приложение, которое определит наиболее подходящую модель, которая подойдет именно для этой модели планшета и будет распознавать лица за 5,10 или 20 миллисекунд. Кстати, мы решаем задачу не только идентификации, но и верификации лиц», — объясняет руководитель исследования Андрей Савченко, заместитель директора центра искусственного интеллекта НИТУ МИСИС.

Код выложен в открытом доступе, любой заинтересованный человек сможет установить и протестировать эту систему.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее


Подпишитесь
на нашу рассылку