Опубликовано 17 апреля 2020, 18:59

Смартфон научили угадывать запросы пользователя по взгляду

Устройство определяет, куда смотрит человек, и использует это для выполнения его голосовых команд
Смартфон научили угадывать запросы пользователя по взгляду. Специальный алгоритм отслеживает, куда смотрит человек, и на основе этого управляет командами для голосового помощника.
Смартфон научили угадывать запросы пользователя по взгляду

Это может пригодиться для того, чтобы голосовой ассистент смог ответить на вопрос: «До которого часу работает этот магазин?». Сейчас при таком запросе ваш смартфон не поймёт, о каком «этом» магазине идёт речь. Однако с новой технологией разработчиков, устройство смогло бы определить заведение точно, просто используя обе свои камеры: и фронтальную, и основную.

Для воплощения задумки в реальность инженеры применили iPhone с iOS 13. Именно в этой версии система позволяет одновременно использовать две камеры. Разработчики использовали системный API для отслеживания положения головы, чтобы определять направление взгляда.

Объекты распознает специальный фреймворк. Затем программа слушает запрос пользователя, сопоставляет указательные местоимения с объектами и только после этого формирует окончательную команду для голосового помощника.