Отслеживание взгляда

На платформе "Фабрика Юзабилити" пользователям доступен модуль "Отслеживания взгляда" для немодерируемых UX-тестов с записью экрана и записью лица респондента через обычную веб-камеру.

Пользователь платформы может включить режим "отслеживание взгляда" в настройках веб-шага и тогда в результатах данного немодерируемого теста можно будет посмотреть видео с визуализацией "точки внимания" респондента во время выполнения задания. Место взгляда респондента на странице отрисовывается на итоговом видео теста на основе обработанной с помощью специального алгоритма видеозаписи лица пользователя и экрана его ПК при прохождении теста.

Функциональные характеристики

Если в задании UX-теста включён режим "Запись движения глаз", то перед началом задания включается режим калибровки: респонденту предлагается смотреть и нажимать на появляющиеся точки чтобы они поменяли свой цвет. Таким образом мы получаем контрольные данные о том как выглядит лицо/глаза респондента, когда он точно смотрит на заранее определённые нами зоны.

Во время задания записывается экран респондента (куда направлено его внимание), видео поток с веб-камеры респондента и собирается множество данных о движениях мышки и точках нажатия.

После завершения задания все собранные данные передаются в программный модуль отслеживания взгляда, который:

  1. Определяет лицо (положение зрачка) и мимические мышцы на лице респондента (в динамике).
  2. На основе данных калибровки определяет направление взгляда и выстраивает трёхмерную модель положения монитора и лица респондента в пространстве.
  3. Выстраивает первоначальную пред-расчётную "карту направления взгляда".
  4. Анализируя данные о движениях мышки и кликах в сочетании с изменением позиции зрачка - рассчитывает коррекционную модель.
  5. Применяет коррекционною модель на предрасчётную модель и получает и финальные данные.
  6. Общий системный воркер визуализации визуализирует эти данные накладывая индикатор точки взгляда на видео экрана. Размер вероятной погрешности определения взгляда определяется динамически (в зависимости от различных условий) и отображается на итоговом видео в виде фигуры вокруг перекрестия.
Пример визуализации в интерфейсе отчёта.

Требования к использованию

Точность определения направления взгляда с помощью веб-камеры примерно равна точности среднего аппаратного айтрекера Tobi при соблюдении следующих условий:

Стоимость

Инсталляция в сторонние системы

Модуль может быть установлен в другие системы для обработки входящих видеозаписей и определения точек внимания.

Возможные типы систем, для которых такой функционал востребован:

Технические требования

Для работы модуля требуется Python.

Поддерживаются основные серверные ОС (Linux, Debian, FreeBSD, Windows) и средства виртуализации.

Использование

Модулю передаются входные данные в виде конфигурационного файла, после чего обрабатывает исходные данные и сохраняет результат обработки.

  1. Входные данные: данные калибровки (видео-файлы + массив точек), данные действия (видео-файлы + массив точек)
  2. Обработка: запускается модуль, конфигурация для каждой обработки передаётся в json-файле.
  3. Выходные данные: json-файл с данными точки взгляда для каждого фрейма.

Установка

Образ со скомпилированным кодом модуля и подробная документация к нему предоставляется после встречи с менеджером "Фабрика Юзабилити".

  1. Получите архив с исполняемым кодом модуля и распакуйте.
  2. Используйте шаблонный файл конфигурации в формате json (EyeTrackerWorker.exe.config) для создания такого файла для каждой задачи на обработку. Укажите в нём необходимые пути к исходным данным;
  3. Обеспечьте запуск скомпилированного модуля EyeTrackerWorker.exe с нужным файлом конфигурации;
  4. Результат (json-файл) сохранится там, где вы это укажите в конфигурации.

Интеграция в собственный поток обработки

Исходные данные должны быть в определённом формате и их сложно обеспечить без разработки необходимого функционала по сбору этих данных в вашей системе. При возникновении вопросов по этому поводу напишите их на email fa@fabuza.ru.

Описание формата данных (документация)

Эксплуатация модуля

Установленный модуль работает автоматически и не требует дополнительной настройки при эксплуатации. Если входящие данные собраны и переданы корректно, то и результат будет правильным.

В каждой системе, в которую модуль интегрирован, могут быть свои настройки активации модуля и параметры влияющие на передаваемые данные.

Вот пример настройки и использования на примере интеграции модуля в систему «Фабрика Юзабилити»:

  1. Для использования функционала отслеживания взгляда необходимо в настройках теста с вебшагом перейти из меню “Создание анкеты”  > “Доп.параметры” и включить айтрекинг, поставил “галочки” возле пунктов “Запись лица и голоса”, “Запись движения глаз” как на скриншоте ниже:
Экран настройки ux-теста

  1. При прохождении теста пользователю перед его началом предложат включить камеру и микрофон, а также дать доступ браузеру для управления им. После настройки доступов пользователю будет предложено пройти калибровку, в ходе которой, руководствуясь инструкциями на экране, кликает на точку, возникающую на экране, в момент, когда она поменяет цвет (примерно раз в три секунды) как на скриншоте ниже:
Экран предварительной калибровки

  1. После завершения этапа калибровки респондент проходит тест в обычном режиме.
  2. По завершению теста алгоритму потребуется от 5 до 15 минут на подготовку финального видео с отрисованным направлением взгляда, доступный по обычной ссылке на видео респондента из таблицы отчёта.  Для того, чтобы переключиться на видео с отображением направления взгляда, нужно кликнуть на кнопку в правом нижнем углу экрана (в виде пиктограммы глаза) как на скриншоте ниже:
Отображение точки взгляда в отчёте