WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

загрузка...
   Добро пожаловать!

Pages:     | 1 | 2 ||

ut-uxt = xt-1 + x · (fd(ut - u0) + fm(u)du) (0.6) ut-1-uvt-vyt = yt-1 + y · (fd(vt - v0) + fm(v)dv) vt-1-vВ формуле (0.6) (xt-1, yt-1) и (xt, yt) есть координаты курсора мыши в предыдущий и текущий момент времени, (ut-1, vt-1) и (ut, vt) - координаты центрального маркера относительно боковых на предыдущем и текущем кадре. Точка с координатами (u0, v0) соответствует “нейтральному” положению маркеров, когда перемещения курсора не происходит. Кусочно-линейные функции fd() и fm() регулируют скорость и характер перемещения курсора в зависимости от положения головы. Коэффициенты x и y регулируют интенсивность движения по каждой из осей.

Срабатывание кнопки мыши должно быть связано с изменением мимики пользователя, поскольку необходимо полностью исключить использование рук. Наиболее предпочтительным оказалось открывание рта, поскольку это действие могут успешно совершать большинство пациентов - потенциальных пользователей системы и, в отличие от моргания, это действие производится человеком осознанно. Система следит за мимикой пользователя, и, если он держит рот открытым достаточно долгое время, происходит срабатывание кнопки мыши. В системе предусмотрено несколько вариантов функционирования кнопки мыши: залипающая кнопка и срабатывание кнопки только при отсутствии перемещения курсора мыши (для части пациентов оказывается достаточно сложным одновременно следить за движением курсора и контролировать мимику).

Для выделения областей маркеров на изображении используется яркостная сегментация (маркеры представляют собой темные области на светом фоне). К полученному после сегментации изображению применяется морфологическая фильтрация для снижения уровня шума. Следующим шагом является выделение связных компонент, после чего производится поиск областей, соответствующих маркерам. Распознавание осуществляется по характеристикам областей (площадь, периметр, удлиненность, компактность и ориентация главной оси) и положению маркеров на предыдущем кадре.

Для увеличения устойчивости распознавания используются маркеры характерной формы, достаточно протяженные по площади: боковые маркеры вертикально ориентированные вытянутые прямоугольники, центральный маркер - круговая область. Это позволяет минимизировать вероятность случайного совпадения характеристик связных областей, относящихся к маркерам, и фоновых областей на изображении. Вытянутая форма прямоугольников позволяет использовать ориентацию главной оси инерции в качестве дополнительного признака областей при начальном обнаружении и отслеживании маркеров.

Для упрощения использования системы были разработаны алгоритмы автоматического обнаружения маркеров на первом кадре и последующего определения параметров яркостной сегментации, а также адаптация этих параметров по ходу сеанса. Наличие подобных алгоритмов позволяет полностью исключить необходимость ручной настройки системы и делает ее устойчивой к изменению условий освещения.

(a) (б) Рис. 7. Пример сеанса работы с системой В четвертой главе описываются алгоритмы распознавания и отслеживания положения антропометрических точек лица в видеопотоке. Цель разработки подобных алгоритмов - освободить пользователя системы, описанной в третьей главе, от необходимости использовать дополнительные маркеры для работы.

В качестве характерных антропометрических точек были выбраны две точки в районе глаз, одна в нижней части лица (рот) и одна в области носа (не лежащая в плоскости глаз и рта). Такой выбор точек связывает их с характерными чертами лица (что облегчает их обнаружение), и дает возможность вычислить ориентацию головы в трехмерном пространстве по проекциям точек на изображение.

Для определения положения черт лица не требуется столь же высокой точности и подробности распознавания, как в случае построения трехмерной модели головы. Учитывая это, а также невысокое качество изображения и низкое разрешение кадров видеопотока, генерируемого недорогими видеокамерами, методы, разработанные для решения этой задачи, нацелены на устойчивое распознавание положения черт лица, без дополнительных деталей.

Выделение области лица на текущем кадре производится с помощью метода статистических моментов (см. главу 1). Результатом применения этого метода является выделенная эллиптическая область лица. Дальнейшие действия построены в предположении, что область лица уже найдена.

Обычно системы отслеживания черт лица в видеопотоке фокусируются на определении положения центров глаз на изображении. Однако, если пользователь носит очки (что является скорее правилом для пользователей ЭВМ, чем исключением), определение положения центров глаз значительно усложняется из-за бликов стекол. По результатам испытаний линия бровей была выбрана как более устойчиво обнаруживаемый признак, нежели центры глаз.

Рис. 8. Иллюстрация к методу обнаружения бровей Поиск линии бровей происходит путем обнаружения прямоугольной области, внутри которой содержится значительное количество пикселей с аб--- солютной величиной градиента яркости I(x, y), превышающей заданный порог. Дополнительно требуется отсутствие пикселей с большими абсолютными значениями градиента непосредственно над областью бровей - в области лба (рис. 8). Обнаружение производится с помощью модифицированного преобразования Хафа. Используется система координат с началом в центре эллипса лица и осями, направленными вдоль осей эллипса. Положение линии бровей задается двумя параметрами и (рис. 8). Границы отрезков допустимых значений параметров [min, max] и [min, max] задаются, исходя из возможной неточности в определении эллипса лица. Каждой ячейке фазового пространства [min, max] [min, max], дискретизированного с шагами и, ставится в соответствие счетчик, изначально полагаемый равным нулю. Для компенсации дискретности разбиения используется следующий алгоритм обнаружения линии бровей: для каждого пикселя (x, y), такого что - --I(x, y) > :

1. Перевести координаты (x, y) пикселя в систему, связанную с эллипсом (x, y );

2. Для каждого [min, max] подсчитать = x · cos + y · sin ;

3. Если [min, max], то увеличиваются счетчики ячеек фазового пространства со следующими координатами: ( /, / ), ( / + 0.5, / ), ( / - 0.5, / );

4. Если ( - ) [min, max], то уменьшаются счетчики ячеек фазового пространства со следующими координатами: ( ( - )/, / ), ( ( - )/ + 0.5, / ), ( ( - )/ - 0.5, / ).

После рассмотрения всех пикселей изображения лица выбирается линия бровей с параметрами (, ), соответствующими наибольшему значению счетчика. Использование варианта преобразования Хафа, компенсирующего дискретность разбиения фазового пространства, дает повышенную по сравнению с традиционным алгоритмом устойчивость распознавания. Еще одним важным отличием приведенного алгоритма от традиционного преобразование Хафа является встроенный в алгоритм механизм “штрафования” (шаг 4) нежелательных конфигураций обнаруживаемого объекта. Обнаружение линии бровей дает две из требуемых четырех точек лица.

Предлагаемый алгоритм отслеживания положения губ с использованием карты вероятности цвета губ (0.7) отличается от алгоритмов, использующих только яркостную информацию или заранее обученный цветовой классификатор, высокой надежностью распознавания и устойчивостью к различным условиям освещения.

u(RGB) Lip(x, y) = + (1 - Skin(RGB)) (0.7) v(RGB) В (0.7) RGB - цветовые координаты пикселя с координатами (x, y) в пространстве RGB, Skin(RGB) - вероятность принадлежности цвета к оттенку кожи, u, v - координаты соответствующего цвета в пространстве CIEL*u*v*. На основе получаемой карты вероятностей производится поиск Рис. 9. Примеры карты вероятности цвета губ областей пикселей, с высокой вероятностью имеющих форму, близкую к эллиптической. Для увеличения надежности обнаружения производится шумоподавляющая фильтрация карты вероятностей. Обнаружение координат губ происходит путем нахождения координат с наибольшим значением критерия согласия, вычисляемого по следующей формуле:

E(xc, yc) = · Lip(x, y) - · Lip(x, y) (0.8) (x,y)In(xc,yc) (x,y)Out(xc,yc) Области In(xc, yc) и Out(xc, yc) задаются ожидаемой формой и размером губ на изображении. Результаты отслеживания представлены на рисунке 10(б). Положение губ предоставляет информацию о положении третьей точки.

Для определения ориентации головы по положению черт лица на изображении необходимо знать координаты еще одной точки, не лежащей в плоскости рта и бровей. Идеально для этого подходит кончик носа, однако устойчивого отслеживания кончика носа в неизвестных условиях освещения достичь весьма проблематично. С другой стороны, при соответствующем положении камеры, ноздри представляют собой четко видимые, характерные особенности изображения. Обнаружение координат ноздрей производится путем поиска контрастных областей определенной формы с помощью критерия согласия, задаваемого следующей формулой:

E(xc, yc) = · I(x, y)-· I(x, y)+· |I(x, y)|;

(x,y)In(xc,yc) (x,y)Out(xc,yc) (x,y)In(xc,yc) (0.9) Области In(xc, yc) и Out(xc, yc) задаются шаблоном (см. рисунок 10(a)).

Результаты отслеживания представлены на рисунке 10(б).

Предложенные алгоритмы функционируют в реальном времени на ЭВМ с процессором Pentium II (тактовая частота 800 МГц) со скоростью 8 кадров в секудну.

(a) (б) Рис. 10. (a) Шаблон для обнаружения ноздрей. (б) Пример обнаружения полного набора антропометрических точек В заключении сформулированы основные результаты работы.

Основные результаты работы состоят в следующем:

1. Предложены новые алгоритмы выделения лица человека на изображении, работающие в реальном времени и удовлетворяющие следующим ограничениям: работа с изображениями низкого разрешения (порядка 320x240 пикселей) и высокого уровня шума, характерного для бытовых видеокамер.

2. Разработан алгоритм автоматического выделения антропометрических точек лица на фронтальной фотографии среднего разрешения (порядка 640x480 пикселей) для построения фотореалистичных моделей виртуальной реальности.

3. Разработан алгоритм управления курсором “мыши” с помощью движений головы и мимики пользователя.

4. Разработан алгоритм для автоматического определения положения антропометрических точек лица в видеопотоке низкого разрешения в реальном времени.

Основное содержание диссертационной работы изложено в следующих публикациях:

[1] Вежневец В. П. Локализация человеческого лица на цветном растровом изображении // Труды конференции “Математические методы распознавания образов” (ММРО-10). 2001.

[2] Вежневец В. П. Использование контурных моделей для выделения черт лица на фронтальном изображении // Труды конференции “Математические методы распознавания образов” (ММРО-10). 2001.

[3] Automatic extraction of frontal facial features for 3-d face modeling / V. Vezhnevets, S. Soldatov, A. Degtiareva, I.-K. Park // Proc. Sixth Asian Conference on Computer Vision. 2004.

[4] Vezhnevets V. Face and facial feature tracking for natural human-computer interface // Труды конференции ГрафиКон’2002. 2002.

[5] Vezhnevets V. Method for localization of human faces in color-based face detectors and trackers // Труды конференции Digital Information Processing And Control In Extreme Situations’2003. 2003.

[6] Vezhnevets V., Degtiareva A. Robust and accurate eye contour extraction // Труды конференции ГрафиКон’2003. 2003.

[7] Vezhnevets V., Sazonov V., Andreeva A. A survey on pixel-based skin color detection techniques // Труды конференции ГрафиКон’2003. 2003.

Pages:     | 1 | 2 ||






© 2011 www.dissers.ru - «Бесплатная электронная библиотека»