- •Классификация систем распознавания речи
- •Наиболее распространенный подход к распознаванию речи
- •Лекция 2
- •Цифровой звук и частота дискретизации
- •Ключевые операции цос
- •Формы преобразования Фурье
- •Б. Амплитудно-фазовая форма
- •В. Комплексная форма
- •А. Прореживание по времени
- •Вейвлет-разложение как способ представления речевого сигнала
- •Лекция 3
- •Методы представления речевого сигнала на основе кепстрального анализа и кодирования с линейным предсказанием
- •Лекция 4
- •Процесс речеобразования и принципы восприятия речи
- •Образование и артикуляционная классификация звуков речи
- •Психоакустические принципы восприятия речи
- •Признаки распознавания
- •Временные и спектральные характеристики, используемые для классификации звуков речи
- •Лекция 5
- •Выделение речи из звукового сигнала (vad-алгоритмы)
- •Сегментация речевого сигнала
- •Лекция 6
- •Применение скрытых марковских моделей для распознавания речи
- •Решение задачи 1, распознавание
- •Решение задачи 2. Алгоритм Витерби
- •Решение задачи 3. Алгоритм Баума-Уэлча.
- •Лекция 7
- •Гауссовы смешанные модели (gmm)
- •Распознавание речи с помощью нейронных сетей
- •Введение в нейронные сети
- •Лекция 8
- •Метод нелинейного растяжения-сжатия оси времени
Лекция 6
Тема. Построение классификаторов распознавания речевых сигналов на основе скрытых марковских моделей
Применение скрытых марковских моделей для распознавания речи
Скрытой Марковской Моделью (СММ, HMM – Hidden Markov Model) называется модель состоящая из N состояний, в каждом из которых некоторая система может принимать одно из M значений какого-либо параметра. Вероятности переходов между состояниями задается матрицей вероятностей A={aij}, где aij – вероятность перехода из i-го в j-е состояние. Вероятности выпадения каждого из M значений параметра в каждом из N состояний задается вектором B={bj(k)}, где bj(k) – вероятность выпадения k-го значения параметра в j-м состоянии. Вероятность наступления начального состояния задается вектором π={πi}, где πi – вероятность того, что в начальный момент система окажется в i-м состоянии. Таким образом, скрытой марковской моделью называется тройка λ={A,B,π}. Использование скрытых марковских моделей для распознавания речи основано на двух приближениях:
1) Речь может быть разбита на фрагменты, соответствующие состояниям в СММ, параметры речи в пределах каждого фрагмента считаются постоянными.
2) Вероятность каждого фрагмента зависит только от текущего состояния системы и не зависит от предыдущих состояний.
Модель называется «скрытой», так как нас, как правило, не интересует конкретная последовательность состояний, в которой пребывает система. Мы либо подаем на вход системы последовательности типа O={o1,o2,…oτ} - где каждое oi – значение параметра (одно из M), принимаемое в i-й момент времени, а на выходе ожидаем модель λ ={A,B,π}с максимальной вероятностью генерирующую такую последовательность, - либо наоборот подаем на вход параметры модели и генерируем порождаемую ей последовательность. И в том и другом случае система выступает как «черный ящик», в котором скрыты действительные состояния системы, а связанная с ней модель заслуживает названия скрытой.
Скрытые марковские модели являются мощным инструментом, позволяющим распознавать речевой сигнал с высоким качеством. Используют статистические свойства сигналов и учитывают непосредственно их пространственные характеристики. HMM состоит из двух взаимосвязанных частей.
Ненаблюдаемая марковская цепь с конечным числом состояний, матрица переходных вероятностей и вектор вероятностей начальных состояний.
Функция плотности, ассоциируемые с каждыми состояниями.
Таким образом, НММ представляет собой конечный автомат, изменяющий свое состояние в каждый дискретный момент времени t (см. рис. 6.1). Переход из состояния si в состояние sj осуществляется случайным образом с вероятностью aij. В каждый дискретный момент времени модель порождает вектор наблюдений ot (который в конкретной задаче является вектором признаков, полученным в преобразователе сигнала) с вероятностью bj(ot). Распределение плотности вероятности наблюдений моделируется конечной гаусовской смесью с четырьмя компонентами. Каждая такая модель обозначает один из звуков речи или отсутствие звука (одна из моделей).
Pисунок 6.1 – Представление скрытой марковской модели
Относительно скрытых Марковских моделей решаются как правило три задачи:
Задача 1
Дана последовательность наблюдений O={o1,o2,…oτ} и модель λ={A,B,π}. Необходимо вычислить вероятность появления указанной последовательности для данной модели. То есть решение этой задачи непосредственно связано с задачей распознавания речи. Если, например, состояния модели соответствуют отрезкам времени, в которые снимаются параметры речевого сигнала, и в каждом из этих состояний (отрезков) некие параметры речевого сигнала принимают некоторые значения, которые мы представляем в виде O={o1,o2,…oτ}, то решив задачу отыскания вероятности появления этой последовательности для каждой из имеющихся у нас моделей λ={A,B,π}, соответствующих, например, фонемам (звукам речи) или словам, мы можем выбрать ту из фонем (слов), которая(ое) в наибольшей степени соответствует исходному отрезку речевого сигнала. А это и значит распознать речевую единицу (фонему или слово).
Задача 2
Дана последовательность наблюдений O={o1,o2,…oτ} и модель λ={A,B,π}. Необходимо выбрать последовательность состояний Q= {q1,q2,…qτ}, которая с наибольшей вероятностью порождает указанную последовательность. Данные, полученные при решении этой задачи используются для изучения поведения полученной модели.
Задача 3
Дана последовательность наблюдений O={o1,o2,…oτ} и модель λ={A,B,π}. Необходимо подобрать параметры модели так, чтобы максимизировать вероятность данной последовательности наблюдений. Это в чистом виде задача обучения модели на наборах входных данных, для того чтобы в дальнейшем использовать эту модель для решения задачи 1, то есть распознавания. То есть опять же состояния модели соответствуют отрезкам времени (как правило 10-30 мс), в которых снимаются значения параметра речевого сигнала, а принимаемые на некотором временном отрезке значения параметра и образуют последовательность наблюдений O.
Рассмотрим алгоритмы решения указанных задач.
