2010년 6월 4일 금요일

6월 5일(보강)

이런. ㅋㅋ

첨부 파일 보고 공부해!!

 

(Hidden Markov Model for Speech Recognition)
s 위 강의 자료에 대해서 필기??
과거의 사건을 이용해서 다음 상황을 예측하는 것!   확률공간은 정해져있다.
 
프레임블락킹 1/2사이즈로 오버랩핑  우리는 가우시안 안쓰고 VQ로
확률이니까 큰값쪽으로 가면 된다.
 
음성인식기의 학습환경과 인식환경이 같으면 인식률 커진다. 다르면 작아진다.
예로 백그라운드 노이즈가 있다.
발화특성이 달라도 인식하기 어렵다. 말과 말이 섞일때 인식이 어렵다.  <-(인식이 잘 안되는 3가지 이유)  사람의 경우에는 이럴때 예측을 한다.
이러한 아이디어를 이용한것이 HMM
 
acoustic O <- 우리입장에서는 프레임  VQ를 거치고 나면 code word (symbol)
관측심벌을 word에 맵핑시킨다.  word는 이미 알고 있는 것
 
미리 만들어 놓은 확률테이블에서 ?? 찾아??
 
argmaxP(O|W)P(W)   W;선행확률(이미알고 있는것)
         n 프래임 n-1프레임
        출력확률(출력된 확률이 얼마인지)
 
P(O|W) word중에 관측심벌
디코딩 서치 : 가장큰 값을 출력?
Lexcion - 발음사전
Language Model - 문법적인 규칙으로 찾는다.
 
S1 반복되는지  짧은 '아'와 길게 발음한 '아'
 
같지않다.  그래서 음소별로 자를 수 있다.
 
하나의 음소도 3개의 상태로 구분할수 잇다.  시작 중간 끝
 
HMM은 가중치가 있는 유한상태 오토메이션의 하나이다.
A 전위확률매트릭스   A는 모든 가능한 경로에 대한 확률
확률이값이 바귄다.(트레이닝)
q0qend 는 스페셜케이스 시작과 끝은 무조건 있으므로
HMM를 위한 전제 조건이 있어야 한다. P(qi|q1...qi-1) = P(qi|qi-1)
음성은 모든 걸을 보지고않고 바로 전 상태만 보면 된다. HMM체인은 여러개가 있을수 있지만 바로 이전상태와 현재상태만을 보고 ?? 결정??
바로현재상태에만의존   
  1차 HMM 모델
 
 
전위확률..
 
인니셜 상태? 1로 본다.
 
전위확률을 미리계산해놓은 것(트레이닝)
 
 
출력 독립 가정
 
다음 주 수업에서 계속~~
 

댓글 없음:

댓글 쓰기