4.2 KiB
Esta explicación se hace mirando la presentación de Cecilia Galarza: EstimacionEspectral, p.34
1. Desarrollo inicial del método
1.1. Forma general de la señal de entrada
Comenzando el análisis es muy importante tener en cuenta que este método asume que la señal que queremos recuperar es una composición de señales senoidales que pueden ser reales o complejas con fases que son variables uniformes e independientes. La hipótesis sobre la distribución de las fases es muy importante para después y muy fácil de justificar. Es decir que cada una de las senoides las podemos escribir como:
x[m] = \alpha_ie^{j(w_i m+\phi_i)}
Luego, si la señal que queremos recuperar en una composición de senoidales, lo que asumimos es que la señal de entrada es la señal que queremos recuperar que tiene sumada ruido blanco. Es muy importante que el ruido sea un ruido blanco. Si no es ruido blanco, antes de hacerle el análisis espectral primero hay que pre-procesar la señal para descorrelacionar el ruido. La señal de entrada se puede ver de la siguiente manera:
y[m] = \sum_{k=1}^{K}\alpha_ke^{j(w_k m+\phi_k)} +v[m] \quad\quad m = 1,...,L
1.2. Propiedades de las senoidales discretizadas
Analicemos la composición del vector x[m]
para poder utilizar y explicar las operaciones que vienen después.
Si nos interesa saber el valor de x[m]
desfasada una cantidad de muestras n
lo podemos calcular de la siguiente manera:
x[m-n] = x[m]e^{-jw_in}
Este es el resultado de la expansión de x[m-n]
que se puede ver en EstimacionEspectral, p.34 Para que nos sirve esta expresión? Nos sirve para expresar una secuencia de valores de la señal en función del primer valor multiplicado por un desfaje.
Por ejemplo, si se quiere expresar un vector con una cantidad L
de muestras que es menor a N
(que es la cantidad total de muestras de mi señal) se puede obtener la siguiente forma:
\bar{x}_L = \begin{bmatrix}x[m]\\x[m-1]\\.\\.\\x[m-L+1]\end{bmatrix} = \begin{bmatrix}1\\e^{jw_1}\\.\\.\\e^{jw_1(L-1)}\end{bmatrix} x[m] = \bar{b}(w_1)x[m]
Es importante tener en cuenta que esta \bar{x}_L
esta generada solo pro una senoidal.
Se puede interpretar a \bar{\alpha}(w_1)
como un vector de desfasajes que depende de la frecuencia de la senoidal.
Siguiendo con la misma notación y expandiendo el ejemplo a un caso con una cantidad K
de senoides menor al largo L
del vector se puede obtener:
\bar{y}[m] = \sum_{k=1}^{K}\bar{b}(w_k)x_k[m] + \bar{v}[m]
\bar{y}[m] = \begin{bmatrix}y[m]\\y[m-1]\\.\\.\\y[m-L+1]\end{bmatrix} = \sum_{k=1}^{K}\begin{bmatrix}1\\e^{jw_i}\\.\\.\\e^{jw_i(L-1)}\end{bmatrix}x_k[m] + \begin{bmatrix}v[m]\\v[m-1]\\.\\.\\v[m-L+1]\end{bmatrix}
\bar{y}[m] = \sum_{k=1}^{K}\begin{bmatrix}1\\e^{jw_i}\\.\\.\\e^{jw_i(L-1)}\end{bmatrix}\alpha_ke^{j(w_km+\phi_k)} + \begin{bmatrix}v[m]\\v[m-1]\\.\\.\\v[m-L+1]\end{bmatrix}
\bar{y}[m] = \begin{bmatrix}b(w_1) &&...&&b(w_K) \end{bmatrix}\begin{bmatrix}\alpha_1e^{j(w_1m+\phi_1)}\\.\\.\\\alpha_Ke^{j(w_Km+\phi_K)} \end{bmatrix} + \bar{v}[m]
Entonces si lo pensamos como vectores sin la indexación de m
podemos pensar en la forma comprimida:
\bar{y} = A\bar{x} + \bar{v}
Donde la matriz A tiene como columnas los vectores b(w_i)
.
Teniendo esta expresión del vector de mi señal de entrada puedo obtener la matriz de covarianza (y también la de correlación porque asumimos que la señal no tiene media) como:
\mathbb{E}[\bar{y}\bar{y}^{H}] = A\mathbb{E}[\bar{x}\bar{x}^{H}]A^H + \sigma_v²\bar{I}
Para la resolución de la matriz de covarianza del vector \bar{x}
podemos utilizar una de las hipótesis iniciales, me refiero a la uniformidad e independencia de las fases de las senoidale, para obtener como resultado que la matriz de covarianza de \bar{x}
es una matriz diagonal que contiene las amplitudes de las senoidales al cuadrado.
Otra forma de expresar este resultado sería:
R = \mathbb{E}[\bar{y}\bar{y}^{H}] = ADA^H + \sigma_v²\bar{I}
Donde A contiene los autovectores asociados a cada uno de los autovalores, que también se puede interpretar como una asignación a una frecuencia.