Las descomposiciones en valores propios se calculan en varios algoritmos de FlexPro. Representan el principio básico del
•estimador espectral propio (MUSIC,EV). Las descomposiciones en valores propios también forman parte de todos los procedimientos con descomposición en valores singulares (SVD):Estimador espectral AR (AutoRegressive)
•Estimador espectral ARMA (AutoRegressive Moving Average)
El tratamiento de los modos propios (vectores propios y valores propios/valores singulares) de las series de datos es una herramienta importante para analizar las señales. A diferencia de la descomposición de Fourier, en la que una señal se descompone en oscilaciones armónicas, es decir, funciones senoidales y cosenoidales paramétricas, en la descomposición en valores propios la señal se descompone mediante funciones no paramétricas adaptativas en función de la intensidad de la señal. Por tanto, los componentes de la señal pueden separarse en función de sus diferentes potencias.
Nomenclatura
La identificación, el aislamiento y la reconstrucción de los componentes de la señal mediante la descomposición en valores propios se conoce como "análisis espectral de valores singulares" (Singular Spectral Analysis), "análisis de componentes principales" (Principal Component Analysis) y " filtrado por valores propios" (Eigenfiltering). FlexPro solo utiliza el término "descomposición en valores propios", ya que es el que mejor describe el método numérico.
Valores propios y valores singulares
Aunque los términos vector propio y vector singular son intercambiables, un valor propio es el cuadrado del valor singular correspondiente dividido entre el orden de la descomposición.
Covarianza o matriz de datos
La autodescomposición puede lograrse de varias maneras. El primer paso consiste siempre en establecer una matriz de datos con copias retardadas de secciones de la serie de datos. Puede tratarse de una simple matriz de datos o de trayectoria, como las matrices de predicción hacia adelante (F), predicción hacia atrás (B) o predicción hacia adelante y hacia atrás (FB), utilizadas en la modelización autorregresiva. Estas matrices suelen ser rectangulares y los vectores propios y valores singulares se extraen mediante SVD. Mientras no se utilicen cálculos de mínimos cuadrados de los coeficientes del modelo paramétrico, no hay diferencias entre las matrices de datos F y B. Una predicción FB tiene el doble de filas que la matriz F o B y, por tanto, requiere un mayor tiempo de cálculo.
Otro método consiste en crear una matriz de covarianza utilizando copias retardadas de los datos. Se trata de una matriz cuadrada cuyos vectores propios y valores singulares pueden calcularse utilizando las rutinas SVD o EISPACK para la descomposición en valores propios. Aunque el tiempo de cálculo es algo mayor, FlexPro solo utiliza SVD para todas las descomposiciones en valores propios. Las rutinas EISPACK pueden no encontrar todos los modos propios, lo que nunca debería ocurrir con los procedimientos SVD.
Una rutina basada en la covarianza que haga cumplir la simetría de Toeplitz (todos los elementos a lo largo de cada diagonal tienen el mismo valor) se considera favorable para series de datos pequeñas. Sin embargo, en la mayoría de los casos, las matrices que no cumplen las simetrías de Toeplitz representan mejor la varianza de las series de datos.
Por último, otra posibilidad es construir una matriz cuadrada basada en las ecuaciones normales. Esto se corresponde con el enfoque de covarianza, en el sentido de que una matriz cuadrada puede analizarse más rápidamente que una matriz de datos completa para grandes conjuntos de datos. Por otra parte, la construcción de la matriz de ecuaciones normales puede provocar pérdidas de precisión, lo que puede afectar al cálculo de los coeficientes del modelo.
Orden de la descomposición en valores propios
El orden de la descomposición en valores propios es el número de elementos de datos del conjunto de datos que se toma de la serie de datos para cada sección, y no el número de secciones. Para matrices rectangulares, el orden o "dimensión de incrustación" especifica el número de columnas y el número de segmentos especifica el número de filas. En una matriz de covarianza, tanto el número de filas como el de columnas corresponden al orden.
Es importante que el orden de la descomposición en valores propios sea lo suficientemente alto como para lograr una buena separación de la señal y el ruido. El orden debe ser lo suficientemente alto como para separar completamente los componentes de ruido y evitar así que influyan en los modos propios de la señal. En general, cuanto mayor sea el orden, mejor será la separación, ya que habrá más modos propios disponibles para tratar el ruido aleatorio.
Separación de señal y ruido en los espectros
La aplicación más común de la descomposición en valores propios es la separación de señal y ruido. En los procedimientos espectrales con SVD, los componentes de ruido se filtran para que no se tengan en cuenta al calcular los coeficientes AR y ARMA. El procedimiento del estimador espectral de análisis de valores propios utiliza directamente la descomposición en valores propios, ya que los vectores propios del ruido se utilizan para la estimación de la frecuencia. Estos algoritmos no son capaces de reconstruir la serie de datos.
Componentes de señal y ruido
El primer modo propio corresponde a la componente espectral más dominante, el segundo, a la siguiente componente más dominante y así sucesivamente. Es irrelevante si el componente es senoidal, rectangular, diente de sierra o no armónico. La señal también puede ser una oscilación no armónica de baja frecuencia o una oscilación senoidal de alta frecuencia. Los modos propios se comportan de forma adaptativa, ya que capturan la varianza de la serie de datos de forma no paramétrica, ordenada por valores propios.
Se necesitan dos modos propios para detectar una oscilación. Un par de modos propios con valores propios casi idénticos denota una oscilación armónica o no armónica en la señal. Uno de los puntos fuertes de la descomposición en valores propios es el aislamiento de los componentes secundarios de la señal de baja potencia. Estos componentes secundarios pueden pasar desapercibidos en los espectros de Fourier debido al manchado espectral y a la limitada resolución. También pueden ser invisibles en los modelos AR y ARMA, ya que hacen hincapié en los componentes principales. Lo mismo ocurre con los modelos paramétricos con funciones senoidales, ya que la varianza asociada a los componentes de alta potencia impide que la aproximación de mínimos cuadrados detecte con precisión los componentes secundarios de baja potencia. La descomposición en valores propios es una forma de separar los componentes de alta y baja potencia, tanto para el análisis espectral como para la aproximación. Lo mismo ocurre con los modelos paramétricos con funciones senoidales, ya que la varianza asociada a los componentes de alta potencia suele impedir considerar correctamente los componentes de menor potencia en la aproximación. La descomposición en valores propios ofrece la posibilidad de aislar los componentes de alta y baja potencia para analizar y aproximar las señales por separado.
Bibliografía
Ofrece una excelente descripción de la descomposición en valores propios:
•J. B. Elsner and A. A. Tsonis, "Singular Spectral Analysis", Plenum Press, 1996.
Véase también
Objeto de análisis Estimador espectral - estimador espectral de análisis de valores propios