Uso de cookies

En las páginas web de la Universidad Carlos III de Madrid utilizamos cookies propias y de terceros para mejorar nuestros servicios mediante el análisis de sus hábitos de navegación. Al continuar con la navegación, entendemos que se acepta nuestra política de cookies. "Normas de uso"

Técnicas de Computación intensiva

Objetivos y líneas estratégica

Los investigadores adscritos al laboratorio de técnicas de computación intensiva tienen por objetivo el estudio y el desarrollo de técnicas estadísticas y de investigación operativa de con alto coste computacional. En particular, las áreas fundamentales de estudio de este laboratorio durante los últimos años han sido: a) El análisis teórico y práctico de métodos de remuestreo de datos, incluyendo las técnicas conocidas con los nombres de bootstrap y jacknife; (b) El análisis de problemas desde el punto de vista de la estadística no paramétrica; y c) El desarrollo de técnicas de optimización en problemas de gran tamaño. Estas áreas de la estadística y la investigación operativa tienen un factor en común: su viabilidad se basa en la utilización masiva de recursos informáticos. 

Más en concreto, el análisis de técnicas de remuestreo como el bootstrap o el jackknife se han aplicado en problemas estadísticos como la regresión y el análisis de series temporales. Por ejemplo, Alonso, Peña y Romo (2005) han propuesto procedimientos para el remuestreo de series temporales con la presencia de datos faltantes, que es un problema muy común en el análisis de datos reales. En esta misma línea, Alonso, Peña y Romo (2006) analizan de forma teórica la inclusión de incertidumbre en diversos procedimientos bootstrap. Por otro lado, el uso del bootstrap en modelos de la econometría financiera ha sido analizado en los artículos Pascual, Romo y Ruiz (2005), donde se proporcionan métodos para el cálculo de intervalos de predicción para modelos GARCH, mientras que Pascual, Romo, y Ruiz (2006) analizan el caso de la predicción de rendimientos y de volatilidades de series financieras mediante el uso de este tipo de procedimientos. Por último, el uso de estas técnicas también puede ser aplicado en el análisis estadístico de enfermedades epidemiológicas, como se demuestra en el artículo de Alonso y Romo (2006).

 En segundo lugar, el estudio de técnicas de la estadística no paramétrica se ha centrado en el análisis de datos en alta o infinita dimensión. En primer lugar, si los datos son de dimensión finita, los análisis realizados se han centrado en la búsqueda de datos atípicos y de métodos robustos de estimación. En particular, Peña y Prieto (2000) presentan un procedimiento para la estimación robusta de la matriz de varianzas y covarianzas de un conjunto de datos multivariantes que simultáneamente proporciona un método para la detección de datos atípicos. Por otro lado, Peña y Prieto (2001) presentan un procedimiento basado en proyecciones para la identificación de conglomerados en datos de alta dimensión. Por último, el primer problema analizado previamente es retomado en el artículo Peña y Prieto (2007) donde los procedimientos propuestos son mejorados mediante la inclusión en el análisis del uso de proyecciones aleatorias. En segundo lugar, el análisis de datos de dimensión infinita se conoce con el nombre de análisis de datos funcionales. Este tipo de análisis es el campo con mayor repercusión dentro de la estadística moderna. Dentro de este campo, investigadores del laboratorio de técnicas de computación intensiva se han centrado en el estudio de medidas de profundidad para datos funcionales. Este fue el principal área de investigación desarrollado en la tesis doctoral de la Prof. Sara López. En dicha tesis y en los artículos publicados López y Romo (2006) y López y Romo (2007) se han propuesto, por un lado, medidas de profundidad basadas en el concepto de banda funcional, mientras que por el otro, se han utilizado las medidas funcionales propuestas para la clasificación de datos funcionales. Por último, Cascos y Molchanov (2007) analizan de modo teórico como cuantificar el riesgo de una cartera bajo la perspectiva anterior.

En tercer lugar, el análisis de la optimización de problemas de gran tamaño se ha basado en el desarrollo de nuevas técnicas de optimización para problemas continuos con restricciones de desigualdad. Buenos ejemplos de los resultados de esta área de investigación desde un punto de vista teórico son los artículos de Conejo, Nogales y Prieto (2002), Conejo, Nogales y Prieto (2003) y de Moguerza, Olivares y Prieto (2007). El ámbito práctico donde estas técnicas han tenido una aplicación de mayor interés ha sido en problemas de planificación en empresas eléctricas. En dichos problemas se han desarrollado modelos y procedimientos para la planificación de la explotación de empresas eléctricas, con particular énfasis sobre su comportamiento en mercados competitivos. Publicaciones derivadas de estas investigaciones son Conejo y Nogales (2006) y Conejo, Carrión, Morales y Nogales (2009).

Principales resultados

  • Alonso, A. M., Peña, D. y Romo, J. (2005) “Resampling Time Series using Missing Values Techniques”, Annals of the Institute of Statistical Mathematics, 55, 765-796.
  • Alonso, A. M., Peña, D. y Romo, J. (2006) “Introducing model uncertainty by blockwise bootstrap”, Statistical Papers, 47 (2), 167-179.
  • Alonso, A. M. y Romo, J., (2006) “Forecast of the expected non-epidemic morbidity of acute diseases using resampling methods”, Journal of Applied Statistics, 32, 281-295.
  • Cascos, I. y Molchanov, I. “Multivariate risks and depth-trimmed regions”. Finance and Stochastics, 373-397.
  • Conejo, A. J., Carrión, M., Morales, J. M. y Nogales, F. J. (2009) “Electricity Pool Prices: Long-Term Uncertainty Characterization for Futures-Market Trading and Risk Management”. Journal of the Operations Research Society, En prensa.
  • Conejo, A. J., Nogales, F. J. (2003) “Electricity Price Forecasting through Transfer Function Models”. Journal of the Operations Research Society, 57, 350-356.
  • Conejo, A. J., Nogales, F. J. y Prieto, J. (2002) “A decomposition procedure based on approximate Newton directions”. Mathematical Programming, 93, 495-515.
  • Conejo, A. J., Nogales, F. J. y Prieto, J. (2003) “A Decomposition Methodology Applied to the Multi-Area Optimal Power Flow Problem”. Annals of Operations Research, 120, 99-116.
  • López, S. y Romo, J. (2007) “A depth-based inference for functional data”, Computational Statistics and Data Analysis, 10, 4957-4968.
  • López, S. y Romo, J. (2006) “Depth-based classification for functional data”, en: Data Depth: Robust Multivariate Analysis, Computational Geometry and Applications.
  • Moguerza, J. M., Olivares, A. y Prieto, J. (2007) “A note on the use of vector barrier parameters for interior-point methods”. European Journal of Operations Research, 181, 571-585.
  • Pascual, L., Romo, J. y Ruiz, E. (2005) “Bootstrap prediction intervals for GARCH models”, International Journal of Forecasting, 21, 219-235.
  • Pascual, L., Romo, J. y Ruiz, E. (2006) “Forecasting returns and volatilities in GARCH processes using the bootstrap”, Computational Statistics and Data Analysis, 50, 2293-2312.
  • Peña, D. y Prieto, J. (2000) “Robust covariance matrix estimation and multivariate outlier detection”. Technometrics, 43, 286-310.
  •  Peña, D. y Prieto, J. (2001) “Cluster identification using projections”. Journal of the American Statistical Association, 96, 1433-1445.
  • Peña, D. y Prieto, J. (2007) “Combining Random and Specific Directions for Outlier Detection and Robust Estimation of High-Dimensional Multivariate Data”. Journal of Computational and Graphical Statistics, 16, 228-254.