• English
  • Youtube
  • Facebook
  • Twitter
  • Linkedin
  • Instagram
  • tiktok

Tratamiento Estadístico Computacional de la Información (conjunto con UPM)

Máster. Curso 2023/2024.

REDES NEURONALES - 607580

Curso Académico 2023-24

Datos Generales

SINOPSIS

COMPETENCIAS

Generales

CG5 - Comprender y utilizar el lenguaje y las herramientas matemáticas para modelizar y resolver problemas complejos, reconociendo y valorando las situaciones y problemas susceptibles de ser tratados matemáticamente.

CG6 - Conocer los modelos, métodos y técnicas relevantes en distintas áreas de aplicación de la estadística matemática participando en la creación de nuevas tecnologías que contribuyan al desarrollo de la Sociedad de la Información.

CG7 - Saber abstraer en un modelo matemático las propiedades y características esenciales de un problema real reconociendo su rango de aplicabilidad y limitaciones.
Transversales

CT2 - Tener la capacidad de reunir e interpretar datos relevantes para emitir juicios que incluyan una reflexión sobre temas relevantes de índole científica, tecnológica y empresarial. Demostrar razonamiento crítico y gestionar información científica y técnica de calidad, bibliografía, bases de datos especializadas y recursos accesibles a través de Internet.
Específicas

CE2 - Capacidad para planificar la resolución de un problema en función de las herramientas de que se disponga y, en su caso, de las restricciones de tiempo y recursos.

CE4 - Desarrollar habilidades de aprendizaje en Estadística Computacional y Matemáticas, así como en sus respectivas aplicaciones, que permitan al alumno continuar estudiando y profundizando en la materia de modo autónomo, así como el desarrollo profesional con un alto grado de independencia.

CE5 - Resolver problemas y casos reales planteados en el tratamiento estadístico-computacional de la información generada en los ámbitos de la ciencia, la tecnología y la sociedad mediante habilidades de modelización matemática, estimación y computación.

ACTIVIDADES DOCENTES

Clases teóricas

50%
Clases prácticas

50%

Presenciales

1,35

No presenciales

1,55

Semestre

2

Breve descriptor:

Fundamentación matemática de las redes neuronales y resolución de problemas en el marco del procesamiento de la información y el aprendizaje estadístico.

Objetivos

- Los alumnos conocerán los fundamentos matemáticos necesarios para contextualizar los modelos neuronales dentro del procesamiento de información y el aprendizaje estadístico, y tendrán capacidad para emplear las herramientas matemáticas y el marco formal en el estudio de la funcionalidad de las arquitecturas neuronales.

- Serán capaces de determinar los ingredientes de un problema para diseñar la arquitectura que mejor se adecúa a su resolución.

- Serán capaces de resolver problemas colaborando con compañeros, y de exponer sus resultados.

Contenido

1. Introducción: tipos de problemas; aprendizaje automático y aprendizaje estadístico; redes neuronales artificiales.

2. Fundamentos matemáticos: dinámica de sistemas; teoría de optimización; inferencia estadística y teoría de regresión (lineal y logística).

3. Aprendizaje supervisado: regresión y clasificación; modelos neuronales para su implementación.

4. Aprendizaje no supervisado: modelos neuronales para su implementación.

5. Modelos alternativos/avanzados para aprendizaje supervisado y no supervisado: modelos gráficos, máquinas de Boltzmann, arquitecturas profundas, etc.

6. Otros tipos de problemas: aprendizaje en entornos dinámicos, aprendizaje por refuerzo, aprendizaje semi-supervisado, etc. y posibles soluciones.

7. Aplicaciones prácticas: tratamiento de señal, optimización de funciones tipo caja negra, predicción en series temporales, diagnóstico de fallos y control de sistemas.

Evaluación


(65%) Ejercicios y/o trabajos propuestos
(10%) Asistencia, participación activa y/o resolución de ejercicios simples
(25%) Exámenes en clase

Bibliografía


E. Alpaydin, Introduction to Machine Learning, MIT Press, 2004.

C. Bishop, Pattern Recognition and Machine Learning, Springer, 2006.

F. Cucker and D. X. Zhou, Learning Theory. An Approximation Theory Viewpoint, Cambridge University Press, 2007.

M. P. Deisenroth, A. A. Faisal, and C. S. Ong, Mathematics for Machine Learning, Cambridge University Press, 2020.

C. Fernández Pérez, F. J. Vázquez Hernández, J. M. Vegas Montaner, Ecuaciones Diferenciales y en Diferencias. Sistemas dinámicos, Thomson, Madrid 2003.

A. Goodfellow, Y. Bengio and A. Courville, Deep Learning, MIT Press, 2016.

S. Haykin, Neural Networks and Learning Machines, Prentice Hall, 2008.

R. Herbrich, Learning Kernel Classifiers. Theory and algorithms, MIT Press, 2002.

T. Kohonen, Self-Organizing Maps, Springer Verlag, Berlin Heidelberg, 1995.

Q. Martín, Y. de Paz, Aplicación de las redes neuronales artificiales a la regresión. Cuadernos de Estadística, 2007.

T. M. Mitchell, Machine Learning, McGraw-Hill, 1997.

V. N. Vapnik, Statistical Learning Theory, John Wiley & Sons, 1998.

M. Vidyasagar, Nonlinear Systems Analysis. 2nd Ed. Prentice-Hall, Inc., 1993.

M. Vidyasagar, Learning and Generalisation. (With Applications to Neural Networks), Springer, 2003.

Otra información relevante


Profesor:

Nombre: Pedro J. Zufiria Zatarain
Despacho: A-306, ETS Ingenieros de Telecomunicación, UPM
Correo electrónico: pedro.zufiria@upm.es
Teléfono: +34 91 0672286

Estructura

MódulosMaterias
No existen datos de módulos o materias para esta asignatura.

Grupos

Clases teóricas y/o prácticas
GrupoPeriodosHorariosAulaProfesor
Grupo único05/12/2023 - 22/02/2024MARTES 19:30 - 21:00-JORGE GONZALEZ ORTEGA
JUEVES 18:00 - 19:30-JORGE GONZALEZ ORTEGA