Evaluación de Programas y Políticas Públicas

Curso 2021/2022. Formación Permanente: Títulos que exigen titulación universitaria - Máster propio.

Ficha de Preinscripción Imprimir

Programa del curso

El programa del Magíster en Evaluación de Programas y Políticas Públicas consta de un total de 700 horas distribuidas de la siguiente manera:

  • 224 horas teórico-prácticas de clases presenciales.
  • 240 horas de trabajo individual durante el periodo intersesiones dirigido por tutores.
  • 236 horas para la realización de prácticas y de memoria de grado. 

El programa se establece en los siguientes bloques. 

a) La evaluación de programas y sus características  (50h)
b) Diseños y desarrollo de una evaluación (110h)
c) La evaluación en los diferentes sectores (20h)
d) Elaboración de trabajos y memoria de grado (32h)
e) Trabajo práctico dirigido (240h)
f) Realización de memoria de grado  (248h)

Módulos

1 Motivación para evaluar, encargo y análisis de contexto: se centra en el encargo de la evaluación, su contexto y las partes implicadas. Funciones y propósitos de la evaluación. La orientación al uso. Encargo de la evaluación. Actores críticos (stakeholders) en los sistemas de acción. Variables situacionales y de contexto.

2 Definición de la unidad de evaluación: delimitar con claridad cómo es la evaluanda o el objeto de evaluación. El objeto a evaluar (programas, proyectos, servicios, organizaciones, iniciativas legislativas…). Naturaleza social del objeto. Paradigmas explicativos de las evaluandas. Mecanismos para la sistematización del objeto. Primer trabajo de campo. Identificación de resultados, tres métodos: objetivos (según Enfoque de Marco Lógico), modelos estandarizados y goals free evaluation. Identificación de procesos: diagramas de flujos y mapas de procesos. Identificación de elementos estructurales. Perspectiva sistémica. Diferentes propuestas de modelos lógicos. Identificación de la teoría del cambio/acción. Evaluación del diseño.

3 Aproximaciones evaluativas: cómo diseñar y ejecutar una evaluación, qué posibilidades ofrece y qué productos se pueden obtener. Necesidades informativas. Fase divergente: preguntas/criterios y subcriterios de evaluación. Aproximaciones evaluativas: evaluación orientada a los stakeholders o pluralista, evaluación según la teoría del cambio, enfoque de evaluación orientado hacia el cambio crítico o paradigma transformador, enfoque de evaluación orientado por juicios finales o sumativos y orientaciones sobre el paradigma de expertos/as y críticos/as.

4 Operacionalización de la evaluación: implica ordenar las preguntas de evaluación. Identificar los indicadores (o sistemas de medida) que las contestan, así como las técnicas y las fuentes de extracción de información. Fase convergente: criterios de selección de las preguntas. Indicadores, estándares e índices. Construcción de indicadores ad hoc y búsqueda de indicadores estandarizados. Fuentes de obtención de indicadores. Sistemas de organización de la indagación, matriz de evaluación.

5 Búsqueda de fuentes y diseño de técnicas: para recoger la información necesaria para contestar las preguntas de evaluación. Contextualización de las diferentes técnicas. - Técnicas cuantitativas: encuesta. Muestreo. Manejo básico de plataforma de encuesta on-line. - Técnicas cualitativas: entrevista, grupos de discusión, observación e historias de vida. - Identificación o utilización de datos y fuentes secundarias. - Técnicas de trabajo en grupo.

6 Diseño metodológico para la evaluación de impacto: se definen las estrategias para obtener una información válida, fiable o confiable para estimar el efecto neto o la contribución del programa a los resultados. Métodos de aleatorización: - Diseño experimental. Diferencias de diferencias. Diseño cuasiexperimental. a) Réplica del modelo experimental. Identificación de grupos no equivalentes: emparejamiento estadístico; estandarización de poblaciones y grupos sintéticos. b) Series temporales. Medias móviles. c) Regresión y discontinuidad de la regresión. - Diseños no experimentales: comparación antes-después; comparación postest con grupo de comparación no equivalente. Sólo postest. Modelización (identificación y control de posibles variables intervinientes). - Controlando sólo una variable: tablas trivariadas, estandarización estadística de poblaciones, cálculo de medias ponderadas de los efectos. - Controlando varias variables: Modelo lineal general y regresión múltiple. Estimaciones cualitativas. Lógicas cruzadas (comparación de discursos). Historias de vida.

7 Trabajo de campo: aplicación de técnicas y recogida de la información necesaria para contestar las preguntas de evaluación. Segundo trabajo de campo. Sistemas de organización: matriz de evaluación y cronograma.

8 Análisis de datos: cuantitativos y cualitativos para obtener una información con significado que pueda ser interpretable evaluativamente. Análisis de datos cuantitativos. Tratamiento de datos a través del programa SPSS. Conceptos estadísticos: inferencia, error típico, error muestral, diferencia de medias, diferencia de proporciones, correlación, tamaño del efecto y pruebas de significación. Análisis estadísticos. Descriptivos univariados. Análisis bivariados: tablas de contingencia, comparación de medias, ANOVA, correlación y regresión simple. Análisis multivariante: modelo lineal general, programación regresión múltiple. Análisis Coste – Beneficio (ACB) y Análisis Coste – Efectividad. Análisis de redes. Análisis de cobertura. Análisis de datos cualitativos. Sistema para análisis de discurso y producción visual. Manejo básico de programa informático para análisis cualitativo.

9 Interpretaciones: integración de los datos provenientes de diferentes indicadores o sistemas de información permitiendo la comprensión de la realidad del programa. Campos semánticos. Articulación multimétodo (métodos mixtos), triangulación. Análisis según la teoría fundamentada. Análisis de las relaciones causales entre las dimensiones del programa. Elaboración de síntesis fundamentadas en datos.

10 Juicios: mecanismos para establecer las valoraciones sobre algún aspecto del programa apoyándose en un proceso sistemático y explícito. Diferentes articulaciones del juicio en el proceso de evaluación. Mecanismos de enjuiciamiento: comparación con otras poblaciones, con otros programas y comparación longitudinal. Mecanismos de fijación de estándares. Valoración por los actores sociales.

11 Recomendaciones: para el programa o la política evaluada. El concepto de recomendación. Formas para identificar recomendaciones.

12 Comunicación e influencia de la evaluación: para incrementar el uso y la influencia en el programa y en el sistema social donde se ejecuta. Identificación de audiencias. Diferentes soportes y estrategias comunicativas. Elaboración del informe y otros productos.

Además hay cinco módulos transversales:

a)    Definición, contextualización, encargo y presupuesto: de la disciplina dentro del marco de las políticas y la acción púbica. Marco teórico. Problemas públicos y el ciclo de las políticas públicas. El papel de la evaluación en los sistemas político-administrativos. Definición y evolución de la conceptualización de la evaluación. Institucionalización de la evaluación. Diferencias con otro tipo de indagación social: lo específico de la evaluación, su carácter político. Tipologías de la evaluación. Fases del proceso evaluativo. El encargo. Estimación del coste de las evaluaciones a través de la herramienta www.evaluationcost.com

b)    Modelos, escuelas y autores/as en evaluación: conocimiento de los principales autores/as y debates de la disciplina. Criterios para ubicar a los autores/as en las diferentes opciones metodológicas y aproximaciones.

c)     Otras metodologías de retroalimentación: definición y enfoques de “calidad” (EFQM y normas ISO: 9000). Sistemas de seguimiento-monitoreo.

d)    Evaluación con perspectiva de género: Diversas aproximaciones para hacer evaluación sensible al género. La mirada de las evaluadoras: paradigma transformador, juicios finales sumativos, teoría del cambio y evaluación orientada a stakeholders. e

 e)    Ética y evaluación: Reflexión sobre las implicaciones éticas de la evaluación. Identificación de potenciales conflictos y dilemas. Orientaciones para los evaluadores/as.