Biblioteca de referencia de M&E
Su guía completa de monitoreo, evaluación, rendición de cuentas y aprendizaje
144 entries
Análisis de Contribución
Un enfoque estructurado para construir un caso creíble sobre cómo y por qué un programa contribuyó a los resultados observados, sin requerir atribución experimental.
Cambio Más Significativo
Un enfoque de monitoreo participativo cualitativo que recopila y selecciona sistemáticamente historias de cambio para identificar y compartir los resultados más significativos de un programa.
Cosecha de Resultados
Un enfoque de evaluación retrospectiva que identifica, verifica y analiza resultados que han ocurrido, luego determina si y cómo el programa contribuyó a ellos.
Diseño Cuasi-Experimental
Una familia de diseños de evaluación que estiman efectos causales del programa sin asignación aleatoria, utilizando métodos estadísticos para construir grupos de comparación creíbles.
Evaluación Centrada en la Utilización
Un enfoque de evaluación en el que cada decisión de diseño está impulsada por las necesidades de los usuarios primarios previstos, las personas específicas que realmente utilizarán los hallazgos para tomar decisiones específicas.
Evaluación de Impacto
Un enfoque riguroso de evaluación que mide el efecto causal de un programa sobre los resultados comparando lo que ocurrió con lo que habría ocurrido en su ausencia.
Evaluación del Desarrollo
Un enfoque de evaluación diseñado para programas complejos y adaptativos en los que los objetivos y procesos son emergentes, y el evaluador trabaja junto al equipo del programa como un socio de aprendizaje incorporado.
Evaluación Participativa
Un enfoque de evaluación que involucra activamente a las partes interesadas y beneficiarios en todas las etapas, desde el diseño hasta el uso de los hallazgos, asegurando la propiedad local y la relevancia.
Evaluación Realista
Enfoque de evaluación que pregunta qué funciona, para quién, en qué circunstancias y por qué, identificando los mecanismos a través de los cuales los programas producen resultados en contextos específicos.
Gestión Basada en Resultados
Un enfoque de gestión que centra las decisiones, los recursos y la rendición de cuentas de la organización en lograr resultados definidos, utilizando evidencia del monitoreo y la evaluación.
Mapeo de Alcances
Un enfoque participativo de planificación y monitoreo que rastrea cambios de comportamiento en las personas, grupos y organizaciones con las que un programa trabaja directamente, en lugar de resultados de desarrollo a largo plazo.
Marco de Resultados
Colección estructurada de indicadores organizados por nivel de resultados que da seguimiento al rendimiento del programa a través de un portafolio, centrándose en lo que cambió en lugar de lo que se entregó.
Marco Lógico / Marco Lógico
Una matriz estructurada que resume el diseño de un proyecto, vinculando actividades a resultados esperados a través de una jerarquía clara de objetivos con indicadores, fuentes de verificación y supuestos.
Rastreo de Procesos
Un método de análisis de caso único para inferencia causal que prueba si los mecanismos causales predichos por una Teoría del Cambio operaron realmente en un caso específico, utilizando evidencia sistemática para evaluar afirmaciones causales.
Teoría del Cambio
Una explicación estructurada de cómo y por qué se espera que un conjunto de actividades conduzca a resultados deseados, mapeando la lógica causal desde los insumos hasta el impacto.
Agendas de Aprendizaje
Un conjunto estructurado de preguntas de aprendizaje prioritarias que guían la indagación sistemática durante toda la implementación del programa, convirtiendo los datos de monitoreo en conocimiento accionable para la toma de decisiones.
Análisis de Costo-Efectividad
Un enfoque sistemático para comparar los costos y resultados de intervenciones alternativas para identificar cuál ofrece la mejor relación calidad-precio en el logro de objetivos específicos.
Análisis de Partes Interesadas
Un proceso estructurado para identificar a todas las partes con interés en un programa, mapear sus roles, influencia y necesidades de información, e informar cómo el M&E debe involucrarlas.
Aseguramiento de la Calidad de los Datos
Un proceso sistemático para verificar que los datos recopilados cumplen con cinco dimensiones de calidad: Validez, Integridad, Precisión, Fiabilidad y Oportunidad, asegurando que los datos sean idóneos para la toma de decisiones.
Carga de Recolección de Datos
El tiempo total, esfuerzo y recursos requeridos de los respondientes e implementadores para completar las actividades de Recolección de Datos, equilibrado con las necesidades de Calidad de los Datos y la capacidad del Programa.
Criterios de Evaluación (CAD)
El marco OCDE-CAD proporciona cinco criterios estándar —relevancia, eficiencia, eficacia, impacto y sostenibilidad— para evaluar sistemáticamente el mérito y el valor de las intervenciones de desarrollo.
Desagregación
El desglose de datos agregados por características de subgrupos, como sexo, edad, ubicación o estado de vulnerabilidad, para revelar inequidades y diferencias en el alcance y los resultados del programa.
Diseño de Encuesta
El proceso de diseñar cuestionarios estructurados y protocolos de encuesta para recopilar datos confiables, válidos y accionables de una población definida.
Diseño de Línea de Base
Un enfoque estructurado para recopilar datos de condiciones iniciales que informa directamente las decisiones del proyecto, minimiza la carga y permite una comparación válida con las mediciones de línea final.
Diseño de Sistema de M&E
Un enfoque estructurado para construir la infraestructura organizacional, los procesos y las capacidades necesarios para recopilar, analizar y utilizar datos de M&E para la toma de decisiones durante todo el ciclo de vida de un programa.
Entrevistas con Informante Clave
Entrevistas en profundidad, semiestructuradas con individuos seleccionados por su conocimiento específico, experiencia o perspectivas relevantes para las preguntas de la evaluación.
Establecimiento de Metas
El proceso de establecer referentes de desempeño específicos y con plazos definidos con los cuales se medirá el progreso y los logros del programa.
Ética en M&E
Los principios y estándares que guían la conducta ética del monitoreo y la evaluación, protegiendo los derechos y la dignidad de los participantes, asegurando una elaboración de informes honesta y gestionando el poder de manera responsable.
Evaluación Basada en Rúbricas
Un enfoque de evaluación estructurado que utiliza criterios predefinidos y niveles de desempeño para evaluar sistemáticamente programas, proyectos o intervenciones contra estándares establecidos.
Evaluación de Métodos Mixtos
Un enfoque de evaluación que combina sistemáticamente datos cuantitativos y cualitativos para proporcionar una comprensión más completa de los efectos, mecanismos y contexto del programa.
Evaluación de Necesidades
Un proceso sistemático para identificar y analizar brechas entre las condiciones actuales y los resultados deseados, estableciendo la base de evidencia para el diseño del programa y la selección de indicadores.
Fortalecimiento de Capacidades para M&E
El proceso de fortalecer el conocimiento, las habilidades, los sistemas y los recursos que las organizaciones y los individuos necesitan para diseñar, implementar y utilizar el monitoreo y la evaluación de manera efectiva.
Gestión Adaptativa
Un enfoque de gestión que utiliza el aprendizaje continuo a partir de datos de monitoreo y evaluación para ajustar las estrategias y actividades del programa en respuesta a la evidencia o el contexto cambiantes.
Gestión de Datos
Los procesos sistemáticos para la recolección, almacenamiento, seguridad y mantenimiento de la Calidad de los Datos a lo largo del ciclo de vida de los datos para asegurar que la información sea precisa, accesible y utilizable para la toma de decisiones.
Gestión del Conocimiento para M&E
El proceso sistemático de capturar, organizar y aplicar lecciones, evidencia e ideas de M&E a través de programas y a lo largo del tiempo para mejorar la toma de decisiones organizacional.
Grupos Focales
Un método de recolección de datos cualitativos que reúne a 6-10 participantes para discutir un tema específico, generando perspectivas valiosas a través de la interacción grupal y experiencias compartidas.
Indicadores Proxy
Medidas indirectas utilizadas cuando la medición directa del resultado previsto es imposible, poco práctica o demasiado costosa, requiriendo una validación cuidadosa para asegurar que representen con precisión el constructo objetivo.
Indicadores SMART
Un marco de calidad para diseñar indicadores que sean Específicos, Medibles, Alcanzables, Relevantes y Temporales, asegurando que proporcionen datos confiables y accionables para la toma de decisiones.
M&E Sensible al Género
Un enfoque de monitoreo y evaluación que examina sistemáticamente cómo los programas afectan de manera diferente a mujeres, hombres, niñas y niños, y asegura que los procesos de M&E en sí mismos no refuercen las desigualdades de género.
Matriz de Evaluación
Un documento de mapeo estructurado que vincula cada pregunta de evaluación con sus fuentes de datos, métodos de recopilación, indicadores y enfoque de análisis, sirviendo como el plan operativo para ejecutar una evaluación.
Mecanismos de Rendición de Cuentas
Los sistemas, procesos y estructuras que permiten a las organizaciones rendir cuentas a las partes interesadas, incluidas las comunidades, donantes y socios, por su desempeño, decisiones y uso de recursos.
Mejores Prácticas de Elaboración de Informes
Los principios y prácticas para producir informes de evaluación y monitoreo que sean claros, creíbles, accionables y adaptados a sus audiencias previstas.
Métodos de Muestreo
Enfoques sistemáticos para seleccionar un subconjunto de una población para representar el todo, equilibrando la validez estadística con las limitaciones prácticas.
Métodos de Observación
Un enfoque sistemático para recopilar datos observando y registrando directamente comportamientos, interacciones y procesos tal como ocurren en entornos naturales.
No Hacer Daño
El principio fundamental de M&E que establece que las actividades del programa y de evaluación no deben exponer a los participantes, comunidades o personal del programa a daños físicos, psicológicos, sociales o económicos, y deben identificar y mitigar activamente los riesgos de daño antes de que ocurran.
Planes de M&E
Un documento operativo detallado que traduce su marco lógico y teoría del cambio en requisitos de M&E accionables, especificando qué datos recopilar, cuándo, de quiénes y cómo se utilizarán.
Selección y Desarrollo de Indicadores
El proceso sistemático de seleccionar y refinar indicadores de desempeño que sean específicos, medibles, alcanzables, relevantes y con un plazo definido para rastrear el progreso del programa de manera efectiva.
Términos de Referencia de Evaluación
Un documento formal que define el alcance, objetivos, metodología y requisitos para una evaluación, sirviendo como el contrato principal entre la organización comisionante y el equipo de evaluación.
Valor por Dinero
El equilibrio óptimo entre costo, calidad y resultados, logrando los mejores resultados con los recursos invertidos, evaluado a través de las 4E: economía, eficiencia, eficacia y equidad.
Visualización de Datos para M&E
El uso estratégico de gráficos, paneles de control e infografías para comunicar datos de monitoreo a diversas partes interesadas, transformando números crudos en información accionable para la toma de decisiones.
Actividad
Lo que un programa HACE con sus insumos para producir productos; el trabajo directo o servicios entregados.
After-Action Review
A structured, time-bound reflection process conducted immediately after a specific activity or milestone to capture what was planned, what happened, why the difference, and what should change.
Alcance del Trabajo
Un documento que especifica lo que un evaluador o consultor entregará, dentro de qué plazo, presupuesto y restricciones.
Análisis a Nivel de Resultado
El examen sistemático de los resultados para determinar si un programa alcanzó sus resultados pretendidos, distinguiendo entre resultados esperados e inesperados, y evaluando la significancia y sostenibilidad de los cambios observados.
Análisis de Contenido
Un enfoque sistemático para analizar contenido de comunicación, identificando patrones, temas y sesgos en datos de texto, audio o vídeo mediante codificación estructurada.
Análisis Temático
Un método sistemático para identificar, analizar y reportar patrones (temas) en datos cualitativos mediante codificación y categorización.
Aprendizaje
El proceso sistemático de recopilar evidencia, reflexionar sobre ella y utilizarla para mejorar la estrategia del programa y la implementación.
Aprendizaje Organizacional
El proceso sistemático mediante el cual una organización captura, analiza y aplica lecciones de la experiencia para mejorar el desempeño del programa y la toma de decisiones.
Atribución frente a Contribución
La distinción entre probar que un programa causó directamente resultados (atribución) frente a construir un caso creíble de que contribuyó a los resultados junto con otros factores (contribución).
Auditoría vs. Evaluación
Las auditorías examinan el cumplimiento financiero y normativo; las evaluaciones valoran la eficacia y el impacto de los programas.
Beneficiario
Una persona, hogar u organización que recibe beneficios directos de las actividades o productos de un programa.
Cadena de Resultados
La jerarquía secuencial del cambio desde las actividades a través de productos, resultados e impacto que muestra cómo se espera que un programa genere cambio.
Causal Inference
The process of determining whether an intervention caused observed outcomes by establishing a credible counterfactual and ruling out alternative explanations.
Censo vs Muestra
La elección entre medir cada unidad en una población (censo) frente a seleccionar un subconjunto (muestra) determina el costo, la precisión y las inferencias que puede hacer sobre su programa.
Ciclo de Retroalimentación
Un proceso estructurado para recopilar, analizar y actuar sobre la información para mejorar el desempeño y los resultados del programa.
Ciclos de Aprendizaje
Períodos estructurados y recurrentes de reflexión y adaptación donde los equipos del programa revisan datos, extraen lecciones y ajustan la implementación en consecuencia.
CLA (Colaboración, Aprendizaje y Adaptación)
Marco de USAID para integrar la colaboración, el aprendizaje y la adaptación en el diseño y la gestión del programa.
Composite Indicator
A composite indicator combines multiple individual indicators into a single index or score, enabling measurement of multidimensional concepts that cannot be captured by a single metric.
Confounding Variables
Extraneous variables that correlate with both the intervention and the outcome, creating spurious associations that threaten causal inference in evaluation.
Contrafactual
La comparación entre lo que sucedió y lo que habría sucedido en ausencia de una intervención, la base fundamental para establecer la atribución causal en una evaluación de impacto.
Datos Cualitativos
Información no numérica capturada a través de palabras, imágenes u observaciones que revela el cómo y el porqué detrás de los resultados del programa, proporcionando profundidad y contexto a los hallazgos cuantitativos.
Datos Cuantitativos
Datos numéricos recolectados mediante medición estructurada, que permite el análisis estadístico, la generalización y la comparación objetiva entre programas y contextos.
Dissemination
Active, intentional process of sharing M&E findings with relevant audiences to promote understanding, learning, and evidence use.
Elaboración de Informes a Donantes
El proceso de comunicar sistemáticamente el progreso del programa, los resultados y la información financiera a las organizaciones financiadoras según sus requisitos y plazos específicos.
Ensayo Controlado Aleatorizado
Un diseño de evaluación experimental que asigna aleatoriamente participantes a grupos de tratamiento y control para establecer la atribución causal entre una intervención y los resultados observados.
Estrategias de comunicación
Enfoques intencionales para compartir hallazgos de M&E e información del programa con las partes interesadas para influir en las decisiones, fortalecer la rendición de cuentas y promover el aprendizaje.
Evaluación de Auditoría
Una evaluación centrada en evaluar la probidad financiera, los controles internos y el cumplimiento de las regulaciones financieras y los estándares de contratación.
Evaluación de Cumplimiento
Una evaluación centrada en evaluar si un programa cumple con los requisitos y estándares legales, regulatorios, de donantes y organizacionales.
Evaluación de Empoderamiento
Un enfoque de autoevaluación donde los participantes del programa evalúan sistemáticamente su propio trabajo para mejorar los programas y asegurar la apropiación futura.
Evaluación de Evaluabilidad
Una revisión preliminar de si un programa está suficientemente maduro y documentado para ser evaluado de manera significativa.
Evaluación de Procesos
Evaluación de cómo se implementa un programa, si las actividades se entregan según lo planificado y cumplen con los estándares de calidad previstos.
Evaluación de Rendición de Cuentas
Una evaluación centrada en determinar si un programa está cumpliendo con sus obligaciones con las partes interesadas, incluyendo donantes, beneficiarios y organismos reguladores.
Evaluación de Sostenibilidad
Evaluación de los beneficios continuados y la funcionalidad de un programa después de que ha finalizado la financiación externa, examinando si los resultados persisten y los sistemas permanecen operativos.
Evaluación del Desempeño
Una evaluación de qué tan bien un programa u organización está logrando sus resultados previstos y operando eficientemente frente a los estándares y metas establecidos.
Evaluación en Tiempo Real
Un enfoque de evaluación realizado durante la implementación del programa para proporcionar retroalimentación inmediata para la gestión adaptativa y las correcciones de curso.
Evaluación Ex-Ante vs Ex-Post
La dimensión temporal de la evaluación: la ex-ante ocurre antes de la implementación para informar el diseño, mientras que la ex-post ocurre después de la finalización para evaluar resultados y lecciones.
Evaluación Formativa vs Evaluación Sumativa
La evaluación formativa mejora los programas durante la implementación; la evaluación sumativa juzga su mérito general después de la finalización.
Evaluación Rápida
Un enfoque de recolección de datos condensado diseñado para generar información procesable rápidamente, utilizando típicamente métodos cualitativos y cuantitativos simplificados en contextos con restricciones de tiempo.
Fortalecimiento de Capacidades
El proceso de desarrollar habilidades, sistemas y relaciones que permiten a individuos y organizaciones alcanzar sus objetivos de desarrollo de manera sostenible.
Gestión del Desempeño
El uso sistemático de datos de monitoreo, hallazgos de evaluación y retroalimentación para guiar decisiones del programa, mejorar resultados y asegurar la rendición de cuentas a las partes interesadas.
Historias de Impacto
Relatos narrativos que ilustran cómo un programa ha influido en las vidas de los beneficiarios, combinando resultados cuantitativos con experiencia humana cualitativa.
Hito
Un punto de control o evento intermedio significativo que señala el progreso hacia una meta, utilizado para rastrear si un programa está en el cronograma para lograr sus resultados previstos.
Impacto
Efectos a largo plazo y de mayor nivel atribuibles o contribuidos por un programa; cambio más amplio más allá de los resultados individuales.
Inception Report
The first formal deliverable from an evaluation team, detailing refined methodology before primary data collection.
Indicador
Una variable específica, observable y medible que monitorea el progreso hacia un resultado o producto.
Indicadores Personalizados vs Estándar
La elección entre indicadores estándar proporcionados por donantes e indicadores personalizados específicos del programa, equilibrando los requisitos de cumplimiento con la relevancia contextual.
Informe de Progreso
Un documento periódico presentado por programas a donantes que detalla el progreso de la implementación, el rendimiento de los indicadores y los problemas clave.
Informe Narrativo
Informes cualitativos, basados en historias, que contextualizan indicadores cuantitativos con explicaciones de qué sucedió, por qué sucedió y qué significa para el aprendizaje del programa y la toma de decisiones.
Informes de Indicadores
La recopilación, compilación y presentación sistemática de datos de indicadores para rastrear el rendimiento del programa y comunicar resultados a las partes interesadas y donantes.
Insumo
Recursos invertidos en un programa (fondos, personal, materiales, tiempo) que permiten que las actividades se lleven a cabo.
Knowledge Sharing
The deliberate practice of capturing, organizing, and distributing insights, lessons, and best practices across teams and organizations to improve programme performance and avoid repeating mistakes.
Lessons Learned
Documented insights from programmes identifying what worked, what did not work, and why, with actionable specificity.
Línea de Base
Datos de condiciones iniciales recopilados al inicio de un proyecto para establecer un punto de referencia para medir el cambio y establecer metas de indicadores.
Línea Final
Un punto final de recolección de datos al finalizar el programa que mide los resultados alcanzados contra los valores de línea de base y meta.
Línea Media
Un punto de recolección de datos realizado a mitad de un programa para evaluar la trayectoria y permitir decisiones adaptativas.
Literature Review
A systematic, critical synthesis of existing research on a specific topic, identifying what is known, gaps in knowledge, and evidence for programme design.
Lógica de Intervención
La cadena causal que conecta las actividades del programa con los resultados previstos, mostrando cómo y por qué se espera que un conjunto de intervenciones conduzca al cambio deseado.
LQAS
El Muestreo de Evaluación de Calidad Lógica es un método rápido de toma de decisiones que clasifica programas o áreas como aprobado/no aprobado frente a un umbral, comúnmente utilizado para el monitoreo de programas de salud.
M&E Participativo
Un enfoque de monitoreo y evaluación que involucra activamente a las partes interesadas, especialmente los beneficiarios, en cada etapa, desde el diseño hasta el uso de los hallazgos para la toma de decisiones.
Marco de M&E
El documento estructurado que especifica qué se medirá, cómo, por quién y con qué frecuencia.
Mejora Continua
Un enfoque sistemático y continuo para mejorar el desempeño del programa mediante aprendizaje iterativo, retroalimentación y adaptación.
Meta
El valor específico que se espera que alcance un indicador para una fecha definida, cuantificando cómo se ve el éxito.
Meta-evaluación
La evaluación sistemática de la calidad de una evaluación, evaluando si cumplió con los estándares profesionales y produjo hallazgos creíbles y útiles.
Monitoreo de Cumplimiento
Seguimiento de si un programa se implementa de acuerdo con los estándares, políticas y requisitos legales acordados.
Monitoreo en Tiempo Real
La recolección y análisis continuo de datos durante la implementación del programa para permitir la detección rápida de problemas y acción correctiva oportuna.
Monitoreo vs Evaluación
El monitoreo es el seguimiento continuo y sistemático de las actividades y productos del programa; la evaluación es la valoración periódica y en profundidad de los resultados, el impacto y la atribución causal.
Muestreo Aleatorio
Un método de muestreo probabilístico donde cada miembro de la población tiene una oportunidad conocida e igual de ser seleccionado, permitiendo la inferencia estadística a la población más amplia.
Muestreo Intencional
Un enfoque de muestreo no probabilístico donde los investigadores seleccionan deliberadamente a los participantes basándose en características o conocimientos específicos relevantes para los objetivos de la investigación.
Muestreo por Conglomerados
Un método de muestreo que divide la población en conglomerados y selecciona aleatoriamente conglomerados enteros en lugar de individuos.
Narración de historias para el impacto
El uso estratégico de la narrativa para hacer que los hallazgos de M&E sean memorables, accionables e influyentes para los tomadores de decisiones y las partes interesadas.
Panel de Control
Una visualización de indicadores clave de monitoreo que permite una evaluación rápida del rendimiento del programa de un vistazo.
Paneles de Control de Desempeño
Interfaces de gestión visual que muestran indicadores clave de desempeño en tiempo real, permitiendo a los equipos de programa y partes interesadas monitorear el progreso, identificar problemas y tomar decisiones basadas en datos.
Preguntas de Evaluación
Las preguntas abarcadoras que una evaluación investigará, distintas de las preguntas de encuesta o entrevista.
Presupuesto de M&E
La porción del presupuesto de un programa dedicada a las actividades de monitoreo, evaluación y aprendizaje.
Primary vs Secondary Data
Primary data is collected firsthand for a specific purpose; secondary data is existing data repurposed for new analysis. Each has distinct trade-offs in cost, timeliness, and relevance.
Producto
Productos directos y tangibles de las actividades del programa; lo que el programa produce, no lo que ganan los beneficiarios.
Programme Theory
The explicit articulation of how a programme is expected to produce change.
Punto de Referencia
Un punto de referencia o valor estándar utilizado para medir el progreso, típicamente derivado de datos históricos, estándares de la industria o programas comparables.
Reflection Sessions
Structured gatherings where programme teams and stakeholders pause to examine what happened, why it happened, and what should change as a result.
Reliability
The consistency and repeatability of a measurement, whether the same tool produces stable results across repeated applications, different raters, or different time periods.
Rendición de Cuentas
La responsabilidad de ser transparente, informar y responder a las partes interesadas sobre el desempeño y las decisiones del programa.
Requisitos de Donantes
Obligaciones de M&E especificadas en acuerdos de subvención y políticas de donantes que dan forma al diseño del sistema y a la Elaboración de Informes.
Resultado
Cambios en el comportamiento, conocimiento, habilidades o condiciones resultantes de los productos del programa, experimentados por los beneficiarios.
Retroalimentación de Beneficiarios
Recolección sistemática y uso de insumo de los beneficiarios del programa sobre sus experiencias, necesidades y prioridades para mejorar la rendición de cuentas y la relevancia del programa.
Revisión Sistemática
Un enfoque riguroso y estructurado para identificar, valorar y sintetizar toda la evidencia disponible sobre una pregunta de evaluación específica utilizando métodos explícitos y reproducibles.
Riesgos y Mitigación de Riesgos
Factores externos que podrían impedir el éxito del programa y sus estrategias de mitigación planificadas.
Sesgo
Error sistemático en la recolección de datos, análisis o interpretación que distorsiona los resultados y amenaza la validez de los hallazgos de M&E.
Significancia Estadística
Una medida estadística que indica si los resultados observados son probablemente debidos a un efecto real en lugar del azar, típicamente evaluada mediante p-valores y prueba de hipótesis.
Síntesis de Evidencia
El proceso sistemático de identificar, seleccionar e integrar hallazgos de múltiples estudios para informar el diseño del programa, la evaluación y la toma de decisiones.
SROI (Retorno Social de la Inversión)
Marco de evaluación que asigna valores monetarios a resultados sociales para calcular el retorno de la inversión.
Supuestos
Condiciones fuera del control del programa que deben cumplirse para que el programa tenga éxito según lo planificado.
Toma de Decisiones Basada en Evidencia
Utilizar la evidencia de M&E para informar decisiones de programa, gestión y políticas en lugar de intuición o hábito.
Triangulación
Uso de múltiples fuentes de datos, métodos o perspectivas para contrastar hallazgos y fortalecer la validez de las conclusiones de la evaluación.
Validez (Interna y Externa)
El grado en que una evaluación demuestra con precisión las relaciones causales (validez interna) y generaliza los hallazgos más allá del contexto del estudio (validez externa).