Hay dos tipos de empresas que miden impacto de sus iniciativas RSE: las que aprenden de los errores de otros, y las que aprenden de sus propios errores. Después de años en Terraetica ayudando a organizaciones a medir impacto, he visto prácticamente todos los errores posibles. Algunos son predecibles. Otros son sorprendentemente específicos y costosos.
Este no es el típico artículo de «define tus objetivos» y «sé transparente». Esas obviedades ya las conoces. Esto es sobre las cosas específicas, técnicas, y frecuentemente contraintuitivas que descubres cuando realmente te metes en el lodo de la medición de impacto. Las cosas que nadie te cuenta hasta que ya gastaste seis meses y medio millón de pesos en una medición que resultó inútil.
Estas son las 10 cosas que ojalá todas las empresas supieran antes de empezar a medir. No después. Antes.
1. La línea base es lo más importante y casi todos la hacen mal
Aquí está el error más común y costoso que veo: empresas que empiezan a medir el impacto de su iniciativa después de que ya la implementaron. Es como intentar medir cuánto peso perdiste sin saber cuánto pesabas al inicio. Imposible.
Una empresa lanzó un programa de capacitación en habilidades digitales para jóvenes. Seis meses después nos llaman: «Queremos medir el impacto en empleabilidad.» Mi primera pregunta: «¿Cuál era la tasa de empleo de estos jóvenes antes del programa?» Silencio. No lo habían medido. Ahora tienen 200 jóvenes capacitados, y cero forma de saber si su empleabilidad mejoró porque no saben dónde empezaron.
La línea base debe establecerse antes de la intervención. No después. Y debe medir exactamente los mismos indicadores que planeas medir para evaluar impacto. Si vas a medir cambio en ingresos, necesitas ingresos iniciales. Si vas a medir cambio en conocimientos, necesitas nivel de conocimientos inicial. Suena obvio, pero te sorprendería cuántas organizaciones lo olvidan en el entusiasmo de lanzar su iniciativa.
Y aquí está la trampa adicional: tu línea base no puede ser solo un número agregado. Necesitas datos desagregados por las variables que podrían afectar resultados. Si estás trabajando con diferentes comunidades, diferentes rangos de edad, diferentes niveles educativos, necesitas línea base para cada segmento. Porque el impacto probablemente será diferente en cada uno.
Mi regla: si no tienes línea base, no tienes medición de impacto. Tienes anécdotas. Que no son inútiles, pero tampoco son evidencia.
2. Outputs no son outcomes, y outcomes no son impacto
Esta confusión destruye más mediciones de impacto que cualquier otra. Y es sorprendentemente común incluso entre gente sofisticada.
Outputs son lo que haces. «Capacitamos 500 personas.» «Plantamos 10,000 árboles.» «Donamos 2 millones de pesos.»
Outcomes son los cambios inmediatos en tu población objetivo. «500 personas ahora tienen nuevas habilidades.» «10,000 árboles están creciendo.» «La organización beneficiaria tiene más recursos.»
Impacto son los cambios de largo plazo en las condiciones de vida. «300 de esas personas consiguieron mejores empleos aumentando sus ingresos 40%.» «Los 10,000 árboles capturaron 120 toneladas de CO2 y aumentaron biodiversidad local 25%.» «La organización expandió sus servicios llegando a 5,000 beneficiarios adicionales.»
La mayoría de las empresas reportan outputs y los llaman impacto. «Nuestro programa tuvo impacto en 500 personas.» No. Tu programa alcanzó 500 personas. Impacto es lo que cambió en la vida de esas 500 personas. Y la diferencia no es semántica. Es sustantiva.
Una empresa de alimentos tenía un programa de nutrición infantil. Reportaban orgullosamente: «Proveímos 100,000 comidas saludables a niños.» Eso es output. Cuando les pregunté sobre impacto nutricional real, descubrieron que nunca habían medido cambios en estado nutricional de los niños. ¿Las comidas mejoraron su nutrición? ¿Redujeron desnutrición? ¿Mejoraron desarrollo cognitivo? No lo sabían.
Invirtieron tres años y millones de pesos sin saber si estaban logrando su objetivo real. Porque confundieron proveer comidas (output) con mejorar nutrición (impacto).
3. Atribución es casi imposible, contribución es lo que realmente puedes demostrar
Aquí viene algo que frustra a muchos: demostrar que TU iniciativa causó EL cambio es metodológicamente muy difícil. Porque en el mundo real, múltiples factores influyen en cualquier outcome.
Un joven consigue empleo después de tu programa de capacitación. ¿Fue por tu programa? ¿O porque la economía mejoró? ¿O porque además tomó otro curso? ¿O porque su primo le consiguió una entrevista? ¿O por todo lo anterior en alguna combinación?
Atribución estricta (probar causalidad) requiere metodología experimental: grupos de control, asignación aleatoria, control de variables. Es el gold standard. También es caro, complejo, y frecuentemente inviable en contextos de RSE donde no puedes negar beneficios a un grupo solo para tener control.
Entonces llegamos a contribución: ¿tu iniciativa contribuyó significativamente al cambio observado? Es estándar más realista y todavía útil. Requiere demostrar que hay conexión plausible y rastreable entre tu intervención y el outcome, incluso si no puedes aislar perfectamente tu efecto.
La forma de hacer esto bien es combinando: comparaciones con grupos similares que no recibieron la intervención (aunque no sean controles perfectos), análisis de antes-y-después, evidencia cualitativa que muestre mecanismos de cambio, y honestidad sobre factores externos.
Una empresa que financiaba microcréditos quería atribuir todo el crecimiento de ingresos de emprendedores a su programa. Les dije: «Pueden demostrar que contribuyeron significativamente, pero no que causaron todo el cambio.» Terminamos con una metodología que mostraba que los emprendedores que recibieron crédito crecieron 45% más que emprendedores similares sin crédito, controlando por factores observables. Es contribución demostrable, no atribución perfecta. Pero es honesto y útil.
4. El momento de la medición importa más de lo que piensas
Medir impacto inmediatamente después de tu intervención frecuentemente da resultados engañosos. Porque muchos impactos toman tiempo en manifestarse. O peor, el impacto inicial desaparece con el tiempo.
Una empresa hizo un programa intensivo de liderazgo de una semana. Midieron cambios en habilidades de liderazgo inmediatamente después. Resultados espectaculares: aumento de 60% en competencias de liderazgo según autoevaluaciones. Celebraron. Seis meses después, decidieron medir de nuevo. Las competencias habían regresado casi a nivel inicial. El «impacto» había desaparecido.
Esto pasa constantemente con programas de capacitación, cambio de comportamiento, o desarrollo de habilidades. El efecto inmediato (frecuentemente inflado por entusiasmo post-programa) no predice cambio sostenido.
Mi recomendación: mide en múltiples momentos. Inmediatamente después (para capturar cambio inicial), a mediano plazo (3-6 meses para ver si se sostiene), y a largo plazo (12-24 meses para ver impacto duradero). Es más caro, pero es la única forma de entender si tu impacto es real o temporal.
Y a veces, el patrón opuesto pasa: el impacto real toma tiempo en manifestarse. Programas educativos pueden no mostrar resultados en empleabilidad hasta años después. Intervenciones de salud preventiva pueden no mostrar reducción en enfermedades hasta que pase tiempo suficiente. Si mides demasiado pronto, subestimas tu impacto.
La pregunta clave: ¿cuál es el tiempo razonable para que tu teoría de cambio se manifieste? Mide en ese horizonte. No antes por impaciencia, ni después por olvido.
5. Lo que no documentas desde el inicio, nunca lo podrás medir después
Este error me duele personalmente porque es tan prevenible y tan común.
Una empresa manufacturera tenía un programa de eficiencia energética que llevaba funcionando tres años. Querían calcular el impacto en reducción de emisiones. Problema: no habían documentado consumo energético por proceso antes de las intervenciones. Tenían datos agregados de planta completa, pero no desagregados. Imposible aislar el efecto de sus intervenciones específicas del resto del ruido operativo.
La documentación necesaria incluye:
- Datos baseline desagregados (no solo promedios)
- Características de tu población beneficiaria (para poder comparar después)
- Contexto y condiciones iniciales (para interpretar cambios)
- Proceso de implementación (para entender qué funcionó y qué no)
Y esto debe ser sistemático desde día uno. No puedes reconstruir esta información retroactivamente de forma confiable. La gente olvida. Los registros se pierden. El contexto se difumina.
Una regla que uso: si algo es potencialmente relevante para entender impacto, documéntalo. Mejor tener datos que no uses que necesitar datos que no tienes. El costo de documentar extra es pequeño. El costo de no poder demostrar impacto después de invertir millones es enorme.
6. Los indicadores proxy son útiles pero peligrosos
A veces no puedes medir directamente el impacto que buscas porque es demasiado caro, complejo, o lejano en el tiempo. Entonces usas indicadores proxy: variables que razonablemente correlacionan con tu impacto objetivo.
Ejemplo: quieres medir impacto en «empoderamiento económico de mujeres.» Difícil de medir directamente. Entonces usas proxies: ingresos, control sobre decisiones financieras, acceso a recursos productivos.
Proxies son útiles. Pero tienen trampa: asumes correlación que podría no existir en tu contexto específico.
Una ONG usaba «asistencia a talleres» como proxy de «adquisición de habilidades.» Asunción: quien asiste aprende. Cuando finalmente midieron habilidades directamente, descubrieron que asistencia no correlacionaba fuerte con aprendizaje. Muchos asistían pero no aprendían. Algunos no asistían regularmente pero aprendían por su cuenta.
El proxy era conveniente pero engañoso. Habían estado optimizando la variable equivocada (maximizar asistencia) en lugar de la que realmente importaba (maximizar aprendizaje).
Mi regla con proxies: úsalos cuando necesites, pero valida periódicamente que realmente correlacionan con tu outcome de interés. Y sé transparente sobre que son proxies, no mediciones directas.
7. El efecto Hawthorne arruinará tu medición si no lo anticipas
El efecto Hawthorne es cuando la gente cambia su comportamiento porque sabe que está siendo observada o medida. Y puede sesgar completamente tus resultados.
Una empresa medía el impacto de su programa de salud ocupacional mediante encuestas a trabajadores. Las encuestas preguntaban sobre prácticas de seguridad. Los trabajadores, sabiendo que la empresa estaba midiendo, reportaban comportamientos más seguros de lo que realmente practicaban. Los resultados mostraban «gran mejora en cultura de seguridad.» La realidad: accidentes no habían bajado.
Estaban midiendo lo que la gente decía que hacía, no lo que realmente hacía. Diferencia crítica.
Estrategias para mitigar Hawthorne:
- Triangula: usa múltiples fuentes de datos, no solo autoreporte
- Observa comportamiento real cuando sea posible, no solo lo que reportan
- Usa datos administrativos que ya existen (registros médicos, datos de producción) que no sean afectados por la medición
- Si usas encuestas, hazlas lo más anónimas posible
Una regla: entre más «socialmente deseable» es la respuesta que mides, más probable que Hawthorne sesga tus resultados. Temas como prácticas ambientales, comportamientos éticos, o cumplimiento de políticas son particularmente vulnerables.
8. La escala de tu intervención determina la metodología de medición posible
Esto suena obvio pero genera problemas prácticos constantes: no puedes usar la misma metodología de medición para un programa piloto de 50 beneficiarios que para un programa nacional de 50,000.
Con 50 beneficiarios puedes hacer seguimiento intensivo, entrevistas profundas, observación directa. Es caro por persona pero viable. Con 50,000 necesitas metodología escalable: encuestas representativas, muestras estadísticas, datos administrativos agregados.
El error común: diseñar medición sin considerar escala, o escalar programa sin ajustar metodología de medición.
Una empresa tenía excelente sistema de medición para su programa piloto de educación financiera. Entrevistas detalladas con cada participante, seguimiento mensual personalizado. Luego escalaron a 20 ciudades y 5,000 participantes. Intentaron mantener la misma metodología. Colapso total. Era operativamente imposible y prohibitivamente caro.
La pregunta correcta antes de escalar: ¿cómo cambiaré mi enfoque de medición para mantener rigor pero hacerlo viable a escala mayor? Frecuentemente significa:
- Pasar de censo a muestreo
- Automatizar captura de datos
- Usar más datos administrativos y menos recolección primaria
- Medir menos indicadores pero más estratégicos
Y acepta: perderás granularidad al escalar. Es el trade-off necesario. Pero puedes mantener rigor metodológico incluso con menos detalle.
9. El costo de medición debe ser proporcional al programa (y lo que está en juego)
Aquí viene la conversación incómoda sobre presupuesto. ¿Cuánto deberías gastar en medir impacto?
No hay regla universal, pero hay principios:
- Para programas pilotos experimentales: 15-25% del presupuesto en medición es razonable. Estás aprendiendo qué funciona.
- Para programas establecidos medianos: 5-10% es común. Ya sabes que funciona, mides para demostrar y mejorar.
- Para programas grandes escalados: 2-5%. La medición es importante pero la escala permite distribuir costos.
Pero la variable más importante no es tamaño del programa sino qué está en juego. Si tu programa es estratégico para tu reputación corporativa, o si requiere renovación de fondos significativos, invierte más en medición robusta. Si es programa secundario sin mucha visibilidad, menos.
Una empresa gastaba 50 mil pesos al año en un programa de voluntariado que costaba 200 mil. Querían una medición de impacto «rigurosa». Les dije: «Una medición rigurosa costará 80-100 mil. ¿Vale la pena gastar casi 50% del presupuesto total del programa en medirlo?» La respuesta honesta era no. Diseñamos medición más ligera que daba información útil por 15 mil.
Por otro lado, una empresa tenía programa emblemático de desarrollo comunitario de 15 millones al año. Gastaban 100 mil en «medición.» Era ridículamente insuficiente para un programa de esa escala e importancia estratégica. Aumentamos inversión en medición a 800 mil (5% del programa) y la calidad de información mejoró dramáticamente.
La pregunta correcta: ¿cuánto vale para ti saber si esto funciona? Invierte proporcionalmente.
10. El fracaso es información valiosa si lo mides honestamente
Esto es lo más difícil para empresas: medir y reportar cuando tu iniciativa NO funcionó. Pero es absolutamente crítico para aprendizaje organizacional.
Una empresa implementó programa de emprendimiento para jóvenes. Invirtieron 3 años y 8 millones de pesos. Cuando finalmente midieron rigurosamente, descubrieron que no había diferencia significativa en tasa de emprendimiento o supervivencia de negocios entre participantes y no participantes.
El programa había fallado en su objetivo central.
La tentación fue enorme de (a) no publicar resultados, (b) cambiar indicadores para mostrar «algo positivo,» o (c) culpar factores externos. A su crédito, decidieron ser honestos. Reportaron el fracaso públicamente, analizaron por qué falló, y rediseñaron completamente el programa.
La segunda versión, informada por el aprendizaje del fracaso, fue exitosa. Pero solo porque tuvieron la valentía de medir y reconocer que la primera versión no funcionó.
Culturalmente, necesitamos normalizar que no todas las intervenciones funcionan. Y que medir fracaso honestamente es más valioso que reportar «éxitos» ficticios. Porque el fracaso medido te permite iterar y mejorar. El fracaso no medido o negado solo desperdicia más recursos.
Mi regla: si tu medición siempre muestra que todo funciona perfectamente, tu medición probablemente está mal. Los programas reales tienen éxitos, fracasos parciales, y sorpresas. Una medición honesta los captura todos.
La medición como aprendizaje, no como performance
Aquí está la meta-lección de estas 10 cosas: la medición de impacto no es un ejercicio de comunicación para mostrar qué tan buenos son. Es un ejercicio de aprendizaje para entender qué funciona, qué no, y por qué.
Las empresas que entienden esto bien usan medición para:
- Decidir si continuar, ajustar, o cancelar programas
- Identificar qué elementos de un programa son más efectivos
- Entender para quién funciona mejor y adaptar
- Mejorar continuamente basándose en evidencia
- Ser honestos con stakeholders sobre resultados reales
Las empresas que lo entienden mal usan medición para:
- Justificar presupuestos
- Producir números impresionantes para reportes
- Demostrar que están «haciendo algo»
- Cubrir decisiones ya tomadas con barniz de evidencia
La diferencia es intención. Y se nota en cómo diseñas tu medición, qué preguntas haces, y qué haces con los resultados.
Si estas 10 cosas te sirvieron para evitar al menos algunos de los errores que he visto cometer repetidamente, habrán valido la pena. Si además te convencieron de que medir impacto es complejo pero completamente factible cuando se hace con rigor, mejor aún.
Porque al final, medir impacto bien no es opción. Es responsabilidad. Si vas a invertir recursos en iniciativas RSE, tienes obligación de saber si realmente están generando el cambio que dices que generan.
Y eso requiere más que buenas intenciones. Requiere metodología, honestidad, y disposición a aprender incluso cuando los resultados no son los que esperabas.
Conoce más de medición de impacto aquí
Dr Roberto Carvallo Escobar
Director de Terraética

