Llevo 15 años revisando reportes de sustentabilidad en México y he visto documentos muy bien diseñados que, sin embargo, no logran demostrar impacto real. Empresas que invierten considerablemente en fotografías profesionales, gráficos atractivos y narrativas emotivas, pero que enfrentan el desafío de no saber con certeza si sus programas sociales realmente están generando cambios significativos. Creo que es momento de tener una conversación honesta: muchos reportes de sustentabilidad se enfocan más en comunicación que en evidencia de impacto social.
La semana pasada revisé un reporte de 120 páginas de una empresa que presume haber «transformado la vida de 10,000 niños» con su programa educativo. Páginas hermosas, testimoniales emotivos, fotos que te hacen llorar. Pero cuando busqué evidencia real del impacto, encontré un vacío absoluto. Ni una sola métrica que demostrara cambio real. Ni un solo antes y después. Ni una sola comparación con grupos de control.
Como consultor que ha trabajado tanto del lado de las empresas como del lado de las comunidades, he observado cómo esta desconexión entre reportes atractivos y evidencia de impacto está creando lo que podríamos llamar una brecha de medición. Y creo que las empresas están perdiendo oportunidades valiosas de generar valor real tanto para las comunidades como para sus organizaciones.
El primer desafío común: confundir actividades con resultados
«Entregamos 5,000 paquetes escolares, construimos 3 aulas, capacitamos a 200 maestros.» Suena impresionante, ¿verdad? Pero eso no es impacto, eso es inventario.
Trabajé con una empresa que presumía haber «mejorado la educación» en comunidades rurales porque había construido 8 aulas nuevas en diferentes escuelas. El reporte mostraba fotos hermosas de niños sonrientes en aulas coloridas. Lo que no mostraba era que 3 de esas aulas estaban vacías porque no había maestros asignados, 2 se usaban como bodegas, y las otras 3 tenían problemas de filtraciones que las hacían inhabitables durante la temporada de lluvias.
La empresa gastó 15 millones de pesos en construcción y medio millón más en el reporte que celebraba su «contribución educativa.» Pero nadie midió si más niños estaban asistiendo a clases, si habían mejorado los indicadores de aprovechamiento, o si las comunidades realmente necesitaban aulas o necesitaban otras cosas más urgentes.
El error de los testimoniales emotivos sin contexto
Todos los reportes de sustentabilidad en México tienen la misma fórmula: foto de una beneficiaria sonriente + testimonial emotivo + logo de la empresa. «Gracias a este programa, mi vida cambió completamente,» dice María José desde alguna comunidad rural.
Pero hay preguntas importantes que vale la pena hacerse: ¿La vida de María José cambió por el programa o por otros factores? ¿Su familia está mejor económicamente o solo temporalmente? ¿Qué pasó con las otras 50 mujeres que estaban en el mismo programa pero que no aparecen en el testimonial?
Revisé un reporte de una empresa alimentaria que mostraba el testimonio de una mujer que había «salido de la pobreza» gracias a su programa de microcréditos. Historia inspiradora, foto perfecta, mensaje poderoso. Seis meses después supe que esa mujer había tenido que vender su pequeño negocio para pagar el crédito porque no logró generar las ventas proyectadas. Pero eso nunca apareció en ningún reporte.
La obsesión con las métricas vanidosas
«Beneficiamos a 50,000 personas.» «Distribuimos 100,000 productos.» «Alcanzamos 500 comunidades.» Números enormes que suenan súper impresionantes pero que no te dicen absolutamente nada sobre el cambio real en la vida de las personas.
Una empresa de telecomunicaciones presumía haber «llevado conectividad a 200 comunidades rurales» instalando antenas de telefonía móvil. El reporte celebraba el «acceso a la información» que esto representaba. Lo que no mencionaba era que la mayoría de los habitantes de esas comunidades no tenía dinero para comprar tiempo aire, que muchos ni siquiera tenían celulares, y que las antenas funcionaban intermitentemente por problemas de energía eléctrica.
El número mágico de «200 comunidades con conectividad» se veía espectacular en el reporte, pero el impacto real en la vida cotidiana de las personas era prácticamente cero. Nadie midió cuántas llamadas se hicieron realmente, cuántas personas pudieron comunicarse con familiares migrantes, o si el acceso a información había cambiado alguna práctica productiva o educativa en las comunidades.
El problema de medir solo lo positivo
Todos los reportes de sustentabilidad en México son increíblemente optimistas. Todo siempre sale perfecto, todos los beneficiarios están felices, todos los programas son exitosos. Es estadísticamente imposible que siempre todo salga bien.
Trabajé evaluando un programa de una empresa farmacéutica que distribuía medicamentos gratuitos en clínicas rurales. Su reporte mostraba «100% de satisfacción de beneficiarios» y «mejora en indicadores de salud en todas las comunidades.» Cuando hice las entrevistas reales, descubrí que muchas personas se quejaban de que los medicamentos llegaban próximos a caducar, que las dosis no siempre eran las correctas, y que habían creado una dependencia problemática porque cuando el programa terminara, la gente no iba a poder costear los tratamientos.
Ninguno de estos problemas aparecía en el reporte porque nadie los había buscado. Solo habían medido lo que esperaban encontrar, no lo que realmente estaba pasando.
La trampa de los marcos internacionales
«Contribuimos al ODS 4: Educación de Calidad.» «Alineamos nuestro programa con la Agenda 2030.» «Seguimos los estándares del Global Compact.» Todo suena muy sofisticado y técnicamente correcto, pero no te dice nada sobre lo que está pasando en el terreno.
Vi un reporte de una empresa energética que decía contribuir al ODS 7 (Energía Asequible y No Contaminante) porque había instalado paneles solares en 15 escuelas rurales. Técnicamente correcto. Lo que no decía era que los paneles solo funcionaban 4 horas al día, que no había presupuesto para mantenimiento, y que 3 escuelas ya tenían paneles rotos que nadie sabía cómo reparar.
La empresa reportaba su «contribución a los ODS» pero en realidad había creado un problema nuevo: escuelas con equipos caros que no funcionaban y que nadie podía arreglar.
El error de no tener línea base
«Mejoramos las condiciones de vida en la comunidad.» ¿Comparado con qué? ¿Cómo estaban antes? ¿Cómo sabes que mejoraron por tu programa y no por otros factores?
Una empresa constructora reportaba haber «mejorado la seguridad alimentaria» en comunidades donde había implementado huertos familiares. Fotos hermosas de familias cosechando vegetales, testimoniales sobre «mejor alimentación,» gráficos sobre «diversificación de dieta.»
Pero nadie había medido cómo se alimentaban estas familias antes del programa. Nadie sabía si realmente estaban comiendo más vegetales o solo los estaban vendiendo para comprar otros productos. Nadie había documentado si el programa había cambiado patrones nutricionales reales o solo había añadido una actividad más a la rutina familiar.
La ilusión del seguimiento
«Damos seguimiento continuo a nuestros beneficiarios.» «Monitoreamos el progreso de forma permanente.» «Evaluamos constantemente el impacto de nuestras acciones.» Mentiras piadosas que suenan bien en papel.
La realidad es que la mayoría de las empresas hacen una evaluación al final del proyecto, contratan a una consultora para que les diga lo que quieren escuchar, y después nunca vuelven a saber qué pasó con sus beneficiarios.
Evalué un programa de una empresa automotriz que había entregado herramientas y capacitación a jóvenes para que pudieran trabajar como mecánicos. El reporte del primer año mostraba «85% de beneficiarios trabajando exitosamente.» Cuando regresé dos años después, descubrí que más del 60% había abandonado el oficio, muchos habían vendido las herramientas, y varios habían migrado a Estados Unidos.
El primer año todo se veía perfecto, pero nadie midió la sustentabilidad a mediano plazo.
Una de las razones por las que estos reportes son tan desconectados de la realidad es que las empresas contratan consultores que les dicen lo que quieren escuchar. Es más fácil y más barato hacer un reporte bonito que hacer una evaluación honesta.
He visto licitaciones donde el ganador es quien ofrece el reporte más barato y con mejor diseño gráfico, no quien propone la metodología más rigurosa. He visto consultores que ni siquiera visitan las comunidades donde se implementaron los programas, que basan todo en entrevistas telefónicas y datos secundarios.
El resultado son reportes hermosos que no reflejan la realidad y que no sirven para mejorar nada porque no identifican problemas reales ni oportunidades de mejora.
El costo de la simulación
Esta desconexión entre reportes bonitos y impacto real no es solo un problema estético. Tiene costos económicos y sociales reales.
Primero, las empresas están desperdiciando recursos enormes en programas que no funcionan bien porque no tienen retroalimentación real sobre qué está pasando. Segundo, están perdiendo oportunidades de generar impacto verdadero que podría traducirse en beneficios reputacionales y de negocio genuinos. Tercero, están creando cinismo en las comunidades que ven como las empresas reportan éxitos que ellos no experimentan.
Una empresa farmacéutica gastó millones de pesos en tres años en un programa de salud materno-infantil que reportaba «reducciones significativas en mortalidad infantil.» Cuando finalmente hicieron una evaluación externa rigurosa, descubrieron que la mortalidad había bajado por la construcción de una carretera que facilitaba el acceso al hospital regional, no por su programa.
Habían gastado millones y tres años en algo que no estaba funcionando, mientras que podrían haber identificado el problema real (acceso a servicios de salud) y diseñado una intervención más efectiva.
Lo que deberían medir pero no miden
En lugar de contar cuántos paquetes entregaron o cuántas personas capacitaron, las empresas deberían estar midiendo cambios reales en la vida de las personas:
¿Los ingresos familiares aumentaron de manera sostenible? ¿Los niños que recibieron becas realmente están terminando la escuela y continuando estudios superiores? ¿Las mujeres que participaron en programas de empoderamiento tienen mayor participación en decisiones familiares y comunitarias? ¿Los jóvenes capacitados están trabajando en lo que aprendieron dos años después?
Estas preguntas requieren seguimiento real, líneas base claras, y comparaciones con grupos de control. Requieren admitir que algunos programas no funcionan, que algunos beneficiarios no mejoran, que algunos enfoques necesitan cambios. Requieren honestidad.
El ejemplo que me cambió la perspectiva
Hace dos años trabajé con una empresa que decidió hacer algo diferente. En lugar de contratar a una consultora para hacer un reporte bonito, decidieron hacer una evaluación honesta de su programa de desarrollo comunitario.
Los resultados fueron incómodos. Solo el 40% de los proyectos productivos seguían funcionando después de dos años. Muchas familias beneficiarias no habían mejorado significativamente sus ingresos. Varias comunidades sentían que el programa había creado divisiones internas.
Pero también descubrieron cosas valiosas. Los proyectos que sí funcionaban tenían características específicas que podían replicar. Algunas intervenciones habían tenido efectos no planeados muy positivos. Ciertas comunidades habían desarrollado capacidades que iban mucho más allá de los objetivos originales del programa.
Esa empresa ajustó su estrategia, enfocaró recursos en lo que realmente funcionaba, y diseñó nuevas intervenciones basadas en evidencia real. Su siguiente reporte fue menos bonito pero mucho más útil. Y su impacto social se multiplicó porque estaban invirtiendo en cosas que sabían que funcionaban.
La oportunidad perdida
Las empresas mexicanas están perdiendo una oportunidad enorme. Con medición de impacto real podrían optimizar sus inversiones sociales, generar más valor con los mismos recursos, construir relaciones más sólidas con las comunidades, y tener historias mucho más poderosas que contar.
Pero eso requiere valentía para ver la realidad, aunque sea incómoda. Requiere invertir en medición rigurosa, aunque sea más cara. Requiere aceptar que algunos programas fallan, para poder diseñar otros que funcionen mejor.
La pregunta no es si puedes permitirte hacer medición de impacto real. La pregunta es si puedes permitirte seguir fingiendo que sabes lo que está pasando cuando claramente no lo sabes.
Tu próximo reporte de sustentabilidad puede ser otra obra de arte inútil, o puede ser la herramienta que finalmente te permita entender si estás cambiando el mundo o solo cambiando el color de tus PDF.
Conoce más de medición de impacto aquí
Dr Roberto Carvallo Escobar
Director de Terraética