En los últimos años se están implementando un gran número de programas comunitarios basados en seguimientos proactivos e intervenciones de prevención secundaria para mejorar la salud de los pacientes crónicos y reducir costes para el sistema, como por ejemplo evitando hospitalizaciones innecesarias. Pero cuando se han realizado estudios para evaluar la eficacia y eficiencia de estos estudios, los resultados han sido más bien escasos.
Algunos de estos resultados decepcionantes han sido presentados hace pocos días en el Congreso de la Sociedad de Medicina Geriátrica de la Unión Europea (EUGMS). El simposio llamado "Estrategias en atención primaria para fomentar la autonomía de las personas mayores frágiles" presentaba los resultados preliminares de tres grandes estudios aleatorios por conglomerados (cluster Randomized Clinical Trial) de los Países Bajos:
Como ven, acabo de citar 5 intervenciones comunitarias que han sido aplicadas a miles de personas y que han sido publicadas en revistas prestigiosas con resultados escasos. Entonces, se preguntarán, ¿qué debemos hacer? ¿Tirar la toalla? O, como comentó alguien en el mismo Congreso Europeo, ¿dedicarnos a probar otros proyectos más robustos? O quizás es que, me pregunto, ¿hay algo que no estamos analizando suficientemente bien?
1) ¿Son apropiados los diseños de los estudios? Los trabajos que estamos viendo, al menos hasta ahora, se caracterizan por intervenciones complejas, no farmacológicas y multi-dominios, con un peso decisivo del factor humano. Por eso, en mi opinión, hay algunos aspectos que se deberían tener en cuenta para mejorar la calidad:
Por otra parte, debemos evitar la tentación de utilizar este argumento -que no hay que hacer ensayos clínicos- para poder así impulsar programas poco rigurosos, gastando esfuerzo y dinero. Parece que la medicina basada en la evidencia esté pasada de moda, como argumentaba recientemente el profesor Gaietà Permanyer en una conferencia en Barcelona: "La investigación se aleja de la vida real para crear condiciones experimentales ideales y a veces orientadas a alcanzar resultados convenientes".
En mi opinión, si se me permite, creo que hay que mantener procesos evaluativos que combinen diferentes métodos, al mismo tiempo que sean rigurosos, para avanzar hacia programas que realmente tengan un impacto; y por eso me parece fundamental mejorar la comprensión y la formación sobre procesos y métodos para evaluar intervenciones complejas, siguiendo, por ejemplo, las indicaciones de la guía del Medical Research Council, que sugiere una secuencia de: 1) prueba piloto; 2) evaluación de eficiencia, proceso y coste-efectividad; y 3) evaluación de indicadores poblacionales a largo plazo (MRC, Developing and evaluating complex interventions: New guidance, resumida en un artículo del BMJ 2008).
- Metzelthin BMJ 2013: 340 pacientes de 12 centros de atención primaria seleccionados por fragilidad.
- Bleijenberg BMC Geriatric 2012 (U-PROFIT): >3.000 pacientes de 39 centros de atención primaria, seleccionados por polifarmacia, fragilidad o poco contacto con atención primaria.
- ISCOPE Netherlands (Trial Register number 1946): >11.000 personas mayores de 59 centros de atención primaria seleccionadas por complejidad física, funcional, mental o social.
Como ven, acabo de citar 5 intervenciones comunitarias que han sido aplicadas a miles de personas y que han sido publicadas en revistas prestigiosas con resultados escasos. Entonces, se preguntarán, ¿qué debemos hacer? ¿Tirar la toalla? O, como comentó alguien en el mismo Congreso Europeo, ¿dedicarnos a probar otros proyectos más robustos? O quizás es que, me pregunto, ¿hay algo que no estamos analizando suficientemente bien?
1) ¿Son apropiados los diseños de los estudios? Los trabajos que estamos viendo, al menos hasta ahora, se caracterizan por intervenciones complejas, no farmacológicas y multi-dominios, con un peso decisivo del factor humano. Por eso, en mi opinión, hay algunos aspectos que se deberían tener en cuenta para mejorar la calidad:
- Seleccionar la población con instrumentos sencillos y adecuados. Por ejemplo, en relación al concepto de fragilidad, si se seleccionan personas con discapacidad, en vez de "sólo frágiles" (pre-discapacitados), las intervenciones preventivas pueden ser poco efectivas, como ha ocurrido en algunos de los estudios holandeses. Quizá en aquellos casos habría sido más efectivo haber implementado programas más clínicos y más intensos, incluso en entornos de hospitales de agudos o de residencias.
- Plantear de manera más apropiada el tipo de intervención. Dado que la gestión de casos, per se, no ha dado resultados alentadores, hay que, posiblemente, diseñar intervenciones que integren diferentes niveles de atención o de intervención (quizás incluida la intervención médica especializada en pacientes seleccionados), además de asociar actividades preventivas como el ejercicio físico, donde hay más evidencia, e intervenciones nutricionales (aunque hay que avanzar mucho sobre cómo lograr un cambio de los hábitos de los pacientes).
- Plantear medidas e indicadores de resultado concretos y sólidos, que incluyan el impacto de objetivos específicos tanto funcionales, como de calidad de vida, como de eficiencia (lo que los estudios holandeses sí hacían).
- Establecer un seguimiento apropiado, ya que la implementación siempre es compleja, y hay que evaluar tendencias largas, en base poblacional y muestras amplias.
Por otra parte, debemos evitar la tentación de utilizar este argumento -que no hay que hacer ensayos clínicos- para poder así impulsar programas poco rigurosos, gastando esfuerzo y dinero. Parece que la medicina basada en la evidencia esté pasada de moda, como argumentaba recientemente el profesor Gaietà Permanyer en una conferencia en Barcelona: "La investigación se aleja de la vida real para crear condiciones experimentales ideales y a veces orientadas a alcanzar resultados convenientes".
En mi opinión, si se me permite, creo que hay que mantener procesos evaluativos que combinen diferentes métodos, al mismo tiempo que sean rigurosos, para avanzar hacia programas que realmente tengan un impacto; y por eso me parece fundamental mejorar la comprensión y la formación sobre procesos y métodos para evaluar intervenciones complejas, siguiendo, por ejemplo, las indicaciones de la guía del Medical Research Council, que sugiere una secuencia de: 1) prueba piloto; 2) evaluación de eficiencia, proceso y coste-efectividad; y 3) evaluación de indicadores poblacionales a largo plazo (MRC, Developing and evaluating complex interventions: New guidance, resumida en un artículo del BMJ 2008).
No hay comentarios:
Publicar un comentario