Christian Valencia Christian Valencia

La diferencia entre evidencia experimental y “experimentar” en política social

Christian Valencia*

Las políticas sociales están a cargo no solamente de transferencias monetarias a grupos carenciados, sino también a cargo de programas y políticas educativas, de salud y de servicios básicos que puedan mejorar la calidad de vida de la sociedad. No es una tarea fácil que una política social sea efectiva. Existen políticas que fracasaron en diferentes países y muchas de las que no se sabe si funcionan o no. Por eso es importante que previamente se planifiquen y se diseñen para que luego puedan ser evaluadas.

Es así que, durante los últimos años se hicieron muy comunes los diseños de política experimental. La idea general consiste en asignar la política a un grupo beneficiario (o grupo de tratamiento) mientras que un segundo grupo no será beneficiado por la política (grupo de control). La clave es que la asignación a la política sea por medio de una aleatorización (sorteo) ¿Por qué? Porque la asignación aleatoria bajo ciertas condiciones permite que las características observables y no observables de los individuos queden balanceadas en los dos grupos y por tanto sean comparables (Misma proporción de mujeres, mismo promedio de IQ, etc.). Esto permite evaluaciones cuantitativas precisas con resultados confiables y a la vez asignaciones más justas, ya que los beneficiarios no son elegidos según arbitrariedades sino al azar.

Un buen diseño permite que la política pueda ser evaluada. La evaluación es una etapa fundamental para el aprendizaje (Este principio también aplica a la política pública). Un programa que no es efectivo debe ser eliminado o rediseñado. Adicionalmente, las políticas deben ser pensadas para que cumplan su objetivo de forma eficiente, es decir, sin exceder el uso de recursos.

En países en desarrollo, como el nuestro, la urgencia y necesidad de políticas efectivas hace que se implementen programas en los que no se consideran todas las complejidades que conlleva un buen diseño de política, es decir, que alcance la cobertura planificada, que pueda ser evaluada objetivamente, entre otras complejidades como las externalidades o las de naturaleza fiscal.

Sin embargo, varios gobiernos e instituciones en distintos países que implementan programas ya optaron por diseños de política experimental. Por ejemplo, en Perú, el Ministerio de Educación implementó un departamento de diseño de políticas experimentales. No imagine un lugar donde hay científicos con buretas de las que sale líquido fluorescente hacia un recipiente que desprende vapor. En realidad, es un simple grupo de personas (capacitadas) que se dedican a pensar y diseñar políticas que sean costo-efectivas pero que además sean evaluables. En general implementan programas de bajo costo. Por ejemplo, implementaron un programa que provee información a un grupo de estudiantes sobre la diferencia del ingreso por terminar la educación secundaria (un segundo grupo no recibe esta información). Esto permite identificar si los estudiantes abandonan la escuela porque perciben que la educación no mejorará su ingreso en el futuro. La política de ofrecer información a los estudiantes podría generar mayor permanencia en la escuela. En Chile recientemente J-PAL, una prestigiosa asociación que genera evidencia científica para reducir la pobreza, presentó los resultados de un programa en el que se entrena a la familia para integrarse al ámbito escolar. El diseño experimental con el que se realiza permite evaluar la efectividad del programa. Los resultados muestran que los niños de familias expuestas a la capacitación presentaban menor violencia escolar (12% menos declararon haber comenzado una pelea), mayor interés por la lectura y mayor asistencia escolar. Estos resultados arrojan evidencia sobre cómo mejorar los resultados de los estudiantes, no sólo con políticas nacionales sino incluso se pueden realizar a nivel escuela.

Del mismo modo, en el ámbito académico se realizaron innumerables evaluaciones a diferentes políticas. El proyecto STAR (En Tennessee, Estados Unidos) asignó maestros de acuerdo a su experiencia de forma aleatoria. Esta aleatorización permitió ver el impacto de un mejor maestro en el desempeño escolar y en los ingresos futuros. Otro caso (similar al de Perú) fue implementado en República Dominicana, donde miden el impacto de informar a los estudiantes sobre los ingresos por finaliza. El grupo de estudiantes que recibe la información sobre retornos a la educación corrige el sesgo en su percepción y tiene una mayor tasa de finalización escolar. Estos son solo dos ejemplos de innumerables investigaciones relevantes para la política social.

Por contrapartida, “experimentar” es probar con políticas que carecen de un buen diseño, que no se evalúan (o se hacen evaluaciones poco objetivas) y/o que no se implementan de forma apropiada. Esto dificulta conocer si un programa es realmente efectivo o si genera incentivos a que las personas se comporten de forma diferente. Una política que se hubiera favorecido de un diseño experimental es el programa que entregó computadoras portátiles a los estudiantes del último año de secundaria en escuelas públicas de Bolivia. Inicialmente, es una política costosa (Us$ 40 millones en 2014) por lo que una primera etapa con un diseño experimental a menor escala hubiera permitido conocer la efectividad de una política de este tipo sobre el logro educativo de los estudiantes. La evidencia que existe sobre el tema no es muy favorable. En 2002 se implementó un diseño experimental para un programa similar en Colombia y encontraron que el programa no tuvo efectos sobre el desempeño educativo de los estudiantes. Con esta evidencia parece arriesgado implementar una política fiscalmente tan costosa a nivel nacional. Por otra parte, las introducciones de tecnología en educación pueden ser complejas porque deben venir acompañadas de cambios en los métodos de enseñanza que favorezcan la integración de tecnología. Los periódicos nacionales reportaron que las unidades educativas tuvieron dificultades con la capacitación del personal docente, con el espacio en las instalaciones para utilizar los equipos y con el acceso a instalaciones eléctricas apropiadas. Estas complejidades (no menores) se podrían haber paliado con una mejor planificación de la política.

Una buena planificación acompañada de un buen diseño de política puede ayudarnos a aprender sobre que políticas funcionan, que es mejor que operar a ciegas. Las ciencias sociales están avanzando hacia mejores diseños de política y por tanto, no deberíamos seguir utilizando únicamente el olfato político, que es susceptible a introducir arbitrariedad hacia beneficiarios y, dificulta la evaluación e incluso en algunos casos obstruye las posibilidades de evaluación para evitar que se pongan en evidencia las impericias de ese olfato político. Es momento de utilizar diseños experimentales y evidencia científica ya existente para una política social de calidad que sea objetiva y evaluable no solo a nivel nacional sino también a nivel local.

 

Referencias:

Barrera-Osorio, F., & Linden, L. L. (2009). The use and misuse of computers in education: evidence from a randomized experiment in Colombia.

Chetty, R., Friedman, J. N., Hilger, N., Saez, E., Schanzenbach, D. W., & Yagan, D. (2011). How does your kindergarten classroom affect your earnings? Evidence from Project STAR. The Quarterly Journal of Economics, 126(4), 1593-1660.

Jensen, R. (2010). The (perceived) returns to education and the demand for schooling. The Quarterly Journal of Economics, 125(2), 515-548.

https://www.povertyactionlab.org/evaluation/involving-parents-their-children’s-education-chile

http://www.minedu.gob.pe/minedulab/

http://paginasiete.bo/sociedad/2015/10/13/escuelas-area-rural-utilizan-computadoras-quipus-dice-dirigente-73369.html

http://correodelsur.com/local/20150416_quipus-no-son-utilizadas-en-el-40-de-las-unidades-educativas.html

*Christian Valencia tiene estudios de Maestría en la Universidad de San Andrés, Argentina. Actualmente trabaja en el Ministerio de Producción de Argentina.

Email: christian.valencia.r@gmail.com