Mesa 1 :: ESTUDIOS ELECTORALES 2006. ANÁLISIS METODOLÓGICO |
Moderador: Manuel Barberena
La historia de la elección presidencial narrada por las encuestas
Ricardo de la PeñaAlgunos cuestionamientos a las encuestas realizadas en el proceso electoral
Carlos Ordóñez
La historia de la elección presidencial narrada por las encuestas
Ricardo de la Peña
Presidente Ejecutivo de Investigaciones Sociales Aplicadas, SC
"Si alguien está interesado en mi forma de resolver el problema, está todo ahí, que vayan y lo lean. He publicado todos mis cálculos; es lo que puedo ofrecer al público".
Grigori Perelman
EXTRACTO
La Historia de la Elección Presidencial narrada por las Encuestas No existe evidencia que permita afirmar que, entre la fecha de toma de información para las encuestas “finales” —que en su mayoría concluyeron antes del día 20 de junio— y el día en que se efectuaron los comicios, haya ocurrido alguna modificación relevante en la distribución de preferencias por candidato a la Presidencia de la República.
[…] Los sesgos implícitos en las series de encuestas nacionales durante el proceso para la elección presidencial 2006 derivaron en la construcción de falsas creencias de que las preferencias eran básicamente estables, que había tres candidatos con posibilidades reales de ganar, que uno de ellos llevaba una muy amplia ventaja que solamente se revirtió luego del primer debate y que al cierre del camino López Obrador era quien llevaba ventaja.
Ricardo de la Peña
¿Qué historia nos contaron las encuestas sobre la elección presidencial de 2006?
Para poder saberlo, no tendremos que recurrir a la recuperación casuística de las encuestas realizadas para esta elección, por un notable avance del que se dispuso por vez primera en la historia de México: la integración de un banco con los resultados de la colección completa de encuestas nacionales cara a cara en vivienda que fueran difundidas por instancias reconocibles para esta elección, del que se encargaron dos agrupaciones profesionales de investigadores en el campo: la Asociación Mexicana de Agencias de Investigación de Mercados y Opinión Pública (AMAI) y el Consejo de Investigadores de la Opinión Pública (CI), asociadas para la operación del sitio www.opinamexico.org, donde se colocó para consulta pública gratuita esta información. Acorde con esta fuente, en total fueron publicadas 77 encuestas nacionales cara a cara en vivienda realizadas por instancias reconocibles en que se reportaron estimaciones sobre preferencias por candidato para la elección de Presidente de la República. Junto con los resultados oficiales de las elecciones, reportados en www.ife.org, ésta será la fuente de información que utilizaremos para este análisis.
Desde luego, la selección de datos, agrupamientos y adecuaciones fue realizada bajo la exclusiva responsabilidad de este autor, al igual que las comparaciones contra los resultados oficiales reportados por las autoridades electorales.
Es de destacarse el hecho de que el seguimiento de encuestas nacionales puestas a disposición del público durante el proceso electoral federal 2006 mostró cambios positivos respecto a la realidad observada seis años atrás, producto tanto de la maduración del mercado de la opinión pública en el país como de los esfuerzos que hicieron las autoridades electorales, en consulta con los profesionales del campo, para perfeccionar los criterios reguladores de la publicación de encuestas durante las campañas federales de 2006.
De entre estos cambios, no es menor el hecho de que durante los meses de contienda no hicieran acto de presencia encuestadoras fantasmas ni encuestas hechizas. Las 77 encuestas nacionales incorporadas en el referido banco concentrador de resultados fueron todas ellas productos de casas encuestadoras existentes, con directivos reconocibles y, en su mayoría, reportaron los datos mínimos legalmente requeridos respecto a su metodología.
De las 77 encuestas nacionales referidas, solamente doce correspondieron a levantamientos de información concluidos dentro de la ventana de dos semanas previas a la elección del 2 de julio de 2006 y por ende pueden considerarse como “estimaciones finales” comparables contra los resultados. Las otras 65 encuestas fueron levantadas antes de este período y en la mayoría de los casos no corresponden a la última medición hecha pública por una casa encuestadora, sino que formó parte de series de mediciones que culminaron dentro de la ventana de dos semanas previas con mediciones posteriores.
Como es sabido, en el caso de la serie de GEA-ISA, su última medición pública antes de los comicios arrojó una distribución de preferencias sumamente próxima al resultado oficial de la elección presidencial, sobrestimando apenas un punto el margen de victoria de Felipe Calderón y estimando correctamente la altura finalmente alcanzada tanto por Andrés Manuel López Obrador como por Roberto Madrazo.
Ello puso fin a una fuerte polémica en torno a esta serie de encuestas nacionales, que mostró desde muy temprano una situación de clara disputa por el liderato entre dos competidores, con una ventaja para Calderón sobre López Obrador desde el mes de marzo y con un claro rezago de Madrazo, que esta serie situó en el tercer lugar desde el arranque de las campañas formales.
Es de referirse que la estimación pública final de GEA-ISA no difiere de manera importante de la medición efectuada por esta misma casa encuestadora el día previo a la elección, que arrojó una diferencia de un punto porcentual de Calderón sobre López Obrador.
Este sería un primer indicador de que no existe evidencia que permita afirmar que, entre la fecha de toma de información para las encuestas “finales” –que en su mayoría concluyeron antes del día 20 de junio- y el día en que se efectuaron los comicios, haya ocurrido alguna modificación relevante en la distribución de preferencias por candidato a la Presidencia de la República.
Lo anterior se reafirmaría si lo que se considera es la variación registrada en la encuesta de seguimiento realizada por ARCOP: entre la última medición de esta serie que fue hecha pública (que fue la segunda estimación más concordante con el resultado final de la elección) y la terminación del seguimiento, diez días después de la última medición pública y sólo dos días antes de los comicios, el cambio registrado fue sólo de un punto porcentual a favor de Calderón.
Otro indicador de la no afectación de peso en el tramo final de la contienda lo constituye el patrón de votación reportado por los entrevistados en la encuesta de salida GEA-ISA según el momento en que decidieron su voto. Durante las últimas dos semanas y hasta el día de la elección, si bien un 17% de los electores definieron el sentido de su voto, el respaldo logrado en este período por Andrés Manuel López Obrador y Felipe Calderón fue prácticamente idéntico, por lo que resulta equívoco pretender justificar, por la orientación de este segmento de decisores de último momento, un supuesto cambio en el orden de los contendientes.
Lo que es más: de haber ocurrido algún cambio en las últimas dos semanas, esta variación en todo caso habría afectado la propensión a votar de los ciudadanos proclives a respaldar a Felipe Calderón, por lo que no habría existido un fenómeno de inversión en el liderato al final de la carrera que hubiera derivado en la pérdida de una pretendida ventaja previa para Andrés Manuel López Obrador.
Ahora bien, cuando tomamos las doce encuestas nacionales “finales” y comparamos sus estimaciones promedio contra el resultado oficial de la elección, vemos que el giro implícito entre las estimaciones por encuesta y el resultado fue de cuatro puntos, siendo muy cercano al dato oficial la medición promedio de López Obrador y difiriendo en tres puntos en promedio las mediciones en los casos de Felipe Calderón, que fue subestimado, y de Roberto Madrazo, que fue sobreestimado en contrapartida.
Es por este giro entre las mediciones promedio producto de encuesta y el resultado oficial de la elección por lo que no resulta lo mismo comparar las estimaciones puntuales finales de las diversas casas encuestadoras con el promedio de las propias encuestas que contra el resultado real. De hecho, puede afirmarse que si en la proximidad al promedio se ubicaron varias encuestas nacionales difundidas por medios de comunicación y que conformaron series completas a lo largo de la campaña, cuando se agrupan las encuestas con el resultado se descubre que las encuestas cuyas estimaciones estuvieron más próximas al dato real fueron encuestas no patrocinadas por medios de comunicación y que, en algunos casos, no mantuvieron series completas a lo largo de la campaña.
Ahora bien, es una costumbre equívoca en diversos análisis hacer tabla rasa de las estimaciones obtenidas y difundidas a lo largo del proceso, dejando la evaluación en un simple ejercicio de comparación entre las estimaciones finales y el resultado oficial (los famosos “atinómetros”). En el caso de este análisis, lo relevante será ver cuál fue la historia del proceso de elección presidencial que contaron las encuestas en 2006.
Para ello, efectuamos un ejercicio de agrupamiento en cortes quincenales, a partir de la fecha de conclusión del trabajo de campo y con ajustes en los casos de las series, para evitar incluir dos mediciones en el agregado correspondiente a una quincena particular.
Al efectuar este ejercicio, podemos tener una serie única de estimaciones promedio de preferencias por candidato para la elección de Presidente de la República producto de las encuestas nacionales cara a cara en vivienda, publicadas durante el proceso electoral federal 2006.
Un primer vistazo a este ejercicio nos muestra que las encuestas, vistas en conjunto, reflejaron los cambios provocados por los grandes momentos del proceso electoral: la definición de la candidatura de Acción Nacional a favor de Felipe Calderón, que significaría un avance para este partido; el impacto inmediato de la alianza entre el PRI y el Partido Verde en apoyo de Roberto Madrazo, que favorecería a este candidato; el largo período de ventaja de López Obrador, que se revertiría claramente luego del primer debate, cuando según esta lectura Calderón se va a la cabeza; y finalmente el cierre de la brecha al final, que llevaría al resultado más cerrado en una elección presidencial en la historia de la democracia mexicana.
Pero un cuestionamiento surge de inmediato a este ejercicio de agrupamiento: está incorporando mediciones que forman parte de series de encuestas públicas y datos de reportes casuísticos de series no publicitadas íntegramente o que no cubrieron toda la ruta.
Es por ello que para los fines de este análisis hemos decidido quedarnos con un paquete de 51 encuestas nacionales cara a cara en vivienda que formaron parte de seis series completas de mediciones públicamente disponibles (considerando desde la definición de candidaturas por los principales partidos a fines de octubre de 2005 hasta el cierre formal de la publicación de encuestas para el proceso, en junio de 2006). Estas series son: la de Consulta Mitofsky, para Televisa; la de Demotecnia, para Milenio; la de Parametría, que en su parte final fuera difundida por Excelsior; la del periódico Reforma; la del diario El Universal; y la de GEA-ISA, cuyas estimaciones fueron difundidas por diversos medios, aunque su patrocinio fuera sindicado entre instancias gubernamentales, partidos políticos y empresas privadas y no tuviera un vínculo mediático.
Cuando vemos el comportamiento de las estimaciones producto de estas series, encontramos que en general no difieren de manera significativa del universo de encuestas nacionales cara a cara en vivienda vistas en conjunto. Así, las estimaciones promedio quincenales de estos dos tercios de las encuestas incluidas en www.opinamexico.org presentan una correlación de 0.997 con el total de casos incorporados en este sitio. Las diferencias promedio en las estimaciones para cada candidato entre el total de 77 encuestas y las 51 encuestas de las series elegidas no difieren más de 0.7 por ciento, Y la distancia media entre el primero y el segundo lugar se estrecha en apenas 0.3 por ciento, al considerar solamente las 51 encuestas en series completas respecto al total de 77 casos.
Por lo anterior, la historia narrada por este subconjunto de seis series completas de encuestas nacionales resulta sumamente próxima con la narración contada por la totalidad de encuestas nacionales cara a cara en vivienda.
En promedio, las seis series de encuestas nacionales completas elegidas para este análisis reportaron una estimación final que difirió en tres puntos por debajo del valor real en el caso de Felipe Calderón, mismos que fueron adjudicados equívocamente a Roberto Madrazo, mientras que Andrés Manuel López Obrador fue correctamente medido por estas series, vistas de manera agrupada.
Sin embargo, la visión de conjunto de estas seis series de encuestas parece dejar de lado las diferencias entre las propias series y al interior de cada una de ellas.
Al respecto, cabría mencionar que las alturas promedio medidas por cada una de las series difieren entre sí, sobre todo en los casos de Felipe Calderón y de Roberto Madrazo, en los que entre la serie con estimaciones promedio más elevadas y la serie con estimaciones más bajas existe una diferencia de cuatro puntos a lo largo de las series. A diferencia, esta distancia es menor a dos puntos en el caso de López Obrador.
Estas distancias no son necesariamente producto de procesos de “cristalización” tardía de preferencias, que pudo llevar a divergencias entre mediciones en los momentos iniciales del proceso.
De hecho, las diferencias promedio en las estimaciones por encuesta seriadas completas respecto a las preferencias por candidato para la elección presidencial no varían de manera significativa a lo largo de la campaña. Si al arranque los datos difieren en promedio en 4.3 por ciento, al cierre lo hacen en 4.5 por ciento. Así, en vez de una supuestamente esperable tendencia a converger, hubo un mantenimiento de las diferencias en las estimaciones producto de estas series.
Asimismo, las estimaciones finales de estas seis series son diferentes: si bien solamente una de estas series culmina con una medición que acierta ganador (GEA-ISA), que es a la vez la más precisa al cotejar estimación final con resultado (con una diferencia de 0.7 por ciento en promedio), la proximidad entre estimación final y resultado oficial de la elección en los otros cinco casos varía de las más precisas (El Universal y Reforma), situadas a 1.7 por ciento en promedio por componente, a 2.2 por ciento en el caso de Consulta, 2.4 en el de Parametría y hasta 3.7 por ciento en el caso de Demotecnia, que fue la menos atinada de estas seis series en su medición final.
De igual manera, cuando lo que se observa son los cambios registrados al interior de cada serie en las distribuciones de preferencias por candidato, se observa que mientras tres de las series (Consulta, Parametría y Demotecnia) ubican el giro medio semanal de intenciones de voto entre 0.6 y 0.8 por ciento, otras tres series (El Universal, Reforma y GEA-ISA) lo ubican entre 1.2 y 1.4 por ciento.
Lo anterior nos habla de la existencia de dos diferentes paquetes de series de encuestas, diferenciadas no solamente por las distribuciones de preferencias detectadas a lo largo del proceso, sino también por la movilidad de estas preferencias percibidas a su interior y la proximidad de su medición final contra el resultado: para unas, una estabilidad relativa, pero distante del dato final; para otras, un cambio más importante que las aproxima al resultado real.
De hecho es factible postular la hipótesis de que entre menor variabilidad en las preferencias electorales era detectada por una casa encuestadora a lo largo del proceso, menor proximidad de su estimación final con el resultado oficial (la correlación lineal es de –0.73 entre giro medio semanal y diferencia entre estimación final y resultado).
Este hecho lleva a plantearse el cuestionamiento de cuáles fueron los orígenes de las divergencias entre las mediciones de unas y de otras casas encuestadoras y por qué unas reflejaron atinadamente el resultado final de la contienda y otras no. Al margen de la necesidad de revisar cuestiones técnicas relativas a muestreo, diseño de instrumentos de recuperación informativa, control de operativos de toma de información en campo, etcétera, surge la duda de que, al menos en dos de los tres casos en que se presentara una mayor distancia entre la medición final y el resultado, ello pudiera deberse a implicaciones de los modelos para la detección de “votantes probables” utilizados, que bien pudieran incorporar elementos que llevaran a una estabilización artificiosa de las proporciones atribuidas a los distintos candidatos.
Luego, la estabilidad sería producto de los criterios y procedimientos para la detección de votantes probables y no reflejo de condiciones reales de la competencia misma. Habría inclusive que explorar hasta qué punto esto pudiera ser resultado de la elección de procedimientos de detección de votantes probables que respondan más a una suerte de “wishful thinking”, que a criterios que efectivamente estén aproximando las distribuciones de preferencias con la realidad.
Hasta ahora, hemos detectado divergencias en las historias contadas por las series de encuestas nacionales que estuvieron disponibles. Unas, en un grupo conformado por Consulta, Parametría y Demotecnia, nos mostraron una contienda donde López Obrador tuvo una amplia delantera, que se cierra luego del primer debate –cuando apenas alcanza a rebasarlo por un punto Felipe Calderón-, pero que recupera AMLO al final de la carrera.
Asimismo, reflejaron una situación de cerrada competencia por el segundo lugar entre Calderón y Madrazo, que apenas alcanza a definirse luego del primer debate, pero que al cierre apenas llega a cuatro puntos de distancia, misma separación que tiene Calderón con el supuesto líder López Obrador, conforme a estas tres series. En promedio, el giro implícito entre las encuestas finales de estas tres series y el resultado sería de cinco puntos, todos ellos correspondientes a una subestimación de Calderón y una sobrestimación de Madrazo.
A diferencia, la historia contada por Reforma, El Universal y GEA-ISA es diferente. Para estas casas encuestadoras siempre estuvo claro que Calderón iba arriba de Madrazo, con distancias de al menos cinco puntos que superarían los diez puntos luego del primer debate. Y aunque López Obrador tenía ventaja sobre Calderón, ésta se estrecha aún antes del primer debate, en que incluso una medición advierte el cruce en el liderato, pero se revierte claramente a partir del primer debate, cuando Calderón alcanza una ventaja que llega a superar los cinco puntos, terminando en una cerrada contienda por el primer lugar, como realmente ocurriera. El giro implícito entre las estimaciones finales de estas tres series y el resultado sería de apenas dos puntos, producto de una subestimación de Calderón que favorecería a Madrazo.
Ahora bien: como hemos visto, las distintas series presentaron giros implícitos entre la medición final y el resultado oficial de la elección, que reflejan sesgos sistemáticos que se sostuvieron a lo largo de las series.
Es por ello que es interesante efectuar un ejercicio de ajuste de las estimaciones presentadas por las diversas series a lo largo del proceso que elimine los sesgos mostrados al final por cada una de ellas. Así, una relectura de lo que ocurrió en la contienda pudiera obtenerse si recalculamos las proporciones para cada candidato en cada una de las encuestas nacionales de las seis series completas disponibles, añadiendo o restando los puntos que tuvieran de diferencia en su última estimación con el resultado oficial de los comicios.
¿Cuál sería entonces la historia que hubieran narrado las encuestas?
En primer término, las encuestas hubieran mostrado vaivenes en las preferencias que no avalarían las supuestas condiciones de estabilidad a lo largo del proceso sustentada por algunas de las series y afirmada por algunos de sus responsables.
En segundo lugar, desde un principio habría estado claro que la contienda efectiva era entre dos y no entre tres candidatos, puesto que Madrazo se hubiera mostrado rezagado por muchos puntos a lo largo del camino, como finalmente se constató en las urnas.
Un tercer punto a destacar es el momento del cruce de las preferencias. Al eliminar los sesgos implícitos en las diversas series, se habría tenido un cambio en el liderato desde antes del primer debate, consecuencia por ende de la estrategia de propaganda llevada adelante en marzo y no como resultado de la ausencia en ese encuentro de López Obrador.
Finalmente, aunque la contienda se habría cerrado entre los dos primeros lugares en el último mes, no habría vuelto a cambiar el liderato, manteniéndose a la cabeza el candidato que finalmente resultaría ganador, aunque lo fuera por un margen estrecho.
Dicho de otra manera: los sesgos implícitos en las series de encuestas nacionales durante el proceso para la elección presidencial 2006 derivaron en la construcción de falsas creencias de que las preferencias eran básicamente estables, que había tres candidatos con posibilidades reales de ganar, que uno de ellos llevaba una muy amplia ventaja que solamente se revirtió luego del primer debate y que al cierre del camino López Obrador era quien llevaba ventaja.
Ello pudo confundir y engañar a actores políticos y electorado interesado, haciendo que vieran una realidad distorsionada y creando falsas expectativas que no tenían sustento en la realidad.
Ojalá encontremos en algún momento explicaciones fehacientes sobre las causas de los sesgos detectados.
Como reflexión final, particular a la serie de encuestas GEA-ISA, la lectura sobre supuestas peculiaridades de esta serie a lo largo del proceso se sustenta más en la existencia de sesgos implícitos en otras series que en mediciones efectivamente fuera de norma, una vez eliminados los sesgos referidos.
Así, si lo que se compara es la serie GEA-ISA con las estimaciones que se hicieron en su momento, es claro que las encuestas de GEA-ISA mostraron un cruce muy anticipado respecto a lo observado por otras series, toda vez que este cruce se detectó en general tres quincenas más tarde. Igualmente, la preservación del liderato para Calderón por un par de puntos resultaba contraria a la tendencia de otras series de mostrar un nuevo cruce al final de la contienda, que ubicaba a López Obrador en el primer lugar. De hecho, la distancia promedio entre las mediciones de GEA-ISA y las estimaciones promedio de las series completas de encuestas nacionales no tendería a cerrarse a lo largo del proceso.
Empero, si lo que se compara es la serie GEA-ISA con las estimaciones ajustadas para eliminar los sesgos implícitos en las demás series, se tendría una diferencia entre las mediciones finales de la serie GEA-ISA que apenas diferiría con las mediciones producto de otras series, claramente dentro del margen de error propio de estimaciones por encuesta.
Al hacer esta comparación entre la serie GEA-ISA y las estimaciones ajustadas, la anticipación en el cruce en el liderato sería de apenas unos días, advirtiendo GEA-ISA de un cambio en las posiciones de la contienda que no solamente fue confirmado en algunas mediciones inmediato posteriores, sino que habría representado un primer tramo de un movimiento que se habría completado luego, en el primer debate, dándose un viraje que habría llevado de una ventaja de más de cinco puntos a favor de López Obrador a fines de febrero, a una ventaja de más de cinco puntos a favor de Calderón dos meses más tarde, con un cambio total de diez puntos en la relación entre los punteros.
Si bien esta ventaja se estrecharía más adelante, no pareciera haber indicios claros de que hubiera vuelto a ocurrir un cambio en el liderato, por lo que Calderón se habría confirmado como el líder real al cierre de las campañas y en las urnas como el ganador y merecedor del cargo de Presidente de la República.
Algunos cuestionamientos a las encuestas realizadas en el proceso electoral
Carlos Ordóñez
EXTRACTO
En México, en elecciones presidenciales, no es posible publicar encuestas ocho días antes de la votación, y como hacemos las encuestas en fin de semana, la mayoría de las que se publicaron al final tenían dos semanas de antigüedad. Las últimas encuestas publicadas nunca se asemejarán demasiado a los resultados electorales; menos en una elección como ésta, en la que el voto fue particularmente inestable, y cambiaba en muy pocos días.
Carlos Ordóñez
-Carlos Ordóñez: Para empezar, quiero agradecer al IFE por haber organizado de nuevo este taller sobre el papel de las encuestas en el proceso electoral. También agradezco personalmente la invitación, que me permite asistir por primera vez. En las elecciones del 2000 yo no estaba en México, pero hasta la fecha sigo consultando las memorias del taller que se publicaron entonces.
Como ya se ha dicho muchas veces, el seminario de Sumiya de hace seis años fue un parteaguas en el campo de la investigación de encuestas en México, y esperemos que éste lo sea también.
Entremos en materia. En mi presentación del día de hoy haré un resumen de algunos de los cuestionamientos que se mencionaron en los medios de comunicación o en los seminarios, en los meses que transcurrieron durante el proceso electoral.
También intentaré hacer un pequeño análisis de cada uno de ellos. Daré particular atención a los cuestionamientos hechos a los modelos de votantes probables, por sugerencia de Francisco Abundis, quien me indicó la dinámica y el contenido del presente encuentro.
Antes de enumerar los cuestionamientos hay que mencionar, una vez más, que en México, en el caso de las elecciones presidenciales, no es posible publicar encuestas ocho días antes, y como hacemos las encuestas en fin de semana, la mayoría de las encuestas publicadas al final tenían dos semanas de antigüedad. Este periodo sirve para justificar que las encuestas no coincidan con el resultado electoral final.
Pero si recordamos que las últimas encuestas publicadas no incluyen en sus resultados al 6.3 por ciento de los votantes, que decidieron por quién votar en la última semana; y al 8.6 por ciento que lo hizo el mismo día de la elección, según la encuesta de salida que contrató El Universal y que fue publicada ese día, podemos estar seguros de que las últimas encuestas publicadas nunca se asemejarán demasiado a los resultados electorales; menos en una elección como ésta, en la que el voto fue particularmente inestable, y cambiaba en muy pocos días.
Menciono esto porque tiene que ver con casi todos los puntos que voy a mencionar a continuación.
El primer punto que voy a tratar, y que fue mencionado en varias ocasiones, fue el del voto oculto. En muchas ocasiones, y retomando la diferencia de los resultados de las encuestas y las elecciones en procesos como el de Costa Rica, el de Bolivia y la primera vuelta en Perú, se mencionó entre analistas y medios de comunicación que una parte del electorado, sobre todo de los votantes de los partidos de izquierda, estaba ocultando sus preferencias en las encuestas.
Esta posibilidad ya había sido expuesta en años anteriores en otros países, y también en México. En nuestro país en particular, la amenaza de perder becas, las obras de infraestructura en la localidad e incluso el empleo, entre otras, fue por años motivo suficiente para mentir al encuestador que podía venir de parte del gobierno.
Si el voto oculto era una realidad en este momento en estas elecciones, era de esperar que las encuestas en México no estuvieran registrando una parte importante de votantes probables hacia la alianza del PRD, Partido Convergencia y PT.
Sin embargo, si analizamos los resultados, vemos que para el caso de la elección presidencial no hay evidencia del voto oculto de la izquierda. Por el contrario, de las once encuestas que fueron realizadas del 12 al 20 de junio, y que aparecieron en la última semana en la que se permitía la publicación, siete daban ventaja a López Obrador, y seis tenían sobrerrepresentada a la Alianza por el Bien de Todos.
Sigamos adelante. Dejando de lado las encuestas de otras casas encuestadoras y tomando en cuenta solamente las del Universal, podemos ver que no hay una tendencia general de voto oculto hacia algún partido en particular.
De las siete elecciones sobre las que nosotros en El Universal hicimos encuestas en el año, en cuatro estaba subrepresentado el PAN y en dos el PRI.
Aquí estamos asumiendo -un tanto arbitrariamente y por cuestiones de análisis-, que la subrepresentación de un partido en las encuestas, respecto a los resultados electorales, se debe al voto oculto. Todos sabemos que existen otros factores que podrían explicar este suceso. Al parecer, los encuestados en México están contestando sin miedo y sin ocultar su preferencia electoral.
Los que no contestaron a la pregunta de intención de voto en las encuestas electorales parecen mantener la misma distribución que los votantes que sí contestaron. Esto me parece importante y constituye un beneficio directo al momento de hacer encuestas, ya que por muchos avances que pudiéramos registrar en la metodología, dimensionar el voto oculto, intentar corregirlo con algún modelo me parecía casi imposible. Ese fue el primer punto.
El segundo punto que fue mencionado es que la máquina electoral de PRI actuaría en el último momento y que, por lo tanto, las encuestas estaban equivocadas.
También este argumento fue repetido en diversas ocasiones. Se decía que las encuestas estaban mal porque no tomaban en cuenta que a última hora actuaría la maquinaria electoral del PRI.
Esta maquinaria permitiría movilizar votantes priístas que no declaraban su preferencia o decían que no irían a votar, cuando en realidad sí lo harían, incentivados por alguna de las efectivas y antiguas estrategias de movilización.
Dado que en general todas las encuestas quedaron con el PRI sobreestimado, podría decirse que el temor al efecto electoral de la maquinaria que actuaría a última hora era infundado.
Sin embargo, la mala noticia es que también puede haber sucedido que la maquinaria sí actuara, pero en esta ocasión no a favor del PRI.
Es posible, por ejemplo, que el voto corporativo del SNTE continúe funcionando, pero que en esta ocasión actuara a favor del Partido Nueva Alianza o del PAN.
Y también es posible que el voto corporativo del Sindicato del IMSS continúe actuando, pero a lo mejor en esta ocasión haya actuado a favor del PRD y no del PRI, como lo hacía anteriormente.
Este segundo punto, a diferencia del anterior, sí constituye, a mi forma de ver, un problema serio para los encuestadores, pues es imposible saber el efecto real del voto corporativo y a quién será dirigido.
También puede cambiar en cualquier momento por pactos de los dirigentes y no quedar registrado en las encuestas previas. Los pactos pueden hacerse incluso dos semanas antes de las elecciones.
El tercer punto que quería analizar es el del voto útil. Los encuestados pueden mantener su posición por meses, pero si la información que reciben al final refleja que su candidato o partido no tiene posibilidades reales de victoria, algunos votantes se pueden inclinar por una segunda opción, con oportunidades reales, como todos aquí sabemos.
Estos cambios suelen darse al final de la contienda y, por tanto, están registrados sólo parcialmente en las últimas encuestas publicadas.
Recordemos lo que ya mencioné anteriormente, que el 6.3 por ciento de los votantes decidieron por quién votar en la última semana y el 8.6 el mismo día de la elección.
Es posible que la sobreestimación del PRI en las encuestas respecto a lo que finalmente ocurrió en las elecciones nos dé una pista sobre votantes que dejaron al PRI en las últimas semanas, a favor de algún otro partido.
Este punto, como el punto dos que analizamos anteriormente, constituye un reto para los que hacemos las encuestas, pues no es posible calcular qué votantes finalmente se inclinarán por esta opción de votación.
Ya que terminaron las elecciones, analizamos en El Universal, en retrospectiva, las siguientes preguntas que habíamos estado haciendo durante todo el proceso electoral.
La primera es: la segunda opción del encuestado.
Y la segunda pregunta: la disposición a votar por otro partido que no sea el de de su preferencia, con tal de que no ganara la opción menos deseada.
En El Universal estuvimos buscando detectar a los votantes probables, que finalmente aplicarían el voto útil.
Sin embargo, hasta ahora no hemos encontrado resultados estadísticamente significativos que nos permitieran mejorar estas estimaciones. Seguimos trabajando en ello.
Finalmente, el punto número cuatro, que es el de los modelos de votantes probables.
En El Universal, como en otras casas encuestadoras, se utilizó un modelo para determinar los resultados con los votantes que efectivamente irían a votar y que debería ser más preciso que los resultados que simplemente se recalculan eliminando la no respuesta, que llamaremos en este caso la población efectiva.
En casi todas las elecciones de este año decidimos publicar tanto los resultados derivados del modelo de votantes probables, como el resultado en bruto o la no respuesta incluida.
En contra de esta medida, se ha mencionado que puede confundir al elector o al que consulta las encuestas por tener ambas opciones, pero dado que la mayoría de los cuestionamientos sobre los modelos de votantes probables se centraron en torno a la transparencia de éstos y no tanto en torno a su eficiencia, presentar las dos opciones ayuda a eliminar susceptibilidades.
Para algunos, el modelo de votantes probables es una zona oscura en la cual se pueden manipular los resultados al antojo con los más diversos y temibles fines.
En las encuestas realizadas por El Universal entre 2003 y 2005, los resultados con los modelos de votantes probables mejoraban los resultados frente a los resultados simplemente recalculando sin la no respuesta. Dichos modelos fueron mejorando año con año.
Al final, cuando empezó el proceso electoral de 2006, optamos por un modelo de votantes probables y en ese momento resultó que el modelo más sencillo era el que mejor resultados nos daba.
Sin embargo, tomando en cuenta las elecciones celebradas en 2006, de siete casos en los que que aplicamos encuestas en El Universal, en cuatro los resultados para población efectiva fueron mejores que el modelo de votantes probables -y aquí incluyo las elecciones presidenciales- y sólo en dos casos el modelo de votantes probables mejoró las estimaciones respecto a la población efectiva. En el caso restante, ambos tuvieron más o menos la misma efectividad.
Con esta información, hay que reconocer que hubiera sido preferible presentar los resultados simplemente recalculando y no utilizando el modelo de votantes probables.
Una vez dicho esto, no resulta particularmente atractivo presentar nuestro modelo de votantes probables, pero por lo menos para saber lo que no fue efectivo, lo presentamos a continuación.
Tenemos los votantes probables que incluye la intención de voto en pregunta en urna con boleta simulada y le quitamos las boletas simuladas anuladas o no llenadas o en general cualquier tipo de no respuesta, incluimos dirección de la credencial de elector que toma en cuenta si el encuestado vive en ese domicilio, cerca o lejos pero en el estado. También incluimos el conocimiento de las fechas de las elecciones que incluye fecha correcta, fecha incorrecta o la no respuesta.
También la probabilidad de votar en las próximas elecciones, que es una escala numérica del uno al 10 y, el interés en las elecciones que también es una escala numérica del uno al 10.
El modelo tiene problemas, particularmente con la estimación de los partidos pequeños, por el número reducido de casos sobre los cuales se aplica el modelo de votantes probables.
Por ejemplo, en la encuesta del mes de mayo de El Universal se registró un incrementó notable del Partido Alternativa Socialdemócrata y Campesina. Éste se explicó entonces, o lo intenté explicar entonces, por el desempeño de Patricia Mercado en el debate en televisión, pero no fue consistente con los resultados electorales del 2 de julio. En este mes el incremento de ese partido era mucho mayor en el modelo de votantes probables que en los resultados en bruto, o sea que había un problema en el modelo de votantes probables.
El reto en este punto cuatro constituye construir un modelo más eficiente y transparente.
Por último, voy a hablar de un quinto punto que abarca muchos cuestionamientos adicionales que voy a reunir en uno solo sin gran análisis.
Además de los puntos anteriores, se mencionaron los problemas de campo como elementos para dudar de la efectividad de las encuestas. Todos aquí sabemos que estos problemas son reales.
También se incluyó en la agenda el tema de los rechazados. En los trabajos posteriores a las elecciones, en El Universal hicimos varios intentos para ver cuál era la relación con esto, y no encontramos relación de que las encuestas con mayor tasa de rechazo estuvieran más lejos de los resultados electorales, o sea que hubieran sido menos efectivas.
Sin embargo, descubrir el común denominador de quienes rechazan contestar una encuesta y su relación con la intención de voto o la simpatía partidista queda como una incógnita que nos plantea un reto más.
Por último, están los cuestionamientos no metodológicos, podríamos llamarlos éticos o algo así. En este caso se mencionó la posibilidad de que los encuestadores sesgáramos o cuchareáramos nuestros resultados en beneficio de algún partido o candidato.
El papel de los modelos de votantes probables fue incluido en esta discusión como parte central; sin embargo, como este punto no responde a discusiones metodológicas no me extenderé en este análisis. Para intentar evitarlo se ha intentado endurecer la regulación, pero no me parece que este camino haya rendido demasiados frutos.
Se puede cumplir con los requisitos que exige la ley y, sin embargo, encontrar la forma de sesgar deliberadamente los resultados a favor de cualquier opción, sea con un modelo de votantes probables, con el orden de la pregunta en el cuestionario, con la muestra, etcétera.
Finalmente, será la trayectoria de cada casa encuestadora la que permita sacar conclusiones sobre este punto en particular.
Estudios electorales 2006
Francisco Abundis
EXTRACTO
¿Cuál es la diferencia entre las encuestas de salida de 2003 y 2006? Que los datos no se ven igual. Dado lo cerrado de la contienda, no necesariamente se reportó ganador, y cuando se hizo, no se reportaron los mismos ganadores. En general, el error medio de cada una de estas mediciones es menor que el de 2003, es decir, fueron más precisas que las mediciones de 2000 y 2003.
La única diferencia es la frustración ciudadana, que sucede cuando las encuestas o los instrumentos de medición no dan ganador, pues en términos estrictamente estadísticos, las mediciones de 2006 tienen menos error que las de las dos últimas elecciones federales.
Francisco Abundis
-Francisco Abundis: Un agradecimiento al IFE por la oportunidad de tener este espacio de reflexión.
Si bien la temática general de nuestras presentaciones es un análisis metodológico, creo que siempre habría dos formas de hacerlo: como gremio y como consultoría.
Cómo nos comportamos como gremio, es un poco lo que han hecho Carlos Ordoñez y Ricardo de la Peña, y en lo personal cómo explicamos nuestros propios datos y qué comportamiento pudieron haber tenido.
Eso nos remite inevitablemente a cómo estamos reportando nuestros números y cómo nos estamos comunicando con los medios de comunicación y con otros analistas.
Algunos tenemos la convicción de que la mitad de las diferencias que estamos teniendo como gremio tienen mucho que ver con temas que tal vez no nos habían puesto en tal dilema y, en una elección tan cerrada como ésta, discusiones que hemos tenido en otros foros, como si se publica con décimas o no; si una vez que el margen de error es más grande que las propias décimas se debe de manejar más bien un criterio editorial.
Creo que la idea de este seminario, a diferencia de otros que se han tenido, es buscar ese tipo de comunicación.
Creo que no nos vamos a poner de acuerdo, para bien o para mal, pero al final por lo menos sabremos qué está haciendo cada quién y cómo estamos reportando.
Y este es el propósito de esta presentación: hacer un análisis metodológico, pero también finalmente explicar cómo se toman algunas de estas decisiones editoriales o no de lo que hacemos.
Empezamos. Quiero hacer una reflexión sobre el contexto preelectoral; uno sobre lo que fueron los resultados de encuestas de salidas y conteo rápido, a lo cual ya se refirió un poco el Presidente Consejero, con resultados muy similares, comparando dos elecciones, 2000 y 2003, y cómo nos podemos ver como gremio o a la luz del público, en términos de los datos que se nos están demandando.
Y finalmente haré un análisis metodológico sobre modelos de votante probable, que, en el caso de Parametría, en general no hubo mucho modelaje y desde mayo así lo estuvimos reportando; qué hubiera pasado si hubiéramos decidido modelar cada uno de nuestros resultados. Y ésta es una reflexión alrededor de eso.
Y finalmente, la visión que puede ser más autocrítica, en términos metodológicos de Parametría, que es cómo desciframos nosotros la elección entre lo que pasó en nuestras encuestas preelectorales, lo que pasó con nuestras encuestas de salida, finalmente el conteo rápido, y analizar la hipótesis de sesgos a partir de muestreo, supuestos detrás del muestreo y cómo eso podría haber afectado nuestros resultados.
Estas son encuestas preelectorales de la última semana, las que se publicaron que en el gremio -para bien o para mal- siguen siendo las más visibles, sigue siendo la forma de evaluar el trabajo de cada consultoría.
Sobre esto nuevamente debemos llamar la atención: hay quienes creemos que en realidad, el juicio público viene muy por encima de estos datos, que es la última preelectoral.
Al final, donde el gremio casi unánimemente se comporta mejor tiene que ver más con encuestas de salida y conteos rápidos.
Creo que estos números nos llevarán a varias reflexiones. Por allí viene también esta idea de temas de muestreo.
El dato que tiene menos error en general para cada una de estas series es el que tiene que ver con López Obrador. Creo que es donde en general en todas las series se registró menos error, incluso menos varianza con el tiempo.
El de Felipe Calderón fue el más subestimado y el más sobreestimado fue el de Roberto Madrazo, pero ésta es una constante prácticamente en todas las series.
Creo que el único que en ese sentido se comportó de otra manera, incluyendo este último dato y el de la mayor parte de las preelectorales fue precisamente el de GEA-ISA, quien tuvo al PRI, prácticamente en la mayor parte de sus mediciones, por debajo de 25 puntos.
Ahora, con esto no se comporta el supuesto de que necesariamente esta medición 15 días antes tuviera que ser la más precisa, suponiendo que las cosas no hubieran cambiado en 15 días, y estos son los últimos datos que medimos y que ahí hubiera que reflexionar sobre el error que pudimos haber cometido.
Creo que el análisis más importante puede venir sobre cómo estuvimos midiendo al PRI, que es el que trae mayor error, yo creo que en prácticamente todas las series, salvo algunas excepciones.
Estos son los datos del 6 de julio de 2003. Como hace un rato sugería Luis Carlos Ugalde, estos resultados, en general, fueron muy bien evaluados, no necesariamente son más precisos a los que se tuvieron en 2006 como para el ejercicio de encuestas de salida y también incluye conteo rápido, la gran diferencia es que tenía por lo menos un par de virtudes que tenía al ganador claro, todos ellos tenían al ganador claro.
Tenían el orden correcto entre uno, dos y tres, que era lo que más se estaba demandando como información. Y entonces pasa a segundo término todo el problema del error promedio, si el error promedio de una serie fue más grande en otra.
Esta fue una elección probablemente muy similar a lo que pasó en 2000. Diferimos mucho en preelectorales, el día de la elección en 2000 prácticamente todo mundo midió bien o reportó datos con poco error, y este era el caso en 2003.
¿Cuál es la diferencia en 2006? Que los datos no se ven igual. Dado lo cerrado de la contienda no necesariamente todo mundo reportó ganador, no se reportaron los mismos ganadores y, digamos, en este caso ya no estamos hablando de preelectorales, estamos hablando de conteos rápidos y encuestas de salida, lo cual no nos había pasado en 2000 ni en 2003, por lo menos en éstos, como gremio, habíamos salido bien librados dado la demanda de información que teníamos.
Esto sobre los resultados de encuestas de salida. En general el error medio de cada una de estas mediciones es menor que el de 2003, es decir en términos de precisión fueron, aún en encuestas de salida, y ahora van a ver la tabla de conteos rápidos, prácticamente cada una de estas mediciones fue más precisa que en 2000 y que en 2003.
La única diferencia es esta frustración ciudadana que sucede cuando las encuestas o los instrumentos de medición no dan ganador, digamos algo de lo que le pasó al Instituto Federal Electoral.
Una hipótesis sería, fue algo que le pasó también al gremio o pasó a ser juzgado por esos mismos números. Pero en términos estrictamente estadísticos, estas mediciones tienen menos error que en 2000 y que en 2003.
Estos son los conteos rápidos, no es una lista del todo exhaustiva, pero es simplemente para poner algunos ejemplos. Las dos consultorías que aparecen al final no dieron ganador, es decir, no hubo, fue un empate como tal y se reportó, que ahí entraríamos al tema editorial de cuáles eran los números de estas dos consultorías. Creo que podría ser importante para la historia de esta elección si tenían décimas arriba a un candidato o a otro, porque la posibilidad de que estos números fueron 36-36 ó 35-35 en términos estadísticos, es mucho menor a que hubiera cualquiera de los dos candidatos con décimas arriba.
En el caso de DBGS, ARCOP, GEA-ISA tienen en general ligeras sobreestimaciones para el candidato ganador. Tal vez el más notable es el de ARCOP, que da alrededor de tres puntos de ventaja, es decir, una sobreestimación de alrededor de 2.5 sobre lo que fue el resultado final; lo mismo pasa con BCG y con GEA-ISA.
Llamo la atención sobre esta reflexión, porque creo que va a ser un punto de debate en la mesa de la tarde, de cómo estamos reportando y hasta dónde puede tener alguna utilidad o no, o si, en términos comunicativos, es más confuso el tema de reportar con décimas, que fue lo que hicimos nosotros, que lo hizo también María de las Heras desde las preelectorales, y si tiene sentido no reportar con décimas cuando estamos reportando un margen de error, en este caso, para conteo rápido, de más de un punto porcentual.
Criterios editoriales contra criterios, más que de precisión yo diría de transparencia, de cuáles son los datos que tenemos. Nuevamente, prácticamente todas estas mediciones en promedio son más precisas que en 2000 y que en 2003, pero pasados por el juicio público vamos a ser más criticados y el saldo del gremio no es tan bueno, ni siquiera en conteo rápido y encuesta de salida, como fue en 2000 ó en 2003.
Ahora bien, respecto de estas decisiones metodológicas. Por ahí de mayo, en una reunión que organizaron Luis Estrada y Pablo Parás, con la Universidad de San Diego, varios tuvimos la posibilidad de explicar qué estábamos haciendo, cómo estábamos reportando, qué pasa cuando estamos reportando dos números, si reportamos nuestra medición bruta y luego reportamos la medición modelada; si eso, en términos de comunicación, ayuda o perjudica a lo que estamos haciendo; ya no estamos en la discusión de si se está reportando por intervalo o no.
En esa reunión, finalmente la decisión que nosotros expresamos, que se conservó durante buena parte de la campaña, fue decir: Estos son nueve modelos, presentados en momentos distintos; en mayo y dos en junio, donde lo que van a observar en general es que, dependiendo del modelo, podemos cambiar de ganador, que es donde a nosotros nos empieza a parecer delicado el tema del modelaje.
Por ejemplo, si tomáramos el modelo tres de junio, del 10 al 13 de junio, tendríamos que nuestro ganador hubiera sido Felipe Calderón; lo mismo pasaría con el modelo dos, en esas mismas fechas y, bueno, incluso con el primer modelo en mayo del 2006.
Estos datos simplemente les pediría que los compararan con la población en general que, en esos meses, esos números se podrán parecer un poco más a lo que fue el resultado electoral final, a excepción de junio de 2006.
Lo mismo pasa con cada uno de éstos. Yo creo que cada quién tiene preguntas filtro; esto no es postestratificación, se las describo brevemente.
El primero, son los que están muy interesados en la elección presidencial; los que están muy interesados y están seguros de votar por el mismo partido; los que están interesados y están muy seguros de votar por el partido que están reportando, y la probabilidad de que vayan a votar es igual o mayor de nueve.
Como verán, cada una de las “enes” que nos quedan abajo, podría ser un indicador de participación, y una forma de escoger uno de estos modelos podría ser si se parece a lo que se va a estimar como la participación para esa elección; si uno estimaba que sería 55 por ciento en una base de mil, nos pudiéramos quedar entre 500 y 600 casos, como un criterio.
El modelo 4, aquellos que están muy interesados en la elección presidencial y están muy seguros de votar por el mismo partido, y la probabilidad de que vayan a votar es igual o mayor a nueve y, además, votaron en la elección de 2000.
Como verán, cada uno de éstos presenta diferentes combinaciones; presenta una combinación de interés de la elección, que es un tema más de actitud; el último filtro de Bot en el 2000 es uno de comportamiento.
Al final, por ejemplo, este modelo cuatro nos cierra mucho el filtro y nos deja entre 353, 348, 329 casos; probablemente para esta elección lo que van a observar en algunos de estos filtros, si los ven con detalle, es que entre más cerrado, entre la “N” sea más pequeña, parece que nuestro modelo hubiera funcionado mejor, es decir, el indicador de participación no hubiera sido útil para esos modelos.
Si nos quedamos con los modelos de alrededor de 500 ó 600 casos, no necesariamente ayudan en la precisión en la medición, pero sí en el supuesto de que los cerremos sobre 300 o 400 casos.
Lo que es interesante de esto, como reflexión nuevamente y como revisión metodológica, es que la mayoría de ellos a quien nos corrige más es al PRI. No nos ayuda tanto para encontrar el diferencial entre PAN-PRD, pero al que lleva la baja, dada la sobrestimación que tuvimos del PRI de alrededor de 4 puntos, 3 puntos y algo, lo que corrigen mejor estos modelos es al PRI o a la Alianza.
Otros ejemplos de cómo están hechos estos modelos, el 5, aquellos que están muy interesados en la elección presidencial y están muy seguros de votar por el mismo partido, que votaron y la probabilidad de que vayan a votar es mayor o igual a 9, y además votaron en el 2000 y conocen la fecha de la elección, este último indicador como un aproximado que nos ha servido mucho.
Como reflexionaba Carlos Ordoñez, esto también lo hemos hecho para elecciones locales y en realidad depende de la elección, pues el modelo que nos funciona es uno distinto.
Regularmente la variable -y probablemente muchos de ustedes, investigadores, tienen experiencia de esto-, el conocimiento de la fecha de la elección resulta ser, en términos de simplificación, el que sería el modelo más simple y de pronto el más preciso.
Para esta elección creo que pocas veces habíamos notado tanto movimiento al aplicar cada uno de estos modelos y que pudiera cambiar un número entre dos y cinco puntos, dependiendo de cuáles eran los filtros que se aplicaban.
Finalmente estos son otros tres en combinaciones distintas. Para varios propósitos, el modelo 9, en varias de esas fechas, ya revisado como resumen, es el que frecuentemente nos ha dado más en elecciones locales y en términos de simpleza o limpieza es el que nos ha generado menos problema.
Si éste lo hubiéramos aplicado para esta elección, simplemente se nos hubiera cerrado a un punto en nuestra preelectoral, nuevamente asumiendo que esto sirve para medir votantes probables y que no pasa nada en los últimos 15 días de la elección.
La reflexión es: no había nada claro sobre cuál hubiera sido la contribución de esos modelos, la única clara, más o menos, en la mayor parte de ellos, es que sí nos hubiera ayudado a corregir la sobrestimación del PRI.
Hay una parte de éste, lo que podríamos llamar error en sobreestimación y bueno, entrar a un tema básico de muestreo de qué pasaría si hiciéramos un muestreo muy simple, poco estratificado, de pronto poco sofisticado, un poco para ir al origen del problema, dado los números que ustedes vieron en el conteo rápido.
Aun en el conteo rápido tuvimos una sobrestimación del PRI de 2 puntos y algo, que para un conteo rápido es bastante, dada la precisión que tuvimos entre primera y segunda fuerza.
Entonces, eso nos lleva a toda una reflexión sobre muestreo, qué es lo que pudo haber sucedido en el procedimiento, bajo qué supuestos partimos y qué hubiera funcionado mejor.
Esto es el número de secciones electorales y el número de votantes por sección electoral. Creo que un procedimiento convencional puede ser reordenar estas secciones por su tamaño y entonces hicimos el ejercicio de qué hubiera pasado si hubiéramos hecho muestreo muy sencillo, muy poco estratificado, simplemente replicando respecto a elecciones de 2000 y 2003.
Y éstos son, dados los resultados de esta elección, éste es el resultado oficial de 2003. Estos son tres ejercicios de muestreo y estas mismas muestras cómo hubieran funcionado para 2006.
Curiosamente con este diseño de muestreo poco elaborado, simplemente reordenando las secciones por tamaño, tomando en cuenta su varianza, resulta que cualquiera de estas muestras funciona, digamos, no cualquiera, pero nuevamente en el caso del PRI es donde viene la mayor corrección y algunas, como la muestra 3, por ejemplo, puede resultar relativamente precisa, y esto es nuevamente replicar respecto a lo que sería el resultado oficial de 2003, que fue una federal intermedia.
¿Qué es lo que pasa? Que fue la réplica que utilizamos en parametría. ¿Pero qué hubiera pasado si nos hubiéramos ido hacia 2000? Que en principio es una elección que fue también presidencial, pero estaba más alejada en el tiempo.
Lo que pasa con esta réplica es que en estos otros tres ejercicios de muestra, esto lo puede hacer uno, como ustedes bien saben, con máquina en infinito, pero son simplemente los ejemplos que nos parecen ilustrativos, puede replicar muy bien respecto a 2000. Tomamos algunas con error mínimo o con una desviación promedio mínima, y lo que encontramos es que la desviación promedio de estas muestras funcionando para 2006, hubieran en general todas funcionado mejor de lo que funcionaron las de 2003.
Primera diferencia, y nuevamente al partido que corrigen más es al PRI, o es donde la sobreestimación o los errores de medición se corrigen más, y este mismo ejercicio, si lo afinamos, no necesariamente por cómo replicaron respecto al 2000, sino el diferencial, asumiendo una competencia de dos, López Obrador y Calderón, hubiera sido prácticamente una muestra perfecta.
Eso asumía nuevamente una competencia de dos, no necesariamente un ejercicio de réplica hacia el 2000. Nosotros consideramos que en lo que se refirió al conteo rápido, la muestra que tuvimos fue, no obstante la precisión entre primera y segunda fuerza que tuvimos, muy anormal en nuestra sobreestimación del PRI, porque en estas muestras ni en las anteriores sucede prácticamente, y la mayor parte del error que podríamos tener en todo caso, dado que estas muestras funcionan, tuvo que ver mucho más con error no muestral, para lo que se refirió no tanto en la encuesta de salida ni en el conteo rápido, sino asumiendo que nuestras preelectorales tendrían que haber tenido el mismo nivel de precisión que los conteos rápidos y encuestas de salida. Pero ése es otro tema.
Básicamente nuestro diagnóstico de autocrítica es: tuvimos hasta el final un problema de muestreo, en particular con una sobreestimación del PRI; tuvo que ver con haber asumido una competencia si no de tres, necesariamente mucho más pareja; no haber hecho un diferencial entre primera y segunda fuerza, y haber replicado respecto a 2003, que fue una elección intermedia federal.
-Edmundo Berumen, moderador: Quisiera, sin ser expositor, de escuchar lo que escuché, que no fue la intervención completa, intentar aportar algunos elementos que desde mi punto de vista están ausentes en esta discusión sobre metodología, y que pienso es el tema central de la mesa.
Creo que el más capacitado para hacerlo es el IFE. Y el IFE es el más capacitado, desde mi punto de vista, porque exigió a todas las casas encuestadoras que entregasen toda la documentación relevante de los ejercicios demoscópicos que iban a realizar y, por lo tanto, tiene un acervo de información sustancioso e importante, que puede poner en claro muchas cuestiones metodológicas, que algunos quizás juzguen triviales pero que desde mi punto de vista no creo que lo sean. Permítanme ilustrar algunas de ellas.
Uno pensaría que a estas alturas del juego en las encuestas que estamos comentando, la pregunta sobre intención de voto sería igual. Y lo que descubriremos es que hay prácticamente tantas variables, como casas encuestadoras.
Paralelo a ese ejercicio preguntaría: ¿Y qué número de pregunta dentro del cuestionario de cada casa encuestadora fue la pregunta de intención de voto? ¿Fue la primera, la segunda, la tercera, la cuarta, la quinta? ¿Qué temas abordaron antes de llegar a la encuesta sobre intención de voto?
Toda esa información la tiene el IFE. Procesarla nos daría un documento sobre qué hicimos los encuestadores, para poder hacer una taxonomía más interesante que aquélla de: los que trabajan para medios, los que no trabajan para medios; los que trabajan para candidatos, los que no trabajan para candidatos.
Yo creo que hay taxonomías mucho más interesantes que ésas, para hacer un análisis puntual y factual.
También sería interesante saber un poquito más sobre los esquemas de selección de los informantes. Nuevamente esa información está en manos del IFE: a quiénes entrevistas, a quien abres la puerta, a quiénes no, y a los que no qué hacen para seleccionar al informante al interior de un hogar en muestra.
Y habiéndolo seleccionado, quiénes lo sustituyen ante dificultades para entrevistarlo y quiénes no. Y en la no sustitución: qué esfuerzo hacen para ubicar al seleccionado, si lo vuelven a visitar o no.
Esos aspectos metodológicos nos arrojarían unas taxonomías interesantes para después clasificar los resultados.
Modelos de votantes probables sí los han esbozado en la mesa, sí han hablado de ellos; nos han dado unos, con detalle, simplemente filtros aplicados para limpiar y quedarnos con una subbase de informantes con la cual hacer estimaciones.
Otros nos dijeron: tenemos algunas funciones por allí, las aplicamos y sacamos algo una ponderación si esto se convierte o no en un votante probable.
Pero no sabemos bien a bien cuál es el detalle; no sé si este detalle se encuentre en la información entregada al IFE. De modo que no cuento con la misma certeza anterior para poder hacer ese tipo de análisis; no sé si esté así de detallada la información que se le entrega.
Escuchamos decir los encuestadores una y otra vez que no pronosticamos y que simplemente reportamos lo que el informante colectivo nos dice, a través de la estadística sintética.
Pero el informante sí pronostica. Él sí está haciendo un pronóstico al contestar la pregunta sobre intención del voto, y en su proceso mental y de percepción, al ofertarnos una respuesta, sí nos está ofertando un pronóstico.
Un ejercicio interesante para realizar más adelante sería ver qué análisis podemos hacer para interiorizarnos más en ese pronóstico, no nuestro, sino del informante.
A mí siempre me han dejado insatisfecho estos ejercicios que hemos escuchado de los colegas contrastando sus estimaciones, ya sea de sus series, del promedio de su serie, al final contra el resultado oficial y a la luz de ese contraste calificar de acertado o no acertado.
Para mí no es un ejercicio de atinadores, a ver quién le atinó y quién no le atinó. Para mí es un ejercicio de metodologías, de ver quién tiene una metodología consistente, persistente, válida y relevante de lo lejos o cercano que esté el resultado de las estimaciones que ofreció a lo largo de sus series o con su última estimación.
La metodología, al mayor detalle que se pueda conocer, permitirá tener una idea y un juicio sobre la casa encuestadora y, por supuesto, la cercanía que obtuvo con el resultado oficial, pero para mí eso sería más anecdótico que un ejercicio de parámetro de robustez técnica sobre lo que está haciendo la casa encuestadora.
Otro tema, para mí controversial, quizá para otros colegas no lo sea, es: así tenga yo una muestra gigante, la más grande de todas las realizadas por cualquier casa encuestadora, si la estimación entre el primero y segundo lugar es menor de equis -y discutamos qué debe ser equis-, si debo o no salir y pronunciarme identificando con mi ejercicio a un ganador. .
Este tema se extiende no sólo al ejercicio de encuesta antes de la jornada, sino al día de la jornada para las encuestas de salida y los ejercicios de conteo rápido.
¿Cuál sería la alternativa? Si la diferencia entre el primero y segundo lugar es menor que equis y la discusión es no te pronuncies. Entonces la declaración a ofertar a quienes están pendientes del resultado es, señores, la elección es tan cerrada que es menor a equis y aunque tenga un resultado que identifica a uno de los contendientes por encima del otro no lo ofrezco porque lo más saludable es esperar a conocer los resultados del miércoles o jueves siguiente. Ese es el tema. Gracias.
-Edmundo Berumen, moderador: Ahora tenemos una sesión para discusión y análisis; no sé si quieran hacer algunas preguntas a los expositores. Se abre la mesa. Por favor, les pido que cada persona que pregunte dé su nombre y de dónde viene, por favor.
-Arturo Sánchez: Hay una cuestión que vi en las exposiciones que me llamó mucho la atención, sobre todo esta idea de las series que se van presentando y cómo se van moviendo resultados, pero todos tienen como referencia los debates.
¿Hay alguna estimación sobre variaciones a partir del inicio de determinado tipo de campaña?
Algo que nos podría ayudar mucho es si en efecto en el debate que nos interesa, con el nuevo tipo de campañas sucias o negras o que se dieron, en términos generales ¿hay algo que nos pudiera medir la intención de voto a partir de que las campañas tomaron un giro distinto? Gracias.
-Ricardo de la Peña: En torno a esta pregunta, creo que las diversas casas encuestadoras metimos en diversos momentos preguntas que podían fungir como indicadores, algunos específicamente aspectos muy puntuales de la propaganda, preguntas sobre conocimiento, reconocimiento a un anuncio determinado o de un mensaje dado. Algunos otros metieron preguntas genéricas. En fin, cada casa encuestadora tuvo una forma peculiar.
Sé que hay esfuerzos; algunos comenzaron ya a darse a conocer, de aproximación de mediciones, de volúmenes de anuncios difundidos versus preferencias detectadas. Creo que a medida que vayamos avanzando tenemos que ir trabajando toda esta información y viendo qué proximidad pueda tener.
Lo que sí comentaría es que, en este caso, pusimos estos puntos por ser momentos fijos en el tiempo, genéricos y constatables únicamente como orientadores de momentos. Incluso puede afirmarse que las variaciones que ocurrieron durante la campaña no fueron consecuencia directa única y exclusivamente de los debates, y que el movimiento fundamental de cambio en el liderato de la contienda se dio aún antes del primer debate y, muy factiblemente, vinculado a estrategias de propaganda, desarrolladas por los partidos políticos y sus candidatos.
-Francisco Abundis: Yo creo que ahí, en términos de medición, los mejores diseños tienen que ver con pretest, post-test; y en general son bastante caros.
Yo creo que varios hemos hecho intentos de medir a poblaciones específicas, o a través de telefónicas, gente que es público atento al debate, ver su comportamiento antes y después. En un ejercicio que intentamos hacer con el segundo debate, en una telefónica, balanceamos la muestra partidistamente, según un dato estimado, curiosamente lo fijamos en 35-35 para López Obrador y Felipe Calderón; creo que le asignamos como 26-27 a Madrazo.
Aún una muestra controlada, previa al debate con esos números, dio ganador a Felipe Calderón en un post-test, con una cantidad de dos, tres puntos, digamos. Lo interesante es que teníamos algunas variables de control, para ver cuál era la precondición de esa muestra, y ya desde antes del debate, la gente, aun los que estaban votando PRD, ya manifestaban en este grupo controlado que creían que iba a ganar Calderón.
Tal vez el mejor de los ejercicios sería que se hiciera en vivienda y con otros filtros, para ver si son partidistas o un tipo de preferencia no dura, no tan estable.
Creo que en general son ejercicios muy endebles; lo que dice la literatura en general es que los debates tienen poco efecto, porque quien ve un debate es un elector muy sofisticado e informado, y la posibilidad de efecto sobre ese elector es mínima.
-Eduardo Ragazol: Para cualquiera de los tres que quiera responder. En general, vimos claramente una sobreestimación del PRI en prácticamente todos los ejercicios.
De acuerdo, si tomáramos otro modelo para construir la votación total de cada uno de los partidos, un insumo muy interesante pueden ser las encuestas de salida.
¿Cómo podríamos explicar esa sobreestimación del PRI? O, al final, lo que pasó en el resultado de la elección, donde ganó el PAN por el margen que ya sabemos. Si adoptáramos un estilo de construcción del número de votos total, utilizando la información que nos dan las encuestas de salida, los exit polls.
Tengo una hipótesis; tal vez ustedes me la puedan corroborar o desechar. Tiene que ver con dos factores: uno, que al final, el día de la elección, efectivamente, se dio un fenómeno de voto útil, en donde votantes que, en teoría, habían declarado su intención de voto por el PRI, dividieron esa impresión del voto por cualquiera de los dos, el PAN o el PRD.
Y a eso se sumaron más votantes de los esperados que, digamos, fueron incitados a participar en la elección. Esos votantes adicionales, más de lo esperado, votaron más por el PAN que por el PRD.
Esto, de alguna manera, parecen corroborarlo los modelos que ustedes pusieron, en términos del filtro de votantes probables, puesto que, viendo el ejercicio que hizo Paco, vimos muchos menos votantes. Es decir, hay filtros tuyos que señalan, de mil nos vamos hasta 370, o sea, parece que realmente, de acuerdo con esos modelos, pudiéramos haber esperado menos votantes de los que efectivamente fueron a la elección.
¿Cómo ven ustedes esto si lo vemos desde el ángulo de construcción del voto total, a partir de lo que nos dicen las encuestas de salida?
-Ricardo de la Peña: Creo que las encuestas de salida no nos dieron una evidencia concreta que permita hablar de un patrón peculiar de pérdida de voto, por parte del PRI, durante las últimas dos semanas. Esto es más constatación empírica, a partir de las encuestas de salida, de que los decisores de última hora hayan sido particularmente anti-priístas. Diría yo que la hipótesis, entonces, no caería sólida a partir de esos datos.
Aunque sí hubo una tendencia generalizada a la sobreestimación del candidato Roberto Madrazo y una subestimación de Felipe Calderón, yo reiteraría el punto de que hubo diferencias muy importantes en los niveles promedio de sobreestimación y subestimación; hubo diferencias, a lo largo del tiempo, que nos hablarían de sesgos sistemáticos de casas encuestadoras que tendieron a medir más alto a Madrazo que otras y a medir más bajo a Calderón que otras y esto provocó estas diferencias.
De hecho, pueden verse a nivel de matriz de proximidad entre las series de encuestas a lo largo del tiempo, unas y otras, y la forma en que se agruparían las propias series de encuestas de divergencia.
Entonces, el fenómeno del PRI no sería explicable, aunque sí una parte de su componente, por cambios de última hora, toma de decisiones, votos útiles o tal, que le dé un remanente diferencial entre una serie y otras características en particular, como fenómeno de mediciones con sesgos temáticos entre unas y otras.
-Francisco Abundis: Me quiero apoyar en esta tabla.
La sobreestimación del PRI prácticamente pasa en todas las series preelectorales. Nosotros entramos a esta reflexión porque aun en el conteo rápido y en la encuesta de salida tenemos todavía esa estimación del PRI, que solamente se podría explicar por un tema muestral y es por el cual entramos a ese tema. Sin embargo, en varias de las preelectorales -no necesariamente-, tal vez nuevamente tendría que ver con error no muestral.
De hecho Roy tenía un cuadro muy interesante de cómo participaron los estados panistas y cómo los perredistas. En general, los menores niveles de participación están en los estados de circunscripciones 4 y 5, a excepción tal vez de la ciudad de México, pero todo lo que fue Oaxaca, Guerrero o incluso estados como Michoacán, tienen niveles de participación de un diferencial, si no me equivoco, hasta de 15 o 20 puntos por debajo de los estados del norte, si vamos a temas regionales.
Nosotros tenemos otro ejercicio, como el número de gente que participó que tenía alguna vinculación con programas sociales del gobierno federal. En promedio, quien tenía alguna vinculación con Oportunidades, con ellos como beneficiarios o algún familiar, Calderón está entre 6 y 7 puntos por arriba del promedio que obtuvo en la elección y, de esos electores, uno de cada 4 dijo haber tenido algún tipo de relación con Oportunidades en particular.
Los dos ejemplos más claros que tenemos es regional y gente que estuvo asociada o vinculada a algún programa social, en términos de quién salió a votar o ese diferencial. Esto creo que es muy complicado medirlo con modelos y eso me remite a un comentario del doctor Berumen, yo creo que realmente nuestra última preelectoral tendría que haber sido más precisa del resultado final.
En realidad la reflexión está hecha sobre encuestas de salida y conteos rápidos, que fueron bastante precisos, mucho más precisos que en 2000 y que en 2003, pero se pierde de vista por la misma razón que se pierde de vista la precisión del PREP o un conteo rápido con 7 mil 600 secciones electorales, como fue el del IFE.
Lo interesante es que en prácticamente todas las preelectorales estos números o ya en los de conteo rápido, se ve que la sobreestimación no fue tan grande como la teníamos en las preelectorales. Sin duda estamos entonces en un tema más allá del error no muestral, creo que sí estamos en un tema de participación. Allí el tema central es quiénes fueron o quienes son esos grupos más motivados.
-Pregunta: No vi qué escalas usa Francisco, pero sí vi las del Universal, que es de una a diez. El problema de las escalas es que introduce una fuente posible de error de medición, que es el uso mismo de la escala.
Entonces, yo recomendaría que revisaran las escalas y probablemente de una a diez no es la más adecuada. Yo he encontrado que de una a diez siempre tienen distribuciones muy poco normales, de una a siete son mejores. No sé cómo le haga Paco, pero creo que de una a diez hay muchos problemas en lo que se refiere a votantes probables.
Pero la verdad el conteo que quiere hacer tiene más que ver con la pregunta que hizo el consejero Arturo Sánchez y con el asunto de medios. Efectivamente, el asunto de los efectos de medios es finalmente donde se ha centrado la disputa electoral, postelectoral. Si se hizo mal, ha sido el reclamo, no del procedimiento del IFE, y entiendo que hay mucho interés en llevar las cosas hacia allá.
El problema es que el estudio de textos de medio no tiene consenso, es una discusión muy amplia y no se sabe si hay efecto de medios, si no hay, etc., y hay muchas maneras de medirlo. Pero no sólo con encuestas se puede.
Ustedes tienen dos fuentes de información que pueden enriquecer de manera impresionante el estudio de los medios y de sus efectos, que son el uso puntual, diario, de la publicidad por parte de los partidos. Alguna vez hice un artículo que después de cuatro años se publicará el año que entra, sobre el año 2000, utilizando ese tipo de información.
Y la otra, que es una fuente impresionante y una maravillosa información, que yo creo que debe ser también disponible, pero de manera puntual y detallada, lo más detallada posible, es el de la evaluación de los segmentos noticiosos.
Entonces ahí tienen esta información agregada, información no individual obtenida por encuestas, pero en donde se pueden ver cosas interesantísimas. Se ha hecho, hay efectos, porque en realidad sí hay una cosa que hace muy distinta y es la manera como los medios compraron la publicidad, muy criticada por los partidos, sobre todo el PRD. Pero precisamente después del debate, el PRD casi duplicó -o quizás triplicó- su inversión en medios.
Sí, hay ahí cosas interesantes. Hay que considerar dos cosas, la caída de López Obrador del paraíso a perder la elección, en una primera parte, pero también la caída de Calderón. Porque la segunda parte de las encuestas que nos enseñó Ricardo, muestra cómo bajó la segunda parte.
Sería necio pensar que no tiene que ver con la compra de medios, porque basta ver la inversión y te das cuenta. Antes de que el IFE tome decisiones y vaya adelante, va a haber una gran producción sobre efecto en medios, está la encuesta Panec que se está haciendo. Hay muchos trabajos que ya están considerando los efectos de medios, que la verdad creo que es algo muy relevante para el Instituto, porque hay que tomar decisiones sobre el papel que creemos, o deben, o la sociedad les demande sobre este asunto, pues habría que ver si hay efectos. Si no hay efectos, mejor no meternos. Gracias.
-Ana Cristina Covarrubias: Ana Cristina Covarrubias, de Covarrubias y Asociados.
Me refiero a la pregunta del Consejero Arturo Sánchez, y de la cual acaba Ulises de mencionar un comentario. La pregunta alude a que en las series de encuestas se nota una caída importante de la votación a favor de López Obrador. Que si esto de alguna manera está medido, como para saber si fue el debate o si fueron producto de la propaganda, o si fueron las dos cosas.
De manera muy sencilla yo digo que la forma más simple de medir esto es cómo se tiene una encuesta electoral pre, se tiene una encuesta electoral predebate y otra postdebate. No evaluando el debate, sino sencillamente todas las mismísimas preguntas que se hacen antes y después, que son las mismas que se siguen durante todo el proceso.
En el caso de nuestra evaluación encontramos esa caída, y esa caída en respuesta abierta de la población se debe a la propaganda, no tanto al debate, porque el debate fue atendido por una proporción de población muy pequeña. Todos sabemos el rating que tuvo.
Pero el ejercicio que se hizo por parte del PAN de publicidad, y ya no estamos hablando de compra de medios, sino también de creatividad, fue muy efectivo, porque acabó el debate y en el instante en que acabó el debate, salió el comercial en todos los programas importantes en un horario estelar, el comercial que decía Felipe Calderón te ofreció esto, ¿qué te ofreció López Obrador?
Creo yo, y lo tengo registrado en los altibajos de las series que llevamos a cabo, que sí tienen importancia los dos elementos, pero definitivamente fue mucho más importante el impacto de la parte publicitaria. Y la mención es una más pre y post en la encuesta que normalmente está vacía.
Ahora, por otro lado, quiero dirigirle a Francisco Abundis una pregunta, que tiene que ver con las dos gráficas que hemos estado viendo varias veces, sobre las encuestas electorales y los conteos rápidos.
La pregunta es esta: ¿fueron publicados el día de la elección?
Porque un elemento que yo defiendo -y anticipo un poco de mi ponencia-, es que todo lo que se discuta aquí debe de ser lo publicado, en tanto que ésa es la materia de estudio para el IFE. Lo no publicado no es materia de estudio para el IFE; puede ser materia de reflexión en un foro, más no es el tema central.
Entonces la pregunta es que si fueron publicados así como aparecen aquí, en medios masivos, las encuestas de salida y conteos rápidos, de los cuales se da fe.
Y por lo que se refiere a la estimación del PRI a la sobreestimación del PRI, caería yo en una contradicción si dijera que permanentemente desde enero nosotros tuvimos consistentemente al PRI en tercer lugar, a la misma distancia en la que quedó.
¿Pero por qué caería en contradicción? Porque no lo publiqué, y si no lo publiqué no tengo derecho de hablar. Según yo, en esto, debemos de hablar de lo publicado, porque eso es lo que realmente afecta a la población. Es todo. Muchas gracias.
-Francisco Abundis: Sí. Los datos los tomé del Excélsior del 3 de julio, donde está reportando DGC, está reportado ARCOP, está reportado GEA.
-Ana Cristina Covarrubias: Después de que ya había salido el PREP.
-Francisco Abundis: Nosotros publicamos ese día nuestro dato de conteo rápido.
En todo caso, el de BIMSA sería como el más interno, pero circuló entre quien contrató su servicio y el de consulta, que los números no estoy bien seguro si lo sacaron de un boletín. Yo creo que sí eran de un boletín.
Ése no me queda claro de dónde salió, pero fueron los datos que, digamos, el único que fue de un público reducido fue el servicio de IPSOS-BIMSA.
Pero básicamente lo que está allí de conteos lo obtuve de Excélsior.
-Cristina Covarrubias: Abundando en esto, siento que una encuesta de salida y un conteo rápido se deben de publicar el día de la elección, si no ya no tienen sentido, porque lo que importa son los datos del PREP, al día siguiente lo que importa es el PREP.
Entonces, cuando hablo de publicación, es publicación el día de la elección. La encuesta de salida una vez que cerraron las casillas y el conteo rápido es cuando se tiene la información.
-Javier González, representante del PRD: Yo tengo más que preguntas varias reflexiones de todo esto. En todas las gráficas que han planteado ha habido diferencias hasta de 7, 8 puntos entre una encuesta y otra, dependiendo la empresa, en el transcurso, en los mismos meses, pero en el transcurso de las campañas.
Yo creo que es muy difícil meternos a ver cuál de esas encuestas era la más acertada o no. Esa parte no hay forma real de medirla.
Podemos decir: según todas estas encuestas, vamos más o menos. Hay encuestas que plantearon una caída de Andrés Manuel muy grande, y hay otras que plantearon una caída de Andrés Manuel, cuando en realidad estadísticamente era improbable calcular, por el grado de error que se tiene.
Yo creo que sí ha habido un uso de las encuestas en varios medios, en donde no se plantea el error estadístico.
Con una diferencia de dos puntos o de tres puntos se marca un ganador, y yo creo que estadísticamente eso no es posible.
Yo creo que parte de la guerra en los medios es que hubo empresas encuestadoras que se prestaron a eso, dando o diciendo: ya rebasó tal candidato a tal otro, cuando la diferencia era de un punto o dos puntos.
Entonces, tengo una propuesta concreta en materia de transparencia para el IFE: que toda empresa que publique alguna encuesta, ya sea en medio electrónico o impreso, permita que toda la gente pueda bajar la base de datos tal cual sin hacerle ponderaciones, sin hacerle nada, su base de datos como estaba y que cada uno pueda analizar y con base en esto tener una realidad.
Yo recuerdo, por ejemplo, las encuestas que se hicieron en Guerrero en la pasada elección para gobernador. El error de las empresas que daban resultados era de arriba de 10 puntos. Se argumentaba la dificultad de encuestar el estado de Guerrero. Es cierto, es un estado complicado y un estado caro de encuestar por la geografía. Pero nunca hubo oportunidad de decirles oye no, estás en un error, no hay una diferencia de 10 puntos a favor del PRI.
Yo creo que esta propuesta ayudaría a que exista transparencia. Hubo empresas que sí dieron resultados que daban unas diferencias de dos puntos marcando ganadores y creo que eso, aparte de la ética de las empresas encuestadoras, no se valdría. Gracias.
-Javier Oliva, representante del PRI: Mi nombre es Javier Oliva, soy representante del PRI ante el Consejo General del IFE y creo que conforme han ido avanzando las intervenciones han llegado a un punto que me parece clave -lo comentaba hace un momento con el Consejero Andrés Albo- sobre el tema de la transparencia.
Quisiera formularles una pregunta y, aprovechando que están también varios de los ponentes de la siguiente mesa para no repetirla, a los partidos políticos y, como lo acaba de expresar el representante del PRD, nos da la impresión que en ocasiones las encuestas se utilizan como herramientas propagandísticas o que forman parte de la estrategia propagandística. Esto es inevitable, digámoslo en el estatus en el que se encuentra la ley y el estilo de las contiendas electorales.
Entonces yo quisiera formularles la siguiente pregunta, que es muy general y entiendo que en esa lógica también esperaría una respuesta análoga.
¿Hay alguna forma de medir el impacto o las consecuencias de la difusión de los resultados electorales en el ánimo mismo de los encuestados o de los electores? Porque me parece que allí hay un elemento importante a considerar.
Y sobre el tema de la sobreestimación al PRI en los aspectos electorales, yo les comentaría pero más bien en privado, cuál es la razón. Gracias.
-Ricardo de la Peña: En todo el impacto de la difusión de encuestas no existe evidencia empírica que permita afirmar si existe un impacto significativo en el electorado.
Cuando habla uno de la publicación de una encuesta particular, podemos decir que cualquier investigación que se haya hecho ha demostrado que su impacto es mínimo.
Ahora bien, ciertamente el conjunto de encuestas que se difunden y que son valoradas por la ciudadanía a partir de un conocimiento genérico de los medios difusores, de los tenedores de información y demás puede ir conformando y fundando una idea por parte de la población de cuál es el estado de la contienda, a nivel muy genérico.
Difícilmente la encuesta de tal o cual casa encuestadora o la encuesta de tal o cual medio de comunicación puede conformar esa idea, pero sí lo hace el conjunto de encuestas que afectan la forma en que la gente va percibiendo, obviamente en la medida en que las encuestas están reflejando efectivamente lo que el propio electorado está percibiendo en su entorno.
Entonces lo que encontramos es que son una especie de espejo que reproduce las creencias de la población y ayuda a consolidar estas creencias, en todo caso, nuevamente sin que haya ninguna evidencia empírica del impacto significativo de una publicación.
-Edmundo Berumen: Yo quisiera agregar una solicitud más. Consultando las encuestas de salida de varios colegas, no encuentro que publiquen la distribución del perfil del votante entrevistado.
Sí hacen la taxonomía por distintos perfiles por quienes votaron, pero no presentan las estructuras de quiénes son esos votantes.
Sería muy interesante y una buena colección de datos que todos aquellos colegas que hicieron encuesta de salida incluyan en la página donde divulgan el resultado, la estructura, sexo, edad, grupos de edad, un tercio, etcétera, de los entrevistados en las encuestas de salida y eso, quizás, sería un puntito más de apoyo a la pregunta de Eduardo Ragazol, para explicarse, intentar a posteriori ver qué pasó con los que encuestábamos y quiénes son los que finalmente votaron, porque esas estructuras no están presentes.
Lo interesante de la encuesta de salida es que, además de la estructura, bueno, tenemos por quién dicen que votaron en la misma encuesta.
Si el IFE así, a su vez, está haciendo la estructura de los que votaron, a través de una muestra de las casillas, pues también va a ser muy importante ese dato, el que se conozca, aunque ahí careceremos del pedazo de información de por quién votaron.
Y como ya lo dijo Manolo, creo que una de las bondades de estas reuniones son las pláticas entre pasillos, que a continuación seguirán, que enriquecen mucho lo que no hay tiempo para comentar por acá.
-Francisco Abundis: Algo muy rápido, hablando de este tipo de conversaciones, el tema de Javier González sobre bases de datos, varios estamos en ese tema, lo que pasa es que no todas pueden ser públicas.
Hay algunas que son de partidos, otras son sindicados, pero, bueno, con Andrés Albo precisamente estamos hablando de la posibilidad, tal vez, de coordinar todo lo que está haciendo el CIDE, lo que está haciendo Pablo Parás con San Diego y, bueno, y a lo mejor podemos comprometer al Presidente Consejero o a alguien, para el tema de recursos, porque hay tres esfuerzos, cinco esfuerzos por separado, para el tema de transparencia, porque varios estamos de acuerdo con eso.
No todas se pueden donar; no todas son susceptibles de que se abran públicamente, pero es un tema que me parece muy relevante y no sé si en algún punto, en la comida, será bueno conversarlo con varios de los involucrados en el tema; en particular, Pablo Parás y Ulises Beltrán.
Y nada más, rápido; en el caso de Guerrero, en defensa de la información, ahí Consulta Mitofsky tiene una serie muy buena, de los últimos 10 días, digamos, desde la última publicación y la última semana, cómo se fue abriendo Guerrero de las mediciones que traíamos tres y seis puntos, hasta ustedes llegaron a 10 y nosotros por ahí el sábado anterior.
Es decir, es uno de los casos más documentados, donde depende qué día se medía, el dato iba cambiando hasta llegar a los 12, 13 puntos, y prácticamente todo mundo dio el ganador correcto, tal vez con excepción de un diario, que fue el único que no dio ganador correcto, pero prácticamente todo mundo dio por lo menos ganador.
-Ricardo de la Peña: Un comentario, nada más, sobre esta idea de que se permita el acceso a bases de datos, sin ponderador alguno.
La mayor parte de las encuestas que estamos construyendo tienen, necesariamente, que tomar en consideración diferentes probabilidades de elección del entrevistado, de manera tal que el dato en sí mismo, sin ninguna ponderación, pudiera carecer de sentido.
Esto es distinto a los procesos de toda esta estratificación que pueda uno hacer, que es un segundo elemento; y un tercer elemento, los modelos que puede uno aplicar para votante probable o tal, pueda incorporar o no a la base de datos.
Es decir, hay factores de ponderación que son de diseño; factores de estratificación que pueden tomarse, y hay modelos que permiten ajustar al votante probable. En todo caso, se quita uno, cuando menos del primero, que carecería de sentido hablar de los datos producto de la encuesta.