Blog

¿Por qué fallaron las encuestas?

Este post fue publicado originalmente en el sitio web de Radio Duna

En algo que está pareciendo costumbre a lo largo del mundo, las encuestas en Chile fallaron en predecir el resultado de las elecciones presidenciales. Si bien cada encuesta tuvo distintos énfasis, los principales fallos se encuentran en la sobreestimación de los votos de Sebastián Piñera y en la subestimación de los votos de Beatriz Sánchez.

Entender qué pasó va a ser de las labores más complejas que tendrán que llevar a cabo los encuestadores nacionales en los próximos meses. Con el ánimo de aportar al debate y, ojalá, abrir la conversación, me permito plantear algunas ideas de qué es lo que puede haber pasado y qué se puede hacer al respecto. Estas observaciones son una mezcla de la experiencia internacional respecto a las fallas de las encuestas (algo muy común últimamente) y la poca evidencia que tenemos disponible en Chile.

Construcción de muestras y error de medición

Las encuestas pueden tener, al menos, dos fuentes de error. La primera es el error muestral, es decir, la diferencia entre la población y la muestra. Cuando tenemos una muestra probabilística (donde todos los miembros de la población tienen la misma probabilidad de ser encuestados), entonces ese error es aleatorio. En términos simples, la existencia de error muestral en las muestras probabilísticas es irrelevante para el cálculo de estimadores, pues se entiende que las distintas características personales que pueden afectar la respuesta se cancelan entre ellos.

Lamentablemente, por temas de costos y de complejidad logística, ninguna de las encuestas electorales cuenta con este método. El más cercano es la encuesta CEP, pero incluye una etapa de estratificación y cuenta con una tasa de no respuesta sin reemplazo. Esta etapa es compleja pues hay segmentos de la población que son difíciles de encuestar, ya sea porque son inaccesibles (como personas de alto ingreso o personas en situación de calle) o porque prefieren no contestar (como jóvenes).

La evidencia del Reino Unido post elección de 2015 mostró que las encuestas habían sido particularmente malas en llegar a encuestar votantes conservadores. Este tipo de errores se suelen corregir con ponderadores a partir del censo, pero los datos censales aún no han sido actualizados con posterioridad al pre censo de 2016 y también tienen límites respecto a lo que pueden hacer. Son útiles respecto a variables demográficas, pero no necesariamente respecto a preferencias políticas (o al menos eso parece).

La construcción de muestras es clave, pues aparte de la CEP, ninguna otra encuesta ocupa etapas probabilísticas. Esto quiere decir que confían de sobremanera en sus mecanismos de pre y post estratificación (en simple “hacer calza” la muestra con la población por métodos estadísticos) basados en los datos censales mencionados anteriormente. Claramente, algo puede estar fallando ahí.

La segunda fuente de error es el error de medición. Éste se refiere a cuando las preguntas que se hacen no logran capturar lo que realmente se quiere. Un clásico ejemplo es cuando le preguntamos a las personas si votaron o no en la elección pasada. Debido a una serie de sesgos de deseabilidad social, las personas tienden a decir qué votaron incluso si es que no lo han hecho. En ese caso, la pregunta no mide realmente el comportamiento de los encuestados.

Cuando se trata de preguntas sobre preferencias electorales, el error de medición se manifiesta, por ejemplo, a través de la presencia de espirales de silencio o de personas que prefieren no declarar sus preferencias, aunque éstas estén tomadas. Para lidiar con este aspecto, la encuesta CEP lleva años ocupando el método de “voto urna”, en el que el encuestado puede declarar su preferencia en una urna sin que lo vea el encuestador. Sin embargo, ese método no dio una estimación cercana al resultado de la elección.

Ambas opciones: problemas en el muestreo y en la medición, requieren de un análisis detallado y exhaustivo. Es importante que se vuelvan a revisar las bases de datos existentes en cuanto se liberen los nuevos datos censales, para saber si los ponderadores eran correctos o no. Además, hace falta análisis académico sobre error de medición, idealmente estudiando distintas fórmulas a través de experimentos.

Votante probable

Se hizo bastante publicidad a los métodos de votante probable usados por las encuestadoras. En un conteo simple, hubo al menos 4 empresas o instituciones que ocuparon modelos similares para estimar la participación (Cadem, CEP, Criteria Research). Todos ocupaban una variación del mismo cóctel: interés en política, participación en elecciones en el pasado y la declaración de qué tan probable es que fueran a votar. Sólo la CEP (al menos en mi conocimiento) agregó datos demográficos de los votantes de las elecciones del 2013. Asimismo, todas las encuestadoras dieron un número entre 45% y 48%, lo que es bastante cercano a la realidad.

Ahora, hay varios potenciales focos de problema en este proceso. Por una parte, el que las empresas lleguen a un porcentaje similar al de votantes reales no asegura en ningún caso que dentro de ese porcentaje de encuestados se encuentren personas similares a los votantes. Por ejemplo, las preguntas ocupadas para generar la probabilidad de voto tienen un sesgo claro: minimizan a los jóvenes. Por lo tanto, se vuelve irrelevante cualquier cálculo de votante probable si éste es incapaz de anticipar quienes son esos potenciales votantes y si se parecen a los verdaderos votantes.

Para reflejar este punto, hice un pequeño ejercicio basado en la encuesta realizada con menor tiempo antes de la elección, la Cadem Plaza Pública Número 201. Esta encuesta tuvo su campo en el martes, miércoles y jueves antes de la elección. En la tabla más abajo pongo las estimaciones del total de la muestra, eliminando a los indecisos (llevando los otros a base 100), las estimaciones de votante probable, el resultado final y las diferencias entre cada estimación.

Total muestra sin indecisos Votante Probable Resultado elección Diferencia votante probable – resultado Diferencia total muestra – resultado
Piñera 38.96 40 36.64 3.36 2.32
Guillier 20.78 21 22.7 -1.7 -1.92
Sánchez 16.88 13 20.27 -7.27 -3.39
Goic 5.19 6 5.88 0.12 -0.69
Kast 6.49 6 7.93 -1.93 -1.44
MEO 7.79 5 5.71 -0.71 2.08
Navarro 0.65 0.5 0.36 0.14 0.29
Artés 0.65 0.5 0.51 -0.01 0.14
Indecisos 0 8 0

La tabla muestra con claridad que, de haberse evitado el uso de votante probable, la estimación habría sido bastante más cercana a la realidad. Si bien hay algunos casos donde el error aumenta marginalmente al usar la muestra total (Guillier y MEO), en general el error se reduce significativamente. Sánchez, por ejemplo, esta mucho menos subrrepresentada en esta estimación. Una métrica clásica para medir la puntería de una encuesta consiste en el error absoluto promedio. En este indicador, el votante probable entrega un error promedio de 1,9 puntos, mientras que el error se reduce a 1,5 al mirar la muestra total.

Si, tal como dije anteriormente, el grupo que suele estar subrrepresentado en el votante probable son los más jóvenes, entonces la disminución del error en la muestra total es un indicio que apoya esta hipótesis. Esto no quiere decir que basta con eliminar el votante probable, sino que este es un punto de partida. Además, la inclusión de jóvenes puede explicar de mejor forma la subestimación de Beatriz Sánchez, pero no necesariamente la de José Antonio Kast.

Conclusiones y sugerencias de pasos a seguir

Lo primero es consignar lo obvio: muchas cosas fallaron. Quizás lo más complicado para los encuestadores y para los académicos que utilizamos encuestas para nuestro trabajo es asumir que no existe una solución simple al problema. Desde el punto de vista académico esto es un desafío interesante, pero entiendo que la posición puede ser algo más incómoda para quienes están a cargo de la realización de los sondeos.

Lo segundo es que la solución no puede venir sólo desde las encuestadoras. En países donde se enfrentan desafíos similares, como EE.UU. y el Reino Unido, los organismos de administración electoral (como el SERVEL) han colaborado permitiendo el acceso a sus bases de datos. Esto es vital en el caso chileno. Es urgente que se realice un ejercicio de validación de voto, donde se sepa cuáles son las características demográficas de los votantes al nivel más desagregado posible. Sólo a partir de ahí será posible afinar los modelos de votante probable. Asimismo, la academia tiene un rol que cumplir en este proceso. Hay universidades con una larga experiencia en encuestas que podrían asumir la tarea de liderar este proceso.

También creo que necesitamos más encuestas. Esto puede sonar un poco irracional a la luz de lo ocurrido, pero soy un convencido que el proceso se mejora mientras hay más actores y más competencia. En el pasado he sido crítico de la metodología ocupada por encuestadoras como Criteria Research (panel online con post-estratificación), que tuvieron resultados mejores que las encuestadoras clásicas. En principio mantengo mis críticas y me inclino a pensar que su relativo éxito fue más bien azaroso, pero estoy dispuesto a estar equivocado (y, de hecho, lo agradecería).

Por último, me gustaría hacerme cargo de la acusación que hizo Beatriz Sánchez en su discurso la noche de la elección. Ella dijo que, si las encuestas hubieran reflejado mejor la realidad, quizás más gente hubiera votado por ella. La verdad es que ese es un contrafactual imposible de comprobar y, además, la evidencia es poco concluyente a la hora de mostrar un efecto directo entre encuestas y opción de voto. Sin embargo, donde sí afectan las encuestas es en el nivel de donaciones, en el monto de los créditos bancarios y en la moral de los equipos. Quizás Sánchez tiene un punto. Si las encuestas no la hubieran subestimado de forma sistemática durante los últimos meses, podría haber tenido una campaña más eficiente y mejor financiada. Si esto se hubiera traducido a votos o no permanecerá un misterio.

La belleza está en el ojo del que mira. O por qué esta elección no fue ni más ni menos proporcional que la anterior, pero sí más representativa.

Esta entrada fue elaborada en cooperación con Andrés Hernando, investigador del CEP, y publicada en el blog el CEP, La Situación.

Esta semana, el académico de la Universidad Católica, David Altman, publicó un provocador análisis del resultado de las elecciones parlamentarias del fin de semana. En su visión, el sistema habría fallado en cumplir el objetivo en el mensaje presidencial, y es que fuera una elección más proporcional y justa. Altman analiza los resultados de la elección de diputados usando una métrica bastante conocida en la ciencia política, el índice de Loosemore & Hanby (L&H). Este índice tiene la ventaja de ser bastante simple e intuitivo en su cálculo, pero ha recibido críticas por ser poco sensible a cambios en la fórmula de cálculo (como es el caso chileno).

Altman muestra que, según el índice L&H, la reciente elección es la que muestra mayor nivel de desproporcionalidad desde 1989. A partir de ello, y sumado con una mayor cantidad de arrastres, Altman concluye que el actual sistema electoral no estaría cumpliendo con los objetivos de proporcionalidad y justicia que se propuso.

La ciencia política ha debatido por años cuál es el mejor mecanismo de medir la proporcionalidad de los sistemas políticos. Si bien hay cierto consenso en qué consiste la proporcionalidad ideal (que el porcentaje de votos sea equivalente al porcentaje de escaños obtenidos), hay mucho más debate sobre cómo medir si este objetivo se logra. Tal como muestra Benoit (2000), distintos autores usando distintos índices han llegado a resultados bastante divergentes.

Entonces, ¿fue la elección del 19 de noviembre más o menos proporcional que las anteriores? Podemos adelantar nuestra respuesta: sí y no. Para analizar esto tomamos los datos de todas las elecciones desde 1989 y calculamos 8 índices distintos, todos ellos validados y ampliamente discutidos en la literatura. Algunos de ellos tienden a ser extremadamente sensibles a la presencia de partidos chicos, como el índice de Rae (1967), mientras que otros buscan corregir las imperfecciones del índice de L&H, como el de Gallagher (1991) o el L&H ajustado (Grofman and Lijphart, 1986). Puede revisar los detalles de cada uno aquí.

La tabla más abajo muestra el resultado con cada uno de estos 8 índices usando los datos de la elección a la Cámara de Diputados desde 1989. Como se puede observar, la tasa de desproporcionalidad aumenta en 4 de las métricas (L&H, Lijphart, Saint-Lague y D´Hondt), mientras que disminuye en otras 4 (Rae, Mínimos Cuadrados, L&H ajustado).

Elección Índice de Rae Índice L&H Índice de Mínimos Cuadrados L&H ajustado Índice Liphart Índice Saint-Lague Índice D’Hondt Índice de regresión lineal
1989 3.23 11.31 7.09 8.75 6.01 4.97 1.17 1.12
1993 3.94 7.87 6.18 7.02 6.39 2.19 1.14 1.07
1997 4.15 10.39 7.81 8.17 7.49 2.44 1.14 1.10
2001 2.68 6.70 5.16 5.74 5.22 3.15 1.08 1.07
2005 4.11 8.21 7.07 6.95 7.40 1.50 1.16 1.07
2009 3.87 7.75 5.61 6.05 4.88 1.72 1.11 1.08
2013 4.10 12.31 8.02 8.96 8.12 4.14 1.17 1.14
2017 2.78 12.50 7.68 6.20 8.44 4.98 1.34 1.13

 

Si miramos los gráficos adjuntos, además podemos ver que estos índices se han movido de forma bastante poco predecible en el tiempo. Es decir, incluso dentro de un mismo sistema electoral, como lo fue el binominal entre 1989 y 2013, hay bastante diferencia.

En el fondo, la evidencia que aportamos demuestra que la respuesta a la pregunta de si el actual sistema es más o menos proporcional es absolutamente a gusto del consumidor. Quienes quieran plantear que no, que este sistema es menos proporcional que el binominal, tienen 4 métricas distintas para justificar su postura. En cambio, quienes quieran defender que este sistema sí introdujo mayor proporcionalidad, tienen otras 4 métricas que aportar como evidencia. Además, mientras no tengamos más elecciones, no podremos saber si alguno de estos posibles cambios se mantiene en el tiempo.

Ahora, sobre la pregunta de la justicia, nosotros creemos que eso se debe responder respecto de la representatividad. Si bien es cierto que el número alto de parlamentarios electos por medio del arrastre puede llevar a algunos a sorprenderse, también es importante recordar – como lo plantea Altman- que ésta es una característica propia de los sistemas de lista y que no se relaciona directamente con el mecanismo de distribución de escaños, al menos a nivel de pactos. Una propuesta para resolver esto es lo que planteó en su momento Evópoli, en la discusión de la ley, en la que propuso que los escaños se repartieran a nivel de pacto y no de partido.

Pero la representatividad se refiere a otras cosas. Generalmente, la ciencia política la distingue entre representación descriptiva y representación substantiva. La primera se refiere a las características personales, usualmente demográficas, de los representantes, mientras que la segunda se refiere a las preferencias ideológicas y de política pública.

Sobre la representación descriptiva, los datos de Candidaturas Chile nos permiten observar los cambios. En primer lugar, esta elección arrojó una proporción más alta de mujeres electas desde 1989. Además, el promedio de edad de los representantes electos bajó, de 59 a 56 años en el Senado, y de 49 a 44 en la Cámara. Ambos movimientos traen el promedio más cerca de la edad mediana de la población que es de 33 años. Incluso, este Congreso tendrá, por primera vez desde la dictadura, la presencia de 2 personas de la etnia mapuche, una novedad de innegable importancia simbólica. Todos estos indicadores apuntan a que la representación descriptiva estaría mejorando, aunque de forma lenta.

En términos de representación substantiva, la elección de nuevos partidos políticos es, sin duda, un signo de que ésta aumentó. Si bien hubo algunos pactos que no obtuvieron escaños, como Sumemos, lo cierto es que la oferta ideológica aumentó, asimismo como su peso relativo.

El mensaje presidencial de la ley que modificó el sistema electoral planteaba que éste nuevo sistema iba a ser más justo y proporcional. Sin embargo, de una forma bastante hábil, el mismo mensaje evita definir cómo se evalúa si éstos objetivos se cumplen o no. Lo cierto es que, antes de saltar a concluir sobre el éxito o fracaso de la reforma, es importante revisar las métricas utilizadas. Por nuestra parte, nos declaramos en empate entre una u otra opción.

Chile just went to the polls — and transformed its legislature

This article was originally published in The Washington Post’s Monkey Cage Blog

On Sunday, for the seventh time since Augusto Pinochet’s dictatorship ended, Chileans went to the polls to elect a president and National Congress. Only 46 percent of those eligible to vote actually did so, one of the lowest turnouts in the country’s history.

In the presidential race, no candidate won a full majority, which means there will be a runoff, scheduled for Dec. 17. Although most opinion polls had shown right-wing billionaire and former president Sebastián Piñera with a clear lead of between 42 and 47 percent, the latest results show he received only 36.6 percent of the ballots. The next-place candidate, Sen. Alejandro Guillier, the center-left candidate, received just under 23 percent.

Perhaps more significant than the presidential first round was the transformation of Congress. This was the first time Chile has gone to the polls since major electoral reforms. Voters weighed in on all the members of the legislature’s lower house, and almost half the Senate. What were the results?

Chile transformed its electoral system since the last election

For 28 years, a tailor-made electoral system allowed the two larger coalitions — one on the center right that still hosts some of Pinochet’s old allies, and another on the center left — to rule Congress without admitting smaller parties.

But over the past eight years, Chile has seen significant social and political transformations. In 2011, during Piñera’s government, students protested en masse over the decreasing role of the country in secondary education, and for the introduction of free higher education. More recently, lawmakers on both right and left — including family members of President Michelle Bachelet — were implicated in high-profile corruption cases.

Bachelet reacted by commissioning a report on potential changes to the political system and campaign finance. The Engel report (named after the commission’s chair, former Yale professor Eduardo Engel) suggested a number of changes — many of which Bachelet championed, and which Congress put into law under the pressure of public opinion.

As a result, Bachelet oversaw major electoral reforms, including gender quotas for Congress, an electoral system that aims to translate the political parties’ vote shares into the percentage of seats in Congress, and limits on political donations and campaign spending. The gender quotas legislation requires every party’s candidate list to include at least 40 percent women, a move that was encouraged by international organizations like the U.N. Development Programme.

Did this new electoral system lead to different results?

The new electoral system wouldn’t have affected the presidential election, which is one person, one vote. Piñera won almost 10 points below what the polls predicted. Guillier also won less than predicted, as the center left votes went to two different candidates. As a result, journalist Beatriz Sánchez from the left-wing coalition Frente Amplio got 20.3 percent of the vote — the most garnered by a left-only coalition since Salvador Allende’s Unidad Popular in 1970.

But because of the reforms, Congress will look quite different. My research project, Candidaturas Chile — which is an international consortium among Queen Mary, University of London, Universidad Andrés Bello, and Azerta — has collected data on all candidates who ran for Congress this year and in all elections since 1989, including demographic information and political or professional background. This allows us to compare the results of this election with those from previous elections.

Most notable are the changes in Congress’s gender composition. Chile was at the bottom of the Organization for Economic Cooperation and Development (OECD) countries in gender balance, with women making up 16 percent of all representatives — only 15 percent in the Senate, and 16.4 percent in the lower house. However, after the new elections under the legal gender quotes, women make up 26 percent of the Senate and 23 percent of the lower house.

Further, the new and more proportional districts have changed the party composition of the Congress. The proportion of MPs that do not belong to the traditional parties jumped from 3 percent to 17 percent. And Frente Amplio, the insurgent left coalition that wasn’t founded until January this year, managed to elect a senator for the first time.

Further, the new Congress will seat a significant number of new faces. Only 55 percent of Senate incumbents running for reelection kept their seats — while in the lower house, only 40.6 percent of incumbents did. The new Congress is also younger. Senators’ average ages decreased from 59 to 56; lower house members’ average ages dropped from 50 to 45. Chileans also elected a senator and a lower house member from the indigenous Mapuche ethnic group, which has not happened since the 1970s.

Politically, the balance of power among political parties changed significantly. The ruling coalition Nueva Mayoría obtained only 56 of the lower house’s 155 seats, while Piñera’s coalition, Chile Vamos, won 73. Neither reached a majority. Frente Amplio, on the other hand, increased its presence from three to 20 lower house members, becoming the pivotal group for the next four years.

What will this election mean for Chile’s political direction?

Bachelet oversaw the passage of a progressive agenda that, among other legislation, put into place free higher education, established same-sex civil unions, and implemented abortion rights. If Piñera wins, he will have a difficult time rolling these back, since his legislative coalition does not have a majority. If Guillier wins, any attempt to push Bachelet’s reforms even further will be resisted by the center-right coalition Chile Vamos, but should be supported by Frente Amplio legislators.

Whoever gets elected president in December, the challenge will be to operate in a Congress that is less experienced, more socially diverse, and much more complex in political terms than previously. Chile will prove a significant test case for proponents of deep electoral reform around the world.

Tribunal Constitucional: ¿es la tercera cámara?

Escrito en conjunto con Jorge Fábrega y Sammy Drobny. Publicado en CIPER Chile el 18 de agosto de 2017

¿Es un tribunal político o jurídico? La misma polémica se repite tras cada proceso legislativo que culmina en el Tribunal Constitucional. Esta vez el foco de atención es la discusión sobre la ley de interrupción del embarazo en tres causales. Sin datos se torna imposible dirimir esa controversia. Como se trata de una pregunta relevante, desde hace algún tiempo hemos estado analizando las votaciones de los ministros del Tribunal Constitucional desde su creación hasta la actualidad.

La pregunta es interesante porque hay buenas razones para pensar que el Tribunal Constitucional chileno es una pieza necesaria del entramado institucional, y también hay buenas razones para sugerir que cumple roles legislativos que no deberían ser de su competencia.

Primero, sobre su funcionalidad, cabe señalar que los mecanismos de control que revisan la constitucionalidad de las leyes aprobadas por el parlamento -que por su forma de elección debiera representar la voluntad de la mayoría-, no son privativos de Chile. Al contrario,  organismos con el rol de velar por la constitucionalidad de las leyes son parte constitutiva de la estructura institucional en democracias desarrolladas.

Por ejemplo, en España existe un tribunal de similares caracterìsticas al chileno donde el Congreso nombra a ocho de sus miembros, el Ejecutivo a dos y las Cortes a dos más. En Estados Unidos, ese rol de control constitucional es delegado a la Corte Suprema, cuyos miembros son nombrados por el Presidente, pero con aprobación del Senado. En Francia, se ocupa un mecanismo sui generis, donde además de los tres miembros nombrados por la Asamblea Nacional, tres por el Senado y los tres del Ejecutivo, se suman todos los ex presidentes que deseen asistir a las sesiones.

Segundo, respecto a su eventual rol legislativo, los críticos del Tribunal Constitucional sostienen que éste cumple fundamentalmente un rol político y actúa como una tercera cámara legislativa que, bajo la excusa de revisar la constitucionalidad de las leyes, simplemente refleja las posiciones políticas de sus miembros. En base a ese juicio, la legitimidad del Tribunal Constitucional ha sido cuestionada debido a que sus miembros no han sido elegidos democráticamente y, por ende, no deberían legislar.

Dichas críticas al rol que cumple el Tribunal Constitucional se fueron acumulando a través de los años desde el retorno de la democracia, e impulsaron en 2005 una reforma a los modos de nombramiento de sus miembros, para darle más independencia y legitimidad. Se estableció una nueva fórmula de nominación: cuatro ministros del Tribunal son nombrados por el Congreso, tres por el Presidente y tres por la Corte Suprema. Además, se estableció que los ministros permanecerían en sus cargos por nueve años sin posibilidad de ser renovados y se les aseguró su exclusividad. No obstante, pese a esas reformas, la polémica está lejos de desvanecerse.

Por lo tanto, cabe preguntarse qué evidencia existe sobre la forma en que el Tribunal Constitucional lleva a cabo su rol y qué datos son consistentes con que el tribunal actúe como una tercera cámara legislativa. Una fuente natural para buscar respuestas es el análisis de las votaciones. Eso hicimos.

La intuición que nos guía es simple: Los ministros nombrados por el Congreso y los elegidos por la Corte Suprema deberían tener patrones de votación diferentes a los observados en aquellos ministros nombrados por el Ejecutivo. En particular, ya que para ser nombrado por el Congreso un candidato al Tribunal Constitucional debe concitar amplios consensos, quienes entran por esa vía al tribunal debieran tener posiciones más moderadas que los nombrados directamente por el Poder Ejecutivo.

Lo mismo debería suceder con los ministros nombrados por la Corte Suprema respecto de los ministros nombrados por el Ejecutivo, aunque por distintas razones: los ministros nombrados por la Corte Suprema deberían adoptar posiciones con un mayor componente jurídico que político dado su origen y, por ende, en algunos casos aparecerán votando de forma similar a los de un color político conocido, pero en otros casos votando de forma similar a los del color político opuesto.

Es decir, si de alguna manera pudiéramos ubicar en una dimensión a los ministros del Tribunal Constitucional, las posturas de los ministros nombrados por el Ejecutivo deberían estar en los extremos, porque representan posiciones claramente antagónicas. Pero la de los ministros nombrados por la Corte Suprema y el Congreso deberían estar entre medio de ellos. ¿Es así?

Para responder esta pregunta lo que hicimos fue registrar todas las sentencias del tribunal desde el año 2010 al 2016 y estimar las preferencias latentes de los ministros del tribunal. Es decir, observando sus patrones de votación inferimos qué posturas ideológicas serían consistentes con esos comportamientos. Usando una técnica denominada Expected Maximization IRT (Imai, Lo y Olmsted 2016 [1]) pudimos estimar las posiciones ideológicas consistentes con sus patrones de votación.

El gráfico 1 resume el resultado. Allí ubicamos a cada ministro en un espacio unidimensional, que puede asemejarse a un eje liberal/conservador, en donde un número más pequeño representa una postura más conservadora y uno más grande una postura más liberal.

GRAFICO1

Gráfico 1: Estimación de las posiciones ideológicas promedio del Tribunal Constitucional, 2010-2016  (a mayor valor, más liberal la posición ideológica estimada)

Como puede verse en el gráfico 1, cada círculo representa la posición ideológica promedio estimada para cada uno de los actuales ministros y el color de cada punto indica el mecanismo de su nombramiento descrito en las leyendas a la derecha del gráfico. La tendencia es clara. Quienes han sido nominados por el Poder Ejecutivo son quienes ocupan las posiciones más extremas (Carmona, Brahm, Aróstica). En posiciones relativamente más centrales, están los nombrados por el Congreso (García, Romero, Pozo, Letelier); y en posiciones aún más centrales, los nombrados por la Corte Suprema (Vázquez, Hernández y Peña). El caso de Marisol Peña es interesante, ya que a pesar de tener un promedio más liberal que sus colegas nombrados por la Corte Suprema, su nivel de variabilidad (mostrado por la línea que atraviesa el punto) es muy alto. Esto sugiere que se comporta con bastante más libertad que el resto de los ministros.

¿Qué significa este resultado? Los datos sugieren que la reforma del 2005 logró el objetivo deseado de reducir el carácter político de sus miembros. Si antes la crítica era que los ministros siempre operaban como caja de resonancia de las coaliciones políticas que representaban, ahora vemos un poco más de variación y moderación, sobretodo entre quienes son elegidos por la Corte Suprema.

Sin perjuicio de eso, los datos muestran que los patrones de votación de los ministros designados por el Poder Ejecutivo y el Congreso siguen teniendo un componente ideológico. En resumen, sí hay indicios para pensar que el Tribunal Constitucional opera de forma política y no simplemente como órgano jurisdiccional, pero el peso relativo de ese componente político se habría reducido tras la reforma del 2005.

Por otro lado, la técnica de estimación permite evaluar cómo las posturas de los ministros evolucionan en el tiempo. Los datos son bien sugerentes. El gráfico 2 presenta la evolución promedio de las posiciones ideológicas estimadas para el conjunto de los actuales ministros del tribunal (línea naranja) en el período en que todos han estado presentes (recuérdese que no todos son nombrados al mismo tiempo). Junto al promedio, es importante mostrar la varianza alrededor de nuestras estimaciones, ya que es una señal de la convergencia o divergencia de los ministros en el tiempo. Por eso, el gráfico muestra dos líneas que representan una banda desde una desviación estándar sobre el promedio (línea gris) y una desviación estándar bajo el promedio (línea celeste). Mientras más cerca están las líneas gris y celeste, más convergencia vemos entre los ministros.  Recuérdese también que un valor más alto representa una postura relativamente más liberal y uno más bajo una postura relativamente más conservadora.

GRAFICO2

Gráfico 2: Evolución de las posiciones ideológicas del actual Tribunal Constitucional 2014-2016 (a mayor valor, más liberal la posición ideológica estimada)

Como muestra el gráfico 2, desde el año 2014 a la fecha existe una mayor convergencia en la posiciones de los actuales ministros hacia posturas relativamente más liberales. Ello acontece incluso entre aquellos ministros relativamente más conservadores y/o que fueron nombrados por el gobierno de Sebastián Piñera (como Juan José Romero, Iván Aróstica y María Luisa Brahm).

En tal sentido, proyectos como el del aborto en tres causales, llegan hoy ante el Tribunal Constitucional en un período donde la probabilidad que se rechace el requerimiento de inconstitucionalidad es mayor. ¿Será este giro hacia posiciones relativamente más liberales suficiente como para que el proyecto avance a la etapa de promulgación?

Incluso, si hubiese un empate a cinco votos, el voto del presidente del tribunal es el que dirime y el actual presidente es Carlos Carmona, quien en el gráfico 1 es el miembro del Tribunal Constitucional que se ubica en el extremo más liberal. Por lo tanto, las condiciones parecen dadas para que el proyecto avance ¿Será así? Muy pronto lo sabremos.

Referencias:

[1] Imai, Lo y Olmsted (2016): “Fast Estimation of Ideal Points with Massive Data”. American Political Science Review, Vol. 110, No. 4: 631-656.

Oferta de Trabajo: Asistente de Investigación para estudio legislativo en Chile

Estoy buscando un/a asistente de investigación para un proyecto de investigación sobre candidatos parlamentarios en Chile. Les ruego difundir este llamado.

Requisitos mínimos:

  • Título o Licenciatura Universitaria (ver detalle abajo)
  • Experiencia en manejo de datos, análisis estadístico y uso de R y/o Stata (con la disposición a aprender R)
  • Ingles intermedio
  • No se requiere experiencia mínima, pero sí disposición a aprender
  • Interés por temas políticos y de investigación académica
  • Habilidades interpersonales, particularmente motivación, autonomía y trabajo en equipo

 Requisitos Deseables (pero no mínimos):

  • Experiencia en aplicación y diseño de encuestas
  • Inglés avanzado
  • Familiaridad con la literatura académica sobre el estudio de candidatos/as y otros activistas políticos

Duración: 15 meses, con posibilidad de extensión

Disponibilidad: Desde el 1 de julio de 2017

Sueldo sugerido: Entre $400.000 y $700.000 líquidos dependiendo de experiencia. Primeros tres meses a prueba (a honorarios) y luego con contrato de trabajo a plazo definido.

 Descripción

Azerta busca contratar a un asistente de investigación a tiempo completo para contribuir a un proyecto de investigación académica en torno a las elecciones 2017, llamado “Candidaturas Chile”. Como parte de una red internacional, el Comparative Candidate Survey (CCS), un grupo de investigadores de Newcastle University (UK), la Universidad Andrés Bello y Azerta estarán realizando una serie de estudios sobre candidatos al Congreso en Chile. El equipo es liderado por Javier Sajuria, PhD y académico de Newcastle University, quién supervisará directamente el trabajo del/la asistente de investigación. La profesora Stephanie Alenda (UNAB) será la co-investigadora del proyecto.

Quién ocupe el cargo participará, inicialmente, de la recolección de datos públicos de los candidatos y candidatas al Congreso. En una fase posterior, el/la asistente de investigación participará de la aplicación de una encuesta a todos los candidatos y candidatas que participen de la elección de noviembre, siguiendo los lineamientos del CCS. Además, se espera que el/la asistente participe en el análisis de los datos a nivel nacional y comparativo, y en la preparación de publicaciones académicas e informes de prensa. La posición es ideal para personas con experiencia en manejo de datos cuantitativos (idealmente encuestas) y con conocimiento medio o avanzado de software estadístico como R y Stata. Es requisito esencial tener un título o licenciatura universitaria, preferentemente en Ciencia Política, Sociología, Economía o alguna disciplina afín. Asimismo, por la naturaleza internacional del proyecto, es deseable que la persona a contratar tenga buen nivel de inglés oral y escrito.

El/la asistente de investigación participará en el proyecto en conjunto con los investigadores de las instituciones asociadas y tendrá como responsabilidad llevar a cabo gran parte de la construcción de una base de datos de candidaturas al Congreso antes de la elección de noviembre 2017 y colaborar en la aplicación de la encuesta de manera posterior a la elección. Ambos procesos – recolección de datos públicos y encuesta – permitirán reunir información demográfica, socioeconómica, de experiencia política, posiciones políticas e ideológicas y de metodologías de campaña. Durante los primeros 6 meses del proyecto, el foco se concentrará en la recolección y análisis de datos públicos, mientras que los siguientes 6 meses estarán dedicados a la encuesta. Este proyecto se enmarca en una iniciativa internacional para el estudio de candidatos y élites políticas, por lo que el/la asistente tendrá la posibilidad de colaborar en publicaciones académicas y otras actividades con investigadores localizados en otros países. Asimismo, es posible que el/la asistente participe como autor/a o co-autor/a en investigaciones académicas.

Principales actividades y responsabilidades

  1. Participar como un miembro más del equipo de investigación bajo la conducción de los investigadores senior
  2. Participar de forma activa del levantamiento de datos de candidaturas al Congreso en 2017 y en todas las etapas (diseño, aplicación, recolección y análisis) de la encuesta de candidatos post-elección
  3. Resguardar la protección legal de datos personales de candidatos/as (cuando no sean de conocimiento público) y observar buenas prácticas de manejo y uso de datos personales
  4. Llevar a cabo, de forma independiente y guiada, análisis detallados de los datos recolectados usando métodos estadísticos descriptivos y avanzados
  5. Preparar informes para publicación en colaboración con los otros miembros del equipo, y diseminar los resultados en foros, conferencias u otras instancias
  6. Colaborar en la preparación de las bases de datos para el depósito en repositorios externos y la liberación de datos al final del proyecto
  7. Colaborar con el equipo en tareas administrativas y preparación de eventos relacionados al proyecto

Proceso de postulación

Para postular se requiere el envío de los siguientes documentos antes del 15 de junio de 2017 a imackinnon@azerta.cl. Pueden realizar consultas informales antes de postular a Javier Sajuria (javier.sajuria@ncl.ac.uk) o Ian Mackinnon (imackinnon@azerta.cl).

  1. CV (sin foto) de no más de 3 páginas en que se detalle la experiencia académica y laboral del/la postulante
  2. Carta de motivación de dos carillas en la que se describa como el/la postulante cumple con los requisitos del cargo
  3. Nombre de dos recomendadores, al menos uno debe ser del ámbito académico

¿Y quién es él? Estimación de ideología y posición política de A. Guillier

Escrito en conjunto con Jorge Fabrega y Alvaro Graves. El texto apareció originalmente publicado en Revista Qué Pasa

Alejandro Guillier, senador independiente por cupo del Partido Radical, es el primer candidato presidencial proclamado dentro de la Nueva Mayoría. Dado que poco sabemos de sus convicciones y posturas, ¿qué podemos aprender sobre él a partir de sus acciones? Su aprobación está subiendo cada día más y, según las encuestas, aparece como la mejor carta de la centroizquierda para enfrentar a Piñera en las presidenciales de este año. Su popularidad es tal, que le lleva buena ventaja a otros nombres del sector que tienen mucho más recorrido, como Ricardo Lagos y José Miguel Insulza.

Según los analistas, la ventaja de Guillier tiene que ver con su supuesto apoliticismo. Habiendo ejercido como periodista durante toda su carrera, el senador siempre se mostró como un hombre opinante, cuestionador de quienes ostentan el poder y con buena oratoria. Fue rostro de noticias y su confianza pública lo puso al tope de la tabla de los periodistas mejor evaluados. Por eso fue contratado por las isapres para que fuera el rostro de una serie de campañas, algo por lo que ha sido altamente cuestionado. Cuando llegó al Congreso, logró mantener presencia sin necesidad de tomar posiciones. Tanto es así, que una de las primeras veces que el senador dio que hablar en el Parlamento no fue producto de sus posturas políticas sino debido a que, como él lo expresara, le “habían pasado un gol” en la votación del proyecto de ley que sancionaba las filtraciones en investigaciones judiciales.

En un contexto de descrédito general de la clase política, Guillier se alza como un candidato atractivo por parecer poco político, al igual que Bachelet en 2005. No obstante, ese supuesto apoliticismo que muchos le aplauden es, al mismo tiempo, el principal problema para el ahora candidato, quien no podrá permitirse esa indefinición por mucho tiempo.

Podemos esperar a que pase el tiempo para ir conociendo las convicciones políticas del candidato Guillier o podemos hacer algo mejor: deducirlas de su comportamiento como senador. Si analizamos sus votaciones podemos saber qué tan cerca o lejos se encuentra de otros senadores cuyos domicilios políticos son conocidos. Eso hicimos. Tomamos el registro total de las votaciones en el Senado desde que Guillier es senador (2014-2016) y estimamos la posición ideológica de cada uno de sus miembros. Para ello, usamos una técnica de estimación llamada DW-No-Minate, muy utilizada en ciencia política. Con ella, por ejemplo, se ha podido determinar que la política norteamericana se ha ido polarizando de forma constante desde los 80, lo que ha permitido poner en perspectiva las tensiones que se han estado produciendo con el advenimiento de la era Trump. Sólo para ilustrar con otro ejemplo, en 2015, Keith Poole (uno de los creadores del método) anticipó correctamente que Paul Ryan reemplazaría a John Boehner como speaker de la Cámara Baja norteamericana cuando Boehner sorprendió a todos anunciando su renuncia. Aunque la aplicación del método es compleja, su intuición es muy simple: sin necesidad de conocer de antemano qué piensa un parlamentario, se puede decir que sus votos en cada proyecto de ley deberían reflejar sus posturas políticas; de modo tal que quienes recurrentemente votan parecido tienen posiciones políticas parecidas entre sí y quienes recurrentemente votan por alternativas opuestas deberían ser adversarios políticos. Con esta simple idea, lo que hace el método es buscar el ordenamiento de las posiciones políticas latentes que mejor resumiría esas similitudes y diferencias en las votaciones de los parlamentarios. Con esta técnica podemos saber cómo se ubica Guillier en un espectro de izquierda a derecha en comparación con sus pares, podemos identificar sus potenciales aliados y visualizar hacia dónde debe mirar si es que desea concitar más apoyos. Todo ello sin la necesidad de saber de antemano si su visión ideológica es de derecha, centro o izquierda.

Luego de estimar vía DW-Nominate las posiciones ideológicas de cada senador, notamos un fenómeno interesante. Los senadores se distribuyen en un continuo que va desde Alejandro Navarro por la izquierda y Juan Antonio Coloma por la derecha. En ese plano, el senador Guillier pareciera ubicarse en un punto estratégico dentro de la Nueva Mayoría. La posición que se estimó a partir de sus votaciones en el Senado nos permite posicionarlo casi en el punto medio de su coalición. No está ni muy a la derecha del PS ni muy a la izquierda de la DC. De hecho, su posición es indistinguible de la de la presidenta de la falange, Carolina Goic. Según esto, Guillier aparecería como el niño símbolo de la coalición con el potencial de convertirse en un forjador de acuerdos, que se encuentra en una posición privilegiada para movilizar a todas las facciones de un acuerdo cada vez más tensionado. Según este análisis, Guillier no sólo podría capturar el voto electoral, sino que además darle continuidad a su sector. Ahora bien, el gráfico nos entrega luces sobre el dilema que enfrenta la Democracia Cristiana por estos días: si su eventual candidata está en una posición política dentro de la coalición similar a la de Guillier ¿podría disputarle la candidatura dentro de la Nueva Mayoría?

No obstante, la política no se juega sólo en una dimensión. Los académicos y analistas llevan años debatiendo cuántas dimensiones ideológicas se encuentran presentes en política, pero la evidencia internacional indica que el grueso de las diferencias políticas puede ser reducido en un máximo de dos dimensiones (Poole y Rosenthal, 1997). De hecho, hicimos el ejercicio de calcular una tercera dimensión y obtuvimos que esta estaba altamente correlacionada con la primera. La ciencia política ha interpretado el segundo eje como representativo de una tensión entre alternativos vs. tradicionales o entre libertarios y autoritario-nacionalistas. Es decir, en un lado están los que se sienten cómodos con procesos más horizontales de participación política o que buscan caminos políticos alternativos, y en el otro están quienes valoran el orden, las tradiciones o el statu quo.

Al reordenar los senadores usando dos dimensiones, nos encontramos con un Guillier mucho más tensionado dentro de su coalición. En el eje izquierda-derecha, sigue estando al centro de la NM en la escala tradicional de izquierda a derecha. Pero lo interesante ocurre en la segunda dimensión. A partir de sus votaciones en el Congreso, Guillier aparece lejos del conjunto de senadores de su coalición, y sólo superado por Navarro (quien renunció a la NM en 2016). Más importante aún, Guillier aparece más cerca de senadores como Horvath o Bianchi y en las antípodas de los senadores DC. Una posible explicación tiene que ver con que la segunda dimensión también captura el rol de la descentralización y la redistribución de poder en el proceso político. Guillier aparece acompañado de sus colegas más regionalistas, lo que no es casualidad. El senador fue un duro en la discusión sobre la elección de intendentes, movilizando los votos para lograr aprobar el proyecto.

Otra votación significativa del candidato radical fue la del reajuste en el sector público. Luego de una reñida discusión que tensionó al bloque oficialista, el porcentaje de reajuste se aprobó con la oposición de la ANEF y los gremios del sector público. Ante la dificultad de cuadrar a los votos independientes (Navarro, Horvath y Bianchi), el gobierno se vio en la necesidad de recurrir a votos de la derecha para asegurar la victoria. Guillier, de forma disciplinada, votó a favor de la propuesta del gobierno y contra la postura de los representantes de los empleados públicos.

Desde su lanzamiento de campaña, Guillier ha hecho seguidos guiños a la DC, y no es casualidad. Por una parte, sabe lo complejo que será enfrentar una primaria sin el apoyo de este partido (en caso que no lleven candidato propio). Pero, por otro lado, y como podemos ver en nuestro análisis, Guillier se encuentra bastante lejos de sus pares democratacristianos. Incluso, los más progresistas dentro de la DC, como Carolina Goic, están a una distancia considerable si los comparamos con los senadores PS o PPD. Las menciones constantes a Radomiro Tomic parecieran ser la ofrenda de paz con que Guillier busca que la DC obvie su comportamiento parlamentario de los últimos dos años.

Pero la tarea del candidato radical no termina en estrechar sus vínculos hacia los sectores más de centro de su coalición, sino que también requiere sumar entre sus aliados al Partido Comunista. El PC se ha mostrado abierto a su opción, pero también han tenido acercamientos con Lagos. La tensión en que se encuentra Guillier es compleja y se debe, en gran parte, a una posición bisagra en la que él mismo se ha puesto. Quizás, fiel a la tradición del Partido Radical de los últimos 20 años, Guillier está en un punto del espectro donde es difícil encajonarlo. Esa aparente ambivalencia es, por un lado, su principal ventaja ante los votantes, pero también su principal problema para concitar apoyos en las élites del sector.

Rules matter: why the current Labour crisis is not (only) about ideology

This piece was originally posted in the Constitution Unit’s blog

The Labour Party’s current crisis is often characterised as an ideological dispute between the Parliamentary Labour Party and a membership that is significantly more left-wing. But, as I demonstrate here, it is hard to stand this up. The ideological distance between Labour members and MPs is in fact smaller than that between Conservative members and MPs. To explain why many are now suggesting that Labour is on the verge of splitting it is necessary to look at party rules as well as ideology.

The situation within the Labour Party has been described by many as a dispute between the Parliamentary Labour Party (PLP) and the membership. The en masse resignations from the shadow cabinet, followed by a vote of no confidence from 81 per cent of MPs, shows that Jeremy Corbyn has lost the trust of his peers (or perhaps he never really managed to obtain it in the first place). Labour activists, particularly those grouped around the Corbyn-supporting Momentum, accuse the PLP of betraying the party and lining up with the right-wing. On the other hand, MPs respond by pointing out that voters, and not members, elected them and that they have a mandate to protect the party from oblivion.

Regardless of how relevant it might seem under the current situation, the ideological distance between members and party elites is not a new interest for political scientists. John May’s curvilinear disparity law explains that more active members are usually more ideologically extreme than MPs and voters. As Meg Russell states in her book Building New Labour, there is a limit to how much a leader (or in this case party elites) can steer a party’s position to the left or right. Therefore, we could expect that a widening gap between members and the MPs may result in a difficult situation for the party, or even an eventual split. With that in mind, I set out to investigate – in a very preliminary way – if this ideological gap can explain Labour’s crisis, and if not, what are the alternative theories.

To measure the ideological position of the different groups, survey instruments usually carry a question asking respondents on where they see themselves in a left to right scale. These measures take values from 0 for left to 10 for right. In order to estimate the average position of party voters, I use the British Election Study post-election face-to-face survey. For the ideological position of the MPs I use the data from Parliamentary Candidates UK’s Representative Audit of Britain project, which surveyed candidates from the last general election. The estimates for party members and supporters were obtained from the Party Members Project (PMP).

In order to assess how unusual the ideological distance between the different groups of the Labour Party is, we can compare it to what happens on the other side of the chamber. May’s law is not circumscribed to a particular ideological position, so it should apply to parties of the left and the right. The figure below shows the ideological position on the left-right scale for every group in the Labour and Conservative parties. As expected, members and activists appear as the most extreme in both parties, whereas voters tend to position themselves closer to the centre. What is striking is that the absolute distance between members and MPs seems higher in the Conservative party (0.9 points) than in the Labour Party (0.6). Not surprisingly, Tory MPs appear to be closer to their voters than Labour MPs.

Ideological positions for each group (dotted lines represent the party average across all groups)
Ideological positions for each group (dotted lines represent the party average across all groups)

We can conclude two things from this graph. The first is that May’s law seems to apply to the current situation in both major parties in the UK. The second is that reducing the current struggle in the Labour Party to an ideological distance between the members and the PLP does not stand up in the light of evidence. If anything, the distance between members and MPs should produce more problems for the Conservatives than Labour. The Tories are indeed in the middle of a difficult process for electing their new leader, but few have seriously raised the possibility of a split.

Obviously, a left to right scale might not capture other dimensions of the ideological divide. The Guardian columnist Owen Jones has argued that the big red line among Labour Party members for electing a new leader is the candidates’ position on the war in Iraq – a prominent issue with only a few days until the release of the Chilcot report – rather than who is more left-wing. However, that argument implies that most politics within Labour can be explained by a single issue, which seems unlikely.

If ideology is not enough to explain the current crisis, then what is? I offer three complementary explanations:

  1. In January, Meg Russell pointed out how Labour MPs have failed to understand their new role in the leader selection process. Following the rule changes introduced under Ed Miliband, MPs no longer have any more voting power than individual members, registered supporters and affiliated supporters. Rather, their role is similar to the one that Conservative MPs have in their leadership contents: gatekeepers. MPs are responsible for putting forward candidates that will not jeopardise the party, both electorally and organisationally. By letting Corbyn – who represents the most left-wing position amongst MPs – run for leader, they failed in their job to act as gatekeepers, and behaved as facilitators instead.
  2. The rules for selecting the leader allow for ideological polarisation by simply stating a threshold of supporting MPs (and MEPs) rather than a fixed number of candidates. Conservative Party rules require that MPs go through successive ballots until they submit only two candidates to the membership. Conversely, the Labour Party only required 35 signatures from MPs or MEPs to run for leader when there is a vacancy. This means that, theoretically, the last election could have had up to six different candidates (it had four). Instead of forcing an election between candidates who reach to all sections of the party (voters, supporters, members, and elites), the rules allowed for more polarisation which, as we see above, favoured the position of members over the rest.
  3. Finally, under the current rules, the leader of the Labour Party is not accountable to the PLP. This might seem obvious given that those voting for the leader are the members and supporters, not the MPs. However, the current situation shows how important it is that the leader is able to bring together all groups within the party. As we have seen earlier this week, not even a vote of no-confidence with over 80 per cent support can force Corbyn to resign, nor stop him from putting his name forward in the event of a challenge of his leadership. Under the current situation, is difficult to see how the Labour Party can provide a strong opposition to the government, if any at all.

The main take home point from this exercise is that the Labour crisis is not (only) ideological. Preference heterogeneity within parties is a well-documented phenomenon and the internal mechanisms should be able to cope with it. This is exactly what has been failing in the case of Labour. MPs were not able to understand their role as gatekeepers and guardians of party unity, but also the rules do not give them enough power to fix the problem. It seems that in this case, the leader of the party is willing to test how much he can steer the party to the left before breaking it.

Thanks to Professor Paul Webb for sharing the descriptive data from the Party Members Project.

The online world replicates traditional offline structures and networks of social capital.

This piece originally appeared on USAPP- American Politics and Policy.

Are new technologies changing the way in which we conceptualise and practise politics? This is the fundamental question to which we investigate in new research. In particular, we are interested in understanding how social capital is structured in online networks. Our findings show that the traditional structures we observe in offline settings, such as traditional social movements, organisations or political parties, are replicated in the online world. Moreover, supporting others’ findings from we claim that traditional behaviour continues to play a key role in the way in which social networks are structured.

We follow the traditional approach to social capital devised by Robert Putnam, understanding it as the presence of social networks that are able to mobilise resources and information, operating under norms of trust and reciprocity. Our main claim is that the connections we make online carry the strength to create meaningful social connections. These connections, in turn, can be the trigger for further political action.

Traditionally, this idea has been contested; there is a growing group of dystopian scholars that argue that information and communication technologies are damaging the way in which we connect and interact with others. In particular, we have seen the surge of theories about social isolation, lack of community sense, and individualism. Our work takes a more sceptical approach. We believe that technology is not deterministic, and that social behaviour is a deeper trend that does not completely depend on the way in which we choose to connect with others.

Our work focuses on three different cases. We use the typology devised by Bennett and Sergeberg of what they call “connective action”: organisationally-enabled (Chilean 2013 presidential election), organisationally-brokered (UK Enough Food for Everyone ‘IF’ campaign against global hunger), and crowd-enabled (Occupy movement in the US).

We rely on Twitter data from the three cases. For the Occupy case, we have access to the Occupy Research project and their datasets. For the IF campaign, we have collected data during the main periods of the campaign. In the case of the Chilean election, we focused on the period of official campaigning, i.e. one month before the election.

Measuring social capital is always a difficult task, mainly for the different conceptual distinctions that the literature makes. In our case, we borrowed the concepts from Ronald Burt and focused on two structural elements of social capital: closure and brokerage. Closure refers to how tightly connected the members of small groups or cliques are. This relates to the notion of bridging social capital or intragroup ties. Higher levels of closure are usually related to the formation of trust among the members of the group. That is, the more you know someone and the closer you get with them, the more likely are you to trust that person.

Another important determinant of closure is homophily: people are usually attracted to interact with people who share their same interests and values. This also relates with what Putnam calls the “dark side” of social capital, the creation of very tight groups that exclude non-members. Thus, connections across these highly tight groups are essential, and that is what brokerage does. Putnam calls this bridging social capital, and is related to different political outcomes, such as political stability, trust in institutions, and social inclusion.

We calculate the network metrics for closure (clustering coefficient) and brokerage (network constraint) for each network per week. We observe the evolution of these trends over time, and analyse their relationship. In a healthy social environment, closure and brokerage should not work against the other, and that is exactly what we observe in the online cases.

The next step was comparing these networks with different theoretical models that are aimed to explain social networks. We use the Erdos-Renyi algorithm to simulate random networks as a baseline test. Then we expand the analysis by simulating networks using the Barabasi-Albert, and the Watts-Strogatz algorithms, as shown in Figure 1.

Figure 1 – Network constraints across campaigns

Sajuria Fig 1

The most striking result concerns the Occupy case. According to Bennett and Sergerberg, technology can replace the role of organisations in allowing collective action to take place. Given the low transaction costs, enforcement against free riding was less relevant and, then, people could create similar forms of collective action without the need for organisations. However, our results from the Occupy case paint a different picture.

Given that Occupy is a case without the presence of formal organisations, we expected to observe this new form of social structures reflected in the networks. However, what we observe is a network with very closed small groups, but few connections among them. Conversely, in the cases where organisations do play a significant role (the IF campaign and the Chilean election), we observe higher and significant levels of bridging social capital. Figure 1 shows the levels of network constraint for each network over time. This is the metric developed by Burt, and measures how constrained a member of the network is in connecting with others. Put simply, the lower the constraint of a person, the higher the ability they have to broker social resources across the network.

In Figure 1, the observed values are compared to the theoretical simulations. In the case of the IF campaign and the Chilean election, the observed values present significantly higher levels of brokerage than the random networks (Erdos-Renyi), while the Occupy case shows lower levels of brokerage in comparison to any of the simulations. This is evidence that, at the structural level, crowd-enabled connections are not able to fulfill the same role as formal organisations.

Our research shows a new picture, perhaps more balanced, of the role of new technologies in social life. We do not believe that social media is damaging social capital, but we argue that, at least from an structural point of view, behaviour transcends the distinction between online and offline platforms.

The main limitation of our research is evident: we are not observing the content of communications across Twitter, but only their structure. This might lead to some measurement error in the way in which we approach the questions of social capital, but we also believe that the structural signatures of social capital are consequential to its content features.

This article is based on the paper ‘Tweeting Alone? An Analysis of Bridging and Bonding Social Capital in Online Networks’ in American Politics Research, co-authored with Jennifer vanHeerde-Hudson, David Hudson, Niheer Dasandi and Yannis Theocharis.

One should always play fairly when one has the winning cards: electoral viability and Twitter sentiment

With Jorge Fábrega, we we are currently working in a really interesting project to understand how public opinion surveys can be related to social media discussions. In a nutshell, we are interested in comparing public opinion data to what we can observe from Twitter. As a first step, we have prepared a draft chapter for an edited volume on digital methods for the social sciences, currently under review. The paper is still in a very early draft version, but I just wanted to share some of the early results.

The argument goes as follows. There is a great deal of research trying to use social media data (mainly Twitter) to forecast elections, and some research on how to compare Twitter to candidate’s support on opinion polls. In the case of the former, most attempts have failed, while on the latter,  Nick Beauchamp has managed to produce some interesting results. Our approach is slightly different: instead of looking at candidate support, we focus on support for certain policies. And instead of trying to predict support, we take one step back and think on other ways to relate both elements.

What came to our minds as a useful starting approach was to look at the sentiment on Twitter and how it relates to candidate support. We had two initial hypotheses:

  1. Supporters of candidates with higher electoral viability tend to tweet with a more positive tone overall.
  2. There is a correspondence between support for a policy and the tone used to tweet.

We used Chile as our case, and had two data sources: The CEP survey from October 2013, and Twitter data we collected previous to Chile’s presidential election last year.

Chile’s last election was quite competitive in terms of the number of candidates, but not in the vote share. President Bachelet had to go to a run-off election (something expectable with 9 candidates) against Evelyn Matthei, but she managed to get 62% of the votes on that round. A record share in the country’s recent history. In terms of electoral viability, 78% of the respondents of the CEP survey (2 months before the election) believed that Bachelet would win the presidency, with only 5% of people thinking that Matthei could get the job.

With that in mind, we processed our Twitter data to estimate two things: the political position of Twitter users in Chile, and the tone in which they tweet about 5 controversial topics:

  1. the possibility of constitutional reform through an assembly;
  2. a change in the current electoral system;
  3. the approval of an equal marriage law;
  4. abortion; and
  5. the ownership of the copper mines (they used to belong to the State).

To estimate the political position, we used retweet networks. In simple words, we setup an initial group of Twitter users with known preference for a candidates, and then performed some social network analysis of those who retweeted them. From there, we could move on to assign a probability for each user to support one of the candidates. We focused only on the four main candidates (Bachelet, Matthei, Enríquez-Ominami and Parisi), since they were the ones that generated more attention during the campaign.

To estimate the tone, we translated the lexicon from Wilson et al. and crafted our own version of the sentiment R package (used for sentiment analysis, of course). Each tweet was deconstructed into single words, which were then compared to the lexicon. Each word in the lexicon had assigned a polarity (positive or negative), and whenever there was a match between the words from the tweets and the lexicon, we assigned that polarity to the word. Then, the package uses the voter algorithm to determine that, given the number of matches, that tweet was itself positive or negative.

We first calculated the effect of candidate support on support for the policies mentioned above. our results (shown in the figure below) show that most respondents who supported one of the four candidates, in comparison to those who supported another or none, also support the policies. This was statistically significant for all the cases with a * in the figure.

Table_twt_cep

 

In the case of Twitter, since our sampling was not probabilistic, we were more concerned about the direction of the relationship rather than the significance. Our dependent variable was the likelihood of a tweet having a positive tone. The results can be seen in the figure, and the most surprising feature is the decrease in probability for a positive tone when talking about equal marriage.

As we expected, supporters of Bachelet had a higher tendency to tweet with a positive tone, overall. Also, whenever there is a statistically significant relationship between supporting Bachelet and supporting a policy (e.g. electoral reform, abortion or copper mines ownership) that had a correlate with an increase in the probability of a positive tone on Twitter.

However, our second hypothesis suffered from a different fate. As you can observe, there is some decoupling between the support for a policy and the likelihood of a positive tone. Let’s look at the case of supporters of Enríquez-Ominami. aAlthough they seem keen to support all of the reforms, the tone they use when they tweet is not positive in most cases. We see a similar behaviour in some of the supporters for other candidates as well

We are still in the stage of making sense of these results, and thinking about possible expansions of this research. In the meantime, this is a nice starting point, and provides some insightful information on how to use Twitter data, not to replace, but to complement classical public opinion research.

De qué se trata @EstadoEdita?

El pasado 8 de julio, el comediante británico Tom Scott (famoso por sus iniciativas digitales en torno a sitios gubernamentales) creó una cuenta de Twitter (@parliamentedits) que generaba un tuiteo automático cada vez que alguien editara una entrada de Wikipedia desde un computador en el Parlamento británico. El sistema que ocupó fue simple, pero a le vez algo limitado. Conectó Wikipedia y Twitter usando el servicio IFTTT. Un par de días después, el 11 de julio, un especialista en temas digitales de la Biblioteca del Congreso de EE.UU., Ed Summers, mejoró el diseño, permitiendo incorporar más de una dirección IP y subió el código a GitHub. Con eso, partió @congressedits.

El 12 de julio, ya habían varias cuentas que hacían lo mismo en otros países, como Australia, Irlanda y Francia. La oportunidad estaba ahí, sólo faltaba un poco de trabajo para expandirlo a Chile. En un simple tuit, le presenté la idea a Álvaro Graves (debo admitir que hubo algo de morbo por saber cuánto se demoraba en prender con la idea), quién lleva “sólo” un par de años dedicado a Open Data de gobiernos. Su respuesta fue rápida y nos pusimos en marcha. Con eso en mente, nació @CongresoEdita, que después de conseguir las IPs del gobierno, pasó a ser @EstadoEdita.


La idea es simple: si alguien conectado a internet a través de las direcciones IP del gobierno o el congreso, y decide hacer algún cambio en Wikipedia, eso va a quedar registrado y se genera un tuit automático en @EstadoEdita. El tuit tiene el link al artículo.

Ok, pero ¿para qué?

Buena pregunta. Por ahora, simplemente como un ejercicio de transparencia y control, además de un poco de voyerismo. No hay nada de malo si un funcionario de gobierno decide corregir algunas palabras en italiano del artículo sobre una ópera. Al contrario, es bien interesante poder observar estos comportamientos. Lo que sí es importa es comprender que la tecnología puede ser usada para observar de manera más cercana lo que realizan quienes están en oficinas públicas. Además, hace presente que lo que hacemos online no es secreto ni privado (si no me creen, pregúntenle al NSA).

Tal como lo plantea Summers, espero que este ejercicio sea un punto de partida, una pequeña contribución al trabajo que otros, de forma mucho más sistemática, han hecho por abrir el acceso a la información en Chile.

Si tienen dudas, quejas, comentarios, caritas felices, etc., quedan invitados a ponerlas en los comentarios.