Discurso político de odio de la ultraderecha desde Twitter en Iberoamérica


RESUMEN

La finalidad de esta investigación ha sido estudiar la difusión de los discursos políticos de odio de ultraderecha a través de la red social Twitter. Se ha seguido una metodología mixta, combinando instrumentos cuantitativos y cualitativos, en el marco de la etnografía digital. Se eligieron cinco casos característicos de campañas vinculadas a discursos políticos de odio que cumplían los cuatro criterios seleccionados mediante técnica Delphi: ámbito iberoamericano con representatividad por amplitud e impacto, motivación política, más de 100.000 tuits y uso masivo de cuentas falsas. El análisis se realizó mediante T-Hoarder, Gephi y MAXQDA. Las conclusiones muestran que estas campañas no surgen espontáneamente, sino que existe una intencionalidad política desestabilizadora detrás de ellas; vertebradas desde organizaciones con pautas de difusión muy marcadas y fuentes de financiación potentes. La presencia masiva de cuentas falsas, la repetición de determinadas erratas de forma idéntica y el llamativo aumento del número de cuentas en los momentos previos a las campañas evidencian la automatización de estos procesos. El uso constante de términos agresivos y despreciativos asociados al odio, consigue generar polarización extrema y un clima de crispación que constituye una amenaza a la construcción y consolidación de la propia democracia. Más allá de las medidas punitivas, se considera necesario implementar propuestas de carácter educativo.

Palabras clave

Discurso de odio, análisis de redes sociales, Twitter, análisis crítico, libertad de expresión, educación para los derechos humanos

Keywords

ate speech, social network analysis, Twitter, critical analysis, freedom of expression, human rights education

ABSTRACT

The purpose of this research was to study the spreading of political hate speech by the far right through Twitter. A mixed methodology was employed, combining both quantitative and qualitative tools, within the framework of digital ethnography. Five characteristic cases of campaigns linked to political hate speech were chosen, meeting the four criteria set: Latin American scope with representativeness in terms of breadth and impact, political motivation, more than 100,000 tweets, and massive use of fake accounts. The analysis was performed with T-Hoarder, Gephi and MAXQDA. The conclusions drawn are that these campaigns do not occur spontaneously. Rather, a destabilizing political intention lies behind them, sponsored by organizations with considerable ability to disseminate messages and with extensive funds. The massive presence of false accounts, the repetition of certain spelling errors in identical form and the striking increase in the number of accounts just before campaigns are evidence of the automation of these processes. The constant use of aggressive and disparaging terms associated with hatred triggers extreme polarization and a climate of tension, threatening the building and consolidation of democracy itself. Apart from punitive measures, there is a need to implement educational proposals.

Palabras clave

Discurso de odio, análisis de redes sociales, Twitter, análisis crítico, libertad de expresión, educación para los derechos humanos

Keywords

ate speech, social network analysis, Twitter, critical analysis, freedom of expression, human rights education

Introducción y estado de la cuestión

Es significativo el uso creciente de la expresión «discurso de odio» en los medios de comunicación y en la literatura académica (Matamoros-Fernández & Farkas, 2021; Paz et al., 2020). La recomendación europea del Comité de Ministros a los estados miembros sobre el «discurso de odio» define este término como «toda forma de expresión que propague, incite, promueva o justifique el odio racial, la xenofobia, el antisemitismo y cualquier otra forma de odio fundado en la intolerancia, incluida la intolerancia que se exprese en forma de nacionalismo y etnocentrismo agresivo, y de discriminación y hostilidad contra las minorías, los migrantes y las personas de origen inmigrante» (Recomendación R (97) 20 del Comité de Ministros 30 de Octubre de 1997). Aunque no parece haber consenso definitivo acerca de su definición (Grau-Álvarez, 2021), sí que parece claro que el discurso del odio no remite a un factor individual sino hacia un colectivo determinado, fomentando la intolerancia, la estigmatización o la agresión y violencia (Amores et al., 2021). «Se trata de un discurso que busca generar en el receptor un profundo sentimiento de repulsa hacia un colectivo, sobre el que se proyecta la responsabilidad de las amenazas o de los males, reales o supuestos, que cree sufrir aquel» (Pérez-Calle et al., 2019: 157).

El análisis del discurso de odio merece especial atención por sus implicaciones sociales, culturales y educativas, su influencia en la construcción de un clima social y político, y también por el vínculo entre el aumento del odio en línea y la perpetración de crímenes de odio (Müller & Schwarz, 2021). De hecho, el Código Penal español, en su artículo 510.1 tipificó los delitos de odio como el fomento, promoción o incitación directa o indirectamente al odio, hostilidad, discriminación o violencia contra un grupo, una parte del mismo o contra una persona determinada por razón de su pertenencia a aquel, por motivos racistas, antisemitas u otros referentes a la ideología, religión o creencias, etc., persiguiendo a quienes los difundan por cualquier medio.

De las once categorías en las que el Ministerio del Interior de España (2020) clasifica los delitos de odio, la categoría de ideología política es la segunda por volumen y la que más ha crecido en los últimos años, sobre todo en los espacios digitales. De ahí la importancia de estudiar el discurso político de odio centrado en ataques por razones ideológicas (Esquivel, 2016) que van más allá del discurso ofensivo o impopular amparado por la libertad de expresión (Martínez-Torrón, 2016), y pueden llegar a ser considerados delitos de odio. Estos discursos hoy se expanden a través de redes sociales, pues parecen haber hallado en ellas un canal adecuado para difundirse por su demostrada influencia en la conformación de opinión pública.

Este es el caso de Twitter que, a pesar de tener un volumen de uso moderado (Newman et al., 2021), sus tuits y polémicas tienen gran repercusión, dado que muchos medios de comunicación concentran parte de su atención en las interacciones difundidas por este medio, influyendo en la agenda social y política (Bane, 2019; Casero-Ripollés, 2020). Por eso hemos escogido Twitter para este estudio. Además, de por la facilidad de extracción de datos que permite (Villodre et al., 2021) y por ser una de las redes sociales en la que se pueden añadir hashtags (HT) o etiquetas en los mensajes que pueden llegar a generar así tendencia en la red. Es cierto que Twitter funciona a veces como cámara de eco (Pariser, 2011), reforzando posiciones ideológicas de comunidades virtuales afines y menor interacción con otras comunidades (Guo et al., 2020), pero se producen lo que Atilano (2019) llama «fisuras» y más pluralidad en lo que leen los usuarios que en lo que dicen (Shore et al., 2018).

En concreto, hemos investigado los discursos políticos de odio vinculados a la ideología de ultraderecha (que abarca la extrema derecha y la derecha radical) caracterizados por tres elementos con los que Mudde (2021) describe a la «derecha radical populista»: autoritarismo, populismo y nativismo (combinación de nacionalismo y xenofobia) (Camargo, 2021; Guerrero-Solé et al., 2022). En este sentido, centramos nuestro análisis en estos mensajes de carácter político, transmitidos a través de Twitter, que muestran un discurso de odio, para conocer cómo se extienden en la red, cómo influyen en los posicionamientos y generan tendencias de reacción, y qué efectos pueden provocar en la realidad. Su estudio nos parece fundamental además para prevenir y contrarrestar sus efectos desde enfoques no solo legislativos y punitivos sino también desde un enfoque preventivo en el campo de la educación (Chetty & Alathur, 2018).

Material y métodos

El objetivo de esta investigación es estudiar el discurso de odio desde la ultraderecha motivado específicamente por razones ideológicas y propagado a través de Twitter. Optamos para ello por una metodología mixta (Bagur-Pons et al., 2021; Chaves-Montero, 2018) que combine instrumentos de investigación cuantitativos (T-Hoarder y Gephi), dado el volumen de datos a analizar, con otros de corte más cualitativo (MAXQDA) para una mayor comprensión y análisis en profundidad del fenómeno estudiado (Rebollo, 2021).

La metodología se enmarca en la Etnografía Digital (Hine, 2015; McGranahan, 2019), un método de investigación en línea que, inspirado en la etnografía, sirve para comprender la interacción social en contextos actuales de comunicación digital. La etnografía digital (Pink et al., 2019) es un método interdisciplinar que retoma enfoques y perspectivas de la comunicación, la antropología y las ciencias de la computación, y que estudia el vínculo de las prácticas sociales con la producción de significados a través de una mediación tecnológica (Bárcenas & Preza, 2019). Se ha consolidado como una de las herramientas de investigación más utilizadas en entornos online (Airoldi, 2018; McGranahan, 2019).

Muestra

Se eligieron 5 campañas vinculadas al discurso político de odio motivado por razones ideológicas y propagado a través de Twitter en español, que cumplieran cuatro criterios seleccionados utilizando la técnica Delphi (mediante cuestionarios sucesivos y debates estructurados, establecidos con diez académicos y expertos en comunicación, redes sociales, educación y sociología de diferentes universidades del ámbito iberoamericano en el que se desarrolla la investigación):

  • Casos representativos por estar dirigidos contra gobiernos o cargos públicos de ideología progresista o social, considerados de izquierda.

  • Campañas con una motivación y objetivo claramente políticos, y cuya intención fuera conseguir movilizaciones offline en la sociedad contra esos gobiernos.

  • Campañas masivas, es decir, que tuvieran más de 100.000 tuits en torno a un hashtag determinado, lo cual las distinguiría de las tradicionales campañas políticas con menor difusión.

  • Campañas que hicieran un uso masivo de cuentas falsas (cuentas con 8 dígitos, pues al crear muchas cuentas automáticamente Twitter otorga por defecto un usuario terminado en ocho dígitos, que necesita una intervención humana para cambiarlo) y de cuentas nuevas recién creadas (con menos de un año de existencia) (Luque et al., 2021).

Los cinco casos seleccionados son:

  • #SáncheVeteYa (España) [error ortográfico repetido: sin la z].

  • #IglesiasVeteYa (España).

  • #AndrésNoMientrasOtraVez (Ecuador) [error ortográfico repetido: con la r en mentir].

  • #GolpeDeEstadoK (Argentina).

  • #FraundeEnMesa (Perú) [error ortográfico repetido: n añadida en fraude].

https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/e8d50b28-cb73-4603-a3e8-29a96f2d9852/image/b1a03029-3ede-4e25-ae90-7aea625ca573-u08-01.png

Además de los criterios señalados, otro motivo que justifica la elección de tales campañas tiene que ver con el hecho de que son campañas que se desarrollan entre mayo de 2020 y junio de 2021, coincidiendo con la pandemia y, por tanto, con mayor uso de redes sociales (Cervantes & Chaparro, 2021). Se escogieron además específicamente tres de ellas por el factor añadido del error ortográfico que muestran y que fue replicado miméticamente por, al menos, más de 20.000 cuentas, lo cual es un indicador de bots o cuentas automáticas (Puyosa, 2017) que se utilizan en campañas políticas intencionadas, dado que es materialmente imposible que 30.000 personas se equivoquen al mismo tiempo (Calvo et al., 2019; Persily, 2017; Vargo et al., 2017). Se recopilaron 1.442.781 tuits y retuits (RT) directamente a través de la API de Twitter en diferentes periodos temporales.

Instrumentos de investigación

Utilizando T-Hoarder se descargaron los tuits vinculados a los hashtags seleccionados mediante la metodología T-hoarder_kit, de código abierto, que cumple con los requisitos de objetividad y transparencia (Congosto, 2017). A continuación, se utilizó T-Hoarder y su algoritmo para clasificar los tuits y sus metadatos relacionales, en función de su actividad e impacto (Villodre et al., 2021) por líneas temáticas en tres ejes: temporal, espacial y de relevancia (Congosto, 2017). A partir de este primer análisis se utilizó el programa Gephi, una herramienta interactiva open-source para visualizar y analizar grandes gráficos de red, así como sistemas complejos, buscando patrones y tendencias (Cherven, 2013). Con Gephi se analizó la frecuencia e impacto de los mensajes para hacer un modelado gráfico según el número de RT recibidos y ordenados en el espacio utilizando el algoritmo Force Atlas-2.

Una selección de los datos más representativos obtenidos con T-Hoarder se volcaron posteriormente al programa MAXQDA Analytics Pro 2020 (Release 20.4.1) para realizar un análisis más cualitativo. Se realizó un primer cribado de los mensajes que contenían términos que se repitieran más de 200 veces. Luego nos centramos en aquellos términos relacionados con el discurso del odio (desprecio, rechazo, humillación, acoso, descrédito o sentimiento de odio hacia alguien por el hecho de pertenecer a un grupo o colectivo). Con la herramienta «combinaciones de palabras» de MAXQDA determinamos aquellas palabras vinculadas a los términos más repetidos que ponían de manifiesto o contribuían a resaltar ese discurso del odio. Por último, usamos la herramienta «palabra clave en contexto» para relacionar los términos seleccionados y las palabras vinculadas a ellos con su contexto, lo cual nos permitió realizar un análisis situado de la producción del discurso. El esquema donde se refleja este procedimiento puede consultarse en el siguiente enlace: https://doi.org/10.6084/m9.figshare.16649467.v4.

Análisis y resultados

Resultados del análisis con T-Hoarder y Gephi

Se presentan a continuación cinco grafos realizados con Gephi, correspondientes a las cinco campañas estudiadas. Para crear y modular cada gráfico se tuvieron en cuenta los siguientes elementos: (a) número de nodos (cuentas de Twitter analizadas), (b) número de aristas (interacciones entre cuentas), y (c) función de modularidad (de acuerdo con el porcentaje de interacciones se crean comunidades -entendidas estas por subgrafos más cohesionados, grupos de nodos más interconectados entre sí- que observamos representadas en la gráfica con el mismo color).

La ordenación en el espacio de estos nodos se efectuó usando el algoritmo Force Atlas 2, el cual tiene en cuenta diversas funciones para efectuar dicha distribución espacial, de las cuales destacamos dos: (a) la centralidad de cercanía, por la cual un nodo está más cerca de otro nodo en función del número de interacciones que tengan entre ellos, y (b) la centralidad de intermediación, por la cual un nodo se sitúa en medio de otros dos nodos diferentes cuando ha interactuado con ellos (por ejemplo, si un nodo A realiza interacción con dos nódulos B y C, en el gráfico aparece representado espacialmente entre ambos).

En la Figura 1, podemos observar dos grandes clústeres. El de la derecha es mucho mayor en nodos, aristas y comunidades, y con un mayor grado de concentración, lo cual significa que hay un gran porcentaje de interacciones entre las cuentas. En cambio, el de la izquierda está mucho más disperso y se encuentra alejado de la comunidad de la derecha por el principio de excentricidad (por no tener interacciones con el clúster de la derecha), presentando un porcentaje de interacción muy inferior al del otro. Debido a esa dispersión el clúster de la izquierda está bastante extendido espacialmente a pesar de que el número de cuentas es muy inferior, lo que indica falta de coordinación entre ellas, en contraste con el clúster de la derecha.

https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/e8d50b28-cb73-4603-a3e8-29a96f2d9852/image/6d9bce26-1893-4f88-bb2e-4e50d9d84169-u08-02.png

La distancia entre ambas comunidades muestra claramente la polarización (las comunidades de la derecha y de la izquierda apenas interactúan entre sí). En el clúster de la derecha se observa un contraste entre la mitad superior (comunidades: amarilla, naranja, azul y azul verdoso) donde no se aprecian nodos con un grado de entradas (RT) significativo, mientras que desde el centro hacia la mitad inferior sí aparecen concentradas las cuentas con un número importante de RT.

https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/e8d50b28-cb73-4603-a3e8-29a96f2d9852/image/5ea444e6-7382-4b7b-b667-ce5abda67325-u08-03.png

Las cuentas que aparecen representadas en mayor tamaño pueden ser interpretadas, por tanto, como la matriz de opinión (la estructura política comunicativa creadora de opinión que recibe muchos RT 1 ) frente a la matriz de difusión (red de cuentas que difunden los mensajes, muchas veces falsas, automatizadas y troll centers, cuyos nombres no aparecen en el gráfico, lo cual significa que hacen RT pero no reciben RT).

Finalmente, se observa un apéndice al clúster en la parte inferior derecha, separado por su baja interacción, que representa a una comunidad de cuentas venezolanas sin interacción con el resto, lo cual mostraría el eco internacional de esta campaña.

De las cuentas visualmente más grandes (matriz de opinión) del clúster de la derecha destacan el tuitero más relevante en esta campaña, @juanfraescudero (cercano al partido político ultraderechista Vox), así como Hermann Tertsch (eurodiputado de Vox, de la Red Floridablanca, fundación perteneciente a Atlas Network), Macarena Olona (Vox), Luis del Pino (miembro de Hazte Oír y periodista de Libertad Digital, ambas organizaciones ligadas a sectores ultraderechistas y ultracatólicos) o el tuitstar anónimo Willy Tolerdo.

La Figura 2 recoge la campaña lanzada por la candidata a la presidencia de Perú, Keiko Fujimori, en rueda de prensa. Se observan dos grandes clústeres claramente polarizados: en el izquierdo, una sola comunidad burlándose o quejándose de la campaña por no haber pruebas de fraude; en el otro, vemos dos comunidades principales donde las cuentas que recibieron más RTs están en la parte inferior, destacando el presentador de Willax TV, Diego Acuña (@diegoacuoficial). Este se encuentra en un extremo del grafo, dado que muchas cuentas solo interactúan con esta cuenta, además de algunas cuentas de su comunidad. Willax TV fue el medio que difundió fake news en torno al supuesto fraude electoral peruano (Quesada & Fowks, 2021) o, en campaña, el supuesto hecho de que Pablo Iglesias se había desplazado al país para ayudar a Pedro Castillo, bulo difundido también por medios españoles vinculados a la derecha, como esRadio, y que provocó manifestaciones delante del hotel donde supuestamente estaba alojado Iglesias (Newtral, 2021).

https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/e8d50b28-cb73-4603-a3e8-29a96f2d9852/image/495dabe4-2696-4c47-baf6-7b3145251783-u08-04.png

En la Figura 3 vemos un solo clúster sin ninguna polarización, donde las cuentas que reciben más RT están en una posición centrada, lo cual indica que los reciben de varias comunidades, siguiendo la función de centralidad de intermediación. Es el caso contrario al anterior. Aunque hay diferentes comunidades (por colores), componen el mismo frente de acción para difundir mensajes favorables al entonces candidato a la presidencia de Ecuador, Guillermo Lasso (@lassoguillermo), y en contra de Andrés Arauz, el candidato contrario. Destacan las cuentas de Carlos Andrés Vera (@polificcion), miembro de la fundación Ecuador Libre (que forma parte de la red Atlas Network), que dirige el propio Guillermo Lasso. También destacan las cuentas de Fernando Villavicencio, director del medio Periodismo de Investigación que, junto con Carlo Andrés Vera, difundieron vídeos que se demostraron manipulados del candidato Andrés Arauz durante la campaña electoral y se hicieron virales.

https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/e8d50b28-cb73-4603-a3e8-29a96f2d9852/image/7b82a003-a89e-4e7c-bd2b-8d8ea1306950-u08-05.png

En el grafo de la Figura 4 recogemos la campaña referida al golpe de estado «kirchnerista» (utilizando el apellido de la vicepresidenta de Argentina, Cristina Fernández de Kirchner). Podemos identificar un gran clúster formado por varias comunidades y una comunidad externa que polariza contra él.

https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/e8d50b28-cb73-4603-a3e8-29a96f2d9852/image/a908554e-8123-4d5f-b5d6-c5d8d2cf89dd-u08-06.png

Las cuentas con más RTs están bastante centradas recibiendo interacciones del resto de comunidades: un frente común contra el gobierno argentino. Casi todas las cuentas que destacan son de cuentas anónimas como @2023macri, @chauoperetak, así como medios digitales que difunden fake news y mensajes de odio como @laderechamedios y la cuenta de El Presto (@elpresto2ok), detenido por amenazar de muerte en redes a la vicepresidenta. Todas ellas forman parte del entorno mediático de las fundaciones de Atlas Network que promocionan a Milei y Espert en Argentina (candidatos políticos afines), y a políticos y formaciones como Bolsonaro, Trump o Vox fuera del país.

En la Figura 5 observamos un solo clúster de varias comunidades sin apenas polarización, donde la gran mayoría de cuentas que destacan están en el margen derecho con cierta cercanía entre ellas. Esta campaña está dirigida contra quien era en ese momento el vicepresidente del gobierno español. Se trata de una campaña de la derecha contra el gobierno, pero centrada en el componente más progresista de la coalición (algo similar a lo ocurrido en el caso argentino). Destacan en este ataque tanto cuentas anónimas como @frayjosepho, @nicobolivariano o @guajesalvaje, como cuentas de Vox y del PP, destacando la de su responsable de comunicación Ismael Quesada o el miembro de sus juventudes @pablocast13, además de periodistas o medios afines como Carlos Cuesta (OkDiario) o Caso Aislado.

Resultados del análisis con MAXQDA

A continuación, presentamos los resultados del análisis de los tuits seleccionados en función de la frecuencia de las palabras más repetidas (superior a 200 veces). Hemos elaborado una representación visual de nube de palabras en función de su frecuencia de uso (Ballestar et al., 2020). Las nubes de palabras son un método muy utilizado por su eficiencia para resumir grandes cantidades de datos y aproximarnos a la representación ideológica que hay detrás de un discurso textual. Por último, exponemos el análisis de las palabras clave en su contexto.

Resultados de la frecuencia de las palabras más repetidas en las campañas

En la nube de palabras generada a partir del análisis de la campaña #SancheVeteYa observamos que las palabras más repetidas son los términos asociados al HT con errores. El mayor índice de frecuencia está asociado a los términos: #iglesiasveteya, #gobiernocriminal, #sanchezaprision, #iglesiasaprision, #gobiernodimision, #socialcomunista, #nichobolivariano, #golpedeestado y #dictadura. Los términos centrales muestran claras alusiones a peticiones de dimisión del gobierno de Sánchez y abundan expresiones agresivas y despectivas. También aparecen términos relacionados con la crisis y la pandemia. Dicha nube de palabras puede consultarse en: https://doi.org/10.6084/m9.figshare.16649260.v1. En la nube de palabras de la campaña #IglesiasVeteYa observamos que vuelven a aparecer algunos de los términos más frecuentes en la anterior campaña como: #iglesiasveteya, #sanchezveteya, #iglesiasaprision, #golpedeestado, a los que se añaden algunos nuevos relacionados con la gestión de la pandemia por parte del gobierno, dos de los cuales vinculan las medidas adoptadas por el gobierno a la mentira, #gobiernodelbulo, y a las medidas sanitarias adoptadas, #mascarillas. Se observa una frecuencia alta de términos con alusiones no solo negativas y críticas al gobierno sino cargadas de hostilidad: #gobiernocriminal, #gobiernodeinútiles. La nube de palabras puede consultarse en: https://doi.org/10.6084/m9.figshare.16649296.v1.

En la nube de palabras generada en la campaña #AndresNoMientrasOtraVez observamos un patrón similar a las anteriores campañas. El HT con errores ortográficos se repite. Vuelven a aparecer términos con acusaciones, con carácter despectivo y alarmista como: #miente, #renuncia, #corrupción #escándalo. También aparecen insultos frecuentes: #borregodatecuenta. Al igual que en otras campañas, se alude a la pandemia (https://doi.org/10.6084/m9.figshare.16677760.v1). En el caso argentino se difunden términos y HT que denuncian un supuesto golpe de estado: #golpedeestadoenargentina; #democracia, #golpista, #dictadurak, entre otros. Se observa una frecuencia alta de términos, de acusaciones muy graves contra el gobierno democrático, al que tachan de #traidor, #golpista, #ilegal y #totalitario, algo que se ha observado en todas las campañas, aunque no con tanta virulencia. Las alusiones a la pandemia también están presentes aquí: https://doi.org/10.6084/m9.figshare.16654786.v1

Por último, en la nube de palabras generada en la campaña de #FraundeEnMesa, observamos que el término más frecuente es el propio HT con errores. Y que se intenta difundir la sospecha sobre las elecciones democráticas con términos como #impugnadas, #robar y acusaciones como #criminal. También se repiten insultos, #tunohascambiadopelon (https://doi.org/10.6084/m9.figshare.16654864.v1). Si bien es cierto que ninguna de las campañas estudiadas, ni tampoco los mensajes que en ellas se difunden, constituyen un delito de odio en sí y, por tanto, no existen denuncias por fomentarlo, es evidente que en muchos de los mensajes difundidos en los tuits se observa el uso de un lenguaje hostil e intolerante hacia un grupo o colectivo por el simple hecho de pensar ideológicamente diferente.

Análisis de las palabras clave en el contexto

A partir de la combinación de palabras más repetidas y de las seleccionadas para efectuar el análisis en el contexto, obtenemos los siguientes resultados. Se utiliza un lenguaje agresivo en todas las campañas analizadas donde el insulto y los términos descalificativos y acusatorios forman parte de los textos de los tuits:

  • «Hace 131 años nacía Adolf Hitler. Recordemos que este dictador Nacional SOCIALISTA llegó al poder durante una crisis y aprovechando un Estado de alarma!!! Necesitamos Autopsias YA y comprender que pasa y cómo Mientras tanto #IglesiasVeteYa #SanchezVeteYa» [campaña@iglesiasveteya].

  • «Borregos de mierda #TeVieronLasHuevas, el títere trabajó en el gobierno que tanto critica hasta que lo sacaron porque si…» [campaña@andresnomientrasotravez].

  • «Siempre recuerden que no todos los boludos son comunistas, pero todos los comunistas son boludos» [campaña@golpedeestadok].

Se criminaliza al gobierno, aunque este sea elegido democráticamente, y sobre él se vierten acusaciones muy graves (fraude, criminal, golpista, etc.), apelando a las emociones y la confrontación.

  • «La única solución a todo este caos, a esta gran traición, es militar, por supuesto. El gobierno criminal de Sánchez ha de ser juzgado» [campaña@sancheveteya].

  • «Estos hechos son GRAVÍSIMOS! La extrema izquierda y comunistas están dando un golpe de Estado INSTITUCIONAL y hay que denunciarlo!» [campaña@iglesiasveteya].

  • «El 19DIC hubo un golpe de Estado institucional que rompió la Constitución Nacional y estamos en un régimen totalitario. ¡Reaccionemos! Nos ampara el art. 36» [campaña@golpedeestadok].

  • Se utilizan cuentas que difunden mensajes donde se acusa (corrupción, fraude, mentira) sin pruebas ni, muchas veces, un mínimo respaldo:

  • «Confirmado. Estamos en plena dictadura. El criticar la gestión del Gobierno socialcomunista está siendo perseguido. Así lo han confirmado el responsable de la Guardia Civil en rueda de prensa» [campaña@sanchezveteya].

  • «Sergio Massa prometió acabar con los corruptos y terminó asociándose a ellos para destruir el país» [campaña@golpedeestadok].

  • «A la gran «organización criminal» le podrían robar la elección. ¿Algo no cuadra no? ¿O será que la verdadera organización criminal usó tu odio para que no mires donde hay que mirar?» [campaña@fraundenemesa].

Se usa un lenguaje hostil hacia el colectivo cuya ideología defiende la igualdad o la justicia, y a menudo se les señala y criminaliza, tachando a los gobiernos que comparten esa ideología progresista de régimen asesino, terroristas, usureros, defraudadores, comunistas, chavistas, fascistas.

  • «Huéspedes de regímenes asesinos, báculos de terroristas, usureros de viviendas, robabecas y defraudadores de Hacienda, dando lecciones de moral» [campaña@iglesiasveteya].

  • «Estos comunistas son verdaderas garrapatas q se aferran a su víctima para matarlas lenta%!! FUERZA ARGENTINA CONTRA LOS COMUNISTAS» [campaña@golpedeestadok].

  • «#AndresNoMientrasOtraVez eres como todo vago, incapaz, servil y mentiroso comunista» [campaña@andresnomientrasotravez].

Las alusiones al COVID-19 están presentes en todas las campañas analizadas culpabilizando al gobierno de la crisis y su gestión, e incluso atribuyéndole el «asesinato» premeditado de las víctimas del coronavirus.

  • «Sánchez tiene razón en una cosa debemos estar unidos pero unidos contra el gobierno criminal, golpista y totalitario que tenemos en España» [campaña@sanchezveteya].

  • «El caos en la gestión de ERTE aboca ya a 50.000 empresas a concurso #SancheVeteYa #GobiernoSanchezDimision #GobiernoDimisionYa» [campaña@sancheveteya].

Observamos que se trata de un discurso que busca generar un profundo sentimiento de repulsa hacia un colectivo, deshumanizándolo por el simple hecho de tener una ideología diferente (Pérez-Calle et al., 2019). De esta forma, las redes sociales, en vez de convertirse en un espacio de libertad de expresión, se están convirtiendo para algunos sectores en una herramienta para impulsar el discurso político de odio.

Discusión y conclusiones

Los discursos políticos de odio parece que no tienden a surgir de forma espontánea y aleatoria, sino que muestran una clara intencionalidad política, impulsados por ciertos sectores con la finalidad de desestabilizar a gobiernos democráticos o figuras públicas representativas de ellos. Emergen y son impulsados por colectivos minoritarios pero poderosos (Atlas Network, Hazte Oír, etc.), muy relacionados entre sí y con fuentes de financiación muy potentes (Albin, 2021). Las campañas analizadas siguen una pauta de difusión de mensajes muy marcada, actuando como una especie de milicias digitales, que incluso intentan señalar y perseguir online a quienes cuestionen las ideas que difunden (Busón, 2020). Se convierten así en lo que se denominan odiadores o haters (Recuero, 2017).

En todos los casos se detecta un patrón común: grupos vinculados a la ultraderecha organizan campañas a través de algunas cuentas auténticas, seguidas de inmediato por la acción de un importante número de cuentas falsas para convertir determinados hashtags en tendencias en Twitter e influir de este modo en el estado de opinión. Entre las evidencias encontradas de la automatización de estos procesos se pueden mencionar la repetición de determinadas erratas de forma idéntica en la difusión de los hashtags o la elevada presencia de cuentas falsas. Todas las campañas analizadas tienen entre el 6% y el 10% de cuentas automatizadas (cuya principal función es hacer RT a la matriz de opinión), cuando lo habitual es entre el 1% y el 3%. Además, hay un aumento significativo del porcentaje de este tipo de cuentas en los hashtags con errores. Un tercer factor es el llamativo aumento del número de cuentas (sube a más del 20%) creadas en los momentos previos a las campañas que se utilizan igualmente para difundirla. Se puede ver un ejemplo significativo en el siguiente enlace: https://doi.org/10.6084/m9.figshare.16695127.v1.

Como han comprobado previamente otras investigaciones (Luque et al., 2021; Stanley, 2019), estas campañas se disfrazan como pretendidas noticias reales, sin ofrecer fuentes fiables (Molina & Magallón, 2019). Una de las finalidades es crear la ilusión de falsos enemigos o peligros, y que la población vea como amenazas las propuestas ideológicas y políticas asociadas a grupos, gobiernos y colectivos políticos y sociales progresistas, de izquierda o que defienden derechos humanos. Para ello, se crean los denominados «diccionarios metapolíticos» para imponer una determinada visión política muy sesgada, con términos agresivos y despreciativos continuamente repetidos como «criminal», «fascistas», «comunista de mierda», etc. (Busón, 2020), como aparece reflejado en la campaña #IglesiasVeteYa.

Estos discursos políticos tienden a centrar el foco del interés en cuestiones emocionales (Molina & Magallón, 2019; Richards, 2010) que apelan a la irracionalidad para que se asuman las noticias sin oposición y se compartan de forma rápida alcanzando visibilidad y viralidad (mediante matrices de difusión que hacen de transmisores). Con su lenguaje agresivo y con ataques incluso personales, contribuyen a polarizar emocionalmente (Magallón & Campos, 2021) frente al «otro», generando un clima de confrontación, miedo, crispación y permanente conflicto. Buscan así que la matriz de opinión opuesta reaccione a esos mensajes políticos de odio para viralizar su mensaje, con la propia interacción de los contrarios, como hemos visto en la campaña #FraudeEnMesa o en #SánchezVeteYa.

En las campañas analizadas se pretende generar un clima social que cuestiona la democracia (Revenga, 2015) mediante el descrédito de la política como mecanismo de participación y de representación (tachando de «golpistas» a gobiernos elegidos democráticamente), difundiendo el mensaje de que las elecciones no son fiables porque el fraude electoral se ha constituido en parte del propio sistema (cuando no son elegidos sus líderes). Esta estrategia de la ultraderecha está siendo asumida y compartida por sectores conservadores, que les retuitean y difunden sus mensajes. Lo más grave es el posible carácter performativo que conllevan, pues se percibe en los casos analizados que este discurso político del odio difundido en Twitter puede generar un clima de odio político en la realidad social offline. Se genera así una situación en la que cada vez parece más difícil construir en la realidad puentes de entendimiento o búsqueda de acuerdos entre los diferentes, en función del bien común, la tolerancia y la justicia social.

El derecho y la propia Constitución Española garantiza el derecho a la libre expresión de ideas u opiniones (Art. 20), pero no como derecho absoluto e ilimitado, sino que debe ejercerse de forma que no atente contra los derechos de los demás respetando el derecho al honor, a la dignidad, a la igualdad y la no discriminación (Grau-Álvarez, 2021), como recomienda el «Code of conduct on countering illegal hate speech online» firmado por la UE con Twitter y las redes sociales. Por eso deberíamos avanzar, no solo en medidas legales y punitivas respecto a los discursos políticos de odio, sino también a través de una educación (Glucksmann, 2005) que los prevenga y dote a las futuras generaciones de herramientas de análisis y respuesta ante ellos.

Los mensajes, noticias y campañas que llegan a través de las redes sociales son ahora la fuente de lecturas y contenidos de buena parte de la ciudadanía, especialmente de los más jóvenes (Andrade-Vargas et al., 2021). Una de las herramientas que en este sentido se ha implementado en la educación formal ha sido la asignatura de Educación para la Ciudadanía y los Derechos Humanos durante la vigencia de la LOE (2006). Aunque con la LOMCE (2013) se eliminó esta materia, en la nueva ley educativa LOMLOE (2020) se recupera con la asignatura de Educación en valores cívicos y éticos que, según el artículo 121 de esta ley, debe formar ciudadanas y ciudadanos comprometidos con los valores democráticos y con el desarrollo de capacidades digitales y una cultura de alfabetización mediática crítica que enseñe a leer e interpretar el mundo. Puede ser una oportunidad clave para facilitar esas herramientas de análisis y respuesta al discurso político de odio en las redes, sabiendo, no obstante, que estas herramientas no siempre muestran una eficacia significativa (Guan et al., 2021).

Finalmente cabe mencionar que, entre las limitaciones de nuestro trabajo, se encuentran tanto el número limitado de campañas analizadas, lo cual no permite una mayor generalización de los resultados, como las relacionadas con la limitada repercusión actual de la propia red Twitter, que ya indicamos, y, por último, las limitaciones del software MAXQDA respecto al número de datos que permite introducir y analizar. De cara a futuras investigaciones sería interesante incorporar más herramientas de análisis que permitan ampliar el análisis de los efectos que tiene el discurso político del odio en redes sociales, así como sus efectos en la ciudadanía y en el proceso de toma de decisiones políticas. (1)