Algoritmos y comunicación: Revisión sistematizada de la literatura
RESUMEN
La influencia de los algoritmos en la sociedad es cada vez mayor a través de una presencia creciente en todos los ámbitos de la vida diaria, sin que seamos conscientes de ello y, en ocasiones, usurpando la identidad de otros actores sociales. El artículo tiene como propósito principal abordar la metainvestigación sobre el campo de la inteligencia artificial y la comunicación, desde una perspectiva holística que permita analizar el estado de la investigación académica, así como los posibles efectos en estas dos áreas y en la convivencia en un sistema democrático. Para ello se lleva a cabo una revisión sistematizada de la literatura reciente desde enfoques cuantitativos y cualitativos. La temática analizada es cambiante y novedosa; incluye el impacto y la interacción de algoritmos, bots, procesos automatizados y mecanismos de inteligencia artificial en el periodismo y la comunicación, así como su efecto en la democracia. Los resultados dibujan una producción científica en expansión, mayoritariamente en inglés, basada en la discusión teórica o centrada en la percepción de los profesionales de la comunicación. El objeto de estudio mayoritario se sitúa en el periodismo y en la democracia, con menor implicación de la ética o la educación. Los estudios señalan un gran interés sobre los efectos del uso de algoritmos sobre el periodismo y la democracia, pero las respuestas son todavía inciertas y los retos para los próximos años importantes.
Palabras clave
Inteligencia artificial, comunicación, periodismo, democracia, opinión pública, revisión
Keywords
Artificial intelligence, communication, journalism, democracy, public opinion, review
ABSTRACT
The influence of algorithms on society is increasing due to their growing presence in all areas of daily life. Although we are not always aware of it, they sometimes usurp the identity of other social actors. The main purpose of this article is to address the meta-research on the field of artificial intelligence and communication from a holistic perspective that allows us to analyze the state of academic research, as well as the possible effects on these areas and on the democratic system. To this end, we carried out a systematized review of recent literature using quantitative and qualitative approaches. The subject analyzed is changing and novel: it includes the impact and interaction of algorithms, bots, automated processes, and artificial intelligence mechanisms in journalism and communication, as well as their effects on democracy. The results show expanding scientific production, mostly in English, based on theoretical discussion or focused on the perception of communication professionals. The object of study is centered mostly on journalism and democracy, and to a lesser degree on ethics or education. Studies indicate great interest in the effects of the use of algorithms on journalism and democracy, but the answers are still uncertain and the challenges for the coming years are significant.
Palabras clave
Inteligencia artificial, comunicación, periodismo, democracia, opinión pública, revisión
Keywords
Artificial intelligence, communication, journalism, democracy, public opinion, review
Introducción
Los algoritmos se han convertido en actores del ámbito social, económico, político y cultural en los últimos años. La vida cotidiana y las decisiones de los ciudadanos están cada vez más vinculadas a modelos matemáticos y al big data, «con diversos grados de opacidad en cuanto a cómo operan, en interés de quién y con qué implicaciones» (Thurman et al., 2019). Si en ocasiones reemplaza la toma de decisiones de las personas por un software (Broussard et al., 2019), en otras, potencia la mercantilización de las audiencias (García-Orosa, 2018), prediseñando a denominados públicos algorítmicos (Eldridge et al., 2019). Los algoritmos se han convertido en un tropo generalizado para dar sentido a la vida social (Ziewitz, 2017) con mayor capacidad para configurar la esfera pública que en otras épocas de su historia (Broussard et al., 2019). Pero esta situación no está aislada sino que forma parte de una etapa en la comunicación digital caracterizada por eventos que, en mayor o menor medida, están diseñados por el uso de algoritmos y que caracterizan a la cuarta ola de la comunicación digital: las plataformas digitales que se han convertido en actores de todas las fases de la comunicación, el uso intensivo de Inteligencia Artificial y big data unidos a un uso acrítico de la tecnología y a la intensificación de la búsqueda del engagement con la audiencia y con tres grandes retos para la democracia: a) polarización; b) fake news, deepfakes y astroturfing; c) cámaras de eco y filtros burbuja (García-Orosa, 2022).
Esta situación llevó a cambios relevantes en la profesión, en la investigación y en la docencia del periodismo y de la comunicación, pero, como se indicó anteriormente, también a la esfera pública y a la convivencia democrática. La intervención en campañas electorales y referéndums a través de bots e inteligencia artificial ha sido estudiada ampliamente en los últimos años (García-Orosa et al., 2021) con resultados que apuntan no solo hacia una intervención directa de los algoritmos en los resultados sino también hacia la reconfiguración de la esfera pública (Papakyriakopoulos et al., 2018; Helberger, 2019). La democracia tendrá que ser reimaginada en el nuevo paradigma de la comunicación (Castells, 2022).
Al mismo tiempo, la comunidad científica se enfrenta al análisis de un objeto de estudio cuya fuerza reside, en parte, en la ocultación de su funcionamiento, identidad y objetivos. La creciente influencia de los algoritmos en los sistemas económicos, políticos, sociales y mediáticos de los últimos años ha venido acompañada de una producción científica en auge. Es un momento de inflexión no solo por los cambios que ha producido la pandemia en la comunicación y la opinión pública sino, sobre todo, por la necesaria renovación de métodos de investigación que permitan aprehender un objeto de estudio cambiante en los próximos años. La metainvestigación permite tomar una fotografía del conocimiento científico sobre un área y señalar sus carencias; en anteriores estudios como la revisión de la producción científica sobre comunicación en el ámbito iberoamericano entre los años 2013 y 2017 (Piñeiro-Naval & Morais, 2019) se constata que la temática aquí abordada todavía no tenía relevancia. Se hace necesaria en este momento la revisión bibliográfica para observar nítidamente cuáles fueron los logros alcanzados y los retos para los próximos años.
Este artículo tiene como propósito principal el análisis de la investigación científica sobre algoritmos y comunicación desde una perspectiva holística que permita analizar el estudio de sus diferentes usos en el periodismo, en la comunicación política y organizacional, pero también, al mismo tiempo, los posibles efectos en estas áreas y en la convivencia en un sistema democrático. Para ello se lleva a cabo una revisión sistematizada de la literatura reciente desde el enfoque cuantitativo y cualitativo.
Material y métodos
Con el objetivo de analizar la investigación científica reciente desarrollada en la confluencia de la inteligencia artificial y el campo de la comunicación –específicamente el periodismo, la comunicación política, organizacional y la democracia–, se realiza una revisión sistematizada de literatura. El estudio parte de una aproximación sistemática que aporta rigor científico en cada una de sus fases: búsqueda, evaluación, análisis y síntesis (Grant & Booth, 2009). El objetivo principal es evaluar el estado actual de la investigación sobre una temática cambiante y novedosa que incluye el impacto y la interacción de algoritmos, bots, procesos automatizados y mecanismos de inteligencia artificial en el periodismo, la comunicación política y en las organizaciones, así como su efecto en la democracia. Este marco de referencia permitirá un avance sólido del conocimiento y la delimitación de futuras líneas de investigación, a partir de la identificación de tendencias, fortalezas y debilidades en los estudios publicados (Shahnazi & Afifi, 2017). Se formulan las siguientes preguntas de investigación:
-
P1. ¿Cuáles son las características de la investigación científica sobre inteligencia artificial y comunicación?
-
P2. ¿Cuáles son los objetos de estudio y métodos de la investigación científica sobre inteligencia artificial y comunicación?
-
P3. ¿Cuáles son los ejes temáticos de la investigación científica sobre inteligencia artificial y comunicación?
En la fase de búsqueda se han empleado las dos bases de datos científicas: Web of Science (Clarivate Analytics) y Scopus (Elsevier). Los documentos seleccionados incluyen los términos –en inglés, pues las publicaciones indexadas cuentan con título, resumen y palabras clave en esa lengua– y cumplen las condiciones indicadas en la ecuación de búsqueda (Figura 1). Se han considerado criterios de inclusión adicionales: son artículos publicados en revistas científicas, publicados entre los años 2017 y 2021 (incluyendo online first), en las categorías de Comunicación (Web of Science) y Ciencias Sociales (Scopus).
El conjunto de documentos resultante estaba compuesto por 64 artículos provenientes de Web of Science (SSCI), 230 artículos de Scopus y 111 artículos localizados en ambas (en total, 405). En la fase de evaluación, se ha comprobado el título, resumen y método para aplicar una serie de criterios de exclusión –de adecuación y de calidad–. En primer lugar, se contrasta que cada documento responde al objeto de estudio que centra la revisión, descartando aquellos artículos que no trataran sobre la relación de la inteligencia artificial y el campo de la comunicación según se definió en la ecuación de búsqueda. En segundo lugar, se ha revisado también que los artículos cumplan con los estándares de calidad científica, aunque se presuponga por el hecho de estar publicados en revistas indexadas en las bases de datos indicadas. La muestra final es de 243 documentos 1 .
Los parámetros de análisis cuantitativo de los documentos seleccionados se presentan en la Tabla 1, que representa la ficha aplicada sistemáticamente a cada artículo como indican las guías de revisión (Codina, 2018), de forma manual y por un solo codificador.
Finalmente, se visualizan con el software VOSviewer los resultados de Scopus (n=194) para el análisis de co-citación y de palabras clave en ambas bases de datos –por limitaciones en la importación y exportación de referencias citadas no ha sido posible combinar la visualización de la co-citación en WoS y Scopus–. Posteriormente se realiza un análisis de interpretación cualitativa de las contribuciones científicas y se destacan los ejes de análisis de los artículos publicados en este subcampo.
Análisis y resultados
Análisis bibliométrico
En primer lugar, se da respuesta a la pregunta P1 (¿Cuáles son las características de la investigación científica sobre inteligencia artificial y comunicación?). La investigación sobre inteligencia artificial en comunicación tiene un volumen significativo en el periodo 2017-2021, con 243 artículos. Con el paso de los años el interés se ha incrementado (Figura 2).
La publicación sobre inteligencia artificial y comunicación ha implicado un total de 97 revistas científicas diferentes entre las que destacan: «Digital Journalism» (44 artículos), «New Media & Society» (18), «Media and Communication» (12), «Journalism Practice» (10) y «Profesional de la Información» (9) –listado completo en anexo1–. La mayoría de los artículos se publica exclusivamente en inglés (86,4%, Tabla 2). La presencia de revistas iberoamericanas, rusas y eslovenas en los índices de impacto asegura la publicación de artículos sobre esta temática en otras lenguas. El acceso abierto, a través de las propias revistas, está disponible en el 58,4% de las publicaciones.
La autoría de los artículos es única en un 36,6% de las publicaciones, mientras que la mayoría resultan del trabajo entre varios investigadores (Tabla 2). No existe una representación similar entre hombres (63,3%) y mujeres (35,3%), además el 60,6% de los artículos tiene primer autor masculino; no obstante, esta variable tiene limitaciones en su codificación que pueden inducir a error y en el 1,4% de los artículos no se ha podido atribuir género.
Los principales autores, entre los 9.391 identificados en el análisis de co-citación realizado con los documentos recuperados en Scopus (n=194), son: Nicholas Diakopoulos (149), Seth C. Lewis (102), Matt Carlson (95), Neil Thurman (77), Philip N. Howard (76), Chris W. Anderson (74), Natali Helberg (72), Andreas Graefe (64), Rasmus Kleis Nielsen (63) y Nic Newman (61). Por tanto, los autores de referencia en el estudio de la inteligencia artificial convergente con la comunicación pertenecen, en su mayoría, a universidades estadounidenses y británicas. En los anexos 2 se presenta el grafo de co-citación para autores con un mínimo de 20 citas, donde los autores más citados conforman un cluster coloreado en rojo.
En la identificación de las instituciones a las que pertenecen los 515 autores de los artículos analizados, se observa que hay presencia de 37 países (anexo 3 ). Los cinco con mayor representación son: Estados Unidos (128; 24,9%), España (54; 10,5%), Reino Unido (49; 9,5%), Alemania (37; 7,2%) y Países Bajos (30; 5,8%).
En la revisión sistematizada de literatura se analizan los objetos de estudio que abordan los artículos, para dar respuesta a la pregunta P2 (¿Cuáles son los objetos de estudio y métodos de la investigación científica sobre inteligencia artificial y comunicación?). Un total de 844 palabras clave se asignaron en los artículos –tanto en WoS como Scopus–; a partir del grafo de palabras clave (Figura 3), que representa los 73 términos con una frecuencia mayor o igual a tres, identificamos siete clusters, a modo de primera aproximación. El más numeroso (en rojo) es el que abarca periodismo, inteligencia artificial, algoritmos, plataformas y social media. Un segundo cluster (en amarillo) corresponde al periodismo automatizado, robot y computacional. El tercer cluster (en naranja) hace referencia a la desinformación. Entre los clusters restantes destaca el construido alrededor del campo de la comunicación política.
El análisis de palabras clave permite una primera aproximación al objeto de estudio que hemos complementado con un análisis pormenorizado a partir de la lectura del artículo. Los resultados (Tabla 3) señalan que el tema más estudiado es el impacto de la inteligencia artificial en el periodismo –atendiendo a la influencia en la producción informativa, en las audiencias y en la profesión–. En segundo lugar, se ha estudiado la incidencia en la esfera pública, la democracia y la comunicación política. En un tercer nivel, la relación con las plataformas –fundamentalmente las redes sociales–. Otros aspectos analizados se relacionan con el auge de la desinformación y de iniciativas de verificación; la propia investigación científica, la metaciencia y la agenda de futuras investigaciones; el impacto en la comunicación y en la gestión de las organizaciones; cuestiones éticas y de regulación; así como la educación y la alfabetización digital.
Respecto a los métodos empleados (Tabla 3), un importante número de artículos (26,7%) se centra en una discusión teórico-conceptual sin metodología explícita, que podemos sumar al conjunto de revisiones de literatura (5,4%) para conformar un grupo de artículos de corte teórico. La metodología es variada en el abordaje de la inteligencia artificial en el ámbito comunicativo, con un enfoque hacia la percepción de profesionales, expertos y usuarios en numerosos estudios, como acontece con las entrevistas, las encuestas y los focus group (sumando un 21,3%). Los métodos orientados al análisis de datos (14,2%) con origen –generalmente– en las redes sociales tienen un valor específico por la estrecha relación entre plataformas y algoritmos. El análisis de contenido, tanto cuantitativo como cualitativo, ocupa el cuarto puesto, seguido por el estudio de caso. Con menor incidencia aparecen otros abordajes metodológicos, como el experimento, el trabajo de campo, la discusión metodológica y la investigación participativa.
El impacto de los artículos revisados está condicionado por la corta trayectoria desde su difusión, dado que el periodo de análisis abarcó el periodo 2017-2021. No obstante, cabe destacar la notoriedad, en base a las citas recibidas, de los artículos que forman parte de esta revisión. El conjunto de artículos revisados suma 2.913 citas (un promedio de 12 citas por artículo). En los anexos 4 se relacionan los diez documentos con más citas según las bases de datos empleadas –firmados por 27 autores, de los cuales el 25,9% son mujeres–.
Interpretación cualitativa: Desde la elaboración de noticias al prediseño de la audiencia
Los algoritmos han sido utilizados en la literatura científica como un instrumento de trabajo científico para la extracción e interpretación de datos sobre todo en análisis de contenido y en experimentos (Broersma & Harbers, 2018; Yarchi et al., 2020). Sin embargo, durante los últimos años los algoritmos se han convertido también en un objeto de estudio, bien por su influencia en alguno de los actores tradicionales de la política, la economía, la sociedad o la cultura o bien por su rol como actor político.
Este apartado se ha estructurado en función de los resultados cualitativos de la revisión sistematizada de la literatura, con el fin de responder a la pregunta P3 (¿Cuáles son los ejes temáticos de la investigación científica sobre inteligencia artificial y comunicación?). Las investigaciones desarrolladas en los últimos años y caracterizadas por el relato realizado por los protagonistas han desarrollado grandes ítems: la influencia de los algoritmos en la democracia, los efectos de los algoritmos en los medios de comunicación y, finalmente, la audiencia y la relevancia de la determinación algorítmica del consumo. Se examinan a continuación, brevemente, el enfoque y los resultados de los trabajos realizados en estos ámbitos.
Influencia en la democracia
Como se indicaba en la introducción de este artículo, las investigaciones apuntan hacia una gran influencia del uso masivo de algoritmos en el funcionamiento de los sistemas políticos democráticos. La literatura señala que los efectos de los bots siguen creciendo (Montal & Reich, 2017; Santini et al., 2018) especialmente en períodos electorales. El enfoque de trabajo en este ámbito asume una concepción técnica de los algoritmos y tienen el objetivo principal de desarrollar sistemas de detección a través del machine learning (Häring et al., 2018; Dubois & McKelvey, 2019). Mientras tanto, desde el ámbito de las Ciencias Sociales, los investigadores cuestionan la salud de la democracia por la circulación de fake news (Bimber & Gil-de-Zúñiga, 2020), pero también por campañas de astroturfing que pueden alterar opiniones y crear incertidumbre (Zerback et al., 2021).
En el momento actual, algunos conceptos aceptados mayoritariamente en los últimos años están en entredicho, como los filtros burbuja (Puschmann, 2019). Mientras algunos estudios indican que los medios sociales refuerzan las actitudes existentes (Ohme, 2021) o reflexionan sobre su influencia en la esfera pública (Kaluža, 2021), otros cuestionan la validez del término. Haramba et al. (2018) proponen una interpretación histórica desde la perspectiva de lectores mercantilizados (García-Orosa, 2018). El ideal de satisfacer los hábitos de los lectores –incluso con información falsa, engañosa o tendenciosa– está en la economía de la atención y es un principio fundamental de los algoritmos «captivating» que satisfacen a los usuarios cautivándolos (Seaver, 2018). En este sentido, Schjøtt-Hansen y Hartley (2021) analizan el algoritmo y la selección de noticias y describen la evolución de distribuir el contenido informativo a los usuarios tratados como segmentos de colectivos de consumidores a construir algorítmicamente usuarios individuales como puntos de datos agregados.
Tras una década de euforia por la capacidad de empoderamiento de los ciudadanos que ofrecían las plataformas, la desinformación, las noticias falsas, la incitación al odio o el escándalo de Cambridge Analytica, entre otros, han creado desconfianza (van-Dijck, 2020). La literatura científica señala los riesgos de la posibilidad de que los algoritmos produzcan calumnias y la indefensión de medios y ciudadano, como apuntan Lewis et al. (2019). Estos autores indican dos cuestiones de relevancia: la dificultad para encontrar culpables en caso de difamación y la dificultad para encontrar defensas tan relevantes como la de las plataformas.
Este conjunto de influencias en diferentes aspectos de la democracia ha llevado a algunos autores a hablar de la «cultura algorítmica» (Gilbert, 2018) y se advierte de los posibles riesgos para los valores democráticos. En los últimos años, desde la academia se piden reformas legislativas para abordar los nuevos desafíos de la comunicación digital para los valores democráticos o cuestiones puntuales como la legislación sobre bots (Jones & Jones, 2019) que puedan acometer nuevas cuestiones como la privacidad y el reconocimiento facial (Leong, 2019) o las desviaciones racistas provocadas por el uso de algoritmos (Turner-Lee, 2018).
Periodismo y medios
La alta tecnología ha marcado el desarrollo del periodismo en los últimos años (López-García & Vizoso, 2021) y el uso de algoritmos está abriendo importantes debates sobre su conceptualización y esencia. El empleo de algoritmos ha recibido diferentes denominaciones (Vállez & Codina, 2018) pero una de los más utilizadas es el de periodismo automatizado o periodismo robot. Bajo esta etiqueta se han desarrollado trabajos científicos que analizan, fundamentalmente desde la perspectiva de los propios periodistas y directores de medios, la implementación y las consecuencias de su uso en la elaboración, distribución y circulación del mensaje.
En los últimos años, un número creciente de medios de comunicación, como The Associated Press, The Washington Post y la BBC, han adoptado el «periodismo automatizado» (Graefe, 2018), igualmente conocido como «periodismo algorítmico» (Kotenidis & Veglis, 2021) o «periodismo robot» (Waddell, 2018), una solución entendida como la generación automática de textos periodísticos con software y algoritmos, con poca o ninguna intervención humana, salvo la programación inicial (Danzon-Chambaud & Cornia, 2021; Sehl et al., 2021). Pero, además, los algoritmos intervienen en la fase de selección de tema, fuentes y circulación del mensaje periodístico. La automatización se estudia desde la perspectiva de la ayuda al periodista, por ejemplo, en la búsqueda de hechos noticiables (Diakopoulos et al., 2021; Thurman et al., 2017), en la distribución personalizada por sistemas de recomendación de noticias (Helberger, 2019) en la potenciación del periodismo de datos (Tong & Zuo, 2021), en la evaluación de la credibilidad de las fuentes (Fletcher et al., 2020; Graefe et al., 2018) o redefiniendo los valores noticia (Choi, 2019). En general, los resultados revelan el papel transformador de las máquinas, especialmente en las fases de recopilación y distribución de noticias, y cada vez más en la fase de redacción, especialmente en especialidades donde los datos son abundantes, como el deporte y la economía. Sin embargo, los periodistas siguen llevando las riendas en todas las fases del proceso de producción de noticias (Milosavljević & Vobič, 2019), especialmente en las fases de selección y edición de noticias, lo que sugiere su deseo de proteger su papel de árbitros finales del significado (Wu et al., 2019). Numerosos autores estudiaron las oportunidades de la robotización para el ejercicio del periodismo (Borges & Gambarato, 2019; Dierickx, 2021) y algunos han concluido que los robots no amenazan su labor (De-la-Torre, 2020).
Al mismo tiempo que se revelan cambios en la profesión, se identifican modificaciones importantes en la lógica del periodismo que llevan a repensar el concepto y su influencia en la profesión. Los estudios examinan la automatización como un elemento más dentro de la labor del periodista (Calvo-Rubio & Ufarte-Ruiz, 2020) e identifican contradicciones entre la automatización y algunos de los ideales fundamentales del periodismo –servicio público, autonomía y objetividad– (Milosavljević & Vobič, 2019), creando tensiones en su implementación en las redacciones (Hermida & Young, 2017). Los periodistas indican como límites al periodismo automatizado la naturaleza de las fuentes y la falta de «olfato periodístico» (Thurman et al., 2017).
Después de una etapa (2015-2016) en la que se mostraba una actitud muy favorable y poco crítica, los textos de más reciente publicación (2017-2019) vuelven a optar por el tono neutral que era habitual en los años 2011-2012 (Parratt-Fernández et al., 2021). Han surgido investigaciones que cuestionan el rol del periodismo dentro de la sociedad y las consecuencias del uso de la algoritmización de la profesión, pero también de la vida social, económica, política y cultural, y conducen a repensar el concepto (Bucher, 2017) y analizar los desafíos éticos (Dörr & Hollnbuchner, 2017) y de la credibilidad (Tandoc et al., 2020). Hablan de periodismo algorítmico y descubren nuevos retos en su lucha contra la preeminencia de intereses comerciales incluso de los departamentos comerciales de los medios más que de las redacciones en la implementación de la automatización (Slaček-Brlek et al., 2017).
Otros autores destacan la creciente dependencia de proveedores de software y plataformas frente a la independencia editorial que debe primar en el periodismo (Schapals & Porlezza, 2020; Weber & Kosterich, 2018) con la entrada en los procesos de producción de nuevos profesionales como los tecnólogos, es decir, los informáticos que influyen en el campo informativo y redefinen el periodismo con sus prácticas y valores (Wu et al., 2019), anteriormente denominados también tecnoactores (Canavilhas et al., 2016).
Audiencia
El uso de la automatización ha creado nuevos debates sobre la elaboración de textos periodísticos y su autoría (Montal & Reich, 2017), y en algunas situaciones ya no es posible distinguir quién ha producido las noticias (Wölker & Powell, 2021). Pero también modifica la relación con la audiencia, por ejemplo, con el uso de Newbots como mediador entre periodista y audiencia (Ford & Hutchinson, 2019). Desde el inicio del periodismo digital la audiencia ha formado parte del trabajo del periodista (García-Orosa, 2018) pero, en el momento actual, con el uso de algoritmos se avanza un peldaño que dibuja dos aristas. En primer lugar, a través de la vigilancia de la audiencia: «Los periodistas pueden –y de hecho lo hacen– vigilar a los usuarios de las redes sociales y sus contenidos a través de sofisticadas aplicaciones profesionales que también son utilizadas por la policía y las fuerzas de seguridad» (Thurman, 2018: 1).
Y, en segundo lugar, la creación de la propia audiencia denominada, en ocasiones, algorítmica, una audiencia que responda a los intereses de los emisores. Martin (2021) advierte de los riesgos de la mediatización de la visibilidad de las noticias por opacos algoritmos, así como por la plataformización de las noticias (van-Dijck et al., 2018) y metrificación de los valores noticia.
Pero los algoritmos no solo influyen en los contenidos destacados, sino que la audiencia también es jerarquizada en función de su interés para la plataforma. En relación con Facebook, los autores Thorson et al. (2021) indican que las personas que son algorítmicamente categorizadas como interesadas en noticias o política son más propensas a atraer contenido a sus feeds, más allá de su interés autoinformado en el contenido cívico. En este sentido, Papakyriakopoulos et al. (2018) trabajan sobre la relevancia de los usuarios hiperactivos (con mayor actividad en la red que la media) en la conformación de la opinión pública y la democracia; estudian su influencia, que marcan la opinión pública en las redes sociales y alerta de los posibles efectos perversos en los sistemas políticos del uso de algoritmos y sistemas de recomendación.
Por lo tanto, uno de los aspectos más relevantes es el de la circulación, donde se pasa de difundir a los públicos y gestionar sus actividades a que los públicos formen parte de la construcción del discurso y se trabaje con públicos algorítmicos, diseñados a partir del big data obtenido previamente. Bodó (2019) describe cómo los medios de comunicación europeos, en lugar de centrarse en aumentar el compromiso del usuario a corto plazo, intentan utilizar la personalización de las noticias para aumentar la fidelidad de la audiencia a largo plazo. A diferencia de la «lógica de personalización de la plataforma», que utiliza la personalización para producir compromiso y vender audiencias a los anunciantes, han desarrollado una «lógica de personalización de las noticias», que utiliza la personalización para vender noticias a las audiencias» (Bodó, 2019: 1054).
Nuevos roles sociales, políticos y mediáticos conquistan espacio como los algoritmos, un tropo generalizado para dar sentido a la vida social (Ziewitz, 2017), que ya no solo marca los temas de la agenda, sino que también diseña al público (Thorson et al., 2021). Se busca un público que no se reúne de forma natural y que, en cambio, es «construido» (Eldridge et al., 2019), se programan públicos algorítmicos (Møller-Hartley et al., 2021) que promueven una experiencia mediática y política particularmente «rentable y normal» (Harper, 2017). Los usuarios suelen estar indefensos porque desconocen cómo se filtran y priorizan las noticias (Powers, 2017) y también cómo se prevé el perfil de usuario.
Determinación algorítmica del consumo
Un punto especialmente destacado en la literatura de los años analizados son los sistemas de recomendación como configuradores de la opinión pública y, por lo tanto, de la participación ciudadana en la vida pública.
El consumo masivo de información a través de las plataformas de los medios sociales en detrimento de los medios tradicionales ha provocado una dependencia relevante en la determinación algorítmica del consumo de noticias en función de un comportamiento previo de la audiencia, analizado a través de big data, y posibles distorsiones como la polarización (Shmargad & Klar, 2020). Los sistemas de personalización de noticias se han tratado como cajas negras que indican una brecha significativa entre la práctica y la teoría de la transparencia algorítmica en particular en contexto no comunitario (Bastian et al., 2021). El uso de diferentes fuentes de datos para predecir qué contenidos serán interesantes para los lectores plantean preocupación por la posible fragmentación de la audiencia (Makhortykh & Wijermars, 2021); Kunert y Thurman (2019) también mostraron su preocupación por la protección de datos y los efectos de los sistemas de recomendación tras realizar un seguimiento sobre personalización de noticias durante seis años y detectar la mercantilización de las plataformas.
Pero hay igualmente proyectos de los medios tradicionales que usan los sistemas de recomendación de noticias de forma transparente y que buscan combatir la desinformación y crear una esfera pública europea, lo que parece confirmarse al analizarse su producción (Canavilhas, 2022). Es el caso del «A European Perspective», de la European Broadcasting Union, donde un sistema desarrollado de forma colaborativa por esta organización (PEACH) busca ofrecer los contenidos más adecuados a cada usuario a la mejor hora y en el dispositivo más apropiado. El sistema destacado por la literatura académica reciente abre un debate relevante sobre la opacidad de los sistemas de recomendación y adaptación de contenidos a los intereses de la audiencia y, por ende, sobre su rol en los sistemas democráticos (Helberger, 2019).
Discusión y conclusiones
En un contexto líquido e híbrido, los algoritmos destacan como nuevos actores de la comunicación y de los sistemas políticos, económicos y sociales. Su influencia, basada en muchas ocasiones en el uso de datos personales confidenciales o en la ocultación/usurpación de identidades digitales, se incrementó en los últimos años. El resultado son cada vez más campañas de desinformación que aprovechan los algoritmos y bots para conseguir una mayor y más rápida repercusión.
Las organizaciones de noticias se han adaptado de diversas maneras a un entorno de medios digitales dominado por guardianes algorítmicos como los motores de búsqueda y las redes sociales (Graves & Anderson, 2020). Los robots comunicativos se definen como sistemas que operan de forma autónoma diseñados con el propósito de cuasi-comunicarse con los seres humanos para permitir otras funcionalidades basadas en algoritmos, a menudo, pero no siempre, sobre la base de la inteligencia artificial como Siri o Alexa (Hepp, 2020).
Desde el punto de vista cuantitativo, la investigación científica en la convergencia del campo de la inteligencia artificial con la comunicación evidencia un interés significativo y creciente en el periodo 2017-2021. Las publicaciones son, fundamentalmente, en inglés y resultado de colaboración entre varios autores. Estados Unidos, España y Reino Unido destacan como los países con mayor presencia en la revisión. Los objetos de estudio abordan las diferentes perspectivas de estos dos campos en interacción, aunque predominan las preguntas acerca del ámbito periodístico –tanto en la producción, como en la profesión y las audiencias–; el impacto en la esfera pública, la democracia y la comunicación política; así como el rol de los algoritmos en las plataformas. Desde el punto de vista metodológico, se ha estudiado este fenómeno desde un abanico de métodos y técnicas, destacando las discusiones teórico-conceptuales sin metodología explícita, el análisis de la percepción de los actores implicados y el estudio de datos obtenidos de las plataformas, entre otras.
Desde el punto de vista cualitativo, la literatura científica sobre los algoritmos y la comunicación describe una situación incierta y difícil de analizar por la opacidad como estrategia central del objeto de estudio. Además del interés mostrado desde el punto de vista de la ingeniería y las ciencias informáticas por descubrir cuál es el funcionamiento de los algoritmos, los investigadores evidenciaron su preocupación por la implementación en el periodismo y sus efectos sobre la audiencia y la democracia. Los resultados dibujan todavía líneas inciertas que deberán ser confirmadas con futuras investigaciones sobre la potenciación y ayuda a los diferentes actores democráticos teniendo en cuenta, entre otros factores, el factor cultural (Jamil, 2021).
Los retos para los próximos años son amplios. Resumimos a continuación algunos de los extraídos tras el análisis realizado:
-
Búsqueda de metodologías específicas y métodos analíticos propios que permitan comprender una realidad cambiante y muy opaca.
-
Potenciación de investigaciones multidisciplinares.
-
Estudios empíricos sobre los efectos del uso de algoritmos en los diferentes sistemas.
-
Incremento de análisis comparativos entre diferentes países que ofrezcan un avance dentro del campo científico a través de datos generalizables.
Limitaciones
Se trata de una revisión bibliográfica cuyas investigaciones ya tienen sus propios sesgos epistémicos y metodológicos. La ecuación de búsqueda, por su propia formulación, conlleva limitaciones en los resultados; en este estudio tuvimos que limitar el campo a la intersección de la inteligencia artificial –con diferentes denominaciones– con el periodismo, la comunicación política, la comunicación organizacional y la democracia, debido a que la inclusión del término «comunicación» provocaba ruido documental. Además, por la opacidad del objeto de estudio predomina el relato de los protagonistas con la validez y el sesgo que ello implica. (1)