Saltar al contenido

Bienvenidos a la era de la IA electoral

Estados Unidos está sumido en una campaña electoral tensa e incierta. No es el único país que va a ir a las urnas. Alrededor de mil millones de votantes van a estar convocados en distintas partes del mundo. En ese contexto, la inteligencia artificial va a empezar a usar de manera masiva para mejorar la eficiencia de las acciones políticas, aunque también existe un cierto temor sobre la posibilidad de difundir bulos.

Problema del que partimos: las nuevas empresas que han potenciado el uso de la IA en su vertiente generativa no disponen de equipos de revisión electoral. A su vez, partimos de un escenario distinto al de otras épocas. Entre 2015 y 2019, Meta, empresa propietaria de Facebook, jugó un papel preponderante en la difusión de información política. Surgió un clima de polarización y extremismo sin parangón. Y eso que contaba internamente con una enorme plantilla para revisar los contenidos. Ahora, solo cuentan con unos pocos 500 empleados repartidos en todo el mundo. 

Esa situación se empeora en el sentido que, en la actualidad, han aparecido las herramientas generativas para ponérselo más difícil a los equipos de revisión. Microsoft, de hecho, descubrió la existencia de una red de perfiles falsos que estaban utilizando matizarla generado por IA para intentar influir a los votantes estadounidenses. Según aseguran desde “Axios”, la CIA ha advertido recientemente que desde China, Rusia e Irán ya han empezado a utilizar estos servicios sintéticos para fines políticos. “Este año puede ser el primero donde realmente presenciamos el funcionamiento de la IA generativa como herramienta de desinformación y de manipulación en un proceso electoral. Por un lado, el acceso a herramientas poco sofisticadas es bastante fácil y los usuarios pueden utilizarlas para hacer bromas, pero al mismo tiempo sabemos que existen equipos profesionales con estrategias e importantes recursos económicos que trabajan para ‘lobistas’ o gobiernos que buscan dispersar información maliciosa”, explica Vanina Berghella, directora regional para América Latina del International Fund for Public Interest Media, en declaraciones por correo electrónico a Verbaliza.

Etiquetar los “deepfakes”

Nos encontramos, además, ante otra coyuntura especial. En 2023, YouTube eliminó las prohibiciones de negar los resultados electorales en sus vídeos, mientras que Facebook, por su parte, sí restringe los anuncios que los rechazan, aunque solamente en aquellos en los que se van a celebrar. Lo que están intentando hacer las compañías de medios sociales como TikTok es identificar los llamados “deepfakes” a través de una serie de etiquetas, pero ¿va a ser esto suficiente? ¿El auge de la IA provoca una situación preocupante desde el punto de vista de un medio? “Las audiencias están cada vez más conscientes de estas amenazas y aprenden cada día más para reconocer estos contenidos falsos, al mismo tiempo que hay grandes comunidades de usuarios que se ocupan de chequear y contrastar estos contenidos para identificar los que son manipulados”, apunta esta experta. A su juicio, la tecnología no es el problema sino el uso que se le confiere desde diferentes sectores y de qué manera se obtiene provecho también de forma positiva: “La AI puede resultar muy valiosa para aportar mayor transparencia al proceso electoral, procesar grandes cantidades de información y alcanzar audiencias que no se podrían hacer de otra forma”.

Las herramientas generativas están ya penetrando en la gran empresa, pero también está sacando la peor cara del ser humano; aquella que miente, que intenta hacer el mal. Es una condición inherente en nuestra naturaleza. Así que, como era de esperar, ya se está aplicando para intentar influenciar a los potenciales votantes. Un ejemplo de hace poco: se ha descubierto en EE.UU. que se estaba difundiendo una falsa llamada automática de Joe Biden en la que le comunicaba a los demócratas de New Hampshire que no votaran.  Esta llamada era una aparente imitación o manipulación digital de la voz del presidente. Esto ya no es una broma.

Un estudio sobre los riesgos de la IA ha alertado recientemente acerca del peligro “sustancial o extremo” de la desinformación. La encuesta, realizada a unos 2.778 investigadores en el campo de la IA, pone de manifiesto el impacto ético y los desafíos sobre los mensajes políticos que reciben los ciudadanos. El 86% de los participantes cree que la difusión de información falsa merece una mayor preocupación en los próximos treinta años. Los expertos consideran que la influencia de esta tecnología sobre la opinión pública es muy elevada. También destaca que, para el 73% de las respuestas, la IA puede provocar que los gobiernos autoritarios ejerzan un control poblacional. 

Argentina, de hecho, ha sufrido en el último año una enorme polarización, que acabó llevando al ultraderechista Javier Milei a la presidencia. ¿De qué manera los medios pueden enfocarse para no verse envueltos en los contenidos basura producidos por la IA? “En algunos últimos informes que dan cuenta de temas de transparencia, se ha podido determinar que Argentina es uno de los países con mayor polarización en el mundo (sino es el más polarizado) y esto no ocurre desde hace poco tiempo, sino que ha sido una construcción constante y permanente desde hace más de 15 años. Primero fomentada por los gobiernos de turno y, luego, fogueada por los diferentes sectores de poder. Tampoco podemos eludir a la misma sociedad que al final toma partido y se ubica en uno u otro lado donde ya no importan la verdad y los hechos fácticos, sino ‘su verdad’”, reconoce Berghella. Su consejo es contundente: “Los medios de comunicación no deben fallar al hacer el trabajo profesional que tienen como misión. Y esto es publicar información de hechos reales, chequear esa información, ya sea que proviene de fuentes de primera mano como aquel contenido que viene de otras fuentes”.

Otra de las frases clave de esta experta:

“La AI no es el único problema, la polarización es un virus que se propaga fácilmente, incluso en los medios y es un dilema que está presente en los debates sobre periodismo, que hay que superar y volver a las fuentes. El periodismo debe recuperar su credibilidad haciendo base en la ética profesional”

Ante estas posibilidades, OpenAI, empresa detrás de ChatGPT, ha introducido recientemente cambios muy relevantes en el chatbot para prohibir que los políticos puedan utilizar esta tecnología para fines electorales. Esto sienta un nuevo precedente en el campo de la IA porque, desde ahora, el principal servicio de texto generativo va a cortar el grifo a la posibilidad de trazar mensajes y automatizar acciones para tratar de influenciar. 

Medidas para combatir la desinformación en ChatGPT: ¿útiles?

Es verdad que, por sus prestaciones, tampoco es un servicio que pueda ejercer presión en las redes sociales, que es donde ahora mismo se celebra el partido contra la desinformación. Pero esta medida está diseñada para que la generación de contenidos falsos para distribuirlo por blogs y otros foros sea algo más complicada. Eso sí, las “alucinaciones” que todavía se producen son máximas y hay que coger los textos que recibimos con pinzas. Mi consejo es que siempre, siempre, siempre se revise. Lo que quiere así la compañía fundada por Sam Altman es prohibir su tecnología para evitar abusos y que sea algo más transparente. Es decir, que no ofrezca mensajes políticos equivocados o sesgados. ¿Lo conseguirá?

Para ello, la compañía pretende lanzar una serie de herramientas a lo largo del año para luchar contra la desinformación. “A principios de este año implantaremos las credenciales digitales de la Coalition for Content Provenance and Authenticity (Coalición para la Autenticidad y Procedencia de los Contenidos). Un enfoque que codifica los detalles sobre la procedencia de los contenidos mediante criptografía», apuntó el empresario durante su participación en el Foro de Davos. Esta coalición, conocida como C2PA, está orientada a mejorar la identificación y rastreo de contenidos digitales. Entre sus miembros se encuentran empresas como Microsoft, Sony o Adobe. 


Ahora CHATGPT es mejor siendo gratuito: trucos para aprovecharlo

Te enseñamos a aplicar las capacidades de GPT 4o, el nuevo modelos de lenguaje de OpenAI que es grat…

Voces sensuales, la sumisión se quiere apoderar de la IA

A pesar de los esfuerzos, el desarrollo de los sistemas basados en inteligencia artificial continúan…

Scarlett Johansson, OpenAI y el problema de la IA

OpenAI retira una voz empleada para su nuevo modelo ChatGPT-4o por su parecido con la de la actriz S…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *