Navigation

¿Pueden convivir la inteligencia artificial y la democracia directa?

La misión del algoritmo Bot Dog es detectar y señalar comentarios de odio en las redes sociales. stophatespeech.ch

Algunas personas consideran que la inteligencia artificial es un peligro para la democracia, otras la ven como una gran oportunidad. Expertas (os) explican el uso de algoritmos y macrodatos (big data) en Suiza.

Este contenido fue publicado el 20 junio 2022 - 09:00
Katharina Wecker

Cade tres meses tienen lugar votaciones en Suiza. Previo a las citas con las urnas se llevan a cabo acalorados debates. En internet el tono suele ser particularmente áspero. Las ofensas, las expresiones de odio e incluso las amenazas de muerte no son raras. Es un problema para la democracia, observa Sophie Achermann, directora de Alliance F, la mayor organización femenina de Suiza.

“Es importante tener discusiones duras pero objetivas. Sin embargo, el odio en internet impide la pluralidad de opiniones”, afirma. “Las personas tienen miedo a los mensajes de odio y prefieren no expresarse”. Antes de la votación de la iniciativa sobre los pesticidas y el agua potable, por ejemplo, algunas políticas recibieron tantas amenazas que ya no quieren expresarse públicamente, asegura Achermann. No se trata de un fenómeno exclusivamente suizo: cada vez más políticas y políticos de todo el mundo reciben insultos y amenazas en línea, en particular las mujeres y los sectores minoritarios.

Por ello Alliance F ha desarrollado un algoritmo contra los mensajes que incitan al odio. El algoritmo se llama Bot DogEnlace externo, porque funciona como un sabueso que busca discursos ofensivos y violentos y los señala. Luego, un grupo de voluntarias (os) responde a cada mensaje. La idea es que el odio en línea no quede sin respuesta y que la discusión pueda volver a la vía objetiva.

Bot Dog se encuentra aún en fase experimental. Las primeras pruebas son alentadoras: investigadoras (es) de la Escuela Politécnica Federal de Zúrich (EPFZ) y de la Universidad de Zúrich han seguido el proyecto piloto y han constatado que las respuestas son especialmente exitosas cuando apelan a la solidaridad emocional con las víctimas de mensajes de odio. Frases como “su publicación es muy dolorosa para las judíos y los judíos” condujeron a sus autores a disculparse y eliminar los mensajes.

Bot Dog será puesto oficialmente en línea en julio. Señala Acherman que cualquier persona que lo desee puede participar en el proyecto, ya sea evaluando los comentarios y ayudando así al algoritmo a distinguir mejor los comentarios ofensivos y violentos, o respondiendo a los mismos.

Colaboración entre humanos y algoritmos

Bot Dog es solamente un ejemplo de cómo la inteligencia artificial (IA) puede ayudar a fortalecer la democracia. Dirk Helbing, profesor de Ciencias Sociales Computacionales en la EFPZ, está convencido del inmenso potencial de la democracia digital. Piensa en los presupuestos participativos que permiten a ciudadanas (os) decidir conjuntamente el destino del dinero.

Esta posibilidad fue puesta en práctica en el distrito zuriqués de Wipkingen. La población apostó por huertos urbanos, una pista de patinaje y un festival callejero de comidas. Cada proyecto recibió un apoyo de 40 000 francos del erario.

“La gente tiene miedo a los mensajes de odio y prefiere no expresarse”.

Sophie Achermann, Alianza F

End of insertion

Otra idea para la democracia digital: las ciudades y regiones de todo el mundo podrían trabajar en red y competir por las mejores soluciones en el campo de la economía sostenible, la reducción de CO 2 o la coexistencia pacífica. Una especie de olimpiadas de ciudad. Los proyectos y los datos relacionados serían de libre acceso y podrían proporcionar la base para modelos de IA.

“Creo que nos dirigimos hacia una especie de sociedad digital participativa”, estima Helbing. Una colaboración entre humanos e IA, como en el caso de Bot Dog, donde un algoritmo y personas voluntarias luchan juntas contra el odio en línea.

El potencial de la IA para la democracia directa sería inmenso, considera el especialista. Sin embargo, las aplicaciones que se basan únicamente en el uso de grandes cantidades de datos “también son potencialmente destructivas para las formas de sociedad basadas en la democracia, el Estado de derecho y los derechos humanos”, previene.

No todo es positivo

El problema es que los algoritmos deciden cada vez más qué información recibimos, qué productos se nos muestran y qué precio debemos pagar. Determinan lo que vemos del mundo y qué temas consideramos importantes. De esta manera, nuestras opiniones políticas y nuestro comportamiento electoral también están sujetos a influencias, agrega Helbing.

Ese fue el caso en la campaña de Donald Trump para las elecciones presidenciales de EE. UU. en 2016, cuando su equipo hizo un uso extensivo de algoritmos basados en big data para crear contenido personalizado para su público objetivo. “Los bombardeamos con blogs, páginas web, artículos, videos, anuncios hasta que comenzaron a ver el mundo de la manera en que nosotros queríamos que lo vieran. Y votaron por nuestros candidatos”, revela Brittany Kaiser en el documental de Netflix The Great Hack, sobre su trabajo durante la campaña.

Kaiser trabajó para la empresa Cambridge Analytica, que se hizo con los datos privados de 87 millones de perfiles de Facebook antes de las elecciones presidenciales de EE. UU., lo que provocó uno de los mayores escándalos sobre el tema.

Incluso durante la segunda campaña presidencial de Barack Obama en 2012, se contactó al electorado de manera específica. El equipo de Obama recopiló la mayor cantidad de datos posible y envió a cada elector y electora un mensaje personalizado.

Sin embargo, es difícil afirmar con certeza en qué medida estos métodos basados en la IA incidieron en el resultado de los candidatos. Helbing y sus colegasEnlace externo consideran, sin embargo, que este enfoque de las campañas electorales es un gran peligro. Sobre todo, la combinación de un enfoque personalizado y formas sutiles de incitación (nudging) basados en el uso extensivo de datos relacionados con nuestro comportamiento, nuestros sentimientos y nuestros intereses podría conducir a un poder totalitario, advierte Helbing. Nudging es un concepto tomado de la psicología y se refiere al uso de instrumentos que animan a las personas a hacer ciertas cosas y las empujan en una dirección determinada.

Campañas electorales basadas en la IA en Suiza

Una inteligencia artificial necesita sobre todo de una cosa: datos. Y cuanto más tiene, mejor funciona. En Suiza, la protección de datos y la privacidad son un bien precioso. ¿Sería posible aplicar los métodos estadounidenses a una campaña electoral suiza? ¿Podrían los partidos suizos llevar a los ciudadanos a votar de una manera determinada utilizando el llamado método de microtargeting?

Lucas Leemann, cuyas investigaciones en la Universidad de Zúrich incluyen la forma de medir la opinión pública utilizando sistemas de aprendizaje automático, no lo cree así. En su opinión, la situación de Suiza no es comparable a la de Estados Unidos. Esto también depende del hecho de que no se dispone en Suiza de datos brutos comparables a los utilizados en las campañas de Trump y Obama. “Tenían datos disponibles sobre casi cada ciudadana y cada ciudadano de EE. UU. En Suiza, las cosas son completamente diferentes”, puntualiza.

Durante sus estudios, Leemann trabajó brevemente para una empresa de moda en Estados Unidos. En esa función, no solamente tenía acceso a la base de datos con nombres, direcciones y fechas de nacimiento de sus clientas (es), sino que también podía obtener información sobre sus ingresos anuales estimados y el número de sus hijos, saber qué automóvil conducían y si alquilaban o eran propietarios de la casa que habitaban.

“En EE. UU., estos datos simplemente se pueden comprar y también se usan con fines políticos. En Suiza, datos similares, que yo sepa, no se usan para campañas políticas o al menos no todavía”, subraya.

¿“No todavía”? ¿Será posible comprar este tipo de datos en Suiza próximamente? Según el profesor Helbing de la EPFZ, la informatización del mundo está mucho más avanzada de lo que la mayoría de la gente piensa.

Cita como ejemplo el Centro de Ciberseguridad del Foro Económico Mundial (WEF), con sede en Ginebra, al que asisten empresas de todo el mundo, incluidas Amazon, MasterCard y Huawei Technologies. En ese contexto, se recopila una “cantidad extremadamente grande de datos”, dice Helbing. Los datos son utilizados con el beneplácito de las Naciones Unidas, para poner en práctica la Agenda 2030 sobre Desarrollo Sostenible, entre otras cosas.

“Esto también puede tener un propósito bien intencionado, pero uno se pregunta cómo se persigue y qué otras aplicaciones son posibles a partir de los mismos datos”, observa Helbing. “Dado que hay tantas empresas involucradas, existe el riesgo de que los intereses comerciales prevalezcan sobre los sociales”.

Más transparencia

Para evitar que la IA se convierta en un peligro para la democracia, deben desarrollarse rápidamente leyes y regulaciones, advierten los expertos.

Pero para elaborar reglas efectivas se necesita saber exactamente cómo funcionan los algoritmos. Y ahí está el problema. Las plataformas como Facebook son un agujero negro, dice Anna Mätzener, directora de AlgorithmWatch Suiza. “No sabemos en detalle cómo funcionan los algoritmos. Ni siquiera sabemos exactamente qué datos son recopilados”.

El contenido tratado por la IA en las redes sociales es un secreto bien guardado. Para descubrir el efecto del algoritmo en las campañas electorales, AlgorithmWath lanzó un proyecto de investigaciónEnlace externo en colaboración con el diario alemán Süddeutsche Zeitung. Pidieron a cientos de voluntarios que proporcionaran datos en su cuenta de Instagram antes de las elecciones generales alemanas de 2021. Los voluntarios debieron suscribirse a los perfiles de todos los partidos. Un complemento del navegador (plug-in) registró la aparición de estos perfiles y envió los resultados a AlgorithmWatch.

El análisis mostró que los contenidos del partido de la derecha radical, Alternative für Deutschland (AfD), ocuparon un lugar mucho más alto que los de otros partidos. Sin embargo, la investigación no pudo establecer por qué.

Meta (exFacebook), a la que también pertenece Instagram, no apreció la investigación. La empresa amenazó a AlgorithmWatch con “iniciar medidas más formales” en caso de que no abandonar el proyecto. En consecuencia, el análisis de datos se detuvo antes de lo esperado.

“Mientras este tipo de investigación no sea posible, no podemos hacer ninguna afirmación fundada acerca de la influencia de los contenidos tratados por la IA en las plataformas sobre la sociedad. Y, en particular, sobre la formación de la opinión política y, por lo tanto, sobre la democracia”, señala Mätzener.

Traducido del italiano por Marcela Águila Rubín

En cumplimiento de los estándares JTI

En cumplimiento de los estándares JTI

Mostrar más: SWI swissinfo.ch, certificado por la JTI

Los comentarios de este artículo han sido desactivados. Puede encontrar una visión general de los debates en curso con nuestros periodistas aquí. Por favor, únase a nosotros!

Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.

Compartir este artículo

Cambiar la contraseña

¿Quiere borrar el perfil definitivamente?