sábado, noviembre 23, 2024

Realidad VS fake news y deep fakes creados por inteligencia artificial

Estas tecnologías fueron bautizadas como «armas de disrupción masiva»

Agencia Excélsior

Robots que difunden información errónea a través de un chat, aplicaciones que producen videos pornográficos y voces clonadas que defraudan a millones de empresas: ante el auge de ultrafalsedades creadas por inteligencia artificial, los gobiernos del mundo comienzan a organizar su respuesta.

La inteligencia artificial está redefiniendo el dicho «ver para creer», con una avalancha de imágenes creadas de la nada y personas que aparecen diciendo palabras que nunca pronunciaron en ultrafalsedades con un realismo desconcertante, también llamadas «deepfakes», que socavan la confianza en internet.

China adoptó recientemente normas para regular las manipulaciones digitales, pero la mayoría de los países parecen estar luchando para mantenerse al día con tecnología de rápida evolución en medio de preocupaciones de que la regulación podría obstaculizar la innovación o ser mal utilizada para restringir la libertad de expresión.

Expertos advierten que las herramientas para detectar este tipo de contenidos son superadas por sus creadores, que operan de forma anónima gracias a técnicas de inteligencia artificial que antes requerían cierta especialización pero que ahora son accesibles y a bajo costo.

Meta, propietaria de Facebook, anunció el año pasado que había eliminado un video ultrafalso del presidente ucraniano Volodimir Zelenski llamando a los ciudadanos a deponer las armas y rendirse a las tropas rusas.

Kate Isaacs, una británica que hace campaña para que toda pornografía que se haga sin consentimiento se elimine del sitio Pornhub, le dijo en octubre pasado a la BBC que se sentía «devastada» por la publicación en la red Twitter de un video porno falsificado con su rostro.

– «Armas de disrupción masiva» –

La amplia posibilidad de crear de manera automatizada contenido de texto, audio y video, y su uso potencialmente malicioso, con fines de fraude financiero o robo de identidad, genera serias preocupaciones en todo el mundo.

Estas tecnologías fueron bautizadas como «armas de disrupción masiva» por la firma de análisis de riesgos Eurasia Group.

La semana pasada, la start-up británica ElevenLabs, que está desarrollando una herramienta de clonación de voz utilizando inteligencia artificial, admitió que había constatado un «creciente número de usos indebidos» de su software luego de que usuarios publicaran un audio falso que pretendía ser de la actriz Emma Watson leyendo el libro de Adolf Hitler «Mi lucha».

El aumento de «deepfakes» podría llevar a un «apocalipsis de la información», un escenario en el que muchas personas no pueden distinguir la realidad de la ficción y saber cuáles son las fuentes de información confiables, advirtió la agencia policial europea Europol.

Una muestra de este fenómeno se vio días atrás, cuando en un video a sus fans, el jugador de football americano Damar Hamlin agradeció al equipo médico que lo atendió tras su paro cardíaco durante un partido. Pero muchos seguidores de las teorías conspirativas, convencidos de que el malestar de Hamlin se debía en realidad a la vacuna contra el covid-19, consideraron «deepfake» su video.

– «Superpropagador» –

China, a la cabeza en la regulación de las nuevas tecnologías, anunció en enero nuevas normas para las manipulaciones digitales, que exigen a las empresas chinas que ofrecen este tipo de herramientas obtener la identidad real de sus usuarios. También obligan a colocar una nota sobre los «deepfakes» para evitar «cualquier confusión» para el público.

Las ultrafalsificaciones presentan un «peligro para la seguridad nacional y la estabilidad social» si no se supervisan, estimó el mes pasado el gobierno chino.

En Estados Unidos, legisladores presionan para que se forme un grupo de trabajo especializado en el monitoreo de «deepfakes». Pero defensores de los derechos digitales advierten contra la extralimitación legislativa, que podría acabar con los avances tecnológicos o apuntar contra contenido legítimo.

En Europa, el gobierno del Reino Unido dijo en noviembre que volvería ilegal compartir videos pornográficos ultrafalsos hechos sin aprobación de las víctimas.

Mientras tanto, la Unión Europea está inmersa en acaloradas discusiones sobre una propuesta ley de inteligencia artificial, supuestamente con el fin de fomentar la innovación y evitar abusos, que prevé aprobar antes de fin de año.

El texto requeriría que los usuarios aclararan que están publicando algo ultrafalso, pero algunos temen que no esto no sea suficiente.

«¿Cómo restauramos la confianza digital con transparencia? Esa es la verdadera pregunta en este momento», dijo a la AFP Jason Davis, profesor de la Universidad de Syracuse.

«Las herramientas (de detección de contenido ‘deepfake’) están llegando y bastante rápido. Pero la tecnología probablemente esté avanzando aún más rápido. Al igual que con la ciberseguridad, nunca resolveremos este problema, solo podemos esperar mantener el ritmo», añadió.

A muchos ya les cuesta entender nuevas herramientas como el robot conversacional ChatGPT, creado por la empresa californiana OpenAI, un chatbot que puede generar textos sorprendentemente convincentes sobre casi cualquier tema, a demanda y en pocos segundos.

NewsGuard, que califica las fuentes de noticias según su confiabilidad, lo describió como un «nuevo superpropagador de desinformación», porque ChatGPT dio respuestas «falsas y engañosas» a preguntas sobre el covid-19 o tiroteos en escuelas.

«Los resultados confirman los temores (…) sobre cómo la herramienta puede convertirse en un arma en las manos equivocadas», puntualizó.