Por Pablo Corso. La puesta al alcance de las aplicaciones de inteligencia artificial (IA) generativa a los usuarios de todo el planeta promete una revolución creativa, pero también una crisis generalizada en los propios conceptos de verdad y confianza. Si ChatGPT nos permite conversar con Shakespeare, también nos deja firmar un paper que nunca escribimos; si Dall-e nos ilustra lo primero que se nos viene a la cabeza, también nos habilita a mostrarle al mundo algo que el mundo no necesariamente quiere ver; si Sora regala videos de alta calidad con apenas un par de indicaciones, también amenaza con borrar miles (o millones) de puesto de trabajo de un plumazo.
Atentos a estas tensiones, en OpenAI -el emporio digital del emprendedor serial Sam Altman, responsable de las tres plataformas- empiezan a cubrirse las espaldas ante el huracán de elecciones presidenciales que habrá en 2024 en países tan influyentes como Estados Unidos, México, India, Rusia y Ucrania. El último ajuste en sus términos y condiciones prohíbe a los usuarios, que hasta ahora disfrutaban de opciones de viralización instantánea ilimitadas, usar sus herramientas (incluyendo los chatbots) para hacerse pasar por candidatos, construir campañas o tejer lobbies por su cuenta. Tampoco podrán apelar a OpenAI para desalentar el voto o tergiversar el proceso de los comicios. En este hilo de restricciones bienintencionadas y políticamente correctas, la pregunta cae por su propio peso: ¿podrán?
El peligro de generar tsunamis de desinformación, con noticias, fotos y videos apócrifos de candidatos de cualquier calibre, parece ameritar los intentos de salvaguardar el sistema… que quizá la propia OpenAI ayudó a poner en riesgo. Sin tiempo para mea culpas, la empresa inicia así su plan de reducción de daños. Los objetivos declamados son valorizar la información rigurosa, fortalecer las políticas verificables y mejorar la transparencia. Buscará llegar a buen puerto a través de un ejército de especialistas en seguridad, inteligencia, legales e ingeniería, listos para “investigar y abordar con rapidez los potenciales abusos”.
La previsión es que OpenAI se centrará en potenciar algunas salvaguardas ya en funcionamiento, como la negativa a generar imágenes de personas reales o a programar chatbots de candidatos o gobiernos. Para que los votantes mantengan la confianza en la veracidad de lo que leen, y en un eco cercano a la respuesta de Facebook al aluvión de fake news, también se anuncia la integración de ChatGPT con fuentes informativas probadas y confiables, incluyendo créditos y links.
El negocio de la transparencia
La novedad más significativa es el “ícono de transparencia” creado por la Coalición por la Procedencia y Autenticidad del Contenido, un proyecto del que participan Adobe, Intel y Microsoft, entre otros. La nueva marca de confianza, un pin minimalista con las letras CR, codificará detalles sobre el origen de las imágenes (usuario, lugar, fecha, técnica y ediciones posteriores) con técnicas de criptografía, y al ser de disponibilidad abierta, “podrá adoptarse fácilmente por compañías y desarrolladores en cualquier producto o plataforma”, promocionan en su web. La meta es que un día se vuelva tan común, ubicuo y reconocible como el símbolo de copyright.
La industria apuesta fuerte. “La digitalización de nuestras sociedades y economías nos hizo muy dependientes del contenido digital a la hora de tomar decisiones”, contextualizó Mounir Ibrahim, ejecutivo de Relaciones Públicas en Truepic, otra organización de transparencia online. Jem Ripley, CEO de Publicis Digital Experience, recordó que como “la publicidad depende de un contenido audaz y que haga pensar, con poder para movilizar a las personas”, la importancia de su autenticidad es crítica. Andrew Jenks, presidente de C2PA, se ilusiona con que el ícono se vuelva interoperable en todos los sistemas, de modo que los usuarios puedan tomar “decisiones rápidas, informadas y necesarias sobre el contenido que consumen y comparten”.
Además de ser una iniciativa loable, no hay que leer demasiado entrelíneas para entender que los grandes jugadores están buscando, no sin alguna cuota de desesperación, proteger sus activos de credibilidad en un mundo donde todo se vuelve confuso y homologable. Este párrafo del sitio de noticias multimedia The Verge es particularmente iluminador respecto de las limitaciones generales, y sobre todo de las responsabilidades individuales:
Por ahora, estas herramientas están en proceso de lanzamiento, y dependen fuertemente de que los usuarios reporten a los actores perjudiciales. Dado que la IA es en sí misma una herramienta que cambia con rapidez, sorprendiéndonos regularmente con poemas maravillosos o mentiras descaradas, no está claro cuán bien funcionará esto para combatir a la desinformación durante la temporada electoral. Por ahora, la mejor apuesta sigue siendo reconocer la autoridad mediática. Eso significa cuestionar cada pieza informative o visual que parezca demasiado buena para ser real, o al menos hacer una búsqueda rápida en Google si la de tu ChatGPT se deja caer con algo demasiado loco.
De Trump a Milei
Ajeno a las disquisiciones técnicas sobre la autenticidad en la era de la posverdad, Donald John Trump -el hombre que busca volver a la Casa Blanca cuatro años después de haberla dejado- parece haber concluido que no hay nadie mejor que uno mismo para custodiar la veracidad de su imagen. En los últimos días, el magnate volvió a soltar su furia tuitera -o equisera- para, básicamente, volver a insistir en la idea de que el mundo está en su contra. Indignado por una foto que lo mostraba panzón mientras jugaba al golf, escribió en la cuenta devuelta por Elon Musk que “Las noticias falsas utilizaron IA para crear la foto. Son gente despreciable, todo el mundo lo sabe”. La explicación era más complicada, pero el republicano ya había dicho su verdad.
La defensa del narcisismo online no es un asunto ajeno a este lado del mundo. Javier Milei, cuyas interacciones en X empiezan a dibujar un patrón que ya preocupa a su entorno, parece hacer todo lo posible por lucir más hegemónico de lo que las fotos no retocadas revelan. Pero el “algoritmo de Yrigoyen” es solo un tramo de una deriva adicional, peligrosa y desconcertante, como sugiere el especialista en Semiótica Nicolás Canedo.
Mientras que el ejército digital libertario metaforiza a su líder como un león hipertrofiado que hibrida a Disney con Vin Diesel, las representaciones de Lali Espósito -su último blanco público al cierre de esta edición- muestran a la cantante “ostentando dinero y belleza entre personas pobres y muertas de hambre”, escribe Canedo. Eso no es todo. La multitud que celebra a Milei “viste bien, lleva banderas argentinas y exhibe todos los rasgos de un pueblo soberano que ejerce una deliberada y bienintencionada participación cívica”. Los supuestos seguidores de Lali en cambio “casi no tienen ropa; sus barrigas abultadas y costillas visibles (ni hablar del color de su piel) son las marcas de un cliché mass-mediático de miseria y pobreza”. En resumen: “El pueblo-fan de Milei es libre y soberano. El de Lali Depósito es desposeído, casi adicto”.
Otra pregunta cae por su propio peso: ¿cómo llegamos hasta acá? La respuesta no está en ningún emporio, coalición ni marca de agua. La única certeza, imperfecta e insuficiente, es que algo se nos está yendo de las manos.