Rebelión
Nacional

Inteligencia Artificial e hiperrealidad: ¿qué hacer cuando nada es lo que parece?

Por Antonio Salgado Borge

Las imágenes del Papa Francisco ataviado con un lujoso y moderno abrigo blanco representan un punto de quiebre con respecto a lo que podemos creer cuando se trata de información captada por nuestros sentidos a partir de medios digitales. Estas imágenes fueron creadas gracias a una inteligencia artificial generativa llamada Midjourney.

La posibilidad de crear imágenes utilizando inteligencia artificial no es nueva. Lo novedoso de las imágenes de Francisco es que éstas engañaron, por primera vez y al menos por unos segundos, a muchas personas que se sentían inmunes a esta tecnología –incluyendo al autor de esta columna–.

El caso del Papa fashion fue apenas un preludio. Esta semana se dio a conocer que el ganador en una de las categorías de los prestigiosos Sony World Photography Awards renunció a su premio tras admitir que su fotografía fue generada con inteligencia artificial. De acuerdo con este fotógrafo alemán, la única razón por la que entró a este concurso fue para generar debate. Hoy puede sonreír con la satisfacción de una misión cumplida.

Es importante reconocer que las imágenes creadas con IA generativa llegaron para quedarse. Muy pronto, el internet estará repleto de este tipo de “fotografías”. Y eso no es todo. Esta tecnología también es utilizada para crear texto, audio y video. La IA generativa es la mano detrás de Chat GPT, el famoso generador predictivo que Microsoft ya ha integrado a sus principales plataformas; Amazon está trabajando en la posibilidad de que sus bocinas equipadas con Alexa hablen con la voz que elija el usuario, incluyendo la de personas reales o familiares muertos; y esta tecnología puede ser utilizada para crear, en segundos, canciones o películas nuevas. En todos los casos, lo único que el usuario debe hacer es dar las instrucciones correctas.

Lo que a nuestros sentidos se les viene entonces encima es un torrente de lo que algunos llaman hiperrealidad: un estado de cosas donde la información que nos llega en forma de simulaciones profundas, o deepfakes, parecen igual o más reales que la que se desprende de contenidos que verdaderamente representan a la realidad misma.

Es fácil anticipar algunos de los problemas que esto representará para millones de seres humanos. Por ejemplo, extorsionadores o estafadores podrán hacer llamadas telefónicas donde la voz, cadencia, frases y temas de una persona querida serán indistinguibles de una llamada real de esa persona; videos pornográficos donde aparecen imágenes generadas de personas, que no han dado su consentimiento para ello, serán comercializados o utilizados como herramientas de venganza o chantaje; nuevas canciones y películas serán creadas utilizando la voz o fisonomía de artistas de todas las épocas de las que se tienen registros audiovisuales.

En lo que resta de este artículo quiero enfocarme a la principal amenaza que la IA generativa representa para las democracias. En concreto, me centraré en las formas en que esta tecnología agravará el fenómeno conocido como desinformación.

Empecemos reconociendo dos hechos bien documentados. Uno es que actualmente existe una cantidad impresionante de desinformación generada con metas políticas o económicas en mente. El otro es que hay un buen número de personas que no son capaces de reconocer una noticia que corresponde a la realidad de una que no lo hace. Considerando lo anterior, es fácil anticipar el problema que representa una tecnología que hará que torrentes hiperrealistas de desinformación sean disparados en segundos, y con un esfuerzo mínimo.

Desde luego, la pregunta obligada es qué hacer ante este problema. Me parece que existen cinco formas no excluyentes de responder a esta pregunta.

Opción 1. Algunas personas influyentes, incluido Elon Musk, firmaron recientemente una carta pidiendo que se ponga en pausa al desarrollo de la inteligencia artificial. El problema es que este documento apela a la buena voluntad de los desarrolladores; es decir, no implica establecer un freno de mano por medio de controles o regulaciones inmediatas. En todo caso, dado que la IA generativa está en todo el planeta, lograr un consenso, aunque necesario, será tardado. Tal como ha afirmado Carlos Páez en Aristegui en Vivo, México actualmente no cuenta con una estrategia para regular la IA. Y aún si este fuera el caso, en algunos países, como México, la vigilancia puede anticiparse laxa y poco efectiva.

Opción 2. La segunda opción pasa por intentar cortar el flujo de la desinformación hiperrealista pisando la manguera que la distribuye. La idea es exigir que las redes sociales, como Facebook o Twitter, implementen controles para que este tipo de información no lleguen a sus usuarios. Pero esta opción peca de una ingenuidad fuera de serie. Y es que, ya sea por falta de voluntad o de capacidad, las redes no han podido poner un alto a la desinformación que no es generada por IA; no hay razón alguna que lleve a suponer que, ante un flujo exponencialmente más denso, y ante falsificaciones que son impecables, la moderación de las redes será más efectivas.

Opción 3. La tercera posibilidad, planteada por algunos expertos, es desarrollar sistemas de IA generativa capaces de detectar falsificaciones creadas a partir de esa misma tecnología. Un problema con esta opción es que el desarrollo de herramientas de esta especie va muy retrasado con respecto a la IA generativa que produce falsificaciones. Además, en una esfera donde los capitales hacen y deshacen sin regulaciones, los estímulos económicos y políticos detrás de la IA generativa para crear falsificaciones son exponencialmente superiores de aquellos para frenarlas. En todo caso, la IA generativa se nutre de información existente; para detectar falsificaciones se “entrenará” con falsificaciones actuales, por lo que, en el mejor de los casos, siempre estará persiguiendo a un rival que va un paso adelante.

Opción 4. La cuarta opción sobre la mesa consiste en encogerse de hombros y no hacer nada. En este escenario, gradualmente las personas nos acostumbraríamos a adoptar una actitud de escepticismo radical ante cualquier contenido audiovisual que llegue a nuestros sentidos a través de medios digitales. Dado que cada vez más aspectos de nuestra vida transcurren en línea, un escenario de esta naturaleza sería una receta para el desastre. Por ejemplo, tendríamos que aceptar una incapacidad de conocer eventos que no atestiguamos de primera mano. Y, desde luego, que todos los problemas mencionados arriba se extiendan a nuestro alrededor como una enredadera.

Opción 5. La quinta opción consiste en apostar a lo que sabemos que funciona como mecanismo de contención temporal mientras encontramos una solución de fondo. En este sentido, la confiabilidad que tienen nuestras fuentes es de la mayor importancia. La idea es que uno puede saber qué estímulos audiovisuales corresponden con la realidad porque el portal, canal, o plataforma por el que nos llega ha probado ser confiable en el pasado. Esta propuesta es menos radical de lo que parece. A fin de cuentas, buena parte de nuestro conocimiento lo adquirimos a partir de la confianza que le damos a nuestras fuentes. El proceso empieza desde la educación que recibimos de nuestra familia, incluye los libros de los que aprendemos, por ejemplo, sobre matemáticas o biología, y los expertos en quienes confiamos –poca gente estaría dispuesta a ser enseñada a conducir por alguien que jamás lo ha hecho o no ha sido preparado para ello–. Las desventajas de esta opción son que muchas personas actualmente no saben distinguir las fuentes confiables de las que no lo son, que incluso quienes trabajan en estas fuentes pueden llegar a ser engañados por falsificaciones profundas y nuestra barrera de contención sería minúscula.

Es momento de hacer un corte de caja. En este artículo hemos revisado el enorme problema que se nos viene encima a partir de la proliferación de inteligencia artificial creativa y analizamos cinco posibles formas no excluyentes de atajar este fenómeno.

Por desgracia, también vimos que, en su versión actual, ninguna ni la suma de todas resultaría suficiente. De esto no se sigue que debamos desecharlas; lo que se sigue es que vamos contracorriente y que nos urge tomar con toda seriedad esta amenaza. Si nos hemos de defender del aluvión que se acerca, nos queda mucho trabajo por delante.

Cuando Descartes buscaba un punto firme desde el cual pudiéramos construir el edificio de nuestro conocimiento, concluyó que la información que nos llega de los sentidos no podía ser esa base porque no siempre es confiable. Sin embargo, incluso Descartes tuvo que reconocer que esta información es casi siempre confiable; de otra forma, no podríamos navegar el mundo y hacer nuestras vidas. Cuatrocientos años después, al menos en lo que respecta a información que nos llega de fuentes digitales, “casi siempre confiable” se antoja cada vez más distante.

Enlace a la fuente

Notas relacionadas

El plan B del plan B

Rebelion

Morales Lechuga obtuvo una suspensión para que la FGJCDMX ya no lo vincule a la corrupción inmobiliaria

Rebelion

SCJN admite controversia constitucional del INE contra Plan b de AMLO, suspende su aplicación

Rebelion