Tan pronto como los primeros generadores de texto a imagen de IA, como DALL-E, Midjourney y Stable Diffusion, llegaron a la corriente principal en 2022, quedó claro que teníamos un gran problema en nuestras manos. En un mundo donde la mayor parte de lo que sabemos se media a través de pantallas, a través de imágenes digitales, vídeos y audio, ¿cómo podríamos esperar encontrar la verdad en un mar interminable de falsificaciones? ¿Cómo lidiaría la sociedad con un flujo ilimitado de ficción y desinformación? Resulta que no es genial.
En el poco tiempo transcurrido desde su debut, los modelos de IA generativa se han vuelto aún más potentes. El contenido que producen es cada vez más realista, a menudo indistinguible de las fotos reales, el habla o la escritura, y, a medida que se integran en aplicaciones como ChatGPT o Google Search, se están poniendo en manos de muchas, muchas más personas. Al mismo tiempo, hemos visto contenido generado por la IA utilizado para difundir dudas y desinformación en Gaza, infectar la política global como un “incendio forestal digital” y producir desnudos no consentidos de seres humanos reales.
La urgencia de este problema no ha pasado desapercibida, por supuesto. El mes pasado, los legisladores de los EE. UU. cuestionaron a Meta y X sobre su falta de reglas sobre las imágenes políticas generadas por la IA y su posible impacto en futuras elecciones. Esta semana, también se han planteado preocupaciones sobre la IA generativa en la primera cumbre de seguridad de la IA del mundo, que ha visto a Elon Musk, Sam Altman de OpenAI y un grupo de otras figuras influyentes descender al Reino Unido para hablar sobre el futuro de la tecnología.
Sin embargo, si hay algo que hemos aprendido de la aparición de nuevas tecnologías como las redes sociales, es que la acción del gobierno a menudo no logra mantenerse al día con el ritmo de la innovación. Es por eso que es importante que no solo esperemos a que se introduzcan nuevas reglas y regulaciones, sino que aprendamos a lidiar con el contenido generado por la IA y las falsificaciones profundas nosotros mismos, utilizando las herramientas que tenemos a mano. Con eso en mente, hemos recopilado algunos consejos para detectar falsificaciones de IA a continuación.
EN PRIMER LUGAR, DA UN PASO ATRÁS
Esto puede parecer un consejo obvio, pero frente a un aluvión de contenido a medida que nos desplazamos por nuestros feeds de redes sociales, donde todo está preparado para evocar una respuesta emocional inmediata, es fácil olvidarse de hacer una pausa y hacer un balance. Sin embargo, cuando se trata de decidir la autenticidad de los medios de comunicación que estamos consumiendo, este es un paso vital.
Pregúntate: ¿es plausible? ¿Un poco demasiado perfecto? ¿Es probable que me deje influir por mis propios prejuicios? ¿El contenido contradice lo que dicen las fuentes de noticias verificadas? En caso de duda, probablemente sea mejor asumir que es IA hasta que se demuestre lo contrario.
PONTE A PRUEBA
Las pruebas de verificación de IA ofrecen otra buena cartilla para detectar el contenido generado por la IA. Si nada más, tu rendimiento en ellos podría exponer lo fácil que es caer en una trampa, incluso si no parece que seas el tipo de persona que podría ser engañada por la IA. Este de Detect Fakes, un proyecto de investigación en el MIT Media Lab, incluso ayuda a generar información sobre cómo podríamos distinguir los medios falsos en el futuro.
RECUERDA QUE LA IA PUEDE HACER MANOS AHORA
Érase una vez (léase: hace unos diez meses, que es mucho tiempo en los años de la IA) había una forma a prueba de identificar a una persona falsa generada por la IA: solo echa un vistazo a las manos. Muy a menudo, las representaciones de las extremidades humanas que los generadores de imágenes escupían eran cosa de pesadillas: los dedos pegados hacia atrás, aplastados y multiplicados más allá de las leyes de la naturaleza. Desafortunadamente, este método ya no es tan confiable, gracias a las mejoras tecnológicas que realmente aumentaron con la versión cinco de Midjourney a principios de este año. Esto no solo significa que no puedes confiar en las manos para una prueba rápida de la verdad ahora, sino que también ilustra cómo las herramientas de IA están aprendiendo constantemente cosas nuevas a tener en cuenta.
UTILIZA LAS HERRAMIENTAS DE VERIFICACIÓN GRATUITAS
Junto con la proliferación de herramientas de IA generativas, varias organizaciones han implementado sus propias herramientas de verificación, que tienen como objetivo aclarar parte de la confusión sobre las imágenes, el texto, el vídeo y el habla falsos. Algunos de estos están disponibles de forma gratuita, como AI o no, y otros se pueden instalar en su navegador de Internet para su conveniencia de verificación de datos. Sin embargo, una vez más, no pueden ser 100 por ciento precisos, por lo que siempre vale la pena tomar los resultados con una pizca de sal.
ENCUENTRA LA FUENTE TÚ MISMO
Si las herramientas de verificación automática no lo están cortando, siempre puedes hacer tu propia inmersión profunda en el fondo del contenido digital. Digamos que quieres revisar una foto sospechosa, por ejemplo. Durante mucho tiempo, la función de búsqueda inversa de imágenes de Google ha sido una forma práctica de verificar sus orígenes, ofreciendo todos los sitios web en los que se ha publicado en el pasado. Lo mismo ocurre con el texto: pégalo en la barra de búsqueda, idealmente entre comillas, y hay una buena probabilidad de que encuentres la fuente real, si es que realmente existe.
Recientemente, Google también anunció una nueva herramienta para hacer que este proceso sea más conveniente. Con el nombre de “Acerca de esta imagen”, ofrece información de fondo esencial y contexto sobre las imágenes que aparecen en las búsquedas, incluido el propio contenido generado por la IA de la empresa. Todo lo que tienes que hacer es hacer clic en los tres puntos de la esquina superior de un resultado de búsqueda, y tendrás acceso a información sobre su edad y procedencia.
¿Qué deberías tener en cuenta? Bueno, la edad es una cosa: si la imagen se remonta a varios años atrás, entonces es muy poco probable que haya sido producida por la IA. (Esto también puede ayudar a identificar imágenes reales y desactualizadas que se han vuelto a compartir en un contexto falso). Los metadatos, que detallan cuándo, dónde y cómo se creó la foto, también pueden ser extremadamente útiles, si están disponibles. De lo contrario, hacer clic en páginas web de confianza puede ayudar a encontrar créditos para una variedad de medios, arrojando más luz sobre quién, o qué, lo produjo.
MARCAS DE AGUA EN IMÁGENES Y VÍDEOS DE IA
A medida que las imágenes generadas por la IA continúan extendiéndose por Internet (y, con toda probabilidad, eclipsan el contenido real en gran volumen), las cosas solo se van a volver más confusas. Afortunadamente, empresas como OpenAI, Alphabet, Meta, Amazon y DeepMind ya están trabajando en tecnología de marca de agua que “estampará” los medios generados por la IA con una marca invisible que se puede utilizar para rastrear sus orígenes. La “experiencia de búsqueda generativa” experimental de Google ya está haciendo uso de esta tecnología de verificación, al igual que la IA de Bing de Microsoft.
Sin embargo, un tema recurrente de la IA generativa es la capacidad de sus usuarios para encontrar soluciones para las reglas y restricciones incorporadas. La marca de agua no es diferente, y los investigadores ya han encontrado formas de “lavar” ciertos tipos de sellos invisibles. Entonces, hay otro problema: muchos de nosotros simplemente no podemos molestarnos en comprobar todo lo que encontramos para una marca de agua, ¡quién tiene tiempo! Así que, de nuevo, las marcas de agua no son una solución perfecta para las falsificaciones de IA.
De hecho, no hay balas de plata que puedan detener la traición de las imágenes de IA. Si realmente queremos determinar lo que es verdadero y falso en la era de la IA, probablemente va a requerir una combinación de todos los consejos y herramientas anteriores, con más probable que aparezca en el futuro a medida que la tecnología crezca y cambie.