¿Cómo reconocer el contenido de IA?
Todavía puedes creer lo que ves y lo que ves es real. Cada día aparecen en Internet nuevas fotografías creadas por inteligencia artificial. Los generadores de fotografías como Midjourney, DALL-E 3 y Bing Image Creator (que también utilizan el modelo DALL-E) se están volviendo tan buenos que a veces es realmente imposible saber si se trata de una foto real o de una IA. Y lo hacen en apenas unos segundos, mientras que un fotógrafo o artista real tiene que invertir mucho más tiempo para capturar una foto similar. Tiene que considerar la luz, la perspectiva, elegir el sensor correcto, la ubicación, el reloj y más. En Midjourney simplemente introducimos unos comandos y en menos de un minuto el programa nos propone varias fotografías diferentes.
Recientemente, se realizó una prueba en EE. UU. en la que se evaluó a 1000 adultos para ver si eran capaces de identificar qué era real y qué era creado por inteligencia artificial. En la mitad de los casos se equivocaron. Ese es el poder del modelo de lenguaje Sora, la última creación de OpenAI, que inició esta moda de la IA con el chatbot ChatGPT.
En los próximos años, todos tendremos que convertirnos en Sherlock Holmes e investigar a fondo cualquier contenido que nos parezca cuestionable o sospechoso. Incluso si el contenido es genuino, sospecharemos al menos parcialmente que podría no ser contenido de IA, simplemente por la existencia de estas herramientas de alto rendimiento.
Pero hay ciertas señales que revelan que se trata de inteligencia artificial. Señales que debemos aprender a reconocer, aunque hay muchas posibilidades de que estos consejos queden obsoletos en unos meses.
Demasiados dedos de los pies, dedos encorvados y otras anomalías.
Los modelos lingüísticos se entrenan con grandes conjuntos de datos, ya sean imágenes, vídeos, texto y cualquier otra cosa que contenga información útil. Este conocimiento les permite utilizar nuestros comandos para componer nuevas imágenes, vídeos e incluso grabaciones de sonido. Te habrás dado cuenta de que cada vez hay más grabaciones y voces falsas o deepfake que imitan a famosos con fines de fraude. Por ejemplo: la imagen de Elon Musk se utilizó recientemente para promover inversiones dudosas, al igual que el youtuber MrBeast.
Sin embargo, a pesar de todo, la inteligencia artificial puede equivocarse. Las partes de su cuerpo le dan grandes dolores de cabeza. Incluso los artistas experimentados tienen problemas con las manos humanas, ¿cómo podría la inteligencia artificial no tenerlos? A menudo no sabe qué hacer con sus manos o dedos, por lo que en las imágenes que crea, a menudo vemos a una persona con seis dedos, muy pocos dedos, brazos demasiado largos y cosas por el estilo. Si el sujeto tiene un objeto en la mano, también puede suceder que la muñeca esté al revés, o que la mano izquierda se coloque sobre la muñeca derecha, y travesuras similares.
¿Recuerdas la foto del Papa Francisco con una chaqueta demasiado grande? No sólo toda la imagen no coincide con el estatus del Papa: si ampliamos la imagen, podemos ver que faltan los dedos de su mano derecha o se han fusionado en una masa extraña.
Si una imagen o un vídeo parecen sospechosos, primero revise las extremidades. Ahí es donde la inteligencia artificial comete más errores.
Presta atención a los detalles
Si bien el tema principal puede parecer perfecto, pueden estar sucediendo muchas cosas en segundo plano. Si la imagen está excesivamente borrosa, pero aún se pueden ver objetos en el fondo que no tienen sentido o están distorsionados, esto es una señal de que el contenido fue creado por inteligencia artificial. Esto se aplica tanto a fotos como a vídeos. Incluso Sora, que confundió a la mitad de los participantes en la prueba, tiene problemas para mostrar en las grabaciones varios sujetos diferentes de fondo, especialmente rostros humanos.
¿La piel es demasiado suave? ¿Pelo demasiado perfecto? Las cámaras de nuestros teléfonos pueden hacer muchas cosas, también son buenas para corregir nuestros defectos de belleza, pero la inteligencia artificial va un paso más allá. De hecho, le gusta exagerar con los arreglos de belleza, por lo que esta podría ser una de las señales de que se trata de contenido de IA.
Luces, sombras, contrastes… también pueden ser un buen indicador de autenticidad. Primero, verifique que todos los sujetos tengan su propia sombra o que apunte en la dirección correcta. Observa los reflejos y cómo la luz rebota en diferentes objetos. Cada detalle puede ser una buena señal de una foto (in)auténtica.
La comida en los anuncios siempre nos ha engañado. Aunque en Eslovenia todavía no hemos visto un uso excesivo de la inteligencia artificial para crear anuncios de comida, esto ya está sucediendo en otros lugares. La reconocerás porque lucirá aún más perfecta de lo habitual o porque el estilo de la imagen te recordará demasiado a los dibujos animados.
No es bueno con las palabras.
ChatGPT puede prepararnos un artículo, un poema, una historia, una carta de amor o cualquier otra cosa en unos segundos. Actualmente se ejecuta en el modelo de lenguaje GPT-4 (Turbo) y puede ser una herramienta útil incluso para escritores como nosotros, pero sin instrucciones detalladas terminaremos con contenido general que no es muy interesante. También le gusta mucho utilizar las mismas composiciones. Le gusta usar "En este mundo digital..." para la introducción, "En lo siguiente..." o "En este artículo..." al final de la introducción, los intertítulos suelen ser muy generales. Por ejemplo, si describe un teléfono, utilizará el nombre de los componentes para los intertítulos. Si el intertítulo es más largo, a menudo escribirá todas las palabras en mayúscula. Tiene problemas con las preposiciones, pero también le gusta usar palabras que no escuchamos muy a menudo, como "conclusivo, tranquilizador..." y cosas por el estilo.
No hay nada de malo en ayudarnos unos a otros con las herramientas que tenemos a nuestra disposición. Sin embargo, es importante utilizar las herramientas correctamente, comprobar el contenido y corregirlo.
Las palabras son un gran problema para los generadores de fotografías. Si le ordenas que te cree una tarjeta de cumpleaños y dice "¡Feliz cumpleaños, John! ¿Cuándo vas a adorar la ronda?”, lo más probable es que consigas la grasa. El problema no está sólo en los matracas y en esloveno, los modelos lingüísticos suelen tener problemas para generar palabras en imágenes. Incluso si quieres el texto en inglés, puede suceder que obtengas algo completamente diferente a lo que deseas.
Cada generador también tiene su propio estilo distintivo de creación de fotografías. Si usa DALL-E 3 con regularidad (dentro de ChatGPT), entonces sabrá que su marca registrada es un estilo de fotografías más animado. Una vez que te acostumbres, mirar una foto te dirá inmediatamente que fue creada por inteligencia artificial.
Ayúdate de Google Lens o búsqueda de imágenes de Google
Cuando encuentres una foto sospechosa en línea, haz clic derecho sobre ella y "Buscar con Google", también puedes pegarla en el motor de búsqueda de Google y Google te mostrará resultados similares. También verás "Buscar fuente de foto" en la parte superior, que hace exactamente lo que piensas. No necesariamente encontrarás al creador original, pero al menos encontrarás evidencia de que es una foto real o no.
En el mundo real, puedes ayudarte de la misma manera con Google Lens, que está oculto en cada cámara de los teléfonos Android. Apunta tu cámara a una foto, busca en la web y mira los resultados. Si hay una persona famosa en la imagen y Google no muestra ningún resultado relevante, es probable que sea una foto de IA.
¡Ojos en los tallos!
El gran problema será nuestra atención. Mientras navegamos por las redes sociales, miramos vídeos cortos de YouTube y cosas por el estilo, normalmente no prestamos atención a los detalles y nimiedades más pequeños. A cualquiera le puede pasar que note una foto, grabación o sonido y grabe en su subconsciente que es algo genuino, aunque no sea así.
Existen herramientas (IA o no, moderación de Hive...) que pueden verificar la autenticidad del contenido web, pero no siempre son fiables. Tendremos que confiar en nuestro propio criterio y verificar todo lo que vemos, leemos o escuchamos.
Imagen de portada: Imagen de frimufilms en Freepik