Para los periodistas que buscan respuestas precisas, el objetivo ha cambiado de lograr identificar esas respuestas con precisión, a contentarse con realizar evaluaciones de probabilidad y tener un juicio editorial informado.
Por Henk van Ess
Estamos llegando al punto en el que el ritmo de la desinformación casi es igual al de la información factual, y es casi imposible discernir qué es real. Esta guía busca enseñar a los periodistas cómo identificar contenido generado por IA mientras están bajo la presión de una entrega, y ofrece siete categorías de detección avanzada que todo reportero debe dominar.
Hablando como alguien que apoya a las redacciones en su lucha contra la desinformación, esto es lo que me preocupa: la verificación de datos tradicional tarda horas o días, mientras la desinformación generada por IA tarda minutos.
La desinformación en video comenzó décadas antes que la tecnología moderna de IA. Incluso a pesar de las limitaciones técnicas de los primeros equipos de grabación, se podían crear representaciones devastadoramente falsas. En 2003, la niñera Claudia Muro pasó 29 meses en prisión porque una cámara de seguridad con una baja velocidad de fotogramas hizo que los movimientos cariñosos parecieran violentos, y a nadie se le ocurrió verificar la grabación. En enero de 2025, la profesora británica Cheryl Bennet debió asumir la clandestinidad luego de que en un video ultrafalso apareciera haciendo comentarios racistas.
La imagen generada por IA, que mostraba al Papa Francisco I vistiendo una chaqueta acolchada Balenciaga. Imagen: Midjournery, Pablo Xavier
Esta imagen viral del Papa Francisco I con una chaqueta acolchada Balenciaga blanca engañó a millones de personas en redes sociales, antes de que se revelara que fue hecha por IA con un prompt de texto a imagen de Midjourney. Algunas pistas claves para detectarla fueron el crucifijo que colgaba sobre su pecho, que estaba inexplicablemente sostenido sobre el aire, y que allí donde debía estar la otra mitad de la cadena sólo estaba la chaqueta. El creador de la imagen, Pablo Xavier, le dijo a BuzzFeed News: “Sólo pensé que era divertido ver al Papa en una chaqueta graciosa”.
En ocasiones el contenido falso más efectivo ni siquiera necesita de IA. En mayo de 2019, un video de la vocera de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, fue desacelerado a una velocidad de 75% y se alteró el timbre de su voz, para hacerla parecer intoxicada. En noviembre de 2018, la Casa Blanca compartió un video acelerado de una interacción del corresponsal de CNN, Jim Acosta, con un practicante de la Casa Blanca, haciendo que su brazo pareciera más agresivo de lo que en realidad fue.
Hace poco creé un escándalo político inexistente, que incluía presentadores de televisión, ciudadanos enfurecidos, grabaciones de protestas y hasta un alcalde ficticio, en tan sólo 28 minutos, durante mi hora de almuerzo. Fue una crisis política completamente fabricada que pudo haber engañado a editores atareados y presionados por cumplir con una entrega.
Hace poco, observaba a un verificador de datos veterano declarar confiado que una cierta imagen era real y no generada por IA, porque la mano tenía cinco dedos en lugar de seis. Hoy esa solución es prácticamente obsoleta.
Esta es la cruda realidad de detectar la IA: los métodos que nos hacen sentir seguros se están evaporando ante nuestros ojos. Antes, las manos mal representadas, como dedos extra o fusionados, eran una táctica común para identificar imágenes generadas por IA. Contenidos falsos virales, como el “arresto de Trump” de 2023, en parte lograban revelarse por estos obvios errores con las manos. Sin embargo, en 2025, los grandes modelos de IA como Midjourney y DALL-E han mejorado significativamente al representar manos de forma anatómicamente correcta. Por ello, las manos ya no son una manera confiable de detectar imágenes creadas por IA, y quienes desean reconocer el arte creado por IA deben recurrir a otras pistas más sutiles.
La revolución en la presentación de textos sucedió incluso más rápido. Si bien antes los letreros de protesta de la IA presentaban mensajes confusos, como “STTPO THE MADNESSS” y “FREEE PALESTIME”, algunos de los actuales modelos producen una tipografía perfecta. OpenAI entrenó específicamente a DALL-E 3 en la precisión textual, mientras Midjourney V6 añadió “texto preciso” como una característica a la venta. Lo que antes era un método confiable de detección ahora escasamente funciona.
Cada vez son más inusuales las orejas desalineadas, los ojos anormalmente simétricos y los dientes pintados que antes caracterizaban a los rostros de la IA. Las imágenes de retratos generadas en enero de 2023 todo el tiempo arrojaban errores detectables. Los mismos prompts hoy producen rostros realistas.
Esto implica un cambio fundamental para las redacciones. Un periodista entrenado en métodos de detección en 2023 podría decir que es real un contenido que obviamente es IA porque supera pruebas obsoletas. Esta certeza errada es más peligrosa que la duda honesta.
Análisis de una imagen generada por IA que pretende mostrar a una niña rescatada, luego de una inundación en Estados Unidos. Imagen: Henk van Ess
Comencé a preguntarme si podría construir un asistente de verificación para contenido IA, como parte de un contenido extra para este mismo artículo. Los científicos me llevaron a un profundo territorio de la física que nunca esperaba visitar: las transformadas de Fourier, las mecánicas cuánticas de las redes neuronales, los registros matemáticos invisibles al ojo humano. Un físico explicó cómo los artefactos de la IA no son sólo errores visuales, sino huellas digitales de dominios de frecuencia.
Pero luego llegó mi golpe con la realidad: “no construyas una herramienta tú mismo”, me advirtió un experto, “pues necesitarás una potencia masiva de procesamiento y equipos con un nivel de doctorado. Sin esa infraestructura fracasarás”.
Entonces me golpeó de frente la idea: ¿por qué no enfrentar a la IA con IA, pero de una forma diferente? En lugar de crear sistemas multimillonarios de detección, entrenaría a la infraestructura existente de IA para hacer el trabajo más pesado.
Análisis de una imagen generada por IA, que supuestamente muestra al presidente de Bielorusia sosteniendo un cono con papas fritas. Imagen: Henk van Ess
Image Whisperer (inicialmente llamado Detectai.live) nació de esta aproximación. La herramienta realiza varios análisis con grandes modelos de lenguaje, junto con un procesamiento hecho con Google Vision y aplicando los principios de la física que los expertos me enseñaron, mientras se utiliza el poder de procesamiento ya disponible. Lo más importante es que a diferencia de muchas herramientas de IA, te dice si no sabe algo en lugar de adivinar.
No trata de ser el mejor sistema que existe, sino el más honesto.
Aún prosigue la carrera armamentista entre los creadores y detectores de IA, y los creadores actualmente se benefician de la ventaja que les proporciona su velocidad. Identificar qué es o no un ultrafalso se ha vuelto un juego del gato y el ratón con los desarrolladores que mejoran la tecnología. Reconocer ultrafalsos con éxito implica mezclar varios métodos de detección, mantener una vigilancia constante y aceptar que la detección perfecta puede ser imposible. Para los periodistas que buscan respuestas precisas, el objetivo ha cambiado de ser una identificación definitiva a una evaluación de probabilidad y un juicio editorial informado.
Pero el periodismo siempre se ha adaptado a una tecnología cambiante. Hemos aprendido a verificar fuentes cuando antes cualquier persona tenía las herramientas para crear una página web. Hemos desarrollado protocolos de verificación de redes sociales cuando todos se convirtieron en potenciales reporteros. Ahora debemos desarrollar estándares para una era en la que cualquier persona puede crear evidencia audiovisual convincente.
Revisión de banderas rojas en 30 segundos (noticias de última hora): Cuando el tiempo apremia y debes hacer una evaluación instantánea de algo con una perfección sospechosa, enfócate en el instinto de que algo “demasiado bueno para ser cierto”. Busca cuando una estética que alcanza la calidad de una revista se halla en contextos en los que ese nivel de aseo sería imposible o inapropiado. El líder de una protesta podría tener maquillaje perfecto, la víctima de un desastre podría tener un cabello impecable, y una cándida escena política en la que todos se ven profesionalmente arreglados debería generar una sospecha inmediata.
Verificación técnica en cinco minutos (historias estándar): Esta revisión más profunda se enfoca en los detalles técnicos que revelan la generación artificial. La IA actual crea imágenes anatómicamente correctas, pero a menudo exhiben una perfección antinatural, que no está presente en la fotografía real. Los rostros reales tienen asimetrías sutiles, patrones naturales de desgaste y efectos ambientales que a la IA le resulta difícil replicar de manera auténtica.
Investigación profunda (reportajes de alto riesgo): Para las historias en las que es indispensable la precisión, este análisis comprehensivo se aproxima a la imagen como si fuera evidencia que amerita un escrutinio forense. El objetivo es elaborar una evaluación de probabilidad basada en varios puntos de verificación. Si bien puede ser imposible tener una prueba definitiva, se puede llegar a un juicio informado.
La imagen generada por IA de ferrocarriles desapareciendo en la distancia, junto a la imagen de la vida real con la perspectiva correcta: Henk van Ess
La narrativa: La IA reúne imágenes como un artista de collage, no como un fotógrafo. Entiende los elementos visuales, pero no las reglas geométricas y físicas que gobiernan cómo la luz, la perspectiva y las sombras de hecho operan en el mundo real. Estos fallos fundamentales de la física le resultan a la IA más difíciles de resolver, pues requieren una comprensión del espacio 3D y del comportamiento de la luz.
Los problemas de la física del mundo real en las imágenes de IA: Aunque aún estamos en la etapa temprana de la IA generativa, las imágenes generadas por la IA actual corrigen la perspectiva de las sombras y los reflejos. Un típico ejemplo generado usando DALL-E 2, de OpenAI, muestra sombras inconsistentes y reflejos ausentes o equivocados, y sombras en los reflejos que están orientadas en la dirección incorrecta.
Análisis de punto de fuga: Los edificios reales siguen las leyes de la perspectiva. Las líneas paralelas convergen en un único punto en el horizonte. La IA a menudo crea edificios en los que las líneas del tejado apuntan a la izquierda, mientras las líneas de las ventanas apuntan a la derecha, lo cual es una imposibilidad geométrica que revela la construcción algorítmica en lugar de una captura fotográfica. Los puntos de fuga son fundamentales para capturar la esencia de la perspectiva en las imágenes reales, y las imágenes generadas a menudo tienen inconsistencias con el punto de fuga correcto, porque las líneas no se encuentran.
Verificar la consistencia de las sombras: Cuando hay luz, hay sombras. La relación entre un objeto, su sombra y la fuente de luz es geométricamente simple, y sin embargo en una imagen manipulada o sintetizada, es engañosamente difícil de lograr. En escenas con una sola fuente de iluminación (como la luz solar), todas las sombras deben apuntar en la dirección opuesta a esa fuente. La IA a menudo muestra personas proyectando sombras en múltiples direcciones a pesar de haber un sol, lo cual viola las leyes básicas de la física.
La validación de la investigación: La investigación académica ha confirmado estas fallas geométricas. Los estudios basados en un análisis con GradCam, en imágenes en exteriores, revelan direcciones variadas en la sombra de vehículos y distorsiones estructurales cerca de los puntos de fuga; mientras las escenas en interiores muestran desajustes en la relación objeto-sombra y líneas desalineadas en la geometría de una habitación.
Este tipo de detección sutil no es para los débiles. Acostúmbrate a la idea de estar observando líneas durante una gran cantidad de tiempo.
Revisión de banderas rojas en 30 segundos:
Ahora tienes el modelo visual de cómo es una perspectiva correcta.
Verificación técnica en cinco minutos (historias estándar):
Prueba de perspectiva:
Análisis de sombras:
Investigación profunda (reportajes de alto riesgo):
Verificación de reflejo: Cuando los objetos están en la superficie de un plano, las líneas que conectan un punto en el objeto con el correspondiente punto en el reflejo deberían converger en un mismo punto de fuga.
Una fotografía viral, digitalmente alterada, de un soldado estadounidense en 2004. El parche dice “DOING THE WORK OF”, junto con las banderas de Rusia, Alemania y Francia han sido añadidas a la imagen. La herramienta muestra la posible zona de alteración y cómo pudo haber sido alterada. Imagen: Henk van Ess
La narrativa: Cuando la IA crea una imagen, deja atrás pistas ocultas en el archivo. Una firma matemática, que es como huellas digitales invisibles que pueden ser detectadas por herramientas especiales. Estas pistas se encuentran en la forma como los pixeles están dispuestos y en cómo se comprime el archivo. Imagínalo como pistas de ADN que demuestran que algo fue hecho por IA, en lugar de capturado por una cámara real.
Detección del patrón de ruido: Las cámaras reales capturan imágenes con imperfecciones naturales y desordenadas, como diminutos puntos aleatorios desde el sensor de la cámara. Las imágenes generadas por IA tienen en cambio patrones perfectos que no son naturales. Cuando los expertos analizan estos patrones con programas especiales, ven formas de estrella distintas que no saldrían en una fotografía real. Es como la diferencia entre la estática realmente aleatoria de un televisor viejo, comparado con una computadora que intenta recrear la aleatoriedad: la versión falsa tiene un orden oculto que la delata, si tienes las herramientas adecuadas.
Detección copiar-pegar: Cuando la IA o los humanos duplican regiones de imagen, crean correlaciones de pixeles inusuales. Áreas distintas se vuelven sospechosamente similares, más allá de la redundancia espacial natural, creando patrones detectables o firmas matemáticas.
Análisis de compresión de artefacto: El contenido generado por IA a menudo muestra patrones de compresión que no son naturales y que difieren de los crudos archivos que se originan de una cámara. Esto revela orígenes algorítmicos en lugar de ópticos.
Herramientas de detección profesionales: La tecnología de TrueMedia.org tiene la capacidad de analizar productos mediáticos sospechosos e identificar ultrafalsos en audio, imágenes y videos. Algunos ejemplos de ultrafalsos detectados recientemente por TrueMedia.org son la supuesta fotografía de arresto de Donald Trump y una supuesta foto del presidente Biden con altos oficiales militares.
Revisión de banderas rojas en 30 segundos: Antes de analizar imágenes sospechosas, practica en productos mediáticos que sean a prueba de principiantes:
Verificación técnica en cinco minutos (historias estándar):
Cada paso detecta diferentes tipos de error de IA. Considéralo como usar diferentes pruebas para estar más seguro de tu conclusión.
Investigación profunda (reportajes de alto riesgo):
Forensically — Esta es una serie de herramientas gratuitas, integrales de análisis forense de imágenes digitales, con visualización de frecuencia de dominio.
Análisis de frecuencia de dominio — Detección técnica de patrones matemáticos propios de la IA.
Análisis de audio ultrafalso (deepfake) de Donald Trump generado por IA. Imagen: YouTube, vía Henk van Ess
La narrativa: La tecnología de clonación de voz puede replicar la voz de cualquier persona a partir de unos segundos de audio, pero deja trazos detectables de generación artificial en patrones de voz, autenticidad emocional y características acústicas. Aunque logran una precisión asombrosa, las voces sintéticas aún tienen dificultades replicando los sutiles elementos humanos de las voces realmente auténticas.
Casos reales de engaño en audio: En marzo de 2019, el director ejecutivo de una firma de energía de Gran Bretaña recibió una llamada de su “jefe”, con un acento alemán perfecto, pidiendo una enorme transferencia de dinero. Tan sólo una segunda llamada sospechosa de un número austriaco reveló la decepción de IA. Más recientemente, el consultor político Steven Kramer pagó 150 dólares para crear una llamada de robot ultrafalsa (deepfake), haciéndose pasar por el presidente de los Estados Unidos, Joe Biden. En ella, solicitaba a la gente no votar en las primarias Demócratas de New Hampshire en 2024.
Velocidad y costo de falsos audios: Según la demanda contra Kramer, tomó menos de 20 minutos crear el ultrafalso (deepfake) y costó sólo un dólar. Kramer le dijo a CBS News que recibió “5 millones de dólares en exposición” por sus esfuerzos.
Banderas rojas en patrones de voz: Lindsay Gorman, que estudia tecnologías emergentes y desinformación, le dijo a NBC News que a menudo los ultrafalsos (deepfakes) tienen características que los revelan: “La cadencia, sobre todo al final, no parece natural, sino robótica. Esta es una de las características que revelan una pieza potencialmente falsa de contenido de audio”.
Un caso anterior de un ultrafalso (deepfake) reveló que la IA decía “libras 35.000”, poniendo el tipo de moneda antes de los números, en un estilo que no es natural y reveló la generación sintética.
Revisión de banderas rojas en 30 segundos:
Échale un vistazo al Hiya Deepfake Voice Detector, un sencillo plugin de Chrome (puedes usarlo hasta 20 veces al mes). Superó la prueba Trump-Biden de video:
Es una extensión de Chrome que analiza audio en tiempo real para determinar si lo que estás escuchando es una voz humana real o algo creado por IA.
Esto es lo que hace:
Una aclaración: Dado que el plugin usa algoritmos de probabilidad, no será 100% acertado en todos los casos.
Verificación técnica en cinco minutos (historias estándar):
Investigación profunda (investigaciones de alto riesgo):
Imagen generada por IA que pretende mostrar la cobertura de una protesta climática en París. Imagen: Henk van Ess
La narrativa: La IA genera contenido basado en patrones visuales sin el contexto del mundo real, la lógica temporal o lo apropiado en ciertas situaciones. Esto genera contenido que parece convincente de forma aislada, pero se derrumba bajo una revisión sensata.
La decepción del video de la prisión en Irán: Un sofisticado video generado por IA aseguraba mostrar un ataque con misiles israelíes sobre la Prisión Evin de Irán, pero fue generada a partir de una fotografía de 2023. Las pistas claves de detección incluyen incongruencias en las estaciones (hay arbustos sin hojas en una grabación que supuestamente fue hecha en verano), coincidencias perfectas en los detalles que iban en contra de lo que resultaba más probable, y una capacidad imposible para estar en el lugar y el momento correctos.
Revisión de banderas rojas en 30 segundos: La IA crea contenido visualmente convincente, pero no captura las relaciones lógicas entre el momento, el lugar y las circunstancias en los que algo acontece. En escenarios de noticias de última hora, confía en tu conocimiento del mundo para detectar cosas imposibles cuya posterior verificación exigiría un análisis sofisticado.
Verificación técnica en cinco minutos (historias estándar):
Este análisis más profundo se apoya en tus habilidades investigativas para cruzar las afirmaciones con los hechos verificables. La IA tiene problemas con la naturaleza interconectada de los eventos mundiales, creando contenido que pasa una inspección visual, pero fracasa bajo el escrutinio lógico, una vez se compara con fuentes externas de datos.
Investigación profunda (reportaje de alto riesgo): Usa las pistas contextuales como si fueran piezas de un rompecabezas forense. Cada una exige una verificación sistemática contra los hechos comprobados. Esta aproximación construye una matriz de probabilidades basada en varias inconsistencias lógicas, en lugar de puntos de prueba individuales y definitivos.
Imagen generada por IA que pretende mostrar manifestantes marchando en las calles de una ciudad. Imagen: Henk van Ess
La narrativa: La IA puede replicar la apariencia humana, pero tiene dificultades con el comportamiento genuinamente humano, las dinámicas sociales y los patrones naturales de interacción. Esto crea inconsistencias detectables en escenas con multitudes, dinámicas grupales y comportamiento individual que observadores entrenados pueden identificar.
Revisión de banderas rojas en 30 segundos (noticias de última hora): La IA crea multitudes que parecen a primera vista realistas, pero que delatan su falsedad mediante patrones de comportamiento que no son naturales. En situaciones de noticias de última hora, enfócate en si las personas de hecho actúan como lo harían humanos reales en circunstancias dadas, en lugar de ser actores digitales siguiendo comportamientos programados.
Verificación en cinco minutos (historias estándar): Este análisis se apoya en tu comprensión de las dinámicas sociales para identificar las falencias de la IA en replicar el comportamiento auténtico de un grupo. Las multitudes reales tienen patrones sociales complejos que los datos de entrenamiento de la IA no pueden capturar por completo, creando una uniformidad artificial detectable en reuniones supuestamente espontáneas.
Investigación profunda (reportaje de alto riesgo): Acércate al comportamiento humano como evidencia antropológica que exige un análisis sistemático de patrones sociales. Este enfoque integral examina si la compleja red de interacciones sociales podría ocurrir auténticamente en las circunstancias que se pretende presentar.
Una imagen generada por IA que pretende mostrar al presidente de Bielorusia sosteniendo de forma incongruente un cono de papas fritas durante una reunión oficial. Imagen: Henk van Ess
La narrativa: Los patrones de reconocimiento fueron parte de la evolución de nuestro cerebro a lo largo de millones de años. Los patrones de la IA vienen del entrenamiento con datos y procesos algorítmicos. Cuando algo viola las expectativas naturales construidas dentro de la percepción humana, esa corazonada a menudo representa la forma más rápida y fiable de detección, antes del análisis técnico.
Historias de éxito del mundo real: En 2019, los usuarios de redes sociales inmediatamente llamaron la atención sobre la imagen viral de un “tiburón callejero” durante el Huracán Florence. Aunque fue una imagen técnicamente competente, quienes la vieron tuvieron la impresión de que algo estaba mal con la situación. Sus instintos resultaron ser correctos, pues las búsquedas inversas revelaron la inserción digital. De igual forma, los periodistas experimentados pueden detectar cuándo los videos de principiantes parecen sospechosamente cinemáticos, o cuándo surge una documentación perfecta para eventos espontáneos.
Dato curioso: parece que los supuestos encuentros se dieron durante más de una década en muchos huracanes, pero sólo un ejemplo logró ser verificado.
Revisión de banderas rojas en 30 segundos: Confía en tu reconocimiento evolutivo de patrones cuando el tiempo apremia. Busca paradojas en la calidad de producción, en las que las fuentes principiantes producen nivel de contenido propio de Hollywood, o una enorme conveniencia en cuándo se capturan las imágenes, documentando a la perfección eventos caóticos. Tu viejo sistema de detección personal a menudo identifica estas violaciones antes que haya un análisis técnico.
Revisión de banderas rojas en 30 segundos:
Verificación técnica de cinco minutos (historias estándar): Transforma las emociones intuitivas en verificación sistemática al examinar elementos específicos que detonaron tu patrón de habilidades de reconocimiento. Cuando tu instinto te dice que algo está mal, identifica qué específicamente viola las expresiones naturales para elaborar una conclusión lógica.
Investigación profunda (reportaje de alto riesgo): Usa la detección intuitiva como un punto de partida para la verificación comprensiva. Tu reconocimiento de patrones detectó anomalías. Ahora, examina sistemáticamente cada elemento que detonó sospechas para construir una evaluación basada en evidencias.
Cuando confiar en tu intuición:
En última instancia: Estas siete categorías de detección IA y la nueva herramienta — fallas anatómicas, violaciones de las leyes de la física, huellas digitales, artefactos de voz, contexto lógico, patrones de comportamiento y reconocimiento intuitivo —les dan a los periodistas una caja de herramientas integral para evaluar la autenticidad del contexto bajo la presión de una entrega. Junto con las herramientas de detección profesionales y estándares editoriales actualizados, podemos mantener la credibilidad. Usa el fuego para combatir el fuego. Usa la IA para detectar la IA, y ayuda a preservar lo que queda de nuestra realidad compartida.
Fuente: Global Investigative Journalism Network https://gijn.org/es/recurso/como-detectar-contenido-generado-por-ia/
Aun no hay comentarios on Guía para periodistas sobre cómo detectar contenido generado por IA