Un programa de TV ucraniano no sugirió implantar chips a soldados; el vídeo fue creado con IA

En octubre de 2025, las autoridades ucranianas señalaron un aumento de las deserciones y crecientes dificultades para reclutar soldados desde febrero de 2022, cuando comenzó la invasión rusa en Ucrania. En ese contexto, una supuesta entrevista en una televisión ucraniana, en la que un hombre sugiere implantar microchips en los soldados para combatir las deserciones, ha sido compartida más de 1.000 veces en redes sociales desde noviembre. Sin embargo, la grabación fue creada con herramientas de inteligencia artificial, comprobó la AFP. Un portavoz de la cadena calificó el vídeo de “deepfake”.

El vídeo compartido en X y Facebook incluye el logo de “KNÏB24 News” y muestra a un hombre hablando en ucraniano con una presentadora, acompañado de la transcripción: “En el siglo XXI ya hasta a los perros se les pone chip para que no huyan. No entiendo por qué a estos no les ponemos chip. ¿Para poder encontrarlos por GPS y devolverlos?”.

La grabación circula con el mensaje: “En Ucrania ya están hablando de forma abierta sobre ponerle un chip a cada ciudadano para no tener que buscarles para movilizar y sobre todo para encontrarles rápido si intentan desertar. Occidente apoya esto…”

El contenido fue compartido en España por Liu Sivaya, activista conocida por apoyar a Rusia y defender a Putin tras la invasión. El primer registro apareció en ruso el 17 de noviembre de 2025 y en el portal web prorruso Pravda en inglés.

También se comparte en polaco, inglés, francés, alemán y eslovaco

Image
Captura de pantalla hecha el 17 de noviembre de 2025 de una publicación en X

Informes de la Fiscalía General de Ucrania publicados en octubre de 2025 reflejaron que, desde febrero de 2022 hasta 2025, se produjeron “235.646 casos de salida no autorizada de una unidad” de forma temporal y “más de 53.954 casos de deserción”, es decir, que dejaron el servicio militar de forma permanente.

Este problema también lo sufre el ejército ruso, con 50.000 desertores hasta finales de 2024.

El vídeo fue hecho con IA

El vídeo viral no revela la identidad del hombre que sugiere el implante de los chips. Tampoco se menciona si se trata de un soldado o cuál es la unidad militar a la que supuestamente pertenece. 

Búsquedas inversas de capturas de pantalla de la grabación con la extensión InVID-WeVerify, codesarrollada por la AFP, no mostraron rastros de la entrevista. Tampoco fue posible identificar al hombre con herramientas de reconocimiento facial como PimEyes y FaceCheck.

Sí se descubrió que la grabación utiliza como base un fragmento de una entrevista de Kyiv24 News, disponible en su canal de YouTube (2:46:30).

Comparando ambos vídeos se pueden identificar varios elementos que coinciden, como el logotipo de la cadena, el vestuario y las miradas y cruces de brazos de la presentadora, Anna Walewska. También aparece a la derecha la misma imagen de un tribunal junto al texto en ucraniano: “La fiscalía solicita la detención o la fianza de 137 millones de grivnas para Igor Myroniuk, sospechosos de estar involucrado en el escándalo de corrupción”.

En cuanto al rostro que aparece, en el vídeo real Walewska entrevista a Dmytro Kukharchuk, comandante del segundo batallón de la tercera Brigada de Asalto. La imagen de Kukharchuk fue sustituida por la de otra persona, que además se muestra con una luz uniforme y una piel anormalmente lisa, una característica de los “deepfakes”.

Image
Comparación hecha el 12 de diciembre de 2025 del vídeo hecho con IA (I) y la grabación original, del canal de YouTube de Kyiv24

Hiya, programa de reconocimiento de voz generada con IA incluido en InVID-WeVerify, indicó que hay un 99% de probabilidades de que la voz fuera generada digitalmente.

Image
Captura de pantalla del análisis de sonido realizado por la AFP el 20 de noviembre de 2025 con Hiya, que indica la probabilidad de que haya sido generado con IA

La herramienta deepfake-total.com, creada por el Instituto Fraunhofer de Seguridad Aplicada e Integrada alemán, mostró resultados similares respecto al audio: 99,9% de probabilidades de haber sido creado con IA.  

Consultada por el contenido viral, la productora ejecutiva de Kyiv24, Natalia Lyashchenko, aclaró en un correo electrónico a la AFP el 20 de noviembre de 2025: “El vídeo que ha causado revuelo, en el que un soldado habla sobre la implantación de microchips, es un completo ‘deepfake’”.

Lyashchenko confirmó que aunque en ese programa se trató el tema de la deserción, los presentadores estaban hablando con otra persona y el tema de la entrevista no era la implantación de microchips, como también revisó la AFP. 

Referencias: 

¿Duda sobre la veracidad de una información, una foto o un video?

Contáctenos