Ábalos y su «no es mi voz» sobre los audios: ¿ha llegado la era de la IA como coartada judicial?

Ábalos y su «no es mi voz» sobre los audios: ¿ha llegado la era de la IA como coartada judicial?

Los peritos y expertos informáticos reconocen que «cada vez es más difícil» saber si una grabación ha sido manipulada, pero indican que todavía deja un rastro

Ábalos se desvincula de los supuestos amaños ante el juez y dice que los audios podrían estar manipulados

“No me reconozco”, le dijo el ex ministro de Transportes José Luis Ábalos al juez Leopoldo Puente en el Tribunal Supremo. Hablaba de los audios que lo incriminan, junto a Santos Cerdán y Koldo García, en una supuesta trama de comisiones irregulares. El magistrado le pidió entonces que especificara: “¿No es que usted diga: soy yo, cómo pude hacer esto?”, preguntó. “No, no. Es que no me reconozco como tal”, respondió Ábalos. “No es mi voz”, enfatizó, arrojando la posibilidad de que las grabaciones estén manipuladas.

El exministro abría la puerta a que alguien hubiera podido suplantar su voz con inteligencia artificial. Estas técnicas han avanzado hasta el punto de recrear con fidelidad casi perfecta voces ajenas, especialmente si tienen muchos registros de ellas, como es el caso de Ábalos. Lo hemos visto en canciones interpretadas por artistas que jamás participaron en su grabación, o en vídeos que muestran a personas hablando con fluidez idiomas que no conocen. Pero, ¿puede ese engaño llegar a sembrar la duda judicial?

Los peritos informáticos consultados por elDiario.es opinan que no. “No estamos en ese punto”, coinciden varios representantes del colectivo y profesionales en activo. “Toda manipulación de un archivo deja una huella”, expresa, por ejemplo, Fernando Suárez, presidente del Consejo General de Colegios Profesionales de Ingeniería Informática.

“Es cada vez más complejo detectarlo, porque ahora esos archivos pueden venir manipulados de inicio desde el propio móvil, con las herramientas de IA incluidas en el dispositivo”, avisa Suárez, “pero sigue habiendo técnicas de análisis forense que permiten saber si una fotografía, una imagen o un audio ha sido manipulado, incluso aunque se haya usado inteligencia artificial”, desgrana.

Ángel Bahamontes, presidente de la Asociación Nacional de Tasadores y Peritos Judiciales Informáticos, explica que esa “huella” informática de las manipulaciones “sigue siendo muy clara”. “No falla”, enfatiza, comparándolo a la certeza de una huella dactilar: “Por mucho que tú te cortes la yema del dedo, te pongas pegamento o cosas así, en el momento en el que hay una coincidencia ya se puede demostrar”, indica: “Son fiables en un 95%”.

Ruido de fondo

Pero, ¿en qué consisten esas huellas digitales? Bahamontes indica varias. Están, como siempre, los conocidos metadatos, el “DNI de cada archivo digital”, que contienen información oculta sobre el fichero. Incluyen “la fecha de creación, el dispositivo usado o el software que lo generó”. Aunque una manipulación profesional se cuidará de eliminarlos para borrar su rastro, hay determinados programas que dejan avisos ocultos precisamente para evitar este tipo de situaciones. Otros patrones, como la estructura del archivo (codec, tasa de bits, compresión) pueden presentar incoherencias con una grabación humana.

Otra de las pruebas clásicas es el análisis espectral de audio y de frecuencias, indican los profesionales consultados. Esta examina las ondas de sonido en busca de incoherencias o anomalías que no se producirían en una grabación natural. También presta especial atención a la continuidad del ruido de fondo: si no cambia cuando la voz cambia de lugar o contexto o no es coherente con el entorno grabado, puede indicar manipulación sintética.

Ese ruido de fondo es precisamente uno de los talones de Aquiles de estos algoritmos. “Es muy difícil para la IA crear un audio con ruido de fondo de manera convincente”, dice Josué Gil, portavoz de la Asociación Nacional de Ciberseguridad y Peritos Informáticos. La inteligencia artificial puede copiar una voz humana, pero puede tener más dificultades para copiar el contexto. Especialmente, cuando se trata de manipular solo unas palabras en audios más largos, apunta Gil.

Avances en las dos direcciones

Álvaro Solás Lara, perito informático y CEO de Miolnir Cibertec, reconoce que en estos dos años los algoritmos generativos han recorrido mucho terreno y “pueden llegar a ofuscar” la investigación de un perito. Sin embargo, subraya que no lo han hecho en un solo sentido: “También se han generado muchas herramientas con inteligencia artificial muy avanzada que ayudan al perito a detectar si hay modificaciones en un audio o en un vídeo, que tanto los peritos como las fuerzas de seguridad del estado usamos”.

Algunas de estas herramientas “son incluso accesibles para el público general”, apunta Solás, “aunque no son baratas”. El experto recomienda Phonexia para detectar manipulaciones de audio y Amped para las de vídeo.

“Quizá dentro de 20 o 30 años sea posible, pero de momento nosotros no nos hemos encontrado con ningún caso en el que no sea posible descifrar si un archivo ha sido manipulado”, afirma Solás. Entre otras cosas, porque hay un gran debate sobre si esta posibilidad llegará a darse alguna vez, lo que espolea la inversión y la innovación para impedirlo con nuevas herramientas.

Un argumento cada vez más habitual

Con todo, varios de los expertos consultados avisan que argumentos como el expresado por Ábalos son cada vez más habituales ante los tribunales. “Sí, porque todavía existe mucho desconocimiento, sobre todo por parte de los juzgados, y al final lo que se busca es generar la suficiente duda como para tirar a prueba”, responde Solás. “Empieza a ser recurrente, sobre todo si la investigación forense por parte de la policía no ha sido muy profunda”.

Los intentos de manipular pruebas de audio no son nuevos. Antes de la irrupción de la inteligencia artificial ya había intentos de manipulación. Lo que cambia ahora, advierten los peritos, es el salto cualitativo en el realismo de la falsificación. Algo que convierte a la IA en una coartada más sofisticada, aunque aún detectable con las herramientas forenses actuales.

“Ya lo hemos visto como en 12 o 15 casos”, coincide Ángel Bahamontes. “Había intentos de engañar a los peritos antes de la IA y también los hay ahora. Pero las pruebas siguen siendo contundentes”, afirma el presidente de la Asociación Nacional de Tasadores y Peritos Judiciales Informáticos: “todo lo que hagas con un móvil o con un ordenador, cuidado porque deja rastro”.

Puede que la IA ya está engañando al oído humano, pero de momento no ha logrado engañar al análisis forense. Un análisis de las tripas de un archivo sigue revelando la trampa. La duda es si esa ventaja será duradera o si la tecnología terminará por borrar también las huellas digitales que impide que se engañe a los peritos y, por tanto, a los jueces.