Nacional

No existe protección legal en casos como el audio de Martí Batres contra Harfuch

La tecnología digital rebasó los marcos legales de México, al punto que el jefe de gobierno difícilmente podría señalar a un responsable

Con la difusión de un supuesto audio de Martí Batres pretendiendo descarrilar la carrera política de Omar García Harfuch, el actual mandatario capitalino sentenció que se trata de un archivo generado por Inteligencia Artificial (IA); sin embargo, no puede hacer nada legalmente para limpiar su nombre en relación a este caso, expuso Luis Enrique Vázquez, especialista en ciberseguridad.

En entrevista para Publimetro, el también académico del Instituto Tecnológico de Estudios Superiores de Monterrey (ITESM) apuntó que la gran limitante legal que tiene Batres Guadarrama es que, a pesar de que la voz se considera un dato personal y, por tanto, es objeto de derecho, se debe de poder señalar a alguien como presunto responsable de la creación y distribución del archivo digital, algo que es muy difícil de hacer en este caso.

Te recomendamos: Apps de IA revelan la veracidad del audio de Martí Batres sobre Harfuch

Publicidad

El especialista explicó que los avances en Inteligencia Artificial Generativa son tan grandes que todas las herramientas que se publicitan como detectoras de IA en archivos digitales (texto, video, imagen fija o audio) no pueden decir con certeza del 100% si éste fue creado o manipulado con dicha tecnología, lo que deja espacio a la especulación y la duda.

¿Qué se puede hacer en casos como éste?

Ante la probabilidad de que el audio en cuestión esté manipulado, Luis Vázquez apuntó que tanto la víctima como los medios de comunicación y sociedad sí pueden materializar mejores formas de recepción de dichos mensajes.


1.- Los usuarios de redes deben mantener una actitud inquisitiva ante este tipo de filtraciones y cuestionar el momento en el que se hace.

2.- Los medios de comunicación deben de reiterar en sus discursos que, lo apreciado en el audio, se trata de una posibilidad, ello ante la probable manipulación del mismo.

3.- La víctima debe de aclarar la situación inmediatamente y, de ser necesario, establecer ejercicios de réplica con los medios de comunicación para que se difunda una segunda versión sobre lo acontecido.

Igualmente, estimó, que no se trata de una cultura de prevención, sino de concientización de que estos casos pueden ocurrir y que los juicios de valor no deben precipitarse hasta que no se haga un peritaje al material.

Aclaró que, a diferencia del caso del alumno del Instituto Politécnico Nacional (IPN) que realizó imágenes pornográficas con las caras de sus compañeras, las autoridades encontraron elementos necesarios que confirman la posesión de dicho material y, a partir de ello, se puede señalar la presunta generación de dicho contenido.


¿Qué dicen los detectores de IA en audios?

El equipo de Publimetro utilizó la app Ai-SPY para determinar si el audio fue manipulado por alguna IA y los resultados fueron diferentes entre sí. En la versión para teléfono inteligente, la app indicó que el audio estaba realizado con voz humana con un 99.5% de certeza; sin embargo, al utilizar esta misma aplicación en una computadora personal (PC), el resultado señaló un posible uso de IA al 80 por ciento.

Finalmente, al observar la onda de audio en Adobe Audition (Au), se observaron espacios de silencio absoluto, algo que sólo podría ocurrir si la grabación es manipulada. En este sentido, se señala que no se sabe si la manipulación fue por un humano o una IA, pero se ve la probable corrupción de l material original.

Publicidad
Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último