La Inteligencia Artificial (IA) y las tecnologías digitales de edición pueden representar un riesgo en materia de desinformación, propaganda, suplantación de identidad, defraudación y daño a la imagen pública, alertan especialistas, a raíz de que recientemente, un audio alterado de Claudia Sheinbaum y un video que circula en redes para fraude financiero dieron muestra de ello.
La tecnología usada y los recursos destinados para influir negativamente en millones de usuarios ya son una realidad, de acuerdo con analistas, por lo que enfatizan que las personas aún cuentan con recursos para evitar caer en fraudes o fake news.
Te recomendamos: IA detonará ‘guerra sucia’ sin precedentes en las elecciones de 2024, alertan
Fake news contra Claudia Sheinbaum
Desde hace unas semanas, en redes sociales comenzó a circular un audio donde supuestamente Claudia Sheinbaum, coordinadora de los Comités de Defensa por la Transformación, habla mal del presidente Andrés Manuel López Obrador (AMLO) y de Movimiento Regeneración Nacional (Morena), su propio partido.
Asimismo, en ese audio truqueado la también exjefa de gobierno apunta supuestos delitos y “mano negra” en las encuestas que la apuntan como la favorita del pueblo para ser la presidenta de México en 2024; no obstante, la verdad ya salió a la luz y se trata de un montaje.
Frases del audio alterado: “Yo creo que el presidente representa el pasado”, “La cuarta transformación y lo que representa nuestro movimiento fortalece a la oposición” y “Estamos arriba en las encuestas porque hay mano negra”.
El audio original es una entrevista que otorgó a Claudia Sheinbaum a Grupo Expansión en agosto de este año. En ella habló sobre su perspectiva en relación al proceso interno de Morena para definir la coordinación. También se expresó sobre lo que representa el Frente Amplio por México (FAM) y las inconsistencias en su proceso.
Frases verdaderas: “El bloque opositor representa el pasado”, “El presidente de un partido político que me denostó por ser mujer de una manera tremenda, yo creo que solito se les está cayendo”, “Se les cayó el teatro desde hace mucho rato”, “La cuarta transformación y lo que representa nuestro movimiento sigue siendo el futuro y la esperanza de México” y “Creo que debatir entre nosotros, fortalece a la oposición”.
Fraude financiero
Los ataques a partir del uso de tecnologías digitales no son exclusivos de la esfera política. La IA también ha sido ocupada para legitimar fraudes financieros. Desde hace meses, Petróleos Mexicanos (Pemex) anunció en sus redes sociales que la paraestatal no ofrece ningún servicio de inversión, ello porque a través de un mecanismo sofisticado de fraude se depredaba el dinero de la gente.
Lo que advirtió la paraestatal fue que había una célula del crimen organizado dedicada a timar a la gente fingiendo que existe una supuesta plataforma de inversión petrolera, algo totalmente falso, pues Pemex no acepta fondos de inversión ciudadana de ninguna naturaleza.
Asimismo, para legitimar un fraude similar, en redes sociales circula un video editado con presuntamente IA para que la gente invierta en Oil Profit, donde una Inteligencia Artificial suplantó a los periodistas Azucena Uresti y Samuel Cuervo, así como al magnate Carlos Slim.
Las grabaciones promueven, con las voces de los señalados, un sistema de inversión fraudulenta con frases como “Ya ganaron sus primeros 2 mil dólar(sic) con la nueva plataforma gubernamental” o “Aprovecho nuevas oportunidades. Y, ahora mismo, mi forma número uno de ganar dinero es la plataforma de Oil Profit que permite a los mexicanos ganar dinero vendiendo petróleo”.
5 tips para evitar ser víctima
A pesar de que los defraudadores cuenten con la tecnología suficiente para generar audios y videos falsos, la IA aún no ha llegado al punto de ser indefectible, por ello, Publimetro contactó con el consultor Eduardo Jerome Posadas, especialista en el uso de tecnologías digitales, quien reconoció que este tipo de videos falsos se incrementarán, por lo que recomendó cinco acciones simples para reducir el riesgo de caer en este tipo de fraudes.
1.- Apreciar la calidad de sonido. Los audios modificados pueden tener cambios en el volumen o calidad de audio; asimismo, presentan variación en los ruidos de fondo o velocidad en quien está hablando. Prestar atención a cualquier variación en la voz de quien habla será fundamental para identificar la suplantación.
Existen programas especializados que sí pueden revisar las ondas sonoras, pero ese tipo de programas está hecho para ser utilizado por profesionales.
2.- Verificación doble. Buscar el contenido en internet para filtrar fuentes confiables de información podría descartar casos de fake news o fraude. Si el mismo titular, o temas relacionados, está en varios medios de comunicación, puede ser un indicio de que la nota es verdadera. Aún así, este paso no es infalible.
3.- Metadatos del archivo (audio, video o fotografía). Aunque sea de carácter más técnico, el apreciar esta información, permite ver qué software se utilizó para procesar dicho contenido; asimismo, este análisis deja ver si se trata de un material manipulado.
4.-Observar parpadeos, mentón y gesticulación bocal. Para videos manipulados es más fácil detectar la suplantación si se presta atención a estos puntos clave. La IA aún no ha llegado a un nivel tan avanzado como para definir de manera “natural” los bordes en el rostro, ojos y boca.
Te recomendamos: Empresarios se resisten a reducción de jornada laboral, proponen sea gradual
5.- Antivirus en los dispositivos móviles. Muchas veces las páginas que lucran con este tipo de contenido contienen vínculos que llevan al usuario a una página apócrifa. En muchas ocasiones, el tener un buen antivirus delata esta vulnerabilidad e informa al usuario que puede ser víctima de fraude, de fake news o robo de datos personales.
Al tratarse de un fenómeno emergente, Jerome Posadas recomendó que, para evitar ser susceptibles a diversos tipos de fraude, se debe de mantener la calma y no atemorizar a los usuarios; asimismo, se debe de evitar difundir información en las llamadas “cadenas” en chats de aplicaciones de mensajería (WhatsApp o Telegram).
Esto ocurre luego del surgimiento de diversos esquemas como los de inversiones en CFE o convocatorias a inscripciones a programas sociales, pero en esos casos no se habían producido videos, sino imágenes y ligas a sitios de internet.
Esto porque, por ejemplo, Publimetro reportó recientemente que en 2019, con la llegada de los primeros programas sociales impulsados por el gobierno del presidente Andrés Manuel López Obrador (AMLO), se llegaron a registrar hasta 30 mil denuncias por intento de fraude.
No obstante, con el surgimiento e herramientas de inteligencia artificial se prevé que este tipo de materiales se incremente, ya sea para desacreditar a candidatos o para intentar lucrar con proyectos de inversión, como ocurre con los ejemplos citados.