En México, la más reciente herramienta de Inteligencia Artificial (IA), conocida como Grok y desarrollada por el equipo de Elon Musk en la plataforma X, ha levantado alarmas debido a su capacidad para generar imágenes hiperrealistas de figuras públicas. Expertos han advertido que esta tecnología, sin un marco normativo adecuado, podría convertirse en un arma peligrosa en manos equivocadas.
El poder de Grok y el peligro de los deepfakes
Desde diciembre de 2024, Grok incorporó en su base de datos los rostros de políticos mexicanos como Claudia Sheinbaum, presidenta del país, y Andrés Manuel López Obrador, expresidente, además de otras figuras públicas. Antes, la herramienta evitaba incluir este tipo de imágenes por motivos éticos y de derechos de imagen, pero ahora permite generar fotografías hiperrealistas con su rostro, lo que ha generado preocupación por su potencial para desinformar.
“Este tipo de tecnología, conocida como deep fake o también como ultrasuplantaciones, tiene el potencial de manipular la percepción pública, erosionar la confianza en instituciones democráticas y utilizarse para fraudes o campañas de desprestigio”, advirtió Jersain Llamas Covarrubias, abogado especializado en Tecnologías de la Información y autor del libro Ciberseguridad: regulación, estándares y fundamentos, en exclusiva para Publimetro México.
Ultrasuplantación, un problema global con impacto local
La problemática de los deepfakes no es exclusiva de México, pero las implicaciones en un país con un entorno político polarizado y una alta penetración de redes sociales son particularmente graves. Según Llamas, estas herramientas tienen el potencial de fomentar campañas de desprestigio, manipular procesos democráticos y utilizarse en fraudes masivos.
Víctor Ruiz, instructor certificado en ciberseguridad y fundador de SILIKN, coincidió: “El gobierno podría enfrentarse a un escenario donde la accesibilidad y el uso de la IA por atacantes, desde aficionados hasta sofisticados grupos cibercriminales, sobrepase su capacidad de respuesta. Esto es especialmente preocupante frente a amenazas avanzadas como la combinación de deepfakes y ataques de phishing, similares a Kraken”.
La falta de legislación en México sobre IA
A pesar de los avances en otros países, México no cuenta aún con una legislación robusta en materia de IA. Expertos como Llamas sugieren inspirarse en el Reglamento de Inteligencia Artificial de la Unión Europea (UE), que clasifica los riesgos de sistemas de IA en cuatro niveles: inaceptable, alto, limitado y mínimo.
“Debería prohibirse el uso de IA para manipular información o generar contenido visual engañoso que pueda alterar sustancialmente las decisiones del público, especialmente cuando atenta contra derechos fundamentales”, explicó Llamas. Asimismo, sugirió que los sistemas de IA en México incluyan marcas visibles (watermarks) y mecanismos de trazabilidad para garantizar la transparencia.
Especialistas urgen la creación de una autoridad reguladora
Ambos expertos coincidieron en la necesidad de establecer una autoridad nacional que supervise el impacto de la IA en los derechos fundamentales. Llamas enfatizó que “no se trata de censurar o prohibir estas tecnologías, sino de regularlas para evitar su mal uso y fomentar la innovación responsable”.
Ruiz añadió que también es fundamental desarrollar campañas informativas que eduquen a la población sobre los riesgos asociados a los deepfakes. “La alfabetización digital es clave para empoderar a los ciudadanos y ayudarlos a discernir entre contenido auténtico y manipulado”, indicó.
Riesgos específicos para figuras públicas por los deepfakes
Uno de los aspectos más preocupantes es la vulnerabilidad de las figuras públicas. Aunque en algunos casos el uso de su imagen podría no requerir consentimiento si tiene un propósito legítimo, como la sátira o el análisis político, Llamas advierte que “la generación de contenido que dañe la reputación, incite al odio o desinforme deliberadamente debe ser prohibida”.
Las figuras públicas deben tener derecho a solicitar la eliminación de contenido falso o dañino, especialmente si compromete su seguridad. “Incluso en contextos de escrutinio público, debe garantizarse un balance para que la IA no se convierta en una herramienta para vulnerar su dignidad”, añadió Llamas.
Derechos están en duda ante la desaparición del INAI
Sin embargo, la posibilidad de que las figuras públicas requieran la eliminación de contenido generado por herramientas de inteligencia artificial, como los deepfakes, enfrenta un obstáculo adicional en México debido a la inminente extinción del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI).
La reciente aprobación en el Congreso de la Unión de una iniciativa presidencial que elimina diversos órganos autónomos, incluido el INAI, ha dejado en el aire la tutela de los derechos ARCO (Acceso, Rectificación, Cancelación y Oposición), fundamentales para proteger la privacidad y los datos personales de los ciudadanos, incluidas las figuras públicas.
Sin el INAI, persiste la incertidumbre sobre cómo se garantizarán los derechos de acceso a la información pública y, especialmente, la protección de datos personales en un contexto donde herramientas como Grok plantean desafíos éticos y legales cada vez más complejos.
Un llamado a la acción a los legisladores de México
Tanto Llamas como Ruiz enfatizan la importancia de que el Congreso de la Unión tome medidas inmediatas para legislar sobre el uso de la IA en México. Esto incluye la creación de mecanismos claros para la eliminación de contenido no autorizado y la implementación de sanciones proporcionales contra el uso indebido de estas herramientas.
“Es urgente que el gobierno establezca regulaciones claras para el uso de herramientas de Inteligencia Artificial, priorizando la protección de la identidad y los datos personales de los ciudadanos”, concluyó Ruiz.
La necesidad de un equilibrio sin prohibir los avances de la IA
Aunque los riesgos son evidentes, los expertos también destacaron los beneficios potenciales de estas tecnologías. Desde aplicaciones en arte y educación hasta simulaciones de riesgos y entrenamiento en ciberseguridad, los deepfakes pueden tener usos positivos si se implementan de manera responsable
De acuerdo con el abogado especializado en temas digitales, una regulación adecuada, centrada en la transparencia, la rendición de cuentas y la protección de derechos fundamentales, es la vía óptima para abordar este desafío.
“Es menester establecer una autoridad nacional de supervisión para evaluar los impactos de la IA en los derechos fundamentales, similar al Consejo de IA propuesto en la UE”, concluyó Llamas.