Tecnología

Xbox quiere erradicar el acoso y contenido tóxico con ayuda de IA

La compañía compartió la necesidad de “mantenerse al día” con los cambios que aparecen en la industria y pueden perjudicar la experiencia de los jugadores

El 87% de las acciones de moderación realizadas por Xbox en la primera mitad del presente año se activaron por los sistemas automáticos de la plataforma, que se han reforzado con nuevos modelos de inteligencia artificial (IA) para detectar las interacciones y las imágenes que violan las normas de la comunidad.

Microsoft utiliza en la plataforma ‘online’ de su videoconsola Xbox herramientas automáticas y moderadores humanos para detectar los contenidos tóxicos, con el objetivo de que las interacciones de los usuarios en ella sean seguras y promuevan la diversión.

También puedes leer: Prohíben a Meta mostrar publicidad ‘personalizada’ en los datos de los usuarios

Publicidad

En este sentido, la compañía ha compartido la necesidad de “mantenerse al día” con los cambios que aparecen en la industria y que pueden perjudicar la experiencia de los jugadores. Por ello, han destacado “la exploración y uso” de la IA para acelerar la moderación de contenidos.

Las nuevas herramientas que ya están en uso incluyen ‘Community Sift’, que “clasifica y filtra miles de millones de interacciones humanas por año”, y ‘Turing Bletchley v3′, “un modelo multilingüe que escanea imágenes generadas por el usuario para garantizar que solo se muestre el contenido apropiado”, como detalla en su blog con motivo de tercer informe de transparencia de Xbox.

La nueva edición del informe se centra en las acciones realizadas durante la primera mitad del presente año, tanto las impulsadas de forma proactiva por sus sistemas automáticos como las que son resultado de las denuncias de los usuarios con las herramientas facilitadas por Xbox.

Así, en los primeros seis meses de 2023, se ejecutaron 17.09 millones de acciones a través de las herramientas proactivas de moderación, lo que supone el 87% del total de acciones realizadas.


En este período también se bloquearon más de 4.7 millones de contenidos antes de que llegaran a los jugadores. Esta cifra supone un aumento del 39% en imágenes tóxicas (135 mil) respecto del periodo anterior. También han aumentado un 95% las acciones realizadas de forma proactiva por acoso e intimidación (84 mil).

La compañía ha destacado, asimismo, una nueva función de informes de voz para capturar y denunciar el acoso por voz en el juego, que se ha puesto a disposición de los jugadores en el periodo analizado.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último