MADRID, 21 (Portaltic/EP)
En este sentido, el estudio refleja que el 61% de los trabajadores españoles afirma haber utilizado herramientas de IA generativa que no están formalmente aprobadas por su empresa (y hasta un 33% las han usado pese a estar expresamente prohibidas) y añade que muchos de estos empleados recurren a esta nueva tecnología "sin formación, orientación o aprobación por parte de su compañía".
Este estudio, titulado 'Las Promesas y Dificultades de la AI generativa en el trabajo', recopila las opiniones de más de 14.000 trabajadores de catorce países, entre ellos España, y pone de manifiesto que las políticas y la formación de las empresas en torno a la IA generativa "no están claramente definidas y, en el mejor de los casos, son ambiguas". Sin embargo, al mismo tiempo, el informe muestra que los trabajadores reconocen la importancia de esta tecnología para avanzar en su propia carrera: el 74% de los trabajadores que la utilizan afirman que los hace más productivos.
"Cuanto más avance la IA será más fácil, tanto para los trabajadores como para los usuarios particulares, utilizarla de manera que su uso sea más sencillo, eficiente y satisfactorio", afirma Paula Goldman, Chief Ethical and Humane Use Officer de Salesforce. "Los directivos que apuesten de manera clara por las herramientas de IA en el lugar de trabajo obtendrán resultados más confiables, seguros y responsables sin sacrificar la innovación", añade.
FALTA DE POLÍTICAS CLARAS SOBRE LA IA EN EL TRABAJO
Los encuestados en el informe, por su parte, no sólo advierten de la falta de formación, sino que señalan que las políticas acerca de IA generativa de sus empresas no están claramente definidas o, directamente, no existen. En el caso español, el 84% de los trabajadores afirma que su empresa no tiene políticas claramente definidas sobre el uso de la IA generativa en el trabajo.
Asimismo, el 73% de los trabajadores españoles no ha recibido ni completado formación sobre IA generativa en sus empresas (69% a nivel global). Este porcentaje llega al 74% cuando se les pregunta por formación sobre cómo utilizar la IA generativa de forma ética (71% de media global) y el 71% sobre cómo utilizar la IA generativa de forma segura en el puesto de trabajo (69% a escala global).
Esto es uno de los factores que provoca que los usuarios realicen actividades éticamente cuestionables en el trabajo cuando utilizan IA generativa, por ejemplo, haciendo pasar la IA por su propio trabajo o inflando sus habilidades. Así, en España, el 66% de los trabajadores españoles ha pasado trabajo de IA generativa como propio (64% es la media global) y el 36% consideraría inflar sus habilidades en IA generativa para asegurarse una oportunidad laboral, frente al 41% de media global.
UN ELEMENTO DE ATRACCIÓN Y RETENCIÓN DE TALENTO
Utilicen o no IA generativa en el lugar de trabajo, los trabajadores reconocen el impacto de la tecnología en sus carreras. Así, el 47% de los trabajadores en España cree que dominar la IA generativa les haría ser más demandados en su puesto de trabajo. Por otro lado, el 52% cree que daría lugar a una mayor satisfacción laboral y el 38% afirma que implicaría un mayor salario que aquellos que no dominan la tecnología.
La IA generativa también actúa como elemento de atracción y retención de talento. Así, el 44% de los trabajadores españoles afirma que se sentiría más atraído por una empresa proactiva y avanzada con IA generativa al tiempo que el 56% de los usuarios en España afirma que la IA generativa les hace estar más comprometidos en su puesto trabajo.
En cualquier caso, según los datos de este informe, el 86% de los trabajadores españoles afirma que actualmente existen barreras para utilizar la IA generativa en el trabajo. Por ello, Salesforce insta a las empresas a invertir en herramientas de IA generativa "seguras, éticas y fiables" y a "dar un paso adelante en la formación a sus empleados sobre el uso seguro y ético de la IA". "No se trata de si las empresas aplican la IA generativa, sino de cómo lo hacen de forma eficaz, segura y ética", concluye el documento.