Desde que la inteligencia artificial se convirtió en un producto masivo, a finales del 2022, expertos advierten sobre los riesgos del avance de este tipo de tecnologías para la humanidad. Elon Musk es uno de los que insiste en que debe haber una regulación sobre estos sistemas, para evitar que se salga de control y se adueñe del mundo.
Sí, parece una declaración de un político en una película de ciencia ficción, pero la verdad es que cada día estamos más cerca de esta realidad. Quienes vieron “The Creator”, película nominada al Oscar por sus efectos especiales, vieron hacia dónde podría estar yendo nuestra civilización.
No es la mejor película, lo sabemos. Lo que queremos resaltar con esta historia es que en la vida real ya esttá instalado el debate de humanos vs. inteligencia artificial.
Elon Musk, en una alarmante declaración, dice que “hay riesgo de que la inteligencia artificial acabe con la humanidad”. De hecho, se atreve a dar un porcentaje de posibilidades de que este hecho catastrófico ocurra en un futuro no tan lejano.
Las palabras de Elon Musk no son para que se detengan los avances con la inteligencia artificial. El magnate sudafricano dice que aún con ese porcentaje vale la pena correr el riesgo de que un mecanismo digital acabe con nuestra raza.
“Creo que hay alguna posibilidad de que (la inteligencia artificial) acabe con la humanidad. Probablemente estoy de acuerdo con Geoff Hinton, que es alrededor del 10% o 20% o algo así”, dijo Elon Musk en un debate sobre la IA, en la Cumbre sobre la Abundancia, a principios de marzo, según reseña Business Insider.
“Creo que el probable escenario positivo supera al escenario negativo”, añadió como para dejar en claro que hay que seguir adelante.
El medio citado entrevistó a Roman Yampolskiy, investigador de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville y le mostró las declaraciones de Elon Musk.
El experto estuvo de acuerdo con el CEO de SpaceX e incluso dijo que el riesgo es mucho mayor. “Elon está siendo un poco conservador”, dijo Yampolskiy.
“En mi opinión, las probabilidades reales de un evento catastrófico son mucho mayores. No estoy seguro de por qué cree que es una buena idea dedicarse a esta tecnología de todos modos. Si le preocupa que los competidores lleguen primero, no importa, ya que la superinteligencia incontrolada es igualmente mala, sin importar quién la haga existir”, añadió el experto.