Clicky

La IA podría causar la 'extinción' de la humanidad, advierten los líderes tecnológicos

La IA podría causar la 'extinción' de la humanidad

Hay otros que descartan a la IA como una amenaza existencial

Abordar el "riesgo de extinción" que plantea la Inteligencia Artificial debería ser una prioridad global a la par que evitar catástrofes como la guerra nuclear, advirtió el martes un grupo de líderes y expertos en tecnología, la última llamada de alto perfil a la precaución a medida que crece la preocupación por los potenciales daños de la IA y se implementan sistemas cada vez más avanzados.

"Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", se lee en un párrafo de la declaración.

La declaración fue publicada por la organización sin fines de lucro con sede en EE. UU. Center for AI Safety, que trabaja para reducir los riesgos a nivel social asociados con la IA mediante la realización de investigaciones de seguridad y la defensa de los estándares de seguridad.

El documento ha sido firmado por una gran cantidad de ejecutivos de alto perfil y expertos que trabajan en el campo, incluidos Sam Altman, Demis Hassabis y Dario Amodei, respectivamente, directores ejecutivos de OpenAI, que creó el bot ChatGPT, Google DeepMind y Anthropic.

Otros firmantes incluyen especialistas de empresas como Google y Microsoft, así como respetados científicos informáticos como Yoshua Bengio y Geoffrey Hinton, ambos considerados pioneros en el campo cuyo trabajo ha hecho posibles algunas de las aplicaciones que se implementan hoy.

Los ejecutivos de Meta, un fuerte jugador en IA y la empresa matriz de Facebook, WhatsApp e Instagram, no firmaron la declaración, dijo el Centro para la Seguridad de la IA.

"Mitigar el riesgo de extinción de la IA requerirá una acción global" similar a la utilizada para mitigar el riesgo de una guerra nuclear, dijo Dan Hendrycks, director del Centro para la Seguridad de la IA, y enfatizó que se necesitará un nivel similar de esfuerzo y coordinación para abordar adecuadamente los riesgos futuros de la IA.

"No es demasiado pronto para establecer barandillas y establecer instituciones para que los riesgos de la IA no nos tomen desprevenidos", dijo Hendrycks en un comunicado que acompaña a la advertencia de 22 palabras. Hendrycks dijo que la creciente preocupación social sobre los potenciales impactos de la IA recuerda lo que sucedió en los primeros días de la energía nuclear y que "necesitamos tener las conversaciones que tenían los científicos nucleares antes de la creación de la bomba atómica".

Si bien es importante que abordemos los apremiantes problemas que ya plantean los sistemas de IA —incluido el uso para difundir información errónea o eliminar millones de puestos de trabajo—, Hendrycks dijo que es importante que "la industria de la IA y los gobiernos de todo el mundo . . . enfrentar seriamente el riesgo de que la futura IA pueda representar una amenaza para la existencia humana".

La breve declaración es la última de varias advertencias de alto perfil de líderes de la sociedad civil, la academia y la industria para advertir sobre los potenciales riesgos que plantea la IA, incluida una carta firmada por personas como Elon Musk y Steve Wozniak que piden una pausa de seis meses para evaluar los riesgos que plantea la IA.

Aunque muchos signatarios han hablado durante muchos años sobre el riesgo existencial de la IA —incluido el cofundador de Skype Jaan Tallinn y el aclamado físico británico Martin Rees— el despliegue generalizado de sistemas de IA generativa como ChatGPT ha agregado urgencia al debate, particularmente a medida que las empresas se apresuran a desarrollar, construir e implementar mejores sistemas más rápido que sus rivales.

Pocos familiarizados con el campo afirmarán que no hay riesgos asociados con la IA y muchos, incluido el riesgo de exacerbar los sesgos y las desigualdades existentes, promover la desinformación, alterar la política y trastornar la economía y el mercado laboral ya se están sintiendo. Sin embargo, hay menos acuerdo sobre si los sistemas de IA llegarán algún día a amenazar la supervivencia misma de la humanidad.

Tales amenazas, conocidas como riesgos existenciales, abarcan una amplia gama que abarca desde amenazas más tangibles como guerra nuclear, impactos de asteroides, cambio climático y pandemias hasta cosas más esotéricas como un ataque de extraterrestres o nanotecnología fuera de control.

Quienes están a favor de clasificar la IA como un riesgo existencial varían en el detalle que brindan para su razonamiento y mucho es, necesariamente, especulativo. Otros afirman que tal posición es irresponsable y efectivamente ignora problemas actuales muy reales a expensas de un problema futuro especulativo. Si bien los sistemas de IA están creciendo en sus capacidades, muchos señalan que su falla general para realizar incluso tareas simples es una razón para descartar a la IA como una amenaza existencial.

Jesus_Caceres