La inteligencia artificial supone un riesgo de “extinción” para la humanidad, advirtieron expertos
Los líderes mundiales deberían dedicarse a reducir “el riesgo de extinción” que supone la inteligencia artificial, advirtió en una carta un grupo de expertos del sector tecnológico entre los que se encuentra Sam Altman, uno de los creadores de ChatGPT.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, aseguró el breve texto publicado en la web safe.ai.
El comunicado fue firmado por decenas de especialistas, incluido el dueño de la empresa OpenAI que creó el robot conversacional ChatGPT, que a finales del año pasado generó un gran revuelo a nivel internacional por su capacidad para realizar tareas complejas como crear obras de arte, ensayos académicos o mantener un diálogo con un ser humano sobre cualquier tema.
Entre los firmantes se encuentran Martín Hellman, Profesor Emérito de Ingeniería Eléctrica de la Universidad de Stanford; Lila Ibrahim, directora de operaciones de Google DeepMind, y Marian Rogers Croak, vicepresidenta del Centro de IA Responsable y Tecnología Centrada en el Ser Humano de Google, entre otros académicos y personalidades.
Según el sitio web donde publicaron la carta, expertos, periodistas, legisladores y público “están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA” y aseguraron que la misiva “tiene como objetivo superar los obstáculos y abrir la discusión”.
Esta semana, Altman advirtió sobre una posible salida de ChatGPT de Europa si la compañía no pudiera cumplir con la legislación europea sobre inteligencia artificial que se está negociando en los países de esa región.
Hace dos meses otras personalidades, como el multimillonario y dueño de Tesla, Elon Musk, firmaron otra carta pública en la que pedían “una pausa” en el desarrollo de la IA hasta poder garantizar su total seguridad.