Advierten que Inteligencia Artificial es una amenaza para la humanidad
Un grupo de líderes de la industria advirtió que la tecnología de inteligencia artificial (IA) que están desarrollando algún día podría ser una amenaza existencial para la humanidad y debería considerarse un riesgo social al mismo nivel que las pandemias y las guerras nucleares.
“Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y las guerras nucleares”, dice la declaración, que consta de una sola frase, publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro.
La carta abierta está firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en inteligencia artificial.
Entre los firmantes figuran altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic.
Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores galardonados con el Premio Turing por su trabajo pionero en redes neuronales y que a menudo son considerados como los “padrinos” del movimiento moderno de la inteligencia artificial, firmaron la declaración, al igual que otros destacados investigadores de ese campo.
La declaración llega en un momento de creciente preocupación por los posibles perjuicios de la inteligencia artificial.
Los recientes avances en los llamados modelos grandes de lenguaje —el tipo de sistema utilizado por ChatGPT y otros chatbots— han suscitado el temor de que la inteligencia artificial pueda utilizarse pronto a gran escala para difundir desinformación y propaganda, o que pueda eliminar millones de puestos de trabajo.
Algunos creen que, si no se hace nada para frenarla, la inteligencia artificial podría llegar a ser tan poderosa como para provocar trastornos a escala social en unos pocos años, aunque los investigadores aún no explican cómo ocurriría eso.
Estos temores son compartidos por numerosos líderes de la industria, lo que los ubica en la inusual posición de argumentar que una tecnología que están desarrollando —y que, en muchos casos, se apresuran a construir más rápido que sus competidores— plantea graves riesgos y debería regularse más de manera más estricta.
Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, declaró en una entrevista que la carta abierta representaba una “salida del clóset” para algunos líderes del sector que habían expresado su preocupación —pero solo en privado— por los riesgos de la tecnología que están desarrollando.
“Existe la idea errónea, incluso en la comunidad de la IA, de que solo hay un grupo de catastrofistas”, dijo Hendrycks.
“Pero, de hecho, muchas personas expresan en privado su preocupación por estas cosas”, insistió.
No lo creen aún
Algunos escépticos sostienen que la tecnología de la inteligencia artificial aún está en ciernes como para suponer una amenaza existencial.
En lo que respecta a los sistemas de Inteligencia Artificial actuales, les preocupan más los problemas a corto plazo, como las respuestas sesgadas e incorrectas, que los peligros a largo plazo.
Pero otros han argumentado que la inteligencia artificial está mejorando con tanta rapidez que ya ha superado el rendimiento humano en algunas áreas y que pronto lo hará en otras.
Afirman que la tecnología ha dado muestras de capacidades y conocimientos avanzados, lo que hace temer que la “inteligencia artificial general” (IAG), un tipo de inteligencia artificial que puede igualar o superar el rendimiento humano en una amplia variedad de tareas, no esté muy lejos.
En una entrada de blog publicada la semana pasada, Altman y otros dos ejecutivos de OpenAI propusieron varias formas de gestionar de manera responsable los potentes sistemas de inteligencia artificial.
Altman también ha expresado su apoyo a las normas que obligarían a los fabricantes de grandes modelos de IA a registrarse para obtener una licencia expedida por el gobierno.
La urgencia de las advertencias de los líderes de la Inteligencia Artificial ha aumentado a medida que millones de personas han recurrido a los chatbots como entretenimiento, compañía y aumento de la productividad, y a medida que la tecnología subyacente mejora a un ritmo vertiginoso.
“Creo que si esta tecnología sale mal, puede salir bastante mal”, dijo Altman al subcomité del Senado. “Queremos trabajar con el gobierno para evitar que eso suceda”.
Ten la información al instante en tu celular. Únete al grupo de Diario Primicia en WhatsApp a través del siguiente link: https://chat.whatsapp.com/ElPJiFkPVvrEs3MAmCh7qY
También estamos en Telegram como @DiarioPrimicia, únete aquí: https://t.me/diarioprimicia