Ciencia y Tecnología

Google elimina cláusula que impedía usar su IA en armas y vigilancia

El jefe de inteligencia artificial, Demis Hassabis, y su vicepresidente senior de tecnología y sociedad, James Manyika, explicaron los motivos de la modificación de sus políticas.
viernes, 07 febrero 2025
Archivo PRIMICIA | La empresa refiere que la tecnología se ha extendido por el mundo y ha creado la demanda de servicios

La inteligencia artificial de gigantes como Google se usan desde hace años para, entre otras aplicaciones, el desarrollo de nuevos medicamentos.

Esta tecnología es uno de los grandes avances tecnológicos de la década y promete aportar grandes beneficios al mundo, al mismo tiempo que entraña grandes riesgos que han sido denunciados en numerosas ocasiones, como la creación de armamento.

Los grandes desarrolladores de IA se comprometieron al principio a evitar que su tecnología se usara de forma que peligrosa o poner en riesgo los derechos humanos. Pero en los últimos meses esta línea roja se ha vuelto más delgada.

OpenAI se ha asociado con Anduril, el fabricante de misiles y drones, aunque aseguran que este nuevo acuerdo respeta su política de usar su tecnología sin dañar a otros.

Por su parte, Google ha actualizado sus pautas éticas en torno a la IA, eliminando los compromisos de no aplicar la tecnología a armas o vigilancia.

The Washington Post (propiedad de Jeff Bezos) informa de este cambio, el mismo medio que hace unas semanas publicaba un reportaje sobre la ayuda que Google ha ofrecido a Israel desde el principio de la guerra en Gaza. Documentos internos de Google reflejaban el trabajo de sus empleados para reforzar los servicios en la nube de los que disponen las fuerzas militares israelíes.

Un registro en Internet Archive sirve de testimonio de la sección modificada. En sus principios, hasta esta semana, Google enumeraba cuatro “Aplicaciones que no utilizaremos”: armas, vigilancia, tecnologías que “causan o pueden causar daño general” y casos de uso que contravienen los principios del derecho internacional y los derechos humanos.

El gigante de internet ha remitido a una publicación en su blog en la que su jefe de inteligencia artificial, Demis Hassabis, y su vicepresidente senior de tecnología y sociedad, James Manyika, explican los motivos por los que Google ha modificado sus políticas.

Estos aluden a que, en los últimos años, esta tecnología se ha extendido por todo el mundo y, por lo tanto, se ha creado una necesidad de que las empresas en países democráticos presten sus servicios a clientes gubernamentales y de seguridad nacional.

El lanzamiento de DeepSeek en China y su impacto a nivel mundial ha recordado que otras potencias están consiguiendo grandes avances en esta materia, además de las empresas estadounidenses. No obstante, Google no es el único que ofrece su tecnología a gobiernos y ejércitos; otras empresas como Microsoft y Amazon llevan mucho tiempo asociados con el Pentágono.

La actual lista de principios de inteligencia artificial de Google establece que la empresa recurrirá a la supervisión humana y tendrá en cuenta las opiniones de los usuarios para garantizar que su tecnología cumpla con los “principios ampliamente aceptados del derecho internacional y los derechos humanos”.

Los principios también indican que la tecnología se pondrá a prueba para “mitigar resultados no deseados o perjudiciales”.

Esta noticia llega en un momento de máxima tensión geopolítica en el que Donald Trump ha propuesto que EEUU “tome el control de Gaza”.

El presidente de los Estados Unidos cuenta con el apoyo de los principales líderes tecnológicos que tuvieron asientos destacados en la ceremonia del día de su investidura, incluso Sundar Pichai, director ejecutivo de Google.

Ten la información al instante en tu celular. Únete al canal de Diario Primicia en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VagwIcc4o7qP30kE1D0J

También estamos en Telegram como @DiarioPrimicia, únete aquí: https://t.me/diarioprimicia

Publicidad
Publicidad
error: