Google elimina compromiso de no usar Inteligencia Artificial en armamento, generando preocupación
La gigante tecnológica Google ha generado controversia al eliminar de su sitio web el compromiso explícito de no utilizar la Inteligencia Artificial (IA) en el desarrollo de armas. Este cambio de postura, reportado inicialmente por TechCrunch, ha despertado inquietudes sobre el futuro rol de la compañía en el sector militar y la posibilidad de que su tecnología sea empleada con fines bélicos.
Anteriormente, Google mantenía una sección dedicada a las «aplicaciones que no perseguiremos», en la que se comprometía a no desarrollar IA para armamento o sistemas de vigilancia. Sin embargo, esta sección ha desaparecido sin previo aviso, dejando un vacío que ha sido interpretado como un cambio significativo en la filosofía de la empresa. Ahora, en su blog corporativo, Google enfatiza la necesidad de que la IA «proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional». Este nuevo enfoque, si bien amplio, omite la anterior exclusión explícita del desarrollo de armas, lo que ha suscitado alarmas entre algunos observadores.
La decisión de Google contrasta con los acuerdos alcanzados por diversas compañías tecnológicas para controlar el impacto de la IA y evitar su uso en aplicaciones potencialmente peligrosas. Uno de los ejemplos más preocupantes del posible mal uso de la IA es su hipotética aplicación en el control de armas nucleares. Expertos temen que una IA sin control podría desencadenar una catástrofe global, llevando incluso a la aniquilación de la humanidad.

Google da marcha atrás en su promesa de no usar IA en armas.
A pesar de la modificación en su postura pública, Google asegura que continuará trabajando para «mitigar resultados dañinos o no intencionados» y para evitar sesgos injustos en sus sistemas de IA. La empresa afirma que sus prácticas se alinearán con los principios de derechos humanos y el derecho internacional. Sin embargo, la compañía mantiene contratos con los ejércitos de Estados Unidos e Israel para la provisión de servicios en la nube. Estos acuerdos han generado protestas internas, con numerosos empleados expresando su preocupación por la participación de Google en proyectos con claras aplicaciones militares.
Esta preocupación se ve agravada por recientes declaraciones del jefe de IA del Departamento de Defensa de Estados Unidos, quien afirmó que ciertos modelos de IA están «acelerando la cadena de muerte» en el ejército norteamericano. Si bien Google insiste en que sus modelos de IA no se utilizan con fines destructivos y que su tecnología no está relacionada con fines bélicos, el cambio en su postura pública sugiere una mayor apertura a la colaboración con el sector militar, contradiciendo su anterior enfoque más restrictivo.
Esta aparente contradicción alimenta la incertidumbre sobre el futuro de la IA en el ámbito militar y el rol que jugará Google en este escenario. El debate sobre la ética en la aplicación de la IA en el desarrollo de armamento continúa abierto, y la decisión de Google promete mantenerlo en el centro de la atención pública.