Alphabet, la empresa matriz de Google, reveló el 5 de febrero de 2025 que abandonará su compromiso de no desarrollar inteligencia artificial (IA) para aplicaciones bélicas y de vigilancia, lo que representa un cambio significativo en su política. Esta decisión fue anunciada justo antes de que la compañía reportara ingresos de $96.5 mil millones, ligeramente por debajo de las expectativas de $96.67 mil millones, provocando una caída del 8% en sus acciones al abrir Wall Street.
En el comunicado, Alphabet eliminó de sus directrices éticas sobre IA la referencia a no buscar tecnologías que pudieran "causar o probablemente causar daño general". Demis Hassabis, jefe de IA de Google, junto con James Manyika, vicepresidente senior de tecnología y sociedad, defendieron la decisión, subrayando la necesidad de proteger la "seguridad nacional". Resaltaron que "billones de personas están utilizando IA en su vida cotidiana", señalando que la tecnología ha pasado de ser un tema de investigación de nicho a una herramienta de uso general.
El anuncio no ha estado exento de controversia interna. Empleados de Google, en un foro interno, expresaron su descontento, cuestionando si la empresa se estaba convirtiendo en "los villanos". Estas preocupaciones giraron en torno a la falta de responsabilidad potencial en el uso de IA en contextos bélicos y de vigilancia.
La reacción en los mercados fue inmediata. Además de la caída del 8% en sus acciones, Alphabet reveló planes para invertir $75 mil millones en gastos de capital el próximo año, enfocándose en desarrollar sus capacidades e infraestructura de IA.
El cambio de política se produce en un entorno político donde la administración del presidente Donald Trump ha reducido las restricciones sobre la seguridad de la IA, revocando órdenes ejecutivas previas, lo que ha relajado las obligaciones de las empresas en este ámbito.
Las críticas externas también han sido fuertes. Human Rights Watch advirtió que la IA puede dificultar la rendición de cuentas en situaciones de combate con consecuencias fatales. Expertos señalaron el riesgo de sistemas de armas autónomas, especialmente en conflictos recientes como el de Ucrania.
La decisión de Alphabet de permitir el uso de IA en la creación de armas y herramientas de vigilancia constituye un cambio radical en su enfoque, generando inquietudes sobre las implicaciones éticas y de seguridad en un contexto tecnológico y militar que evoluciona rápidamente. Alphabet había mantenido durante años una postura ética sobre el uso de IA, reafirmando en múltiples ocasiones su compromiso de no utilizar esta tecnología en desarrollos bélicos o de vigilancia, hasta ahora.