Tecnología

Google rompe su promesa y usará inteligencia artificial en desarrollo de armas y dispositivos de vigilancia

Alphabet, la empresa matriz de Google, anunció que abandonará su compromiso de no utilizar inteligencia artificial para el desarrollo de armas y herramientas de vigilancia, en medio de una creciente competencia global en el ámbito de la IA.

Tecnología

Google rompe su promesa y usará inteligencia artificial en desarrollo de armas y dispositivos de vigilancia

Alphabet, la empresa matriz de Google, anunció que abandonará su compromiso de no utilizar inteligencia artificial para el desarrollo de armas y herramientas de vigilancia, en medio de una creciente competencia global en el ámbito de la IA.

“La IA debería proteger la seguridad nacional”

– Defendieron Demis Hassabis, jefe de IA de Google, y James Manyika, vicepresidente senior de tecnología y sociedad.

5/2/2025

Alphabet, la empresa matriz de Google, reveló el 5 de febrero de 2025 que abandonará su compromiso de no desarrollar inteligencia artificial (IA) para aplicaciones bélicas y de vigilancia, lo que representa un cambio significativo en su política. Esta decisión fue anunciada justo antes de que la compañía reportara ingresos de $96.5 mil millones, ligeramente por debajo de las expectativas de $96.67 mil millones, provocando una caída del 8% en sus acciones al abrir Wall Street.

En el comunicado, Alphabet eliminó de sus directrices éticas sobre IA la referencia a no buscar tecnologías que pudieran "causar o probablemente causar daño general". Demis Hassabis, jefe de IA de Google, junto con James Manyika, vicepresidente senior de tecnología y sociedad, defendieron la decisión, subrayando la necesidad de proteger la "seguridad nacional". Resaltaron que "billones de personas están utilizando IA en su vida cotidiana", señalando que la tecnología ha pasado de ser un tema de investigación de nicho a una herramienta de uso general.

El anuncio no ha estado exento de controversia interna. Empleados de Google, en un foro interno, expresaron su descontento, cuestionando si la empresa se estaba convirtiendo en "los villanos". Estas preocupaciones giraron en torno a la falta de responsabilidad potencial en el uso de IA en contextos bélicos y de vigilancia.

La reacción en los mercados fue inmediata. Además de la caída del 8% en sus acciones, Alphabet reveló planes para invertir $75 mil millones en gastos de capital el próximo año, enfocándose en desarrollar sus capacidades e infraestructura de IA.

El cambio de política se produce en un entorno político donde la administración del presidente Donald Trump ha reducido las restricciones sobre la seguridad de la IA, revocando órdenes ejecutivas previas, lo que ha relajado las obligaciones de las empresas en este ámbito.

Las críticas externas también han sido fuertes. Human Rights Watch advirtió que la IA puede dificultar la rendición de cuentas en situaciones de combate con consecuencias fatales. Expertos señalaron el riesgo de sistemas de armas autónomas, especialmente en conflictos recientes como el de Ucrania.

La decisión de Alphabet de permitir el uso de IA en la creación de armas y herramientas de vigilancia constituye un cambio radical en su enfoque, generando inquietudes sobre las implicaciones éticas y de seguridad en un contexto tecnológico y militar que evoluciona rápidamente. Alphabet había mantenido durante años una postura ética sobre el uso de IA, reafirmando en múltiples ocasiones su compromiso de no utilizar esta tecnología en desarrollos bélicos o de vigilancia, hasta ahora.

Algo Curioso

“La IA debería proteger la seguridad nacional”

– Defendieron Demis Hassabis, jefe de IA de Google, y James Manyika, vicepresidente senior de tecnología y sociedad.

Feb 5, 2025
Colglobal News

Alphabet, la empresa matriz de Google, reveló el 5 de febrero de 2025 que abandonará su compromiso de no desarrollar inteligencia artificial (IA) para aplicaciones bélicas y de vigilancia, lo que representa un cambio significativo en su política. Esta decisión fue anunciada justo antes de que la compañía reportara ingresos de $96.5 mil millones, ligeramente por debajo de las expectativas de $96.67 mil millones, provocando una caída del 8% en sus acciones al abrir Wall Street.

En el comunicado, Alphabet eliminó de sus directrices éticas sobre IA la referencia a no buscar tecnologías que pudieran "causar o probablemente causar daño general". Demis Hassabis, jefe de IA de Google, junto con James Manyika, vicepresidente senior de tecnología y sociedad, defendieron la decisión, subrayando la necesidad de proteger la "seguridad nacional". Resaltaron que "billones de personas están utilizando IA en su vida cotidiana", señalando que la tecnología ha pasado de ser un tema de investigación de nicho a una herramienta de uso general.

El anuncio no ha estado exento de controversia interna. Empleados de Google, en un foro interno, expresaron su descontento, cuestionando si la empresa se estaba convirtiendo en "los villanos". Estas preocupaciones giraron en torno a la falta de responsabilidad potencial en el uso de IA en contextos bélicos y de vigilancia.

La reacción en los mercados fue inmediata. Además de la caída del 8% en sus acciones, Alphabet reveló planes para invertir $75 mil millones en gastos de capital el próximo año, enfocándose en desarrollar sus capacidades e infraestructura de IA.

El cambio de política se produce en un entorno político donde la administración del presidente Donald Trump ha reducido las restricciones sobre la seguridad de la IA, revocando órdenes ejecutivas previas, lo que ha relajado las obligaciones de las empresas en este ámbito.

Las críticas externas también han sido fuertes. Human Rights Watch advirtió que la IA puede dificultar la rendición de cuentas en situaciones de combate con consecuencias fatales. Expertos señalaron el riesgo de sistemas de armas autónomas, especialmente en conflictos recientes como el de Ucrania.

La decisión de Alphabet de permitir el uso de IA en la creación de armas y herramientas de vigilancia constituye un cambio radical en su enfoque, generando inquietudes sobre las implicaciones éticas y de seguridad en un contexto tecnológico y militar que evoluciona rápidamente. Alphabet había mantenido durante años una postura ética sobre el uso de IA, reafirmando en múltiples ocasiones su compromiso de no utilizar esta tecnología en desarrollos bélicos o de vigilancia, hasta ahora.

Alphabet, la empresa matriz de Google, reveló el 5 de febrero de 2025 que abandonará su compromiso de no desarrollar inteligencia artificial (IA) para aplicaciones bélicas y de vigilancia, lo que representa un cambio significativo en su política. Esta decisión fue anunciada justo antes de que la compañía reportara ingresos de $96.5 mil millones, ligeramente por debajo de las expectativas de $96.67 mil millones, provocando una caída del 8% en sus acciones al abrir Wall Street.

En el comunicado, Alphabet eliminó de sus directrices éticas sobre IA la referencia a no buscar tecnologías que pudieran "causar o probablemente causar daño general". Demis Hassabis, jefe de IA de Google, junto con James Manyika, vicepresidente senior de tecnología y sociedad, defendieron la decisión, subrayando la necesidad de proteger la "seguridad nacional". Resaltaron que "billones de personas están utilizando IA en su vida cotidiana", señalando que la tecnología ha pasado de ser un tema de investigación de nicho a una herramienta de uso general.

El anuncio no ha estado exento de controversia interna. Empleados de Google, en un foro interno, expresaron su descontento, cuestionando si la empresa se estaba convirtiendo en "los villanos". Estas preocupaciones giraron en torno a la falta de responsabilidad potencial en el uso de IA en contextos bélicos y de vigilancia.

La reacción en los mercados fue inmediata. Además de la caída del 8% en sus acciones, Alphabet reveló planes para invertir $75 mil millones en gastos de capital el próximo año, enfocándose en desarrollar sus capacidades e infraestructura de IA.

El cambio de política se produce en un entorno político donde la administración del presidente Donald Trump ha reducido las restricciones sobre la seguridad de la IA, revocando órdenes ejecutivas previas, lo que ha relajado las obligaciones de las empresas en este ámbito.

Las críticas externas también han sido fuertes. Human Rights Watch advirtió que la IA puede dificultar la rendición de cuentas en situaciones de combate con consecuencias fatales. Expertos señalaron el riesgo de sistemas de armas autónomas, especialmente en conflictos recientes como el de Ucrania.

La decisión de Alphabet de permitir el uso de IA en la creación de armas y herramientas de vigilancia constituye un cambio radical en su enfoque, generando inquietudes sobre las implicaciones éticas y de seguridad en un contexto tecnológico y militar que evoluciona rápidamente. Alphabet había mantenido durante años una postura ética sobre el uso de IA, reafirmando en múltiples ocasiones su compromiso de no utilizar esta tecnología en desarrollos bélicos o de vigilancia, hasta ahora.

Algo Curioso

PODRÍA INTERESARTE
 

No tienes acceso

Necesitas una membresía para acceder al contenido de este sitio.
Por favor Regístrate o Ingresa