En una reciente actualización de sus directrices éticas, Google ha eliminado la restricción que impedía el uso de la inteligencia artificial (IA) en aplicaciones relacionadas con armamento o vigilancia que pudieran contravenir normas internacionales o derechos humanos. Hasta hace poco, la política de la empresa evitaba el desarrollo de tecnologías que pudieran causar “daño general”, incluyendo armas, alineándose con principios internacionales de derechos humanos.
![](https://adrnetworks.mx/wp-content/uploads/2025/02/image-24-1024x749.png)
Esta revisión fue detallada en una publicación en el blog oficial de Google, firmada por Demis Hassabis, jefe de IA de la compañía, y James Manyika, vicepresidente senior de tecnología y sociedad. En el comunicado, se enfatiza que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Además, se destaca la importancia de la colaboración entre empresas, gobiernos y organizaciones que comparten estos valores para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional.
La actualización también introduce disposiciones que aseguran el control humano y la colaboración de los usuarios para garantizar … la tecnología se utilice de acuerdo con principios ampliamente aceptados del derecho internacional y … .
Esta decisión marca un cambio significativo respecto a la postura de Google en 2018, cuando, tras recibir críticas por su participación en el Proyecto Maven del Pentágono, la empresa se comprometió a no desarrollar IA para armas o aplicaciones que pudieran causar daño. En ese momento, el CEO Sundar Pichai afirmó que Google evitaría el uso de cualquier tecnología “que cause o pueda causar un daño general”, incluyendo armas y sistemas de vigilancia que violen normas internacionales.
La eliminación de esta prohibición ha generado debate sobre las implicaciones éticas y morales del uso de la IA en contextos militares y de vigilancia. Mientras algunos argumentan que la colaboración de empresas tecnológicas en estos ámbitos puede fortalecer la seguridad nacional y promover el desarrollo de tecnologías responsables, otros expresan preocupación por el potencial de abuso y la erosión de los derechos humanos.
Es esencial que, a medida que la IA continúa avanzando y desempeñando un papel más prominente en diversas industrias, las empresas tecnológicas mantengan un compromiso firme con principios éticos y trabajen en colaboración con gobiernos y organizaciones para garantizar que su implementación beneficie a la sociedad en su conjunto.