Google modifica su política de inteligencia artificial: ya no prohíbe su uso en armamento y vigilancia 

En una reciente actualización de sus directrices éticas, Google ha eliminado la restricción que impedía el uso de la inteligencia artificial (IA) en aplicaciones relacionadas con armamento o vigilancia que pudieran contravenir normas internacionales o derechos humanos. Hasta hace poco, la política de la empresa evitaba el desarrollo de tecnologías que pudieran causar “daño general”, incluyendo armas, alineándose con principios internacionales de derechos humanos.  

Esta revisión fue detallada en una publicación en el blog oficial de Google, firmada por Demis Hassabis, jefe de IA de la compañía, y James Manyika, vicepresidente senior de tecnología y sociedad. En el comunicado, se enfatiza que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Además, se destaca la importancia de la colaboración entre empresas, gobiernos y organizaciones que comparten estos valores para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional.  

La actualización también introduce disposiciones que aseguran el control humano y la colaboración de los usuarios para garantizar … la tecnología se utilice de acuerdo con principios ampliamente aceptados del derecho internacional y … .  

Esta decisión marca un cambio significativo respecto a la postura de Google en 2018, cuando, tras recibir críticas por su participación en el Proyecto Maven del Pentágono, la empresa se comprometió a no desarrollar IA para armas o aplicaciones que pudieran causar daño. En ese momento, el CEO Sundar Pichai afirmó que Google evitaría el uso de cualquier tecnología “que cause o pueda causar un daño general”, incluyendo armas y sistemas de vigilancia que violen normas internacionales.  

La eliminación de esta prohibición ha generado debate sobre las implicaciones éticas y morales del uso de la IA en contextos militares y de vigilancia. Mientras algunos argumentan que la colaboración de empresas tecnológicas en estos ámbitos puede fortalecer la seguridad nacional y promover el desarrollo de tecnologías responsables, otros expresan preocupación por el potencial de abuso y la erosión de los derechos humanos. 

Es esencial que, a medida que la IA continúa avanzando y desempeñando un papel más prominente en diversas industrias, las empresas tecnológicas mantengan un compromiso firme con principios éticos y trabajen en colaboración con gobiernos y organizaciones para garantizar que su implementación beneficie a la sociedad en su conjunto. 

Noticias recientes

Related articles

¿Tienes un evento social en puerta?

spot_imgspot_img