Google modifica su política de IA, permitiendo su uso militar

Google modifica su política de IA, permitiendo su uso militar

Por Redacción
x
contactohorapuntacom/8/8/18
jueves 06 de febrero de 2025, 19:42h

Escucha la noticia

Google ha actualizado su política de ética en inteligencia artificial, permitiendo el uso de su tecnología en aplicaciones militares. Esta decisión fue defendida por altos ejecutivos de la compañía como un cambio necesario para proteger los principios democráticos. Las nuevas directrices eliminan compromisos previos que restringían el uso de la IA para fines perjudiciales, como el desarrollo de armas y la vigilancia. Expertos advierten que esta modificación podría facilitar un uso más cuestionable de la IA, en un contexto donde grandes empresas tecnológicas están adoptando posturas más rígidas.

Cambio en la política de ética de IA de Google

Ejecutivos de alto nivel de Google han defendido un cambio significativo en su política de ética en inteligencia artificial (IA), que abre la posibilidad de que su tecnología sea utilizada en aplicaciones militares. Este movimiento ha sido justificado como una medida necesaria para salvaguardar los principios democráticos.

Medios de comunicación han destacado que las actualizaciones recientes a los Principios de IA de Google han eliminado el lenguaje que prohibía el uso de esta tecnología para fines perjudiciales, incluyendo el desarrollo de armas y la vigilancia, aspectos que habían sido fundamentales desde 2018.

Eliminación del compromiso ético

Publicaciones como Bloomberg y BBC News han señalado que los nuevos principios de Google ya no incluyen un compromiso explícito para garantizar que la IA no se utilice de maneras "probablemente dañinas", citando el desarrollo de armamento como un ejemplo clave.

En un blog, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto con Demis Hassabis, CEO y cofundador de Google DeepMind, abordaron la credibilidad y transparencia en torno a la IA desarrollada por la compañía. Sin embargo, enfatizaron que el avance continuo de esta tecnología exige una adaptación constante.

Los ejecutivos advirtieron que las nuevas capacidades emergentes en IA "pueden presentar riesgos", dado que esta ha evolucionado desde ser un "tema de investigación especializado" hasta convertirse en una herramienta tan omnipresente como los teléfonos móviles e Internet, utilizada por "miles de millones de personas".

Colaboración para la seguridad nacional

Manyika y Hassabis argumentaron que gobiernos, empresas y otras organizaciones deben colaborar para desarrollar principios que promuevan la seguridad nacional, entre otros objetivos.

No obstante, expertos consultados por Bloomberg advierten que estos nuevos principios podrían facilitar un uso más oscuro de la IA. Esta decisión se produce en un contexto más amplio donde grandes empresas tecnológicas están endureciendo sus posturas, incluyendo cambios en políticas sobre verificación de hechos y programas de diversidad.

Preguntas sobre la noticia

¿Qué cambio ha realizado Google en su política de ética de IA?

Google ha defendido un cambio en su política de ética de IA que permite el uso de su tecnología en aplicaciones militares, argumentando que es necesario para defender los principios de la democracia.

¿Qué aspectos han sido eliminados de los principios de IA de Google?

Los principios actualizados omiten el compromiso de no utilizar la tecnología para fines perjudiciales, como el desarrollo de armas o la vigilancia, que eran fundamentales desde 2018.

¿Quiénes son los ejecutivos que comentaron sobre este cambio?

James Manyika, SVP de investigación, laboratorios, tecnología y sociedad, y Demis Hassabis, CEO y cofundador de Google DeepMind, fueron quienes discutieron este cambio en un blog.

¿Cuáles son las preocupaciones expresadas por expertos respecto a este cambio?

Expertos han señalado que los nuevos principios podrían llevar a un uso más nefasto de la IA, especialmente en un contexto donde otras grandes empresas tecnológicas están adoptando actitudes más rígidas.

¿Te ha parecido interesante esta noticia?    Si (1)    No(0)

+
0 comentarios