Cambio en la política de ética de IA de Google
Ejecutivos de alto nivel de Google han defendido un cambio significativo en su política de ética en inteligencia artificial (IA), que abre la posibilidad de que su tecnología sea utilizada en aplicaciones militares. Este movimiento ha sido justificado como una medida necesaria para salvaguardar los principios democráticos.
Medios de comunicación han destacado que las actualizaciones recientes a los Principios de IA de Google han eliminado el lenguaje que prohibía el uso de esta tecnología para fines perjudiciales, incluyendo el desarrollo de armas y la vigilancia, aspectos que habían sido fundamentales desde 2018.
Eliminación del compromiso ético
Publicaciones como Bloomberg y BBC News han señalado que los nuevos principios de Google ya no incluyen un compromiso explícito para garantizar que la IA no se utilice de maneras "probablemente dañinas", citando el desarrollo de armamento como un ejemplo clave.
En un blog, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto con Demis Hassabis, CEO y cofundador de Google DeepMind, abordaron la credibilidad y transparencia en torno a la IA desarrollada por la compañía. Sin embargo, enfatizaron que el avance continuo de esta tecnología exige una adaptación constante.
Los ejecutivos advirtieron que las nuevas capacidades emergentes en IA "pueden presentar riesgos", dado que esta ha evolucionado desde ser un "tema de investigación especializado" hasta convertirse en una herramienta tan omnipresente como los teléfonos móviles e Internet, utilizada por "miles de millones de personas".
Colaboración para la seguridad nacional
Manyika y Hassabis argumentaron que gobiernos, empresas y otras organizaciones deben colaborar para desarrollar principios que promuevan la seguridad nacional, entre otros objetivos.
No obstante, expertos consultados por Bloomberg advierten que estos nuevos principios podrían facilitar un uso más oscuro de la IA. Esta decisión se produce en un contexto más amplio donde grandes empresas tecnológicas están endureciendo sus posturas, incluyendo cambios en políticas sobre verificación de hechos y programas de diversidad.
Preguntas sobre la noticia
¿Qué cambio ha realizado Google en su política de ética de IA?
Google ha defendido un cambio en su política de ética de IA que permite el uso de su tecnología en aplicaciones militares, argumentando que es necesario para defender los principios de la democracia.
¿Qué aspectos han sido eliminados de los principios de IA de Google?
Los principios actualizados omiten el compromiso de no utilizar la tecnología para fines perjudiciales, como el desarrollo de armas o la vigilancia, que eran fundamentales desde 2018.
¿Quiénes son los ejecutivos que comentaron sobre este cambio?
James Manyika, SVP de investigación, laboratorios, tecnología y sociedad, y Demis Hassabis, CEO y cofundador de Google DeepMind, fueron quienes discutieron este cambio en un blog.
¿Cuáles son las preocupaciones expresadas por expertos respecto a este cambio?
Expertos han señalado que los nuevos principios podrían llevar a un uso más nefasto de la IA, especialmente en un contexto donde otras grandes empresas tecnológicas están adoptando actitudes más rígidas.