El Alto Comisionado de la ONU para los Derechos Humanos, Volker Türk, ha lanzado una contundente advertencia sobre el potencial riesgo de que la inteligencia artificial (IA) se convierta en un «monstruo de Frankenstein» si sus creadores no comprenden a fondo los principios éticos y sociales que deben guiar su desarrollo. Durante su intervención en la Cumbre sobre el Impacto de la IA celebrada en Nueva Delhi, Türk enfatizó que un conocimiento superficial puede llevar a resultados desastrosos.
«Cuando los desarrolladores carecen de una comprensión profunda, es como crear algo que ya no puedes controlar», afirmó Türk. Además, subrayó que la falta de conciencia sobre los peligros asociados con la IA puede resultar en consecuencias devastadoras.
El Alto Comisionado instó a gobiernos y empresas a implementar salvaguardas necesarias para evitar que esta tecnología profundice las desigualdades existentes, amplifique los prejuicios y cause daños en el mundo real.
Los riesgos: desigualdad, prejuicios y discriminación
Türk identificó la inequidad como uno de los problemas más urgentes relacionados con la IA. Celebró el hecho de que la cumbre se haya llevado a cabo en India, un país que representa una oportunidad para asegurar que estas herramientas sean accesibles y desarrolladas globalmente.
«Si los datos se recogen únicamente desde una parte del mundo o si solo hombres participan en el desarrollo de la IA, inevitablemente se incorporarán sesgos inconscientes», advirtió. Destacó la importancia de prestar atención a las comunidades vulnerables y minoritarias, quienes a menudo son excluidas del proceso de desarrollo tecnológico.
La metáfora del genio liberado
Türk comparó el avance desenfrenado de la IA con «dejar salir al genio de la botella». Un ejemplo alarmante es el caso de Myanmar, donde las redes sociales han exacerbado el discurso de odio contra los rohinyás.
Asimismo, hizo hincapié en cómo la desinformación afecta al tejido social: «Genera sociedades divididas y polarizadas donde cada individuo vive en su propia burbuja». También mencionó un preocupante aumento en la misoginia: «Muchas mujeres me han expresado su deseo de abandonar la política debido a lo que enfrentan en las plataformas digitales».
Lo que hay que exigir
En cuanto a las regulaciones necesarias, Türk comparó este requerimiento con las normativas existentes en la industria farmacéutica. «Es fundamental exigir a las empresas que realicen una evaluación del impacto sobre derechos humanos durante el diseño, lanzamiento y comercialización de sus herramientas basadas en IA», sostuvo.
Añadió que algunas compañías tecnológicas cuentan con presupuestos mayores que muchos países pequeños, lo cual les otorga un poder global significativo. Este poder puede ser utilizado tanto para fines positivos —como mejorar salud, educación y desarrollo sostenible— como para propósitos negativos, incluyendo armas autónomas letales y difusión de desinformación.
La visión de futuro
Al ser cuestionado sobre cómo sería una IA responsable dentro de cinco años, Türk visualizó un futuro donde exista un «desarrollo inclusivo», evitando así que el poder permanezca concentrado en unas pocas empresas norteamericanas. En su visión, la IA debería construirse sobre la riqueza y diversidad cultural de todas las sociedades.
«Si no ofrecemos una perspectiva hacia un mundo mejor», concluyó Türk, podríamos acabar aún más polarizados y enfrentando guerras fuera del control humano, lo cual representa un peligro considerable.
Preguntas sobre la noticia
¿Cuál es el principal riesgo de la inteligencia artificial según Volker Türk?
Volker Türk, Alto Comisionado de la ONU para los Derechos Humanos, advierte que la falta de comprensión profunda de los principios éticos y sociales en el desarrollo de la inteligencia artificial puede convertirla en un "monstruo de Frankenstein", causando estragos si no se tienen en cuenta los peligros y riesgos asociados.
¿Qué salvaguardas propone Türk para el uso de la IA?
Türk insta a gobiernos y empresas a establecer salvaguardas urgentes para evitar que la tecnología profundice la desigualdad, amplifique sesgos y genere daños en el mundo real.
¿Cuáles son algunos de los problemas específicos que puede causar una IA mal regulada?
La falta de regulación puede llevar a la inequidad, prejuicios y discriminación, especialmente si los datos son recolectados solo de ciertas partes del mundo o por un grupo homogéneo de desarrolladores.
¿Qué comparación hace Türk sobre la necesidad de regulación en IA?
Türk compara la necesidad de regulación en IA con la industria farmacéutica, sugiriendo que las empresas deben realizar evaluaciones de impacto sobre derechos humanos al diseñar, lanzar y comercializar herramientas de IA.
¿Cómo imagina Türk una IA responsable en el futuro?
Türk visualiza un futuro donde el desarrollo de la IA sea inclusivo, con poder distribuido equitativamente entre diversas sociedades y no concentrado en unas pocas empresas de América del Norte.
¿Qué consecuencias podría tener una falta de visión hacia un mundo mejor con respecto a la IA?
Sin una visión hacia un mundo mejor, podríamos enfrentar una mayor polarización social y conflictos que ya no estarían controlados por humanos, lo cual sería muy peligroso.