mié. Abr 24th, 2024



Se necesita una acción urgente, ya que puede llevar tiempo evaluar y abordar los graves riesgos que esta tecnología representa para los derechos humanos, advirtió el Alto Comisionado: “Cuanto mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de inteligencia artificial. ”.

La Sra. Bachelet también pidió que se prohíban las aplicaciones de inteligencia artificial que no se pueden utilizar de conformidad con el derecho internacional de los derechos humanos. “La inteligencia artificial puede ser una fuerza para el bien, ayudando a las sociedades a superar algunos de los grandes desafíos de nuestro tiempo. Pero las tecnologías de IA pueden tener efectos negativos, incluso catastróficos, si se utilizan sin tener en cuenta cómo afectan los derechos humanos de las personas ”.

Revelaciones del software espía Pegasus

El martes, la jefa de derechos de la ONU expresó su preocupación por el “nivel sin precedentes de vigilancia en todo el mundo por parte de actores estatales y privados”, que insistió en que era “incompatible” con los derechos humanos.

Ella habló en una audiencia del Consejo de Europa sobre las implicaciones derivadas de la controversia de julio sobre el software espía Pegasus.

Las revelaciones de Pegasus no fueron una sorpresa para muchas personas, dijo Bachelet al Comité de Asuntos Legales y Derechos Humanos del Consejo de Europa, en referencia al uso generalizado de software espía comercializado por el grupo NSO, que afectó a miles de personas en 45 países en cuatro continentes.

‘Precio alto’, sin acción

El llamado de la Alta Comisionada se produjo cuando su oficina, el ACNUDH, publicó un informe que analiza cómo AI afecta el derecho de las personas a la privacidad y otros derechos, incluidos los derechos a la salud, la educación, la libertad de movimiento, la libertad de reunión y asociación pacífica y la libertad de expresión. .

El documento incluye una evaluación de la elaboración de perfiles, la toma de decisiones automatizada y otras tecnologías de aprendizaje automático.

La situación es “espantosa”, dijo Tim Engelhardt, Oficial de Derechos Humanos, Sección de Estado de Derecho y Democracia, quien habló en la presentación del informe en Ginebra el miércoles.

La situación “no ha mejorado con los años, pero ha empeorado”, dijo.

Si bien acogió con satisfacción “el acuerdo de la Unión Europea para fortalecer las reglas de control” y “el crecimiento de los compromisos voluntarios internacionales y los mecanismos de rendición de cuentas”, advirtió que “no creemos que tengamos una solución en el próximo año, pero los primeros pasos deben tomarse ahora o mucha gente en el mundo pagará un alto precio ”.

La Directora de Compromiso Temático del ACNUDH, Peggy Hicks, agregó a la advertencia del Sr. Engelhardt, afirmando que “no se trata de los riesgos en el futuro, sino de la realidad de hoy. Sin cambios de gran alcance, los daños se multiplicarán con la escala y la velocidad y no sabremos el alcance del problema “.

Incumplimiento de la debida diligencia

Según el informe, los estados y las empresas a menudo se apresuraron a incorporar aplicaciones de inteligencia artificial, sin llevar a cabo la debida diligencia. Afirma que ha habido numerosos casos de personas que han sido tratadas injustamente debido al uso indebido de la inteligencia artificial, como que se les nieguen los beneficios de la seguridad social debido a herramientas de inteligencia artificial defectuosas o sean arrestadas debido a un software de reconocimiento facial defectuoso.

Datos discriminatorios

El documento detalla cómo los sistemas de inteligencia artificial se basan en grandes conjuntos de datos, con información sobre individuos recopilada, compartida, fusionada y analizada de múltiples formas, a menudo opacas.

Los datos utilizados para informar y guiar los sistemas de inteligencia artificial pueden ser defectuosos, discriminatorios, desactualizados o irrelevantes, argumenta, y agrega que el almacenamiento a largo plazo de datos también presenta riesgos particulares, ya que los datos podrían explotarse en el futuro de maneras aún desconocidas. .

“Dado el crecimiento rápido y continuo de la IA, llenar la inmensa brecha de responsabilidad en la forma en que se recopilan, almacenan, comparten y utilizan los datos es una de las cuestiones de derechos humanos más urgentes que enfrentamos”, dijo la Sra. Bachelet.

El informe también declaró que se deben plantear serias preguntas sobre las inferencias, predicciones y monitoreo de las herramientas de inteligencia artificial, incluida la búsqueda de información sobre los patrones de comportamiento humano.

Encontró que los conjuntos de datos sesgados en los que se basan los sistemas de inteligencia artificial pueden llevar a decisiones discriminatorias, que son riesgos graves para los grupos ya marginados. “Es por eso que debe haber una evaluación y monitoreo sistemáticos de los efectos de los sistemas de IA para identificar y mitigar los riesgos de derechos humanos”, agregó.

Tecnologías biométricas

Una solución cada vez más útil para los Estados, las organizaciones internacionales y las empresas de tecnología son las tecnologías biométricas, que según el informe son un área “donde se necesita con urgencia más orientación en materia de derechos humanos”.

Estas tecnologías, que incluyen el reconocimiento facial, se utilizan cada vez más para identificar a las personas en tiempo real y a distancia, lo que potencialmente permite un seguimiento ilimitado de las personas.

El informe reitera los pedidos de una moratoria sobre su uso en espacios públicos, al menos hasta que las autoridades puedan demostrar que no hay problemas significativos con la precisión o impactos discriminatorios y que estos sistemas de inteligencia artificial cumplen con estándares sólidos de privacidad y protección de datos.

Se necesita mayor transparencia

El documento también destaca la necesidad de una transparencia mucho mayor por parte de las empresas y los Estados sobre cómo están desarrollando y utilizando la IA.

“La complejidad del entorno de datos, los algoritmos y los modelos que subyacen al desarrollo y funcionamiento de los sistemas de IA, así como el secreto intencional de los actores gubernamentales y privados son factores que socavan las formas significativas para que el público comprenda los efectos de los sistemas de IA en los derechos humanos y la sociedad ”, Dice el informe.

Barandillas esenciales

“No podemos darnos el lujo de seguir poniéndonos al día con respecto a la IA, permitiendo su uso con límites o supervisión limitados o nulos y lidiando con las consecuencias casi inevitables para los derechos humanos después del hecho.

“El poder de la IA para servir a las personas es innegable, pero también lo es la capacidad de la IA para alimentar violaciones de derechos humanos a una escala enorme y prácticamente sin visibilidad. Es necesario actuar ahora para poner barreras de protección de los derechos humanos en el uso de la IA, por el bien de todos nosotros ”, enfatizó la Sra. Bachelet.



Fuente de la Noticia