Los riesgos éticos del manejo y gestión de datos
-
Transparencia de los sistemas
-
Expertos señalan que la inteligencia artificial que no comprendemos cómo funciona, o no logra explicarse, no es una IA ética.
Hay países que ya están introduciendo leyes en tomo al manejo ético de los datos y el uso de los sistemas de IA.
Uno de los sistemas que más se está usando a nivel mundial es el reconocimiento facial a través de imágenes, el que se emplea, por ejemplo, para dar acceso a un edificio. Y si bien esta tecnología puede cometer errores, un estudio demostró que se equivocaba más cuando se trataba de rostros de piel oscura, lo que encendió el debate sobre los sesgos raciales en los algoritmos de inteligencia artificial (IA).
Recientemente han surgido nuevas dimensiones en relación al uso de los datos, ya sea directamente o para entrenamiento de algoritmos de IA o machine learning. Estos sistemas se pueden usar -y se usan- para tomar decisiones en forma automatizada, y ellas pueden afectar directamente para bien o para mal a las personas.
"Un problema reside en la alta complejidad interna que puede llegar a tener un algoritmo de este tipo, debido a la interacción de varias funciones matemáticas sofisticadas. No es fácil interpretar el comportamiento del algoritmo ni entender ni explicar la respuesta o decisión que entrega", dice Leopoldo Bertossi, profesor de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo lbáñez.
"La IA que no comprendemos cómo funciona, o no logra explicarse, no es una IA ética", afirma Manuel O'Brien, gerente de Asuntos Corporativos de IBM.
"Un sistema de inteligencia artificial debe ser transparente, en particular en lo que respecta a las recomendaciones de su algoritmo. Cualquier sistema de IA en el mercado que esté realizando determinaciones o recomendaciones con implicaciones potencialmente significativas para las personas debería poder explicar y contextualizar cómo y por qué llegó a una conclusión particular".
Así es como ha surgido el área de explicabilidad en IA (explainable Al o XAI, en inglés). Es una nueva área de investigación en inteligencia artificial, y de las más activas y efervescentes. La idea es llegar a dotar a los algoritmos de IA de la capacidad de entregar explicaciones útiles y comprensibles a las personas que pueden ser afectadas por sus decisiones.
Los usuarios pueden preguntar, por ejemplo, "¿por qué se denegó mi préstamo?", y los organismos reguladores pueden plantearle al banco que le demuestre que el sistema no discriminó.
Por eso la explicabilidad de la IA es un punto clave. La explicabilidad se refiere a si un ser humano puede entender un sistema de IA, desde cómo se entrena hasta el proceso mediante el cual determina los resultados. Es importante destacar que una explicación no sirve para todos. Los diferentes interesados requieren explicaciones para distintos propósitos y objetivos, y las explicaciones deberán adaptarse a sus necesidades, dicen los expertos.
Cómo está Chile
Hay países que ya están introduciendo leyes en torno al manejo ético de los datos y el uso de los sistemas de IA. También hay organizaciones internacionales, como el World Economic Forum, que mantienen un persistente y amplio programa de concientización y apoyo en estas materias. También la comunidad europea ha tomado activamente el desafío.
En el caso de Chile, "creo que estamos más atrasados que otros países, como los europeos, el Reino Unido, Canadá o Nueva Zelanda, pero se está creando conciencia y ya hay algunas iniciativas relativamente incipientes, pero promisorias, por parte del Gobierno, organismos públicos y empresas privadas", dice Bertossi.
"Vemos con buenos ojos la discusión y pronta implementación de una ley de protección de datos personales que dará un escenario, a nuestro juicio, adecuado para proteger principios básicos de privacidad y seguridad", señala O'Brien.
Es que los sistemas de IA de hoy deben estar entrenados con datos imparciales, y "quién" hace estos sistemas es un componente clave para impulsar una IA justa. "La inteligencia artificial debe diseñarse para minimizar los sesgos y promover una representación inclusiva", finaliza el gerente de Asuntos Corporativos de IBM.
FUENTE: El Mercurio
Fecha: 27-01-2021