¿Es la XAI la solución a la «caja negra» del aprendizaje automático?
Lo cierto es que estamos en plena revolución airBnb ha revolucionado la forma en la que buscamos alojamiento en nuestras vacaciones, Uber ha transformado nuestra forma de movernos dentro de las ciudades, Amazon, la forma en la que compramos y netflix ha transformado la forma en la que vemos la televisión.
Pero… ¿Cómo lo hace Netflix para ofrecerte el contenido que buscas en el momento adecuado? La plataforma se basa en algoritmos de recomendación que se alimentan gracias a los datos que millones de usuarios generan.
Los algoritmos de inteligencia artificial, realmente se alimentan de metadatos. En el caso de netflix: el género, categoría de las series/películas, actores, equipo, fecha de estreno, etc. También de datos asociados al comportamiento que tienen los usuarios. Esto pueden ser cosas como el tiempo de reproducción o búsquedas que han hecho. También se tienen en cuenta factores como la valoración del contenido o el dispositivo que han usado. Incluso la hora a la que han visto ese contenido es importante para el algoritmo. Con toda esta información, son capaces de detectar patrones de visionado similares, mostrando determinado contenido a perfiles específicos de usuario.
El algoritmo de inteligencia artificial de netflix
Aunque nadie sabe al 100% cómo funciona el algoritmo de recomendación de netflix, en su página ofrecen una descripción bastante detallada del sistema que usan. No obstante, no dan cuál es su “fórmula secreta”.
Lo cierto es que los algoritmos de IA suelen ser como “cajas negras”. Sabemos poco-nada de su funcionamiento interno y esto hace que muchas veces no seamos capaces de explicar su funcionamiento. Y aunque “pueda dar igual” cómo estos algoritmos son capaces de ofrecernos contenido de valor. Otros algoritmos si influyen más directamente en nuestro día a día.
En OpenSistemas creemos firmemente que los algoritmos de IA aportan grandes beneficios tanto para las empresas como en el consumidor final, siempre y cuando comprendamos cómo se lleva a cabo el proceso de toma de decisiones.
Dificultades de los modelos tradicionales con el aprendizaje automático
Se puede decir que por norma general, los modelos de aprendizaje automático (es decir, los algoritmos de IA que aprenden con ejemplos), van a mejorar su rendimiento respecto a los modelos tradicionales. Son mucho más ágiles a la hora de detectar interacciones y patrones complejos no lineales.
Los algoritmos tradicionales van a depender de programadores humanos para analizar cómo interactúan las variables. A consecuencia de ello, tomarán las decisiones que ofrecen un resultado concreto.
Cuando se diseña un algoritmo que sigue un modelo tradicional cualquier persona puede incluir en el algoritmo sus propios sesgos.
En el caso de aplicar modelos de aprendizaje automático moderno, las predicciones y decisiones son más rápidas y necesitan una escasa intervención del ser humano. No obstante esto no significa que este tipo de modelo de aprendizaje esté exento de retos y es que puede darse el caso que el modelo se entrene con un conjunto de datos que no represente a la población para la que está diseñado.
Cuando se comprende un conjunto de datos y se analiza, podremos ver el comportamiento de diferentes tipologías de población, de esta manera se pueden detectar nichos y sesgos.
¿A qué sectores se puede aplicar la IA explicable (XAI)?
Uno de los sectores que sacan mayor rendimiento de la inteligencia artificial explicable es el sector financiero. Imaginemos el proceso de concesión de un préstamo. El algoritmo se va a encargar de analizar la capacidad de devolución que va a tener el solicitante. Gracias al algoritmo, esto se hará de una manera totalmente imparcial y transparente.
Por eso mismo, es fundamental contar con una empresa que sepa hacer un tratamiento adecuado de los sesgos. En caso contrario, estaríamos generando un algoritmo que mostrase resultados no deseados en función a diferentes parámetros de discriminación.
¿Qué es la IA explicable y para qué se usa en el sector bancario?
Que una Inteligencia Artificial sea explicable significa que comprende cómo y por qué el algoritmo toma decisiones y/o realiza predicciones. Además también tiene la capacidad de justificar los resultados que produce siendo globales o locales.
Las explicaciones globales se encargarán de describir el comportamiento del algoritmo en general. En el caso de los créditos bancarios serviría para mostrar un índice alto en casos de personas que vayan a tener dificultades para asumir esa nueva deuda.
En cambio, las explicaciones locales van a describir el comportamiento del algoritmo en casos concretos.
Con la inteligencia artificial explicable tenemos que ser capaces de explicar qué decisiones toman los algoritmos sabiendo además que se toman de forma imparcial.
Modelos predictivos contrafactuales para XAI
Cuando se aplican modelos predictivos contrafactuales, podremos explicar en el sector bancario por qué el modelo rechaza la solicitud de préstamo de un cliente. Te explicamos de forma sencilla como funciona:
- Se crea un “gemelo” con el perfil del cliente incluyendo: edad, los patrones de transacción, etc. Para posteriormente hacer pequeñas variaciones de los valores que definen estas variables. Podemos hacer estimaciones que disminuyan la proporción de ingresos y gastos, por ejemplo.
- Luego sometemos a ese “gemelo” a estas variaciones de forma repetida hasta que el préstamo se aprueba basándose en una de esas alteraciones.
Los datos obtenidos durante este proceso nos van a permitir identificar las variables que justifican la decisión del modelo posteriormente la decisión será validada por una persona de la empresa.
Por otro lado, la creación de estos “gemelos” permite ofrecer consejos al usuario para mejorar su salud financiera haciendo que le sea más fácil obtener un préstamo en un futuro.
Servicios de asesoramiento bancario: ¿cómo ayuda una IA?
Como ya hemos visto, los algoritmos de IA llevan a cabo predicciones de ingresos y gastos de un cliente. También nos sugieren los productos que mejor se adaptan a su perfil y sus necesidades. Incluso pueden usarse para dar consejos para aumentar la solvencia financiera de un cliente.
Cuando hablamos de Netflix, en el caso de recomendarte una película mala, perderás dos horas de tu tiempo. No obstante, cuando hablamos de productos financieros, el riesgo es bastante mayor (no olvidemos que una hipoteca puede durar hasta 35 años).
¿La inteligencia artificial explicable (XAI) abre cajas negras?
Sin duda alguna, surgen innumerables aplicaciones al XAI:
- Mejorar el nivel de vida gracias a inversiones sostenibles.
- Oportunidades de planificación para instituciones financieras y ong.
- Entre muchas otras.
En definitiva, XAI no sólo es una herramienta útil para abrir la caja negra de un algoritmo de IA, sino que ofrece una oportunidad inigualable a la hora de aumentar transparencia e imparcialidad.