¿En qué consiste esta nueva técnica llamada Concept Whitening (CW)?
Este artículo sirve como introducción a un mecanismo llamado Concept Whitening, que se utiliza para alterar una capa determinada de la red para permitirnos comprender mejor sus cálculos. El Concept Whitening, que en español vendría a significar Blanqueamiento Conceptual, puede proporcionarnos una comprensión mucho más clara de cómo la red aprende gradualmente los conceptos sobre las capas, y puede utilizarse en cualquier capa de una red sin perjudicar el rendimiento predictivo.
¿Puede el Concept Whitening proporcionar una interpretación de una red neuronal?
La revista Nature publicó un artículo en el que proponía que el blanqueamiento de conceptos puede ayudar a dirigir las redes neuronales hacia el aprendizaje de conceptos específicos sin sacrificar el rendimiento. En lugar de buscar respuestas en parámetros entrenados, el blanqueamiento conceptual trata sobre la interpretabilidad en modelos de aprendizaje profundo. Esta técnica está mostrando resultados prometedores y puede aplicarse a las redes neuronales convolucionales, con grandes implicaciones para la forma en que percibimos la futura investigación en inteligencia artificial.
Características y espacio latente en los modelos de deep learning
Entendamos primeros el concepto principal de esta técnica, que está relacionado con las capas inferiores de una red neuronal convolucional. Estas tienen varias capas que aprenderán características básicas como las esquinas y los bordes. La idea es que el espacio latente de una red neuronal representaría conceptos relevantes. Estos conceptos se aplican a las clases de imágenes que se pretende detectar.
Por ejemplo, si estamos entrenando nuestro modelo con imágenes de ovejas, y el conjunto contiene grandes franjas de pastos verdes, nuestra red neuronal podría aprender a detectar estos pastos en lugar de las ovejas.
Explicaciones post hoc de las redes neuronales
Se dice que muchas técnicas explicativas de deep learning son post hoc, pero ¿qué significa esto? Significa que intentamos dar sentido a una red neuronal entrenada examinando los resultados y valores de sus parámetros. Veamos por ejemplo una técnica popular. Es una técnica para determinar lo que una red neuronal ve en una imagen. Para ello enmascara diferentes partes de una imagen de entrada. Tras eso, observa cómo estos cambios afectan a las conclusiones del modelo de aprendizaje profundo. El objetivo de esta técnica es crear mapas térmicos. Estos mapas resaltan las características de la imagen que son más relevantes para la red neuronal. Estos métodos son útiles, pero siguen tratando los modelos de aprendizaje profundo como cajas negras. No retratan de verdad el funcionamiento de las redes neuronales.
Los métodos de explicación no siempre explican los cálculos del modelo, sino que suelen ser estadísticas resumidas de rendimiento. Por ejemplo, el problema de los mapas de saliencia es que a menudo no muestran las cosas erróneas. Son cosas que la red neuronal podría haber aprendido. La interpretación del papel de las neuronas individuales se hace muy difícil. Esto se debe a que las características de una red neuronal están dispersas en el espacio latente. Las redes neuronales profundas son muy poderosas en el reconocimiento de imágenes. Aun así, lo que se aprende en sus capas ocultas es desconocido debido a su complejidad.
El objetivo principal del Concept Whitening es desarrollar redes neuronales cuyo espacio latente esté alineado con los conceptos que son relevantes para la tarea para la que ha sido entrenado. Este enfoque hace que el modelo de aprendizaje profundo sea interpretable, de modo que es más fácil averiguar las relaciones entre las características de una imagen de entrada y lo que ofrece la red neuronal.
Implicaciones para la investigación de deep learning
Los modelos de aprendizaje profundo son cada vez más complicados y con mayor alcance. Esto plantea el problema de la transparencia de los datos de estas redes neuronales. Algunas personas dicen que cualquier intento de imponer restricciones de diseño de interpretación en las redes neuronales es contraproducente. Argumentan que esto resultará en modelos inferiores. El cerebro evolucionó a través de miles de millones de iteraciones sin un diseño inteligente detrás. Por ello, se espera que las redes neuronales alcancen su máximo rendimiento a través de un camino evolutivo más “natural”.
Sin embargo, el Concept Whitening refuta estas teorías y demuestra que podemos imponer restricciones de diseño a las redes neuronales sin causar ninguna penalización de rendimiento.