Aprendizaje profundo. ¿O no tan profundo?

 

Una de las principales limitaciones que presenta el aprendizaje profundo es que, a pesar de poder resolver una cantidad innumerable de problemas, no es capaz de interpretar las soluciones. No sabe explicar por qué el sistema proporciona un resultado y no otro. Simplemente da una solución, o una recomendación, sin saber justificar por qué. Esta limitación puede darse en nuestro día a día, como que Cortana nos recomiende un restaurante sin que lleguemos a saber en qué heurísticos se basó para hacer la recomendación, o puede tener implicaciones más serias, como recomendar un determinado medicamento sobre otro para el tratamiento de una enfermedad.

Por otra parte, para aplicaciones muy complejas como la conducción de coches autónomos o la detección de un cáncer, el aprendizaje profundo puede llegar a utilizar miles de nodos y muchas capas de neuronas artificiales, tantas que es imposible que un ser humano comprenda por completo el funcionamiento del sistema. Ni tan siquiera la persona que lo creó. Y es más, estos miles de nodos necesitan ser entrenados con millones de ejemplos. Como resultado, el aprendizaje profundo falla en situaciones en las que no disponemos de suficiente información. 

 


También es importante tener en cuenta la escasa o nula versatilidad de las redes neuronales. Volviendo al caso del coche autónomo, este “aprende” a conducir a partir de una serie de condiciones o parámetros que son suministrados por un humano (decimos que se trata de un aprendizaje dirigido o supervisado). Bien, el esquema de aprendizaje para que el sistema identifique una señal de STOP, por ejemplo, consiste en identificar el color de la señal, su forma y altura, el grosor y tipo de letra, etc. Pero, ¿qué pasa si parte de la señal está tapada por una rama? ¿Si un pájaro se posa sobre ella? ¿Si es de noche? ¿O si las autoridades de algún país, en un arranque de innovación, deciden cambiar la forma de la señal? En estos casos, todo el proceso de aprendizaje habría sido en vano: el sistema no puede adaptarse a situaciones para las que no haya sido entrenado. Lo que sucede en realidad es que el sistema no comprende realmente los conceptos, sino que solo ha “aprendido” a tomar decisiones en determinadas situaciones. Esto implica que cualquier pequeño cambio en las circunstancias puede “incapacitarlo”, impidiendo que proporcione una solución fiable. El aprendizaje profundo solo funciona bien en entornos predecibles, lo que se aleja mucho de nuestra realidad cambiante.

Otros casos para los que el aprendizaje profundo aún no está preparado son la abstracción y la inferencia. Por ejemplo, cuando leemos un libro o vemos una película, los seres humanos podemos intuir las intenciones, reacciones o emociones de los personajes sin necesidad de que estas estén de forma explícita en el argumento. Esto, al R2-D2 del año 2022 le resultaría imposible. Se podría decir que “no tiene corazón”. El aprendizaje profundo tampoco puede inferir relaciones de causalidad. Los sistemas pueden establecer correlaciones entre la información que reciben y los resultados que devuelven, pero no pueden inferir las causas de esa correlación.


Si quieres saber más…

Aprendizaje profundo o el problema de no saber cómo piensa una máquina. Guillermo Vega. El País. 17 de abril de 2017.

Las limitaciones del aprendizaje profundo. Pablo Rodríguez Canfrac. Telos. Fundación Telefónica. 14 de mayo de 2018

Comentarios

Lo más visto

¿Y eso de la cultura científica, qué es?

Sobre el criterio empirista de significado

El interno de Ciempozuelos que escapó para comprometerse con la Cibeles

Ellen Gleditsch: el nodo de la red de científicas pioneras en radiactividad