Tal y como contaba nuestra compañera María Jesús García Durán en su último artículo «Cómo mejorar la interpretabilidad de los modelos de caja negra (machine learning)«, muchas técnicas basadas en inteligencia artificial como el Machine Learning se consideran de caja negra ya que conocemos los datos de entrada y la decisión de salida, pero no nos permite contar con una trazabilidad de la decisión tomada.
Por ejemplo las técnicas predictivas como el machine learning son extremadamente útiles para crear probabilidades futuras en base a datos pasados, pudiendo aportar muchísimo valor de negocio en ciertas áreas y sectores empresariales. Pero tal y como cuestionaba María Jesús, ¿qué pasa cuando nos encontramos en sectores fuertemente regulados, como los de la banca o los seguros? ¿O cuando una decisión puede afectar de manera directa a la vida de las personas? En este tipo de casos se debería conocer el motivo por el cual se ha optado por una u otra decisión.
Como podemos ver en el siguiente gráfico, las opciones con una mayor capacidad predictiva en general tienen una interpretabilidad menor que otro tipo de alternativas, como puedan ser los árboles de decisión o los motores de inferencia, normalmente utilizados por BRMS para la toma de decisiones en base a reglas de negocio.
Lo bueno es que estas tecnologías se pueden combinar de manera que podemos obtener los beneficios que ambas ofrecen: la capacidad predictiva de los modelos de machine learning, y la visibilidad y transparencia de los sistemas de gestión de reglas de negocio (BRMS). De esta manera, las reglas de negocio pueden actuar como la entidad regulatoria de los modelos de machine learning.
María Jesús expuso un ejemplo en el que se entiende de manera muy clara el tema tratado:
<< Supongamos que se quiere crear un modelo de scoring de riesgo que evalúe la capacidad futura de pago de cada cliente que solicita un crédito y, en base a este scoring, concederlo o no. Una opción sería utilizar únicamente machine learning para crear ese scoring de riesgo y tomar la decisión en base a él. De esta manera, el propio modelo tomaría la decisión de aceptar o denegar el crédito.
Ahora imaginemos que uno de los clientes al que le hemos denegado el crédito quiere saber la razón por la cual no se le ha concedido, argumentando que tiene solvencia más que suficiente para pagarlo, o simplemente que quiere saber lo qué puede hacer para mejorar su scoring. Usando únicamente machine learning no sabremos el motivo por el cual el modelo ha denegado el crédito, sólo sabremos que su scoring es de una puntuación concreta de acuerdo con los datos que nos ha proporcionado. Se hace evidente que en este tipo de casuísticas es necesario contar con algún mecanismo que nos permita dar respuesta a estas preguntas.
Por el contrario, si en lugar de usar únicamente machine learning lo combinamos con un BRMS, podríamos usar machine learning para dar una scoring inicial de riesgo de cada cliente y utilizar esta información como un dato más a tener en cuenta en un servicio de decisión BRMS.
Es decir, si las reglas de un servicio de decisión BRMS supervisan el aprendizaje automático, podemos disponer en todo momento de la trazabilidad de las decisiones tomadas, además de garantizar el cumplimiento de las normativas vigentes y las directrices internas de las compañías o de las entidades internacionales. De esta manera, tendríamos a nuestra disposición el resultado del análisis predictivo (pudiendo mejorar nuestra toma de decisiones), pero no sería un algoritmo de caja negra el que determinaría si otorgar o no el crédito, sino que el modelo de toma de decisiones seguiría quedando bajo control humano. >>
Si quieres saber más sobre la combinación de técnicas y modelos basados en Inteligencia Artificial y sistemas expertos, contacta con nosotros. Si quieres conocer mejor decide4AI y mantenerte al tanto de futuros webinar o acciones, síguenos en las redes sociales (Linkedin, Twitter, Youtube).