singular

Muchas veces hemos oído que determinado proceso de machine learning es sexista o racista pero, en realidad todo depende de la forma en que se entrena a estos procesos.

Cuando la IA se utiliza en diagnósticos médicos, selección de personal o cualquier otro proceso delicado, la opinión pública necesita tener la garantía de que los algoritmos no adquieran sesgos discriminatorios.

En este sentido, un equipo de investigadores, ha desarrollado una técnica que, según afirman, permitirá proporcionar estas garantías. 

El estudio se basa en la idea de que si los resultados inseguros pueden ser definidos matemáticamente, también debería ser posible crear algoritmos que puedan aprender de los datos y evitar resultados no deseados.

Los algoritmos se han probado con éxito en la mejora de las predicciones de notas de los universitarios para eliminar los sesgos de género.

Fuente: agenciasinc.es, leer artículo original

Deja un comentario