singular

Evaluar la forma más eficiente de crear una red neuronal para procesar un set de datos concreto sigue siendo un trabajo my difícil, pero los investigadores del MIT han desarrollado un algoritmo que puede acelerar el proceso 200 veces.

El algoritmo de búsqueda de arquitectura neuronal (NAS) desarrollado puede entrenar una red neuronal con solo 200 horas de GPU, cuando el algoritmo NAS de Google para clasificación de imágenes necesitó 48.000 horas para el mismo trabajo.

El objetivo de este desarrollo es democratizar la inteligencia artificial, permitiendo que otros desarrolladores puedan experimentar sin necesitar enormes cantidades de horas de GPU que solo estarían al alcance de grandes compañías.

Fuente: digitalrubik.com, leer artículo original

Deja un comentario