Llevamos años usando mal las redes neuronales: ahora sabemos cómo hacerlas hasta 10 veces más pequeñas sin perder rendimiento
Esta semana se ha celebrado en Nueva Orleans la séptima edición del ICLR (International Conference on Learning Representations), uno de los grandes eventos científicos mundiales en torno a la inteligencia artificial. Un aspecto destacable de esta edición ha sido uno de los trabajos académicos premiados en el mismo. Escrito por Michael Carbin y Jonathan Frankle, ambos investigadores del MIT, establece un punto de partida radical: todo este tiempo hemos estado utilizando redes neuronales mucho más grandes de lo necesario , en algunos casos entre 10 y 100 veces mayores. Y eso nos ha llevado a que su entrenamiento haya resultado mucho más costoso de lo necesario, en términos tanto de tiempo como de potencia de cálculo. Lo que Carbin y Frankle defienden es que, dentro de cada red neuronal existe un subconjunto mucho más pequeño que puede ser entrenado para lograr el mismo rendimiento que el que obtenemos por la totalidad de la misma . En Xataka Las redes neuronales: qué son y por