La IA ya es capaz de imitar nuestra visión periférica: ve pequeños fragmentos de su entorno y rellena los espacios en blanco
Gran parte de la información visual con la que creemos contar gracias a nuestra visión periférica no es tal: es sólo nuestro cerebro usando fragmentos de información y deduciendo el mejor modo rellenar los 'huecos en blanco'.
Ése y no otro es el origen de muchas de las ilusiones ópticas que experimentamos, pero lo cierto es que la mayor parte del tiempo este método funciona razonablemente bien, y nos proporciona una mayor rapidez de reflejos que la que dispondríamos en el caso de necesitar 'escanear' nuestro campo visual al completo.
Ahora, un equipo de científicos de la Universidad de Texas han decidido basarse en este mecanismo netamente humano para dotar a la inteligencia artificial de la capacidad de echar rápidos vistazos a su entorno e inferir el aspecto del entorno circundante.
Imágenes 'mentales' de 360º con sólo un 20% de la información
Su efectividad deriva del hecho de que toma fotografías aleatorias (vistazos) de su entorno, y no sólo predice la información circundante sino que usa dicha predicción para decidir donde echar el siguiente 'vistazo' hasta hacerse una imagen de 360º de lo que le rodea a partir de fotografías que cubrirían tan sólo un 20% de dicha área.
Lo explica Kristen Grauman, directora del equipo de investigación:
"Este agente aprende a realizar búsquedas de manera no exhaustiva, haciendo suposiciones inteligentes sobre dónde recopilar información visual útil para sus tareas de percepción".
Para lograrlo, los científicos recurrieron a técnicas de aprendizaje por refuerzo, entrenando con miles de imágenes de 360º de diferentes entornos una red neuronal; todo ello gracias a la capacidad computacional de los superordenadores del Texas Advanced Computing Center.
Diseñando los 'ojos' de un robot de búsqueda y rescate
¿Su objetivo? Diseñar robots de búsqueda y rescate que puedan resultar útiles en misiones peligrosas.
"Queríamos un agente con capacidad para ingresar en un entorno y estar preparado para llevar a cabo nuevas tareas de percepción a medida que vayan surgiendo".
La mayoría de las máquinas con IA están capacitados para realizar tareas muy específicas en entornos ya conocidos, pero los investigadores necesitan que su futuro robot de rescate tenga un comportamiento más versátil.
Además, un robot de este tipo tampoco puede esperar a escanear por completo la imagen de su entorno porque está destinado a trabajar con restricciones de tiempo (por ejemplo, en edificios en llamas que pueden venirse abajo en cualquier momento).
Vía | Univ. de Texas
También te recomendamos
-
La noticia La IA ya es capaz de imitar nuestra visión periférica: ve pequeños fragmentos de su entorno y rellena los espacios en blanco fue publicada originalmente en Xataka por Marcos Merino .
Fuente: Xataka
Enlace: La IA ya es capaz de imitar nuestra visión periférica: ve pequeños fragmentos de su entorno y rellena los espacios en blanco
Comentarios
Publicar un comentario