•  |
  •  |
  • Edición Impresa

 Tareas tan sencillas para el ojo humano, como reconocer un número invertido, diferenciar un perro de un gato o identificar entre miles de imágenes solo las de niños de carne y hueso, son desafíos complejos para las máquinas, pero se está avanzando mucho tecnológicamente para superarlos.

A un ordenador hay que explicarle todos los datos del problema de reconocimiento de imágenes en un idioma de “bits” y algoritmos para que los comprenda y de forma algo torpe, explicó a Efe Enrique Solano, director del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la Universidad del País Vasco en Bilbao (norte de España).

Esa particularidad complica mucho a las máquinas el procedimiento de identificación de contenidos, que se han disparado en el mundo digital, añadió este experto, cuyo equipo ha participado en un experimento pionero para digitalizar de forma universal la computación cuántica analógica en un “chip” superconductor.

Un reto logrado en colaboración con los laboratorios de Google de computación cuántica, y que se ha publicado recientemente en la revista Nature. Hasta el momento, explica este doctor en física, los sistemas de inteligencia “artificial” para reconocimiento de imágenes no ofrecen resultados absolutamente fiables, aunque las tecnologías son cada vez más sofisticadas.

En los últimos cinco años, con el desarrollo del llamado “deep learning”, que permite a las máquinas aprender por sí mismas de sus propios errores, se ha avanzado mucho en reconocimiento de datos, incluso de los no estructurados y especialmente en las áreas de imágenes, voz y vídeo, precisó por su parte la experta Nuria Oliver, directora científica de Telefónica I+D.

Últimos Comentarios
blog comments powered by Disqus