Tareas tan sencillas para el ojo humano como reconocer
un número invertido, diferenciar un perro de un gato o identificar entre
miles de imágenes sólo las de niños de carne y hueso son desafíos
complejos para las máquinas pero se está avanzando mucho
tecnológicamente para superarlos.
A un ordenador hay
que explicarle todos los datos del problema de reconocimiento de
imágenes en un idioma de "bits" y algoritmos para que los comprenda y de
forma algo torpe, explicó a Efe Enrique Solano, director del grupo de
Tecnologías Cuánticas para las Ciencias de la Información de la
Universidad del País Vasco en Bilbao (norte de España).
Esa particularidad complica mucho a las máquinas el procedimiento de
identificación de contenidos, que se han disparado en el mundo digital,
añadió este experto, cuyo equipo ha participado en un experimento
pionero para digitalizar de forma universal la computación cuántica
analógica en un "chip" superconductor.
Un reto
logrado en colaboración con los laboratorios de Google de computación
cuántica, y que se ha publicado recientemente en la revista Nature.
Hasta el momento, explica este doctor en física, los sistemas de
inteligencia "artificial" para reconocimiento de imágenes no ofrecen
resultados absolutamente fiables aunque las tecnologías son cada vez más
sofisticadas.
En los últimos cinco años, con el
desarrollo del llamado "deep learning" que permite a las máquinas
aprender por sí mismas de sus propios errores, se ha avanzado mucho en
reconocimiento de datos incluso de los no estructurados y especialmente
en las áreas de imágenes, voz y vídeo, precisó por su parte la experta
Nuria Oliver, directora científica de Telefónica I+D.
Aunque ya existen máquinas que procesan millones de datos en segundos
con resultados incluso más exactos que los de los humanos, ordenadores
que compiten y vencen en juegos contra las personas y sistemas
informáticos que componen música o analizan imágenes para determinar
diagnósticos médicos complicados, todavía les resulta muy complejo
interpretar el contenido de imágenes y vídeos, insisten los expertos.
Según Solano, hasta el momento, ninguna máquina puede distinguir
imágenes con un margen de error cero de un gato o de un perro a partir
del análisis de sus características morfológicas traducidas a números.
No hay comentarios:
Publicar un comentario