13:00 hrs. 22 de Junio de 2007

  

Boletín UNAM-DGCS-382

Ciudad Universitaria

 

 

Luis Alberto Pineda

Pie de fotos al final del boletín

 

 

PRESENTA LA UNAM EL ROBOT GOLEM, PROGRAMADO PARA EXPLICAR Y CONVERSAR

 

·        El sistema lingüístico fue desarrollado por investigadores universitarios del IIMAS

·        Tiene potenciales aplicaciones para dar visitas guiadas en museos y otros recintos, como módulos de información turística y como tutor multimodal

·        Forma parte del proyecto Diálogos Inteligentes Multimodales en Español, que encabeza Luis Alberto Pineda

 

Integrantes del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM presentaron en el Museo de las Ciencias Universum el robot GOLEM, al cual se le aplicó un modelo de manejo de esquemas lingüísticos para seguir una conversación.

 

En el proyecto hay dos partes de tecnología, la primera para que sustente un discurso, un diálogo, que lo siga de manera coherente, en el que se coordine la información hablada con lo que el sistema dice, y la segunda tiene que ver con el reconocimiento de voz en español.

 

Además, este instrumento –cuyo nombre remite al ser animado del folclore medieval y la tradición cabalística, fabricado a partir de barro– tiene potenciales aplicaciones para dar visitas guiadas en museos y otros recintos.

 

También podría ser utilizado para habilitar módulos de información turística en espacios públicos, en dominios específicos y como tutor multimodal para ciertos temas didácticos, en donde el alumno interactúe con la máquina, entre otras tareas.

 

El robot forma parte del proyecto Diálogos Inteligentes Multimodales en Español (DIME), que desde hace varios años llevan a cabo investigadores encabezados por Luis Alberto Pineda Cortés,  jefe del Departamento de Ciencias de la Computación del IIMAS, cuyo objetivo es la construcción de sistemas conversacionales para el castellano hablado en contextos lingüísticos especializados.

 

Señaló que la peculiaridad central del proyecto es el lenguaje y su interpretación. Como resultado de descifrar las intenciones, hay acciones que se expresan a través del lenguaje, pero también de otras modalidades, como presentación de imágenes, videos, animaciones, menús y el movimiento del robot se conceptualiza como otra de ellas.

 

GOLEM está conformado por una computadora personal con ruedas y sensores. Posee un procesador Pentium III, plataforma y sensores de contacto; así como sonares, cámara de video, micrófono y otros aditamentos.

 

Al presentarse en Universum, en ceremonia presidida por Fabián García Nocetti, director del Instituto, y Julia Tagüeña, directora general de Divulgación de la Ciencia de la UNAM, GOLEM hizo una descripción del Departamento de Ciencias de la Computación del IIMAS, que incluyó una conversación en español, en la cual el robot se movió en medio de una serie de carteles de los diferentes proyectos de esa área.

 

El público decidió qué quería ver y GOLEM se desplazaba físicamente al momento que explicaba y sostenía un diálogo para ampliar la información. Además, había una pantalla de video donde los datos hablados se complementaban con textos, imágenes, videos y animaciones desplegadas.

 

Luis Pineda explicó que “se trata de un sistema que entrega las lecturas de diferentes sensores, las cuales se interpretan en el contexto de un diálogo multimodal. Lo que se hace es disponer cómo usar la información de entrada y cómo actuar en la mente del robot”.

 

Agregó que en este proyecto se pretende guiar la conversación mediante modelos de diálogo multimodales, y se estudia la utilización de la información visual para que el robot se autolocalice en su espacio a lo largo del proceso de navegación.

 

Detalló que la aportación que han realizado es el sistema de manejo de esquemas lingüísticos para seguir una charla. “Hemos desarrollado esta tecnología original y robusta”.

 

Refirió que lo más importante es la innovación para entablar una conversación en español, con temas multimodales. Mucho del esfuerzo tiene que ver con la creación de prototipos de reconocimiento de voz en español en México, donde la UNAM mantiene el liderazgo.

 

La interacción multimodal es un proceso en el que diversos dispositivos y personas pueden llevar a cabo una relación (auditiva, visual, táctil y gestual) conjunta desde cualquier sitio y en cualquier momento, mediante un mecanismo y de forma accesible, expuso.

 

Es decir, es complicado explicar a la gente que lo importante no es el robot, porque éste puede ser una computadora fija, una pantalla u otro medio, sino que hable, toda su conducta lingüística y el contenido, subrayó.

 

Luis Pineda comentó que, por un lado, el lenguaje es algo complejo y modelarlo es delicado. Las conversaciones que se establecen con la tecnología actual son sencillas. Sin embargo, la dificultad del idioma es sumamente variable, dependiendo de los interlocutores, el contexto, el tema, entre otros.

 

El proyecto nació del interés en modular el lenguaje de manera computacional, tanto por conocer la naturaleza del habla misma, como la tecnología que se requiere para hacer aplicaciones prácticas, concluyó.

–o0o–

FOTO 1

Julia Tagüeña, Fabián García Nocetti y Luis Alberto Pineda, durante la presentación del robot GOLEM, que incorpora sistemas lingüísticos en español, en el Museo Universum de la UNAM.

 

FOTO 2

En el Museo de las Ciencias Universum, investigadores de la UNAM mostraron a los visitantes las características del robot GOLEM, programado para seguir una conversación.

 

FOTO 3

Luis Alberto Cortés, del IIMAS de la UNAM, presentó un robot con potenciales aplicaciones para dar visitas guiadas en museos y otros recintos, pues incorpora una programación lingüística en español.

 

FOTO 4.

Visitantes del Museo Universum de la UNAM interactuaron con el robot GOLEM, que puede ser utilizado para habilitar módulos de información turística y como tutor multimodal, que despliega su contenido.