Boletín
UNAM-DGCS-382
Luis Alberto Pineda |
![]() |
![]() |
![]() |
![]() |
---|
PRESENTA
·
El sistema lingüístico fue desarrollado
por investigadores universitarios del IIMAS
·
Tiene potenciales aplicaciones para dar
visitas guiadas en museos y otros recintos, como módulos de información
turística y como tutor multimodal
·
Forma parte del proyecto Diálogos
Inteligentes Multimodales en Español, que encabeza Luis
Integrantes del Instituto de Investigaciones en Matemáticas Aplicadas y
en Sistemas (IIMAS) de
En el proyecto hay dos partes de tecnología, la primera para que
sustente un discurso, un diálogo, que lo siga de manera coherente, en el que se
coordine la información hablada con lo que el sistema dice, y la segunda tiene
que ver con el reconocimiento de voz en español.
Además, este instrumento –cuyo nombre remite al ser animado del
folclore medieval y la tradición cabalística, fabricado a partir de barro–
tiene potenciales aplicaciones para dar visitas guiadas en museos y otros
recintos.
También podría ser utilizado para habilitar módulos de información
turística en espacios públicos, en dominios específicos y como tutor multimodal
para ciertos temas didácticos, en donde el alumno interactúe con la máquina,
entre otras tareas.
El robot forma parte del proyecto Diálogos Inteligentes
Multimodales en Español (DIME), que desde hace varios años llevan a cabo
investigadores encabezados por Luis
Señaló que la peculiaridad central del proyecto es el lenguaje y su
interpretación. Como resultado de descifrar las intenciones, hay acciones que
se expresan a través del lenguaje, pero también de otras modalidades, como
presentación de imágenes, videos, animaciones, menús y el movimiento del robot
se conceptualiza como otra de ellas.
GOLEM está conformado por una computadora personal con ruedas y
sensores. Posee un procesador Pentium III, plataforma y sensores de contacto;
así como sonares, cámara de video, micrófono y otros aditamentos.
Al presentarse en Universum, en ceremonia presidida por Fabián García
Nocetti, director del Instituto, y Julia Tagüeña, directora general de
Divulgación de
El público decidió qué quería ver y GOLEM se desplazaba físicamente al
momento que explicaba y sostenía un diálogo para ampliar
Luis Pineda explicó que “se trata de un sistema que entrega las
lecturas de diferentes sensores, las cuales se interpretan en el contexto de un
diálogo multimodal. Lo que se hace es disponer cómo usar la información de
entrada y cómo actuar en la mente del robot”.
Agregó que en este proyecto se pretende guiar la conversación mediante
modelos de diálogo multimodales, y se estudia la utilización de la información
visual para que el robot se autolocalice en su espacio a lo largo del proceso
de navegación.
Detalló que la aportación que han realizado es el sistema de manejo de
esquemas lingüísticos para seguir una charla. “Hemos desarrollado esta
tecnología original y robusta”.
Refirió que lo más importante es la innovación para entablar una
conversación en español, con temas multimodales. Mucho del esfuerzo tiene que
ver con la creación de prototipos de reconocimiento de voz en español en
México, donde
La interacción multimodal es un proceso en el que diversos dispositivos
y personas pueden llevar a cabo una relación (auditiva, visual, táctil y
gestual) conjunta desde cualquier sitio y en cualquier momento, mediante un
mecanismo y de forma accesible, expuso.
Es decir, es complicado explicar a la gente que lo importante no es el
robot, porque éste puede ser una computadora fija, una pantalla u otro medio,
sino que hable, toda su conducta lingüística y el contenido, subrayó.
El proyecto nació del interés en modular el lenguaje de manera
computacional, tanto por conocer la naturaleza del habla misma, como la
tecnología que se requiere para hacer aplicaciones prácticas, concluyó.
–o0o–
FOTO 1
Julia Tagüeña,
Fabián García Nocetti y Luis
FOTO
2
En el Museo de
las Ciencias Universum, investigadores de
FOTO 3
Luis
FOTO 4.
Visitantes del
Museo Universum de