Mérida, Yucatán. 8 de octubre de 2018.- ¿Sabes cuántas veces se ha publicado en los principales medios electrónicos mexicanos la palabra “ciencia”? Al menos 399 veces de enero de 2016 a agosto de 2018, de acuerdo con la plataforma http://m3.geoint.mx/ del Centro de Investigación en Ciencias de Información Geoespacial (Centrogeo), unidad Yucatán.
El grupo de investigación de Geointeligencia computacional de Centrogeo, unidad Yucatán, desarrolla el proyecto Monitoreo de Múltiples Medios (conocido también como M3), un sistema de obtención, análisis y visualización de información publicada en medios masivos de comunicación en su versión electrónica.
En entrevista para la Agencia Informativa Conacyt, el ingeniero Mario Chirinos Colunga, investigador del Centrogeo encargado del proyecto, describió que la base de datos consta hasta el momento de 45 fuentes de información en texto y nueve fuentes de audio, con un total dos millones 285 mil 926 documentos de texto y 29 mil 981.35 horas de audio.
“No todos los diarios tienen una hemeroteca, y de los que la tienen no en todos los casos se puede realizar una búsqueda adecuada y en otros casos las noticias solo están disponibles por un periodo de tiempo. Solo unos pocos diarios, como La Jornada, tienen bien organizada su información. Por lo que nuestro sistema M³ nos permite tener una base de datos única para hacer búsquedas y realizar diversas investigaciones”.
Además de las fuentes de texto, se monitorea y almacena el audio de 10 estaciones de radio durante la transmisión que realizan de 6:00 a 24:00 horas, misma que se transcribe automáticamente utilizando un transcriptor llamado CMU Sphinx.
“Ya que se ha transcrito el audio, se pueden hacer búsquedas de la misma forma que se hace con las noticias de los periódicos. Podemos encontrar cuáles son los temas más importantes de lo que se está hablando o de cuántos temas se está hablando en cierto periodo de tiempo, utilizando técnicas de procesamiento de lenguaje natural”, apuntó Chirinos Colunga.
“Programamos lo que se llaman crawlers o arañas que ‘suben’ a las páginas de Internet y bajan su contenido. Son pequeños programas que se les dice a dónde ir y qué información buscar”.
El proyecto inició con el propósito de desarrollar una base de datos que sustente otras investigaciones del grupo de geointeligencia computacional, como la del doctor Alejandro Molina Villegas, experto en procesamiento de lenguaje natural (NLP, por sus siglas en inglés), la de Gandhi Hernández Chan, quien trabaja con identificación de emociones en texto, y la del doctor Oscar Sánchez Siordia, coordinador de la unidad Yucatán, quien trabaja con redes sociales y sobre identificación automática de conflictos violentos en notas de prensa.
Fuente: Agencia Informativa Conacyt