Informe Científico de Investigador: De Giusti, Marisa Raquel (2006-2007)

cic.isFulltext true es
cic.isPeerReviewed true es
cic.lugarDesarrollo Universidad Nacional de La Plata es
dc.date.accessioned 2016-07-01T14:49:55Z
dc.date.available 2016-07-01T14:49:55Z
dc.identifier.uri https://digital.cic.gba.gob.ar/handle/11746/2504
dc.title Informe Científico de Investigador: De Giusti, Marisa Raquel (2006-2007) es
dc.type Informe de investigador es
dcterms.abstract - Digitalización y compresión: Convertir imágenes en entes discretos de forma eficiente. Guardar la imagen con la menor cantidad posible de información. Se realizaron numerosas pruebas combinando diferentes formatos tanto vectoriales como mapas de bits: PNG, JPEG, JPEG2000, GIF, TIFF, BMP y distintos algoritmos de compresión con y sin pérdida: RLE, LZW, CCITT, ZIP y LZ77. En el caso de JPEG2000 se evaluó el algoritmo de compresión basado en la transformada discreta de wavelets o DWT. Las pruebas permitieron encontrar las combinaciones más cercanas al óptimo de acuerdo a los diferentes tipos de materiales digitalizados, p.e. texto completo, paisajes, documentos degradados por el tiempo, entre otros y a las capacidades del hardware subyacente en relación a memoria, disco, procesador, velocidad de red, etc. Se incluye Informe técnico en Anexo 1. - Restauración: mejorar imágenes degradadas en lo relativo a rotación, traslación, escalación e interpolación de imágenes. Se continuó trabajando en base a componentes conexas mejorando la implementación algorítmica: mayor velocidad en la ejecución y más información relevante. Las mejoras permitieron nuevos usos para la herramienta: detección del ángulo de inclinación del documento digitalizado (componentes conexas con código de cadenas derivados de esta implementación usados en un algoritmo recursivo) y posterior corrección de la inclinación utilizando un algoritmo de rotación basado en una transformada afín y conservando el centro de la imagen. Se realizó asimismo la eliminación de puntos aleatorios y de bordes negros. Se realizó la automatización completa y controlada de todo el proceso de limpieza organizada en un “pipeline”. Los resultados se exponen en 7.3.4. -. Recuperación: Se investigaron las posibilidades que ofrece el vector de características en cuanto a clasificación de objetos en imágenes, los aportes que los códigos de cadenas podían generar en estas técnicas y finalmente las ventanas de muestreo basadas en filtros gaussianos, técnicas basadas en la curvatura normalizada y coeficientes de tangentes firmados. A partir de la implementación, las muestras permitieron determinar grupos de características dependientes de la rotación, traslación y escala como también invariantes respecto de las distorsiones geométricas mencionadas. La implementación sobre el caso de texto manuscrito digitalizado permitió separar renglones, palabras y realizar la preclasificación de dichas palabras. Los resultados se exponen en 7.1.1 y en 13.5. - Biblioteca digital: Almacenaje y organización de importantes volúmenes de datos. Se realizaron pruebas sobre distintos motores de bases de datos: XML nativas eXist, Xindice, la base de datos embebida Berkeley DBXML y el motor de indexación de texto Apache Lucene junto al servidor de búsquedas Apache Solr sobre el mismo. Las pruebas efectuadas sobre eXist indicaron la imposibilidad de manejar eficientemente grandes volúmenes de información, sumado a la inestabilidad causada por las permanentes corrupciones de la estructura de base de datos subyacente. Asimismo, se vio que Xindice definitivamente no esta diseñada para volúmenes elevados de información, no respeta los estándares y no es performante. La base de datos Berkeley dbxml resulto ser una de las alternativas mas prometedoras, pero debido a la existencia de un bug en el programa no se pudieron continuar las pruebas, las que se continuarán cuando se libere la nueva versión. Por ultimo, las experiencias obtenidas del desarrollo del Portal de Acceso a Información realizado para la UNNOBA expuestas en 8.1.1 sobre el motor de indexación de texto Apache Lucene, con Apache Solr como servidor de búsquedas fueron muy satisfactorias por su escalabilidad. - En relación a los compromisos internacionales: se comenzó y culminó el desarrollo de Celsius Network, que provee nuevas funcionalidades y permite la interconexión de todas las instancias de Celsius en una red virtual entre las partes.posibilitando la automatización de tareas de solicitud y envío. La nueva versión ya está disponible en el sitio http://celsius.prebi.unlp.edu.ar y en el Anexo 5 se incluyen los cursos dictados en LOJA. -. Modelación de sistemas: Se simuló el funcionamiento de las principales actividades del software CelsiusNT: Servicios de Búsqueda, Servicios de Provisión y Cálculo de Estadísticas Distribuidas, los resultados de la modelización se exponen en 8.1.3 es
dcterms.creator.author De Giusti, Marisa Raquel es
dcterms.extent 23 p. es
dcterms.issued 2007
dcterms.language Español es
dcterms.license Attribution 4.0 International (BY 4.0) es
dcterms.subject repositorios institucionales es
dcterms.subject Almacenamiento y Recuperación de la Información es
dcterms.subject digitalización es
dcterms.subject Bibliotecas Digitales es
dcterms.subject.area Ingeniería, Tecnol. Qca., de los Alimentos, TIC's y Otras Tecnologías es
dcterms.subject.materia Ciencias de la Computación e Información es
dcterms.title.investigacion Investigación en Ingeniería Ontológica y Web Semántica. Desarrollos para la biblioteca digital y modelación de sistemas es
Archivos
Paquete original
Mostrando 1 - 1 de 1
Imagen en miniatura
Nombre:
Informe 2006-2007PDFA.pdf
Tamaño:
1.1 MB
Formato:
Adobe Portable Document Format
Descripción:
Documento completo