Artículos, informes y presentaciones en Congresos
URI permanente para esta colección
Examinar
Examinando Artículos, informes y presentaciones en Congresos por Fecha de publicación
Mostrando 1 - 20 de 334
Resultados por página
Opciones de ordenación
- Documento de conferencia
Acceso Abierto Diseño e implementación de un ambiente CASE para sistemas de tiempo real(1995) De Giusti, Armando Eduardo; Pesado, Patricia Mabel; Spognardi, José Oscar; Marinangelli, Miriam JuditSe presenta el análisis e implementación de una herramienta CASE para Sistemas de Tiempo Real basada en la metodologra SSEM de Keller y Shumate, la cual ha sido desarrollada como Trabajo de Graduación en la Universidad Nacional del Centro de la Pcia. de Bs. As. con la dirección de Profesores de la UNLP. Asimismo se discute el sistema de simulación asociado con la herramienta CASE que permite representar situaciones de funcionamiento (normal y anormal) a fin de evaluar la respuesta del sistema y el cumplimiento de los requerimientos establecidos por el usuario. - Documento de conferencia
Acceso Abierto Análisis y extensión de una herramienta de simulación multi-DSP para procesamiento paralelo(1995) Ramón, Hugo D.; Russo, Claudia Cecilia; De Giusti, Armando Eduardo; Tinetti, Fernando GustavoEl área de investigaci6n y desarrollo en programaci6n paralela es una de las que despierta mayor interés en la Informática actual. Es de particular importancia la especificaci6n, implementaci6n y verificaci6n de algoritmos aplicados al procesamiento de imágenes, asf como la evaluaci6n de arquitecturas y soporte de comunicaciones para los mismos [DEG93].\nEn particular se ha trabajado sobre tres modelos de arquitecturas: una red heterogénea de procesadores vinculados por un soporte de comunicaciones y schedulingad-hoc sobre la que se desarrolla· software en lenguajes convencionales [TIN93] [HER93]; una red de procesadores RISC (transputers) programable en OCCAM y C'Paralelo [CSA90), y la modelizaci6nde la, arquitecturas CISC tipo DSP en un ambiente de simulación [MOT90J. Estos úHimos modelos permiten la evaluaci6n de soluciones desde el punto de vista del hardware, del software de administraci6n de recursos y de la implementaci6n concreta de algoritmos ejecutables. Los procesadores dedicados tipo DSP (Digital Signal Processor) se constituyen una alternativa en sí misma (aún sin tener en cuenta el procesamiento con más de un DSP), para el procesamiento de grandes volúmenes de datos. - Documento de conferencia
Acceso Abierto Un prototipo para avaluación de organizaciones de desarrollo de software(1996) Boracchia, Marcos; Rodriguez, Leandro; Pesado, Patricia Mabel; De Giusti, Armando EduardoSe presenta un prototipo para la avaluación de organizaciones de desarrollo de software adaptando el modelo de calidad desarrollado por Humphrey a empresas de menor porte. El modelo de Humphrey permite evaluar el grado de madurez de un grupo de desarrollo proponiendo una clasificación en cinco niveles posibles (caótico, repetible, definido, manejado, optimizada) y su utilización permite a las empresas ser categorizadas a fin de alcanzar certificaciones de calidad. El objetivo de este trabajo consiste en una propuesta de adecuación del modelo para ser aplicado en áreas claves de empresas medianas y pequeñas. Sobre la base de un cuestionario enmarcado en las áreas de Recursos Humanos, Gerenciamiento de Proyectos, Administración de Tecnología y Control de Calidad, el prototipo presenta reportes qué de acuerdo a las respuestas realizadas por el usuario ubican a la organización en un estado de madurez por áreas, que sirve de calificación primaria de calidad. A partir de esta calificación se pueden plantear políticas de mejoramiento del nivel según las necesidades detectadas. - Documento de conferencia
Acceso Abierto Un ambiente para evaluación de sistemas de software mediante métricas clásicas(1996) Pesado, Patricia Mabel; De Giusti, Armando Eduardo; Zorzano, A.C. J.; Borroni, A. C. C.Se presenta un ambiente para evaluación de sistemas de software mediante recolección de métricas y estimaciones. El objetivo principal es conformar una línea base a partir de mediciones efectuadas sobre desarrollos ya implementados que sirva de información para futuras estimaciones. Sin duda las mejores estimaciones surgen del análisis de proyectos similares efectuados en la organización. Las experiencias recogidas de desarrollos análogos realizados por otras organizaciones pueden servir de indicativos pero hay factores puntuales (recursos humanos, tecnológicos, complejidad 'del problema' etc.) que son difíciles de generalizar y distorsionan las posibles estimaciones. Es por eso la importancia de que los planificadores de proyectos cuenten con información real recolectada de fuentes propias. Un segundo objetivo está ligado a los procesos de mantenimiento en los que es útil conocer la complejidad lógica, tamaño y flujo de información a fin de identificar los posibles módulos críticos,en un desarrollo. Por último tenemos un tercer objetivo que se relaciona con los procesos de reingeniería que requieren conocimiento del código fuente como base para el reanálisis del problema. El ambiente presentado combina la recolección de métricas automáticas a partir de código fuente ya desarrollado, con información ingresada por el ingeniero de sistemas, permitiendo especificar nuevas mediciones orientadas al problema. - Documento de conferencia
Acceso Abierto RTL fast convolution using the mersenne number transform(1997) Bria, Oscar N.; Villagarcía Wanza, Horacio AlfredoVHDL is a versatile high level language for the specification and simulation of hardware components. Here a functional VHDL model is presented for performing fast convolution based on Mersenne's number theoretic transform.\nFor filtering a rather long input sequence xn() we can decomposed it into a number of short segments, each of which can be processed individually. The output yn()then becomes a combination of partial convolutions. The superposition principle for linear operators is used here.\nEach partial convolution can be solved using the Discrete Fourier Transform (DFT) implementing a fast FFT (Fast Fourier Transform) algorithm. This DFT approach is the most popular.\nIn this paper we use the Mersenne Number Transform (MNT) as an alternative for the DFT in the framework of a register transfer level (RTL) implementation of the filter operation. Even when the MNT does not have a fast algorithm it can be see that RTL in the natural level of abstraction for the implementation of the MNT.\nThis work is conceived as part of an academic exercise in the use of VHDL for modeling a DSP algorithm all the way from the mathematical specification to the circuit implementation. - Documento de conferencia
Acceso Abierto Experiencia de aplicación de la técnica de punto función en estimaciones para software de tiempo real(1998) Pesado, Patricia Mabel; De Giusti, Armando Eduardo; Boracchia, Marcos; Vicenzi, Ana LauraSe analizan las experiencias de aplicación de las métricas basadas en punto función para la evaluación de software de Tiempo Real.\nEn este trabajo se parte de la extensión de la técnica de punto función para Tiempo Real propuesta por el Software Engineering Laboratory in Applied Metrics (SELAM) de la Universidad de Quebec (Canadá) y se analiza sistemáticamente su aplicación a dos clases de sistemas tiempo real: un controlador de comunicaciones distribuido y un adquisidor de datos con control de funciones centralizado.\nDado que ambos sistemas han sido desarrollados en el LIDI y se cuenta con la posibilidad de evaluarlos con las métricas clásicas, se analizan comparativamente los resultados de la técnica de punto función extendida y se discute la posibilidad de obtener una pauta de complejidad del software desarrollado.\nPor último se realiza un análisis conceptual de la técnica de punto función en general y en particular de las extensiones utilizadas para Tiempo Real, marcando las líneas de investigación futuras, con el objetivo de establecer una línea base para las estimaciones de desarrollo de Sistemas de Tiempo Real de cierta complejidad. - Documento de conferencia
Acceso Abierto Experiencias en la enseñanza de Ingeniería de Software(1998) Pesado, Patricia Mabel; Boracchia, MarcosSe discute la experiencia de los autores que han dictado el curso de Ingeniería de Software durante varios años, adecuando los contenidos conforme a la evolución y necesidades en el desarrollo de proyectos.\nSe analizan las ventajas y desventajas de los distintos enfoques y la formación de los alumnos que luego de cursar Ingeniería de Software están a punto de salir al mercado laboral con su título de Analista de Computación.\nSe discute el contexto de las asignaturas previas y posteriores en el caso de continuarse con la Licenciatura en Informática en la Universidad Nacional de La Plata.\nPor último se mencionan los problemas típicos que se dan a los alumnos en los Trabajos Prácticos, para aplicar el modelo de proceso elegido - Documento de conferencia
Acceso Abierto Una arquitectura para la transformada numérica de Mersenne(1998) Bria, Oscar N.; Villagarcía Wanza, Horacio Alfredo; Gil, Daniel A.La convolución exacta de secuencias de números enteros es una de las operaciones más importantes del procesamiento digital de señales. Cuando se requiere exactitud no puede usarse el tradicional método de la DFT para acelerar el proceso de cálculo debido a los factores de peso trascendentes presentes en las transformadas de Fourier, La Transformada Numérica de Mersenne (MNT) es una alternativa a la aplicación directa de la convolución, que podría resultar en arquitecturas más simples (menos complejas) según se muestra en, En este trabajo se presenta un arquitectura simple que implementa la MNT, basada únicamente en registros de desplazamientos y sumadores en complemento a uno. Los registros de desplazamientos resuelven las multiplicaciones en forma cableada, representando así una complejidad de 0(1). Los sumadores complemento a uno son una variante carry look-ahead, los cuales presentan un retardo moderado y son fáciles de diseñar. La arquitectura aquí presentada ha sido descripta en VHDL y simulada. - Artículo
Acceso Abierto Preserving message integrity in dynamic process migration(1999) Heymann, Elisa; Luque Fadón, Emilio; Tinetti, Fernando GustavoProcessor and network management have a great impact on the performance of Distributed Memory Parallel Computers. Dynamic Process Migration allows load balancing and communication balancing at execution time. Managing the communications involving the migrating process is one of the problems that Dynamic Process Migration implies. To study this problem, which we have called the Message Integrity Problem, six algorithms have been analysed. These algorithms have been studied by sequential simulation, and have also been implemented in a parallel machine for different user process patterns in the presence of dynamic migration. To compare the algorithms, different performance parameters have been considered. The results obtained have given preliminary information about the algorithms behaviour, and have allowed us to perform an initial comparative evaluation among them. - Documento de conferencia
Acceso Abierto Sistemas distribuidos de tiempo real: modelización y verificación de las restricciones de tiempo(1999) Pesado, Patricia Mabel; De Giusti, Armando EduardoLa naturaleza de los sistemas distribuidos de tiempo real (SDTR) requiere técnicas de análisis, diseño y prueba especificas que permitan representar las situaciones típicas de estos sistemas.\nUn sistema distribuido de tiempo real debe interactuar con el mundo real, en puntos físicamente distantes, en periodos de tiempo que vienen determinados por el contexto o las restricciones de la especificación (en muchos casos a partir de una activación asincrónica).\nLa evolución tecnológica en el tratamiento de señales (locales o remotas) y en los sistemas de comunicaciones ha impulsado enormemente esta área temática, sobre todo en los aspectos de planificación y desarrollo de software para Sistemas Distribuidos de Tiempo Real.\nComo cualquier sistema basado en computadora, un SDTR debe integrar software, hardware, personas, bases de datos, no solo para cumplir con los requisitos funcionales del sistema, sino también con los requerimientos de rendimiento. - Documento de conferencia
Acceso Abierto Aplicaciones paralelas de cómputo intensivo en NOW heterogéneas(1999) Tinetti, Fernando GustavoA medida que ha crecido la disponibilidad de computadoras con una buena relación costo/rendimiento, también ha crecido el interés por su utilización en aplicaciones de cómputo intensivo.\nNormalmente, estas aplicaciones se han desarrollado sobre las denominadas supercomputadoras, la mayoría de las cuales han hecho uso de la paralelización del cómputo a nivel del hardware (pipelines) ya nivel del software (por medio de programas paralelos). El problema más difícil de solucionar en el ámbito de las supercomputadoras ha sido tradicionalmente el de su alto costo, que no varía a pesar de los avances tecnológicos y de la ampliación de los usuarios de las aplicaciones. - Documento de conferencia
Acceso Abierto Performance of scientific processing in networks of workstations(2000) Tinetti, Fernando GustavoThe growing processing power of standard workstations, along with the relatively easy way in which they can be available for parallel processing, have both contributed to their increasing use in computation intensive application areas. Usually, computation intensive areas have been referred to as scientific processing; one of them being linear algebra, where a great effort has been made to optimize solution methods for serial as well as for parallel computing.\nSince the appearance of software libraries for parallel environments such as PVM (Parallel Virtual Machine) [4] and implementations of MPI (Message Passing Interface) [5], the distributed processing power of networks of workstations has been available for parallel processing as well.\nAlso, a strong emphasis has been made on the heterogeneous computing facility provided by these libraries over networks of workstations. However, there is a lack of published results on the performance obtained on this kind of parallel (more specifically distributed) processing architectures.\nFrom the whole area of linear algebra applications, the most challenging (in terms of performance) operations to be solved are the so called Level 3 BLAS (Basic Linear Algebra Subprograms). In Level 3 BLAS, all of the processing can be expressed (and solved) in terms of matrix-matrix operations. Even more specifically, the most studied operation has been matrix multiplication, which is in fact a benchmark in this application area. - Revisión
Acceso Abierto Parallel programming: techniques and applications using networked workstations and parallel computers. Barry Wilkinson, C. Michael Allen(2000) Tinetti, Fernando GustavoThis book makes a clear presentation of the traditional topics included in a course of undergraduate parallel programming. As explained by the authors, it was developed from their own experience in classrooms, introducing their students to parallel programming. It can be used almost directly to teach basic parallel programming. - Documento de conferencia
Acceso Abierto Cómputo paralelo en estaciones de trabajo no dedicadas(2000) Sager, Gerardo Enrique; Rexachs del Rosario, Dolores; Luque Fadón, Emilio; Tinetti, Fernando GustavoSe presentan en este artículo una serie de consideraciones a tener en cuenta a la hora de utilizar una red de estaciones de trabajo ya instalada y en funcionamiento para procesamiento científico en paralelo. Estas consideraciones abarcan desde las ventajas de este tipo de procesamiento hasta los problemas de la paralelización, incluyendo también los problemas propios de la utilización de estaciones de trabajo que en general están dedicadas a otro tipo de tareas que no son cómputo paralelo. Se presentan las líneas generales de solución a los problemas de heterogeneidad de este tipo de redes de estaciones de trabajo, como así también algunas alternativas para el problema de adecuar las propias estaciones de trabajo para el cómputo paralelo ya que cada estación de trabajo será una parte de una máquina paralela virtual. La aplicación que se analiza en este artículo es la de multiplicación de matrices, dado que es muy sencilla en sí misma, y además posee características comunes a toda el área de cálculo numérico lineal, lo cual la hace apta para entender y analizar los problemas y soluciones en este tipo de aplicaciones. - Documento de conferencia
Acceso Abierto Hacia una propuesta de métrica para la evaluación de Software Educativo(2000) Gorga, Gladys; Madoz, María Cristina; Pesado, Patricia MabelSe presenta una análisis de los aspectos a considerar en la evaluación de software educativo (y en líneas generales en la evaluación de herramientas que incorporan tecnología informática en el aula), tratando de extender y relacionar criterios propios de la Ingeniería de Software con aspectos sicológicos y pedagógicos.\nSe discuten los ejes para la evaluación de software educativo y se elabora una propuesta (abierta a discusión) para “medir” calidad y resultados de un producto informático en el aula.\nPor último se analizan algunas experiencias concretas en las que se ha empleado la metodología propuesta, poniendo énfasis en los aspectos multidisciplinarios a tener en cuenta y en las dificultades de tener una métrica “absoluta” para un producto determinado por la dependencia del contexto educativo, el perfil de los alumnos, el grado de adaptación del docente, etc. - Documento de conferencia
Acceso Abierto A fast CORDIC co-processor architecture for digital signal processing applications(2000) Giacomantone, Javier; Villagarcía Wanza, Horacio Alfredo; Bria, Oscar N.The coordinate rotational digital computer (CORDIC) is an arithmetic algorithm, which has been used for arithmetic units in the fast computing of elementary functions and for special purpose hardware in programmable logic devices. This paper describes a classification method that can be used for the possible applications of the algorithm and the architecture that is required for fast hardware computing of the algorithm. - Documento de conferencia
Acceso Abierto Towards a field configurable non-homogeneous multiprocessors architecture(2001) Jaquenod, Guillermo A.; Villagarcía Wanza, Horacio Alfredo; De Giusti, Marisa RaquelStandard microprocessors are generally designed to deal efficiently with different types of tasks; their general purpose architecture can lead to misuse of resources, creating a large gap between the computational efficiency of microprocessors and custom silicon. The ever increasing complexity of Field Programmable Logic devices is driving the industry to look for innovative System on a Chip solutions; using programmable logic, the whole design can be tuned to the application requirements. In this paper, under the acronym MPOC (Multiprocessors On a Chip) we propose some applicable ideas on multiprocessing embedded configurable architectures, targeting System on a Programmable Chip (SOPC) cost-effective designs. Using heterogeneous medium or low performance soft-core processors instead of a single high performance processor, and some standardized communication schemes to link these multiple processors, the “best” core can be chosen for each subtask using a computational efficiency criteria, and therefore improving silicon usage. System-level design is also considered: models of tasks and links, parameterized soft-core processors, and the use of a standard HDL for system description can lead to automatic generation of the final design. - Artículo
Acceso Abierto Performance of scientific processing in networks of workstations: matrix multiplication example(2001) Tinetti, Fernando GustavoParallel computing on networks of workstations are intensively used in some application areas such as linear algebra operations. Topics such as processing as well as communication hardware heterogeneity are considered solved by the use of parallel processing libraries, but experimentation about performance under these circumstances seems to be necessary. Also, installed networks of workstations are specially attractive due to its extremely low cost for parallel processing as well as its great availability given the number of installed local area networks. The performance of such networks of workstations is fully analyzed by means of a simple application: matrix multiplication. A parallel algorithm is proposed for matrix multiplication derived from two main sources: a) previous proposed algorithms for this task in traditional parallel computers, and b) the bus based interconnection network of workstations. This parallel algorithm is analyzed experimentally in terms of workstations workload and data communication, two main factors in overall parallel computing performance. - Documento de conferencia
Acceso Abierto Modelización y estudio experimental de sistemas distribuidos de tiempo real(2001) Miatón, Ivana; Pesado, Patricia Mabel; De Giusti, Armando Eduardo; Bertone, RodolfoInvestigar experimentalmente diferentes modelos de sistemas distribuidos, estudiando especialmente la migración dinámica de procesos y datos, así como el comportamiento de redes móviles en procesos de tiempo real.\nLos temas fundamentales propuestos en el proyecto se refieren al desarrollo de un ambiente experimental para el estudio de casos de procesamiento distribuido, basado en una arquitectura de red heterogénea con lenguaje JAVA. Posteriormente se plantea la utilización de este ambiente en el análisis de los problemas de migración dinámica de procesos y datos.\nFinalmente se investiga la utilización de agentes móviles como concepto de base para la especificación y desarrollo de servicios específicos en los nodos de la red de experimentación.\nInteresa especialmente la aplicación de estas investigaciones al tratamiento de bases de datos distribuidas y al análisis de redes de procesadores móviles. - Revisión
Acceso Abierto High Performance VLSI Signal Processing: Innovative Architectures and Algorithms(2001) Villagarcía Wanza, Horacio AlfredoThe book intends to address the important aspects of high-performance signal processing with a focus on the recent development of VLSI technology for signal processing.\nThe editors collect much of all the research efforts and findings that have made high performance implementation of signal processing possible in the last decade in two volumes.