Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico
cic.isFulltext | true | es |
cic.isPeerReviewed | true | es |
cic.lugarDesarrollo | Centro de Técnicas Analógico-Digitales | es |
cic.version | info:eu-repo/semantics/submittedVersion | es |
dc.date.accessioned | 2017-12-12T12:00:21Z | |
dc.date.available | 2017-12-12T12:00:21Z | |
dc.identifier.uri | https://digital.cic.gba.gob.ar/handle/11746/6499 | |
dc.title | Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico | es |
dc.type | Documento de conferencia | es |
dcterms.abstract | En el marco de desarrollo de herramientas de diseño electrónico, para sistemas de diseño de ciruitos integrados (ASICs), se hace necesaria la resolución de sistemas de ecuaciones lineales, tanto más grandes cuanto más complejidad tenga el circuito a diseñar. La ejecución de aplicaciones en forma paralela en varias computadoras aparece como una solución efectiva para conseguir la potencia de cálculo necesaria . En este artículo se presenta una estrategia de paralelización de clusters del método de Gauss-Seidel para la solución de sistemas de ecuaciones ralas. Desde el punto de vista de la solución numérica para matrices de coeficientes con poca densidad de elementos no nulos, se siguen los lineamientos estándares, es decir, esquemas de almacenamientos especiales (solamente se almacenan los elementos no nulos) y métodos iterativos de búsqueda de solución por aproximaciones sucesivas. Desde el punto de vista de la paralelización del procesamiento en clusters de computadoras, se siguen dos principios básicos: distribución de carga de procesamiento aún en el caso de clusters heterogéneos y utilización de mensajes broadcast para toda comunicación de datos entre procesos. La interconexión más usual en clusters es la provista por las redes Ethernet, y por lo tanto pueden implementar los mensajes broadcast a nivel físico con sobrecarga mínima. Se presenta el análisis de rendimiento paralelo y además los resultados obtenidos en una red local de computadoras heterogénas no dedicadas. En este caso se utiliza una implementación de la biblioteca MPI (Message Pasage Interface) para la comunicación entre procesos. | es |
dcterms.creator.author | Aróztegui, Walter | es |
dcterms.creator.author | Tinetti, Fernando Gustavo | es |
dcterms.creator.author | Osio, Jorge R. | es |
dcterms.creator.author | Rapallini, José A. | es |
dcterms.creator.author | Quijano, Antonio A. | es |
dcterms.extent | 5 p. | es |
dcterms.isPartOf.issue | XIII Workshop Iberchip (Lima, 2007) | es |
dcterms.isPartOf.series | Workshop Iberchip | es |
dcterms.issued | 2007 | |
dcterms.language | Español | es |
dcterms.license | Attribution 4.0 International (BY 4.0) | es |
dcterms.subject | sistemas de diseño de ciruitos integrados (ASICs) | es |
dcterms.subject | sistemas de ecuaciones lineales | es |
dcterms.subject | potencia de cálculo | es |
dcterms.subject | paralelización de clusters | es |
dcterms.subject | método de Gauss-Seidel | es |
dcterms.subject | Message Pasage Interface (MPI) | en |
dcterms.subject.materia | Ingeniería Eléctrica y Electrónica | es |
Archivos
Bloque original
1 - 1 de 1
Cargando...
- Nombre:
- Osio Rapallini - Estudio Algoritmos en Computación Paralela para Herramientas de Diseño Electrónico.pdf-PDFA.pdf
- Tamaño:
- 193.11 KB
- Formato:
- Adobe Portable Document Format
- Descripción:
- Documento Completo