Paralelismo de tareas


Paralelismo de tareas

Paralelismo de tareas

Paralelismo de tareas es un paradigma de la programación concurrente que consiste en asignar distintas tareas a cada uno de los procesadores de un sistema de cómputo. En consecuencia, cada procesador efectuará su propia secuencia de operaciones.

En su modo más general, el paralelismo de tareas se representa mediante un grafo de tareas, el cual es subdividido en subgrafos que son luego asignados a diferentes procesadores. De la forma como se corte el grafo, depende la eficiencia de paralelismo resultante. La partición y asignación óptima de un grafo de tareas para ejecución concurrente es un problema NP-completo, por lo cual en la práctica se dispone de métodos heurísticos aproximados para lograr una asignación cercana a la óptima.

Sin embargo, existen ejemplos de paralelismo de tareas restringido que son de interés en programación concurrente. Tal es el caso del paralelismo encauzado, en el cual el grafo tiene forma de cadena, donde cada nodo recibe datos del nodo previo y sus resultados son enviados al nodo siguiente. El carácter simplificado de este modelo permite obtener paralelismo de eficiencia óptima [1].

Véase también

Obtenido de "Paralelismo de tareas"

Wikimedia foundation. 2010.

Mira otros diccionarios:

  • Paralelismo de datos — Saltar a navegación, búsqueda Paralelismo de datos es un paradigma de la programación concurrente que consiste en subdividir el conjunto de datos de entrada a un programa, de manera que a cada procesador le corresponda un subconjunto de esos… …   Wikipedia Español

  • Paralelismo — Saltar a navegación, búsqueda El término paralelismo puede referirse a los siguientes artículos: Paralelismo (matemática), una propiedad de la geometría representada por rectas que no se cortan. Paralelismo (Informática), es una función que… …   Wikipedia Español

  • Computación paralela — La supercomputadora Cray 2 fue la más rápida del mundo desde 1985 hasta 1989. La computación paralela es una técnica de programación en la que muchas instrucciones se ejecutan simultáneamente.[1] Se basa …   Wikipedia Español

  • Unidad central de procesamiento — Oblea de un microprocesador Intel 80486DX2 (tamaño: 12×6,75 mm) en su empaquetado. La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el… …   Wikipedia Español

  • RISC — DEC Alpha AXP 21064, un microprocesador RISC En la arquitectura computacional, RISC (del inglés reduced instruction set computer) es un tipo de microprocesador con las siguientes características fundamentales: Instrucciones de tamaño fijo y… …   Wikipedia Español

  • Microcontrolador — Motorola 68HC11 y chips de soporte. Un microcontrolador (abreviado μC,UC o MCU) es un circuito integrado programable, capaz de ejecutar las órdenes grabadas en su memoria. Está compuesto de varios bloques funcionales, los cuales cumplen una tarea …   Wikipedia Español

  • Timeo (diálogo) — Para otros usos de este término, véase Timeo (desambiguación). Platón y Aristóteles en La escuela de Atenas, pintura de Rafael. Platón está sosteniendo el Timeo. Aristóteles sostiene una copia de su Ética a Nicómaco. El Timeo es un diálog …   Wikipedia Español

  • Cluster (informática) — Un clúster en la Universidad McGill. Un ejemplo de clúster en l …   Wikipedia Español

  • Intel Threading Building Blocks — Desarrollador Intel www.threadingbuildingblocks.com/ Información general Última versión estable 2.1 update 4 …   Wikipedia Español

  • CUDA — Desarrollador NVIDIA Corporation Nvidia s CUDA zone Información general Última versión estable 2.3 22 de jul …   Wikipedia Español