Archive for the ‘supercomputadora’ Category

Clusters Beowulf

Un  Beowulf es una clase de computador masivamente paralelo de altas prestaciones principalmente construido a base de un cluster de componentes hardware estándard. Un Beowulf ejecuta un sistema operativo de libre distribución como Linux o FreeBSD, y se interconecta mediante una red privada de gran velocidad. Generalmente se compone de un grupo de PCs o estaciones de trabajo dedicados a ejecutar tareas que precisan una alta capacidad de cálculo. Los nodos en el cluster de computadoras no se hayan en los puestos de trabajo de los usuarios, sino que están totalmente dedicados a las tareas asignadas al cluster. Generalmente, el cluster se haya conectado al mundo exterior por un solo nodo.

El software puede ejecutarse más rápido en un Beowulf si se dedica algún tiempo a reestructurar los programas. En general es necesario partirlos en tareas paralelas que se comunican usando alguna librería como MPI o PVM, o sockets o SysV IPC.

Fuente original:Cluster Beowulf

Las Supercomputadoras son usadas en bancos, universidades y centros de investigación para realizar complejos cálculos y obtener rápidos resultados. Seguramente habrán visto en fotos esas grandes máquinas que ocupan cuartos completos y que permiten ejecutar miles de millones de operaciones por segundo.  Esas “heladeras” poseen varios procesadores, inmensas cantidades de memoria y un espacio de almacenamiento mucho mas grande de lo que puedan imaginar.

cluster-beowulf

Todos estos recursos pueden estar dispuestos de dos formas: o están centralizados (todo dentro de una gran caja) o están distribuidos. A esta última modalidad es lo que conocemos como clusters y es la que vamos a mencionar en este pequeño post.

unicluster1-ini

Los clusters son computadoras robustas que funcionan gracias a un sistema que permite compartir los recursos de varios subsistemas. Se pueden tener dos o más computadoras interconectadas ntre sí por una red y hacer que compartan libremente sus recursos. Los clusters permiten que las computadoras compartan no sólo archivos e impresoras sino lo más importante que compartan sus procesadores y memorias.

Clusters en GNU/Linux

Mosix es un proyecto que se dedica a desarrollar el programa necesario para cumplir con la función de instalar un cluster. Instalado en cada una de ls máquinas, Mosix permite que trabajen todas en conjunto, compartiendo memorias y capacidades de procesamiento. Trabaja de forma inteligente; por ejemplo cuando una máquina está al borde de ser saturada por procesos, el sistema busca otra que esté ociosa y le saca algunos recursos para otorgárselos a a la máquina saturada.

Instalación de Mosix

La instalación de Mosix es relativamente sencilla en algunas distribuciones como Red Hat. Esto se debe a que los desarrolladores usan esta distribución para su desarrollo. En otras distribuciones como Mandrake, Debian, Suse etc todo lo que hay que hacer es descargar el archivo TGZ desde el sitio de Mosix (www.mosix.org),  descomprimirlo y ejecutar el script de instalación mosix.install. Este script nos hará algunas preguntas sobre el sistema, y aplicará el parche correspondiente en el núcleo. El proceso puede llevar un par de horas.

mosix clusters

Para instalarlo en los demás nodos del cluster, podemos seguir los mismos pasos, o utilizar algunas herramientas que simplificarán esta tarea automatizándola. Las recomendadas por la gente de Mosix son: LTSP ( http://www.ltsp.org) y ClusterNFS (clusternfs.sourceforge.net). Si desean leer mas información sobre el proceso de instalación en el archivo README del paquete encontrarán varias formas de realizar esta tarea.

Configuración


Al ser un sistema que funciona de forma automática, la configuración que requiere es sencilla. Entramos en la ruta /etc/mosix.map y al editar este archivo que contiene en forma de tablas, el número y nodo y su IP. Por ejemplo si tuvieramos un cluster de seis nodos, con tres nodos en la red 200.200.120.xxx y dos nodos en 200.200.140.xxx, la configuración sería así:

1   200.200.120.1.3

4   200.200.110.1.1

5   200.200.140.1.2

El primer número indica el nodo principal, y es, obviamente, 1. Como el primer nodo principal posee tres nodos, el segundo principal será 4, y así sucesivamente. Luego se especifica la dirección IP de cada nodo principal y la cantidad de nodos que hay bajo la red de esa dirección.

Por eso los clusters son una excelente idea cuando se necesita un sistema de supercomputación pero no se tienen los recursos económicos suficientes para invertir en él. saludos les desea Elendill forever..

Otros enlaces relacionados:

Tutorial de Cluster Beowulf Cacero

site oficial

Herramientas de instalación atuomática de Clusters Beowulf

Estructura de un Cluster Beowulf

UserFul Multiplier

Este término nos puede sonar un poco amplio pero para conocer un poco mejor lo que trato de difundir en este post sigue leyendo…..

Pués es en Brasil el país sureño lleva acabo un proyecto de virtualización con cerca de más 300.000 escritorios virtuales Linux,  los cuáles  serán implementados en varias escuelas de dicho país.

userfulmultiplier

Logrando así objetivos básicos para la comunicación e interacción con las tecnologías de información para jóvenes de las escuelas,  donde las estaciones de trabajo contarán con Userful Multiplier ( sistema operativo basado en Linux que combina una mezcla de herramientas administrativas propietarias con una distribución modificada de Red Hat con un escritorio del gnome.)

Quizás los más relevante de esta noticia no sea dicho proyecto aunque contribuya con las comunicaciones sino hacemos incapié en el OS que se usará en dicho proyecto.  El Userful Multiplier corporación fundada en 1999 por Timothy Griffin.

userful-multiplier

El PC Multiplier de Userful basa su tecnología básica de Gpu dual head y las entradas del USB logrando así  convertir a un monitor, un teclado y a un ratón en una estación de trabajo completa.  Donde los usuarios podrán contar con un ambiente laboral acorde a sus necesidades.

El paquete de programas que éste trae viene con Linux o como un LiveCD para sistemas no Linux. Teniendo compatibilidad  con la mayoría de las tarjetas gráficas basadas en  X.org/XFfree86, siendo ya incorporado en las distribuciones:  Debian, Fedora, Mandriva, Sled, Suse  y Ubuntu.

La más veloz

Supercomputadora más véloz del Mundo

Tras invertir US$133 millones, IBM ha creado un monstruo: El RoadRunner. Basado en su arquitectura Blue Gene,  el correcaminos tiene 12.960 procesadores IBM Cell  y unos 7.000 AMD Opteron,  logrando una velocidad teórica de 1,02 Petaflops.

roadrunner

Datos:

-Actualmente la supercomputadora más rápida del mundo.

-Creada por IBM y el Laboratorio Nacional Los Álamos en Nuevo México.

-Corre a 1,026 petaflops, esto quiere decir que rinde a 1,026 x 10^15 operaciones en coma flotante por segundo.

-Tiene más de 12.960 procesadores IBM Cell en paralelo.

-6.192 procesadores Opteron de AMD unidos con 92Km de fibra óptica.

-Funciona bajo el sistema operativo Red Hat Enterprise Linux .

-Usa el software de computación distribuida xCAT.

-Costo: 133 millones de dólares.

-Uso: para estudios militares, ingeniería, medicina y ciencia.
Para dar una idea de la velocidad de esta supercomputadora, expertos de IBM señalaron que si todos los 6.000 millones de habitantes del planeta llevaran a cabo cálculos y operaciones a mano durante 24 horas al día, se tardarían 46 años en lograr lo que la Roadrunner hace en un solo día.
En primera instancia, la supercomputadora se usará para estudios militares, pero no se descarta su aplicación en tareas civiles, como ingeniería, medicina y ciencia, incluyendo el desarrollo de biocombustibles y el diseño de vehículos ecológicos.

El sistema de interconexión ocupa 557 metros cuadrados de espacio y cuenta con 91,7 kilómetros de fibra óptica pesando 226.800 kilos. Se encuentra en el laboratorio de investigaciones de IBM en Poughkeepsie (http://maps.google.com/maps?f=q&hl=en&geocode=&q=Poughkeepsie,+Nueva+York,&ie=UTF8&ll=42.016652,-74.333496&spn=10.966902,19.248047&z=6&iwloc=addr), Nueva York, y será trasladada en Julio al Laboratorio Nacional Los Alamos (LANL (http://es.wikipedia.org/wiki/Laboratorio_Nacional_Los_%C3%81lamos)), en Nuevo México.


La más robusta

Supercomputadoras más robustas en orden descendente

7. Jaguar


Jaguar

Jaguar es un sistema Cray XT, ubicado en el Oak Ridge National Laboratory, en EEUU. Posee 11706 nodos de procesamiento, de los cuales 11508 son configurados como nodos de cómputo y los demas son de I/O y servicios de login. Cada nodo contiene un procesador Dual-core AMD Opteron de 2.6GHz y 4GB de memoria. El sistema provee una capacidad de cómputo total de 119 Teraflops (comparativamente una computadora Pentium 4 posee una capacidad de unos cuantos Gigaflops). Utiliza un Sistema Operativo basado en Linux.

6. Red Storm – Sandia National Laboratories

Red Storm

Red Storm es una supercomputadora de procesamiento en paralelo diseñada y creado por Cray y Sandia Labs para llevar a cabo pruebas simuladas de almacenamiento de armas nucleares, que incluye el diseño de componentes de reemplazo, pruebas virtuales de los componentes bajo diferentes circunstancias, y asistiendo en las pruebas de ingeniería de armamento y su física asociada (weapon physics). Red Storm consiste en 12960 Nodos AMD Opteron que pueden llegar a 124.42 Teraflops y utiliza un sistema operativo Linux ligero que consiste en los componentes mínimos necesarios para dar soporte a las aplicaciones de Red Storm.
5. Cluster Platform 3000 BL460c

Supercomputador desarrollado por Hewlett-Packard para el gobierno sueco. Trabaja a 142 Teraflops y su uso es militar y en la defensa. Utiliza procesadores Intel EM64T Xeon 53xx (Clovertown) a 2667 MHz (10.668 GFlops). Fue construída en el 2007.
4. EKA

EKA es igualmente una supercomputadora construída por HP, y se encuentra actualmente en el Computational Research Laboratories, TATA SONS, en la India. Alcanza una capacidad de 170 Teraflops gracias a su arreglo de procesadores Intel EM64T Xeon 53xx (Clovertown) a 3000 MHz (12 GFlops).


3. SGI Altix ICE 8200

Supercomputador que se encuentra actualmente en el SGI/New Mexico Computing Applications Center (NMCAC). Posee una capacidad de cómputo de 172 Teraflops y se utiliza en la simulación de circuitos y semiconductores. El tipo de procesadores que utiliza es Intel EM64T Xeon 53xx (Clovertown) a 3000 MHz (12 GFlops).

2. BGW (Blue Gene/W) – IBM Thomas J. Watson Research Center

Ubicada en el Forschungszentrum Juelich (FZJ), esta supercomputadora ha sido construída por IBM y utiliza muchos procesadores PowerPC 450 850 MHz (3.4 GFlops), que en conjunto brindan una capacidad de procesamiento de 223 Teraflops. Se utiliza actualmente en la investigación en diversas áreas, incluyendo simulaciones nucleares y biológicas.

1. Blue Gene/L – Lawrence Livermore National Laboratory

Blue Gene/L es actualmente la computadora más robusta del mundo llegando a 596 Teraflops ya que utiliza 106,496 procesadores, y corre con una versión reducida de Linux. Es un proyecto colaborativo de IBM, Lawrence Livermore Labs, y el Departamento de Energía de los EEUU. Utiliza un diseño basado en celdas que le da una arquitectura escalable que puede ser expandida agregando mas bloques sin la preocupación de perjudicar a su desempeño ni de originar cuellos de botella a medida que crece la supercomputadora. El 2007, Blue Gene/L fue mencionada en las noticias cuando los científicos hicieron correr un simulador tan complejo como la mitad del cerebro de un ratón, del cual se cree que tiene 8 millones de neuronas cada una con al menos 8000 conexiones con otras fibras nerviosas. Cuando no se la usa para este propósito, la BGL se usa principalmente para simular procesos bioquímicos que involucran proteínas. Actualmente, ha sido escalada aumentando enormemente su capacidad de procesamiento.

NOTA: actualmente BlueGene ha sido desplazada por la nueva supercomputadora RoadRunner del mismo fabricante IBM.

Super ordenador español

La nueva supercomputadora española Janus…

Se llama Janus, y según ha aparecido en varios medios, estará compuesta de 16 placas con 256 procesadores que equivaldrían por 100.000 procesadores convencionales y solo consumirá 15 kilovatios al 100% de uso, además ha costado menos de un millón de euros.

cerebro-babbage

Cerebro de Charles Babbage Padre de la Computación

Tiene CPUs=100.000 CPUs “convencionales”  100.000 CPUs son de Pentium IV, si hubiese sido de PIII, a lo mejor hubiesen sido 500.000 CPUs ;). Además dicen que será capaz de una potencia de 90 TeraFLOPS. ¡¡Más o menos 351 GigaFLOPS por procesador!!
Hay que tener en cuenta que el BlueGene/L tiene una potencia máxima de 596 TeraFLOPS con poco menos de 213.000 procesadores (2.79 GigaFLOPS/Procesador). El MareNostrum, por poner un ejemplo más cercano y con una portencia similar, tiene 10.240 procesadores.

Super ordenadores a la orden

Supercomputadores Cray con GPUs de NVIDIA

Los procesadores gráficos de NVIDIA se ofrecerán como opción en la nueva línea de supercomputadores de sobremesa de Cray.
El fabricante de chips anunciará la próxima semana que sus procesadores Telsa pueden utilizarse en el supercomputador fabricado por Cray y que cuesta 25.000 dólares (60.000 dólares, completamente configurado). La compañía de gráficos lleva desde 2007 en conversaciones con Cray, pero esta es la primera vez que las dos compañías se ponen de acuerdo.

cray

El ordenador Cray CX1 (lanzado ayer), cuenta con 32 o 64 núcleos de Intel y almacenamiento interno de 4 terabytes. La nueva máquina, que funciona con una nueva versión de Microsoft Windows (Windows HPC Server 2008), incluye una pantalla táctil LCD y una interfaz de información, así como un sistema de control remoto basado en Web para la redirección de la consola, la gestión y la monitorización de rendimiento.

NVIDIA tiene experiencia en este terreno. Por ejemplo, sus GPUs se utilizaron en un supercomputador de 4.000 euros fabricado por la Universidad de Amberes para la creación de imágenes en 3D de órganos internos.