Clúster de
mini-laptops para aplicaciones científicas en física de altas energías
experimental.
1.
INTRODUCCIÓN,
En el ejercicio de la ciencia básica –física,
matemáticas, química, etc.-, en todas las ingenierías, en la administración, en
los servicios, y en prácticamente en todas las actividades de la sociedad
moderna, se requiere de cómputo de alto
desempeño o súper cómputo.
En el laboratorio de física de altas energías,
Departamento de física, de la Universidad de Guanajuato, requerimos cómputo de
alto desempeño en las siguientes áreas:
Caracterización de foto detectores, con demanda
baja; captura, simulación y análisis de datos, con demanda baja; simulación
Monte Carlo del experimento MINERvA, con demanda alta; procesamiento y análisis
de datos, con demanda alta.
Para subsanar estas demandas existen varias soluciones probadas y usadas:
empleo de súper computadoras, y aplicaciones de clústeres de CPU’s y clústeres
de GPU’s. La primera solución es onerosa y normalmente no está al alcance del
presupuesto de laboratorios pequeños. La segunda tiene muchas ventajas: es
económica, es escalable, está al alcance de laboratorios pequeños, y es
accesible.
Reportamos, como ejemplo de la solución al
problema de súper cómputo, el diseño, la construcción, y la caracterización de
un clúster de CPU para aplicaciones en física de altas energías experimental en
el laboratorio de partículas elementales de la Universidad de Guanajuato.
2.
DISEÑO
El diseño del clúster de CPU’s a base de laptops es original del
laboratorio de partículas elementales. Figura 1. Las partes básicas son los
CPU’s, en este caso laptops, porque así se estableció de inicio, como parte de
la planeación, ya que en estos días abundan las laptops y es relativamente
fácil conseguirlas; son los nodos secundarios. Un rack para mantenerlos en
orden; fue diseñado de acuerdo a las dimensiones de las laptops. Un swicth de
red, que se escogió de igual tamaño de las laptops, para alojarse en el mismo
rack, y con un número de entradas mayor al número de nodos secundarios. Una
worksation, para servir como el nodo
maestro. Un distribuidor de corriente con número de tomas mayor al número de
nodos secundarios. Cables de red RJ-45 para interconectar los diferentes nodos.
Todos estos elementos son comerciales tienen un costo. Adicionalmente cada
nodo, maestro y ancilar, lleva instalado un sistema operativo –scientific Linux
Fermi- y el nodo maestro lleva instalado el sistema HTCondor para controlar el
clúster en una red local, y Ganglia, para visualizar el desempeño de todos los
nodos. Estos elementos de software son libres y abiertos, de fácil obtención en
la web.
La base del clúster de laptops son 20 laptops mini Dell Latitude 2120 (http://www.dell.com/mx/empresas/p/latitude-2120/pd); Processor Intel® Atom® Processor N455, N550
Dual, Core 1.66 GHz, Memoria 2 GB. Figura 2; actualmente este producto está
discontinuado por el fabricante; otro similar se puede emplear con resultados
parecidos o mejores. La base de la red local es un switch de red 24-Port
Gigabit Switch DGS-1024D (http://us.dlink.com/products/business-solutions/24-port-gigabit-unmanaged-desktoprackmount-switch/). Figura 3; va montado juntos en medio del rack
para minimizar la longitud de los conectores de red. Estos componentes se
montaron en un rack de Aluminio estructural –tubular de sección transversal de
2.54 cm X 5.08 cm para las esquinas y perfil L de 2.54 cm X 2.54 cm para los entrepaños-, construido
exprofeso, con la forma y las dimensiones mostradas en la Figura 4. El diseño
es compacto, permite la libre circulación del aire entre los nodos. Pegado el
rack, en un costado, se unió la tira de 22 conectores eléctricos Pico Macon
Steren MOR PSV. El nodo maestro va separado del rack, y colocado en la mesa de
trabajo; es una work-station Dell Optiplex G620 (http://www.dell.com/downloads/global/products/optix/es/spec_optix_gx520-gx620_es.pdf), memoria RAM 4GB, disco duro 80GB, 7200RPM,
Serial ATA, Intel Pentium 4 800 MHz. El cableado entre los nodos secundarios,
el nodo primario, y el switch de red se realiza mediante el cable RJ45, Figura
5, por la parte posterior del rack.
El diseño es compacto, liviano, y funcional.
3. CONSTRUCCIÓN
Se construyó primeramente el rack, usando herramientas convencionales
para horadar las piezas de aluminio y se ensamblaron usando remaches de
aluminio de calibre 1/8 in; se perforó lateralmente cada entrepaño para colocar
la toma de corriente de los nodos secundarios y la entrada de la conexión de la
red local; la tira de las tomas de
corriente se colocó lateralmente y en el fondo, pegada a una esquina; se
colocaron tacones protectores de hule arriba y debajo de cada soporte de las 4
esquinas. Figura 6. Se colocó el switch de red; se colocaron las laptops, con
la fuente de corriente en la parte posterior y se conectaron; se construyeron
los cables RJ45 a la medida, se probaron eléctricamente, y se colocaron; se
colocó el nodo maestro, se conectó eléctricamente y al switch de la red local.
Esto completa físicamente la construcción del clúster de laptops.
Se instaló el sistema operativo Scientific Linux Fermi en cada uno de
los nodos, siguiendo los pasos indicados en el sistema mismo. Se instaló
HTCondor en el nodo maestro y se declaró en los nodos ancilares, siguiendo el
manual de instalación (http://research.cs.wisc.edu/htcondor/manual/v8.3/3_2Installation_Start.html)
de HTCondor. Se instala y se configura
Ganglia (http://ganglia.sourceforge.net/) en el nodo maestro.
En este punto ya está instalado físicamente el clúster, sin embargo hay
que configurarlo lógicamente. El siguiente paso es configurar la red local.
No hay comentarios:
Publicar un comentario