Professional Documents
Culture Documents
Qu es un clster?
Nodos. Sirven cualquier tipo de mquinas que hasta pueden ser de desecho, y
lo ms bsico que se imaginen, solo requerimos que posean procesador,
memoria, tarjeta de red y si de preferencia disco duro. Claro que entre ms
nodos tengamos ms capacidad de cmputo tendremos, pero cuidado con el
tipo de mquina que se colocan, no es lo mismo colocar un Pentium I a 100MHz
que un CoreDuo a 2GHz, de preferencia usen nodos clnicos o de similar
capacidad para que el balanceo de carga sea adecuado.
Sistema de red. Si bien podemos usar sistemas como fibra ptica o mirynet
que son de alta velocidad, el precio se eleva demasiado, actualmente la
mayoria de las computadoras soporta e incluye red Ethernet 10/100/1000 y
con un switch de cuantos puertos necesitemos basta para la mayoria de las
aplicaciones. Existe un desarrollo para activarlas por conexiones Wifi, pero
ParallelKnoppix
Primero veamos porque se escogi a ROCKS como distribucin, dado que tena
varias alternativas como Beowulf, Oscar, Mosix, etc.
swap 1 GB
/export el resto del disco
Pueden adecuar un poco ms esta distribucin, en mi caso como el disco duro
es de 150 GB, opte por no moverle.
Paso 3. Instalar los nodos esclavos
Ingresen al nodo maestro como root e invoquen:
insert-ethers
Aqu seleccionen "Compute" y esperen al modo de escucha.
Para facilitarse la vida, usen el arranque va red en todos sus nodos esclavos,
aunque esto solo es vlido si es un clster homogneo. Si no lo es, inserten el
disco de Kernel/Boot adecuado para cada nodo y no le den parmetros de
arranque. Ahora enciendan uno a uno los nodos esclavos, dando tiempo al
sistema de detectarlos, cuidado que pueden sobrecargar al maestro o al
switch, ya que en este punto cada nodo arranca y descarga una imagen
preparada por el maestro.
Uno a uno los nodos son detectados e instalados, ya no hace falta hacer nada,
automgicamente se instalan y se dan de alta.
Antecedentes
Hardware
hda7 : 22 Gb : /usr
sda1 : 2.0 Gb : swap
sda2 : 292 Gb : /home
Cuenta general: beagle.
La red es configurada as: eth1 197.1.1.1 (comunicacin con los nodos), eth2
10.0.0.114 (comunicacin hacia el exterior a travs de nuestra intranet).
Terminamos la instalacin, reiniciamos, accesamos y con una terminal nos
pasamos a ser root y dar una contrasea:
sudo su passwd
DHCP
Un servidor DHCP se monto para comunicar con los nodos:
allow booting;
allow bootp;
if (substring (option vendor-class-identifier, 0, 20)
= "PXEClient:Arch:00002") {
# ia64
filename "elilo.efi";
next-server 197.1.1.1;
} elsif ((substring (option vendor-class-identifier, 0, 9)
= "PXEClient") or
(substring (option vendor-class-identifier, 0, 9)
= "Etherboot")) {
# i386 and x86_64
filename "pxelinux.0";
next-server 197.1.1.1;
} else {
filename "/install/sbin/kickstart.cgi";
next-server 197.1.1.1;
}
host beagle.local {
hardware ethernet 00:e0:7d:b4:e1:13;
option host-name "beagle.local";
fixed-address 197.1.1.1;
}
host node00.local {
hardware ethernet 00:1b:b9:e2:0d:18;
option host-name "node00.local";
fixed-address 197.1.1.100;
}
host node01.local {
127.0.0.1
localhost
197.1.1.1
beagle.local
beagle
197.1.1.100
node00.local
node00
197.1.1.101
node01.local
node01
197.1.1.102
node02.local
node02
197.1.1.103
node03.local
node03
197.1.1.104
node04.local
node04
197.1.1.105
node05.local
node05
197.1.1.106
node06.local
node06
197.1.1.107
node07.local
node07
197.1.1.108
node08.local
node08
197.1.1.109
node09.local
node09
Editamos /etc/defaults/tfptd-hpa:
#Defaults for tftpd-hpa
RUN_DAEMON="yes"
OPTIONS="-l -s /tftpboot"
Descargamos el netboot para Ubuntu amd64:
cd /tftpboot
wget http://tezcatl.fciencias.unam.mx/ubuntu/dists/gutsy/main/installeramd64/current/images/netboot/netboot.tar.gz
tar zxvf netboot.tar.gz
Reiniciamos el servicio:
/etc/init.d/tftpd-hpa restart
SGE
Para SGE agregamos un usuario sgeadmin, descargamos los archivos y
corremos el script de instalacin, muchas opciones se toman por defecto:
adduser sgemaster
wget http://gridengine.sunsource.net/download/SGE61/ge-6.1u3-common.tar.gz
wget http://gridengine.sunsource.net/download/SGE61/ge-6.1u3-bin-lx24amd64.tar.gz
tar zxvf ge-6.1u3-common.tar.gz
tar zxvf ge-6.1u3-bin-lx24-amd64.tar.gz
./install-qmaster
Servidor Web
Instalamos Apache:
wget http://downloads.sourceforge.net/ganglia/ganglia-3.0.7.tar.gz?
modtime=1204128965&big_mirror=0
tar zxvf ganglia*
cd ganglia*
./configure --with-gmetad
make
mkdir /var/www/ganglia
Esta es la segunda parte del montaje de un clster con Linux Ubuntu, ahora
veremos la instalacin y configuracin de los nodos esclavos.
copiarlas a cada unos de los nodos con rcp. Este paso va a solicitar varias
veces la contrasea, pero ser nica vez que lo hagamos. su - ssh-keygen cp
.ssh/id_pub .ssh/authorized_keys for NODE in `cat /etc/machines` do rsh
$NODE mkdir .ssh rcp .ssh/authorized_keys $NODE:.ssh/authorized_keys done
En los siguientes pasos se requiere que se acceda a cada nodo como root.
Exportando HOMENos conectamos al nodo, instalamos el paquete NFS,
editamos /etc/fstab para montar /home desde el nodo maestro, borramos el
contenido del viejo HOME y montamos:
cp web/* /var/www/ganglia
Editamos la configuracin de Apache para acceso a ganglia en
/etc/apache2/sites-enabled/000-default
Ahora instalamos lo paquetes ya compilados (cuidado con las versiones que se
instal desde fuente y estas):
apt-get install ganglia-monitor gmetad
Se puede editar los archivos /etc/gmond.conf y /etc/gmetad.conf para
personalizar la configuracin.
Otros programas
Usamos apt-get o paquetes compilados, en nuestro caso por ejemplo
agregamos un servidor SSH, los compiladores bsicos y soporte para MPI: