Discussion:
virtualización
Gonzalo Aguirre
2011-05-09 16:16:31 UTC
Permalink
Hola,
estoy empezando con un laburo que estoy en ela etapa de búsqueda de
información, el escenario es más o menos el siguiente: varios
laboratorios de unas cuantas máquinas donde por laboratorio hay
diferente arquitectura (todas x86), todas las máquinas tienen arranque
dual, y el software que tiene los distintos laboratorios está es
función de las clases que se dan en cada uno, con el tiempo las
imágenes se fueron haciendo prácticamente inmanejables.

Ahora mismo está la necesidad de simplificar un poco el tema de
tener y mantener, en principio, 5 imágenes diferentes bastante grandes
(aproximadamente unos 20Gb), adaptadas a las arquitecturas... había
pensado en una primera fase meter un host linux mínimo que sería el
que depende de la arquitectura, que dé login y se pueda arrancar
virtualmente linux/win, con esto me quedo con una sola imagen, además
de todos los beneficios que tengo por la virtualización.

Una vez que esté funcionando, sería interesante que una copia de la
imagen se haga por red desde un servidor a una máquina del
laboratorio, y después desde esa máquina que se vayan copiando a las
distintas máquinas del laboratorio para no saturar la red.

Era por si alguien había estado laburando con algo similar para que
me tire algún tip. Si no se entiende nada avisen ;), gracias!!!!

Saludos!
--
GA
ankel bgx
2011-05-09 17:20:23 UTC
Permalink
El día 9 de mayo de 2011 13:16, Gonzalo Aguirre
Hola,
 estoy empezando con un laburo que estoy en ela etapa de búsqueda de
información, el escenario es más o menos el siguiente: varios
laboratorios de unas cuantas máquinas donde por laboratorio hay
diferente arquitectura (todas x86), todas las máquinas tienen arranque
dual, y el software que tiene los distintos laboratorios está es
función de las clases que se dan en cada uno, con el tiempo las
imágenes se fueron haciendo prácticamente inmanejables.
 Ahora mismo está la necesidad de simplificar un poco el tema de
tener y mantener, en principio, 5 imágenes diferentes bastante grandes
(aproximadamente unos 20Gb), adaptadas a las arquitecturas... había
pensado en una primera fase meter un host linux mínimo que sería el
que depende de la arquitectura, que dé login y se pueda arrancar
virtualmente linux/win, con esto me quedo con una sola imagen, además
de todos los beneficios que tengo por la virtualización.
 Una vez que esté funcionando, sería interesante que una copia de la
imagen se haga por red desde un servidor a una máquina del
laboratorio, y después desde esa máquina que se vayan copiando a las
distintas máquinas del laboratorio para no saturar la red.
 Era por si alguien había estado laburando con algo similar para que
me tire algún tip. Si no se entiende nada avisen ;), gracias!!!!
Podes usar Clonezilla Server para manejar las imagenes de todas las
maquinas, la mayoría de las veces en Linux solo necesitas dos Imágenes
(una i386 y otra amd64) si armas una que tenga todos los drivers no
vas a tener problemas con las maquinas.

Por otro lado si tu intención es mudarte a un modelo virtualizado
podes usar sistemas como por ejemplo eyeOS, si solo vas a utilizar
Linux podes levantar thin clients que se conecten a las maquinas guest
de un servidor de virtualización.

Son las cosas que se me ocurren.

Salu/tty

"4nke7"·"ankel.bgx"
ankel.bgx(gmail|hotmail)
Linux·User·#389232
Gonzalo Aguirre
2011-05-10 15:09:06 UTC
Permalink
Post by ankel bgx
El día 9 de mayo de 2011 13:16, Gonzalo Aguirre
Hola,
 estoy empezando con un laburo que estoy en ela etapa de búsqueda de
información, el escenario es más o menos el siguiente: varios
laboratorios de unas cuantas máquinas donde por laboratorio hay
diferente arquitectura (todas x86), todas las máquinas tienen arranque
dual, y el software que tiene los distintos laboratorios está es
función de las clases que se dan en cada uno, con el tiempo las
imágenes se fueron haciendo prácticamente inmanejables.
 Ahora mismo está la necesidad de simplificar un poco el tema de
tener y mantener, en principio, 5 imágenes diferentes bastante grandes
(aproximadamente unos 20Gb), adaptadas a las arquitecturas... había
pensado en una primera fase meter un host linux mínimo que sería el
que depende de la arquitectura, que dé login y se pueda arrancar
virtualmente linux/win, con esto me quedo con una sola imagen, además
de todos los beneficios que tengo por la virtualización.
 Una vez que esté funcionando, sería interesante que una copia de la
imagen se haga por red desde un servidor a una máquina del
laboratorio, y después desde esa máquina que se vayan copiando a las
distintas máquinas del laboratorio para no saturar la red.
 Era por si alguien había estado laburando con algo similar para que
me tire algún tip. Si no se entiende nada avisen ;), gracias!!!!
Podes usar Clonezilla Server para manejar las imagenes de todas las
maquinas, la mayoría de las veces en Linux solo necesitas dos Imágenes
(una i386 y otra amd64) si armas una que tenga todos los drivers no
vas a tener problemas con las maquinas.
creo que clonezilla server es lo que estoy buscando. Aunque vi que un
posible cuello de botella está en la red que recomiendan que sea
ethernet gigabit. Pero eso hasta no hacer pruebas no puedo comparar
con lo que hay ahora.
Post by ankel bgx
Por otro lado si tu intención es mudarte a un modelo virtualizado
podes usar sistemas como por ejemplo eyeOS, si solo vas a utilizar
Linux podes levantar thin clients que se conecten a las maquinas guest
de un servidor de virtualización.
La idea de virtualizar es para simplificar las copias, un modelo de
cloud computing no me serviría como eyeOS, ya que las aplicaciones
suelen ser del estilo CAD/CAM (autocad, 3ds) hasta entornos de
desarrollo (estilo eclipse, netbeans, etc) y la tendencia es que cada
vez sean más aplicaciones, normalmente depende de lo que pidan en cada
materia que se da en un laboratorio específico.

Voy a arrancar con clonzilla, después cuento los progresos.
--
GA
ankel bgx
2011-05-10 15:37:03 UTC
Permalink
Post by Gonzalo Aguirre
creo que clonezilla server es lo que estoy buscando. Aunque vi que un
posible cuello de botella está en la red que recomiendan que sea
ethernet gigabit. Pero eso hasta no hacer pruebas no puedo comparar
con lo que hay ahora.
Actualmente yo lo estoy usando en una Red ethernet megabit y no tinene
ningun problema para clonar entre 15 y 20 maquinas en aproximadamente
12 minutos transfiriendo a un promedio de 650 Mb/min lo que son aprox
10Mb/s de transferencia. La imagene que actualmente tengo son de unos
15 a 20 Gb.

Funciona perfectamente, tenes que tener cuidado con los discos y el
tamaño de los discos, yo recomiendo que las im{agenes las hagas
siempre usando los discoa maschicos que tengas en el lab, y que no
uses el disco entero, sino que dejes unos 512 Mb libres al final del
disco, asi no tenes problemas cuando clonas en discos de distintos
tamañas. No falla si clonas de "chico" a "grande", pero de manera
inversa te va a fallar diciendote que no el disco destino es maschico
que la imagen que queres clonar, esto pasa inclusive con modelos
distintos del mismo fabricante y supuestamente del mismo tamaño. (eg .
WD80 Gb).

Salu/tty

"4nke7"·"ankel.bgx"
ankel.bgx(gmail|hotmail)
Linux·User·#389232
Alejandro Vargas
2011-05-12 07:06:30 UTC
Permalink
El día 9 de mayo de 2011 18:16, Gonzalo Aguirre
 Una vez que esté funcionando, sería interesante que una copia de la
imagen se haga por red desde un servidor a una máquina del
laboratorio, y después desde esa máquina que se vayan copiando a las
distintas máquinas del laboratorio para no saturar la red.
La gran ventaja de las máquinas virtuales es que no hay necesidad de
utilizar sistemas especiales de copia de seguridad. Basta con un tar
de un directorio para tener una copia de todo el estado de la máquina.
Yo tengo una máquina virtual con un windows que se restaura a su
estado ORIGINAL todas las noches. O sea, una vez instalado y
configurado hice una copia de seguridad sobre el mismo disco. Todas
las noches el cron para la máquina virtual, restaura la copia y la
vuelve a arrancar. No es necesario copiar por red.

Loading...