EDICIóN GENERAL

Programadores antiguos vs programadores de hoy

#94 Adminsitro Unix principalmente Solaris y HP-UX, y ahora más Linux porque muchos de los productos que quieren instalar el cliente ya están para Linux y ahora ya no te viene SAP y te dice "La base de datos principal tiene que ser un Oracle y estar sobre un Solaris", sino que te da más versatilidad.

Cuando comencé hacía mis pinitos como desarrolladora de bases de datos.

La complejidad que comentas también está en el mundo de los sistemas. Como el software también es más complejo es completamente inviable migrar un producto de HP-UX sobre PA-RISC cuyo último parche salió hace 19 años a Linux o a HP-UX sobre Itanium, que al menos existen repuestos harware. Al final lo que se hace es poner un cluster con máquinas Itanium, crear una IVM y dentro de la IVM un SRP (es decir, una máquina virtual y con un contenedor dentro) que emula el sistema operativo para PA-RISC a partir de una imagen de la máquina física original.

Antes tenías un servidor físico en un centro y otro en otro. Un servidor un host, o al menos una system board equivalía a un hosts, según cableado y jumpers. Alta disponibilidad manual. Cuando se hacía la conmutación de un centro a otro se hacía un servidor cada día e implicaba un montón de cosas, desde cargar un backup manualmente del servidor activo al servidor de respaldo a tirar una interfaz en los switches y levantar otra.

Es decir, siempre sabías cual era el servidor activo, nunca conmutaban solos (te acordarías, o estaría en la pizarra cual era). Siempre sabías cuales eran los discos en uso y como estaba configurada la red.

La maqueta de pruebas era un servidor viejo.

Ahora para instalar una maqueta que tenga cierto parecido a un servicio que va a estar en producción cuando no tienes nada necesitas instalar y configurar una infraestructura de virtualizacón con alta disponibilidad y además todos los productos y capas que van en ello, todo para instalar una imagen docker que luego vas a personalizar para tu uso.

Y cuando la insfraestructura virtual falla o está mal configurada (pasa más veces de lo que parece en ciertas organizaciones grandes) arreglarlo no es trivial porque no tienes ni idea de donde está el fallo. Y si, ahora los servicios conmutan virtualmente ante fallos de hardware, y la conmutas manualmente con un click, pero mi experiencia me dice que ponerlo en marcha es un dolor de gónadas enorme, un tiempo de despliegue inicial y aprendizaje mucho mayor, para luego no tener tantos beneficios.

Eso si, si eres una organización enorme te sale a cuenta. O una organización de crecimiento exponencial.
#221 Válgame Dios, más que un comentario parecía un procedimiento jajaja. Cuando estoy fuera de horas de trabajo, salvo por privacidad y seguridad, me olvido de muchas cosas de lo que hago.

Cuidado con la tecnología. Mal empleada puede pasar factura, como invertir demasiado tiempo en ella, ser espiado/a, tener alguna fuga de información sin ser consciente, etc.

Por lo de la virtualización, soy propenso a virtualizar lo mínimo aunque reconozco sus ventajas, pero, desde mi punto de vista, si se hace a través de zonas de Solaris o LXC en Linux mejor :-)

Por cierto, ¿qué piensas de los FPGA, al margen de la información que pudiera haber por ahí?

Saludos.
#378 Antiguamente cuando conmutábamos un servicio con éxito de un CPD a otro descorchábamos una botella. O cuando sobrevivíamos al pico de más carga del año sin cortar el servicio, aunque haciendo operaciones manuales por el camino. Ahora conmuta solo y si está bien montado ni te enteras. Solo quería decir que en el mundo del hardware la complejidad también se ha incrementado mucho, para en ocasiones no ganar funcionalidad, o que no se note. Desde soporte de serie para cosas que no usas y no piensas usar a querer hacer una instalación pequeña de una maqueta de pruebas y tener que meterte con contenedores, virtualización...

Creo que aún les falta bastante a las FPGA para asaltar masivamente el datacenter, aunque tienen todo lo necesario. Habrá aplicaciones concretas en las que sobresalgan, pero la tendencia es la contraria. Incluso la electrónica de red dedicada se está sustituyendo por una pila software cada vez más grande y compleja, por ejemplo en en firewalls y balanceadores.

Pero vamos, si IBM perdió su supremacía en el Datacenter, ARM está encontrando su hueco y han surgido granjas de ASIC o GPU dedicadas para ciertas tareas no es descabellado que las FPGA tengan también el suyo. Y con una caducidad menor que las ASIC dedicadas. Aunque claro, mi bola de cristal necesita un pulido, porque el futuro no lo veo con claridad.

menéame