EDICIóN GENERAL

Programadores antiguos vs programadores de hoy

#79 #85 No soy programador (soy de sistemas) pero sí hice alguna cosilla en programación. No me iba mal, no, pero decidí rechazarla, quizá por el tiempo que invertía, y para meterme en puñetas virtuales o "frameworks" como bien dice squanchy prefiero ni acercarme. Aunque siempre tuve cierta curiosidad por el ensablador (aunque requiere muuuchas hooras).

La idea está en que hemos llegado a un momento en que, a diferencia de lo que se programaba hace 20 o incluso 30 años y para hacer algo similar, y que corresponde a lo que nos quejamos muchos, todo es muchísimo más pesado, sobretodo en la programación en entornos Windows o incluso móvil, Todo es parecido, pero orientado a la "facilidad" de programación y no a la eficiencia. En cuanto a "librerías", que yo sepa, estas ya se usaban en C con la programación en alto nivel (que sepa, aquí me meto ya en terreno pantanoso para mí :p).

Ahora me iré de madre un poco. Cuando tuve mi primer ordenador en casa (el Amstrad PC3086 que comenté con @barcelonauta), vino con este el Lotus 1-2-3 versión 2.01. Qué pasada. En un disquete de 720K tenía una estupenda hoja de cálculo con el que hacía gráficos de barras normales, apiladas y sectores, y creo que líneas también. Los imprimía en la matricial que me venía. Y si me apuráis... ¡monté DOBLE PANTALLA en mi XT para el Lotus y funcionaba, ya lo creo! Macros incluidas. Ahora está todo orientado al gráfico, pero a nivel funcional... psé. Sí, bueno, el copiar-pegar (el texto bien manipulado no necesita copiar-pegar), pero si nos parásemos a pensar, poco más. ¿Iconitos? ¿La web? ¿TLS requiere GUI? ¿No os acordáis del IRC? :-D

Los entornos gráficos son más "bonitos", pero menos funcionales realmente.

Aprendí con consolas MS-DOS, tuve MS-DOS en mi casa y mi ordenador me vino sin disco duro, pero no porque no los hubiese sino porque me acuerdo como si fuese ayer (con la ilusión que me desbordaba) que le dije a mi madre que lo quería "sin".
#94 Descárgate un keygen de esos que se usan para activar un producto de forma pirata, de los que tienen incluso música y efectos gráficos: no pesan absolutamente nada.

Pero claro, están programados en ensamblador accediendo directamente a las librerías de Windows, sin capas intermedias para facilitar el trabajo. Hay hasta concursos con keygens falsos a ver quién hace mas con menos.
#94 Adminsitro Unix principalmente Solaris y HP-UX, y ahora más Linux porque muchos de los productos que quieren instalar el cliente ya están para Linux y ahora ya no te viene SAP y te dice "La base de datos principal tiene que ser un Oracle y estar sobre un Solaris", sino que te da más versatilidad.

Cuando comencé hacía mis pinitos como desarrolladora de bases de datos.

La complejidad que comentas también está en el mundo de los sistemas. Como el software también es más complejo es completamente inviable migrar un producto de HP-UX sobre PA-RISC cuyo último parche salió hace 19 años a Linux o a HP-UX sobre Itanium, que al menos existen repuestos harware. Al final lo que se hace es poner un cluster con máquinas Itanium, crear una IVM y dentro de la IVM un SRP (es decir, una máquina virtual y con un contenedor dentro) que emula el sistema operativo para PA-RISC a partir de una imagen de la máquina física original.

Antes tenías un servidor físico en un centro y otro en otro. Un servidor un host, o al menos una system board equivalía a un hosts, según cableado y jumpers. Alta disponibilidad manual. Cuando se hacía la conmutación de un centro a otro se hacía un servidor cada día e implicaba un montón de cosas, desde cargar un backup manualmente del servidor activo al servidor de respaldo a tirar una interfaz en los switches y levantar otra.

Es decir, siempre sabías cual era el servidor activo, nunca conmutaban solos (te acordarías, o estaría en la pizarra cual era). Siempre sabías cuales eran los discos en uso y como estaba configurada la red.

La maqueta de pruebas era un servidor viejo.

Ahora para instalar una maqueta que tenga cierto parecido a un servicio que va a estar en producción cuando no tienes nada necesitas instalar y configurar una infraestructura de virtualizacón con alta disponibilidad y además todos los productos y capas que van en ello, todo para instalar una imagen docker que luego vas a personalizar para tu uso.

Y cuando la insfraestructura virtual falla o está mal configurada (pasa más veces de lo que parece en ciertas organizaciones grandes) arreglarlo no es trivial porque no tienes ni idea de donde está el fallo. Y si, ahora los servicios conmutan virtualmente ante fallos de hardware, y la conmutas manualmente con un click, pero mi experiencia me dice que ponerlo en marcha es un dolor de gónadas enorme, un tiempo de despliegue inicial y aprendizaje mucho mayor, para luego no tener tantos beneficios.

Eso si, si eres una organización enorme te sale a cuenta. O una organización de crecimiento exponencial.
#221 Válgame Dios, más que un comentario parecía un procedimiento jajaja. Cuando estoy fuera de horas de trabajo, salvo por privacidad y seguridad, me olvido de muchas cosas de lo que hago.

Cuidado con la tecnología. Mal empleada puede pasar factura, como invertir demasiado tiempo en ella, ser espiado/a, tener alguna fuga de información sin ser consciente, etc.

Por lo de la virtualización, soy propenso a virtualizar lo mínimo aunque reconozco sus ventajas, pero, desde mi punto de vista, si se hace a través de zonas de Solaris o LXC en Linux mejor :-)

Por cierto, ¿qué piensas de los FPGA, al margen de la información que pudiera haber por ahí?

Saludos.
#378 Antiguamente cuando conmutábamos un servicio con éxito de un CPD a otro descorchábamos una botella. O cuando sobrevivíamos al pico de más carga del año sin cortar el servicio, aunque haciendo operaciones manuales por el camino. Ahora conmuta solo y si está bien montado ni te enteras. Solo quería decir que en el mundo del hardware la complejidad también se ha incrementado mucho, para en ocasiones no ganar funcionalidad, o que no se note. Desde soporte de serie para cosas que no usas y no piensas usar a querer hacer una instalación pequeña de una maqueta de pruebas y tener que meterte con contenedores, virtualización...

Creo que aún les falta bastante a las FPGA para asaltar masivamente el datacenter, aunque tienen todo lo necesario. Habrá aplicaciones concretas en las que sobresalgan, pero la tendencia es la contraria. Incluso la electrónica de red dedicada se está sustituyendo por una pila software cada vez más grande y compleja, por ejemplo en en firewalls y balanceadores.

Pero vamos, si IBM perdió su supremacía en el Datacenter, ARM está encontrando su hueco y han surgido granjas de ASIC o GPU dedicadas para ciertas tareas no es descabellado que las FPGA tengan también el suyo. Y con una caducidad menor que las ASIC dedicadas. Aunque claro, mi bola de cristal necesita un pulido, porque el futuro no lo veo con claridad.
#94 Por curiosidad, ¿por qué lo querías sin disco duro? Yo tuve un Amstrad PC2086 con disco duro de 30 MB xD , y no me imagino la pesadilla que sería tener que arrancar y usar el sistema operativo siempre desde disquete. Aparte de que sin disco duro no era posible tener Windows, que yo sepa. Ni siquiera el Windows 2.0 que usaba por aquel entonces...
#287 Los inicios de la informática que estudié fueron de niño, en un aula con ordenadores de pantalla monocromo. Relamente hubieron dos aulas diferentes, una por curso. La primera fue con monitores de fósforo verde, y en la segunda algunas pantallas pasaron a ser de blanco y negro. Estudiábamos conceptos del GW-BASIC y el famoso Logo.

Los ordenadores no tenían disco duro salvo 2 o 3 en el segundo curso, por lo que decidí que mi ordenador se asemejara a estos. Quería hacer mis experimentos y no tener la comodidad de los discos duros que ya palpé en el aula. Eso sí, el color de mi monitor me maravilló. VGA de 256 colores era brutal (precisamente, igual pasa a día de hoy). Una ventaja de no tener disco duro es menor ruido.

El concepto de la informática ha cambiado para el usuario en los últimos 30 años. Realmente es ventajoso e importante conocer y llegar a los límites de una máquina, pero lo más importante es que sepamos dónde está nuestra información en todo momento y qué se hace con esta, algo verdaderamente complicado en estos tiempos que se quiere - casi que obliga - digitalizar todo.

Ah, igualmente pude tener unos cuantos MB de disco gracias al Iomega ZIP de 100MB al cabo de unos años :-) .

menéame