Qué denominación tan curiosa y un poco chocante, pero el caso es que hoy me he unido a Ibercivis, un proyecto español que usa una infraestructura de código libre, BOINC.
Es una forma de emplear los recursos muchas veces desaprovechados de nuestros ordenadores, para colaborar en uno o más proyectos científicos.
Si además de en Ibercivis nos interesa participar en algún otro proyecto, como por ejemplo el de la vía láctea, puede empezarse por crear una cuenta en un administrador de cuentas como BAM, donde tenemos instrucciones paso a paso para empezar a computar ciudadanamente :-).
sábado, 29 de agosto de 2009
miércoles, 26 de agosto de 2009
más Ronsard
Este Pierre no deja de alegrarme algún rato veraniego, ya sea con el amor, con la muerte o, sorpresa, con la paz. De lo primero ya hay muestras en el blog, pero cómo no escuchar tan sabios consejos ...
De lo segundo aquí está el "Epitafio de Jacques Mernable, Cómico"
Y en una temática inusual, una hermosa "Inscripción por la Paz"
Aunque veas que es algo puta tu bienamada,
no debieras por eso enojarte con ella;
¿odiarías acaso a tu amigo más fiel
porque jura a menudo y es un poco colérico?
Es mejor que no tomes aversión a pecados
cuando no se cometen de una forma continua;
con la amada más bella que confiesa su culpa
y te pide perdón, ¿por qué no ser clemente?
Me diras que tu amiga es honesta y gentil,
yo te digo que Cintia fue también muy honesta,
a la que sabios versos dedicara Propercio,
sin dejar de tener otros muchos amores;
buen amigo, paciencia, porque tú no eres más
de lo que fue Catulo y Tibulo y Propercio.
De lo segundo aquí está el "Epitafio de Jacques Mernable, Cómico"
Mernable, siempre viviste
sin tener casa ni mesa,
tan pobre que nunca viste
un puchero muy de cerca.
Ganas ahora al morirte,
mesa no echarás en falta,
ni puchero, no estés triste;
y tendrás por siempre casa.
Y en una temática inusual, una hermosa "Inscripción por la Paz"
Que aniden en los cascos las abejas
y haya moho en la espada del guerrero;
y que teja la araña en la armadura,
y el laurel se haga olivo con el tiempo.
Etiquetas:
poesía
jueves, 13 de agosto de 2009
Geodesia, cartografía y SIGlas
SIGlas, están por todas partes. Como ocurre cada vez más con los Sistemas de Información Geográficos, SIG, o en inglés GIS. Sobre todo están en internet al alcance de todos con Google Maps o con Google Earth. El agro les utiliza también por ejemplo para pedir las ayudas de la PAC de la UE.
Los SIG tienen una vertiente gráfica, de presentación de las diferentes capas de información disponibles, incluyenda fotografías. Estas a veces son ortofotos, fotografías especialmente "retocadas" para que su imagen bidimensional refleje fielmente las posiciones reales de las características del terreno.
Pero los SIG tiene otra vertiente: posicionar geográficamente de forma precisa la información mostrada. Cuando se trata de determinar la posición de un punto en el espacio debemos usar un sistema de referencia, con su origen, sus ejes, y las coordenadas y unidades a emplear para definir con 3 números ese punto. Pero cuando hablamos de puntos sobre la superficie terrestre, debemos tratar con la señora Geodesia.
Una antepasada de la actual Geodesia ya determinó que la superficie terrestre era casi esférica, pero no del todo por culpa de estar más abombada en el ecuador, por la dichosa rotación terrestre. Intentando ajustar lo más posible la rugosa superficie a un cuerpo imaginario sencillo, se empleó como tal un elipsoide oblato, una superficie generada al girar una elipse alrededor de su eje menor.
Una vez que se tiene un elipsoide de referencia, cada punto del mismo se determina por dos coordenadas angulares, latitud y longitud, que fijan el aspecto "horizontal" de la posición de un punto sobre la superficie terrestre. En la perpendicular a la superficie del elipsoide de referencia se mide la distancia desde el mismo hasta el punto del terreno sobre (o bajo) el elipsoide y esa es la altura elipsoidal, el aspecto "vertical". Así con 3 números, se determina cada punto de la superficie terrestre.
Esta es una descripción puramente geométrica, buena para posicionar puntos. Tiene su interés, pero ... Siempre parece haber más peros que peras. Para saber qué se va a hacer cuesta arriba, o por dónde correrá el agua cuesta abajo, hay que mirar la gravedad de la situación, digo la fuerza de la gravedad. Esta puede representarse en cada punto por una flecha hacia abajo en el sentido de la plomada. Esa flecha imaginaria es perpendicular a una superficie (imaginaria) de potencial gravitatorio efectivo constante. Dos puntos del terreno sobre una misma superficie equipotencial pueden unirse mediante vasos comunicantes de modo que el líquido reposa sobre tal superficie imaginaria. A la superficie equipotencial que ocupa el nivel medio del mar se le denomina Geoide. El Geoide tiene pues un origen físico, y está afectado por la distribución de masas tanto a escalas globales como en particular a escalas locales. Cuando se da la altura de un punto de la superficie terrestre respecto al Geoide, medida según la línea de la plomada, se habla de altura ortométrica, o de elevación.
En muchos SIG interesa sólo la posición "horizontal", y se dan dos coordenadas, latitud y longitud. Para interpretar tales coordenadas debe aclararse qué elipsoide de referencia se usa, dónde se pone su origen, y cómo se orientan sus ejes. Todas estas características (y algunos otros detalles más) definen lo que se llama un datum geodésico.
¿Qué datum geodésico emplea Google Earth? El WGS84, que es el usado para indicar las posiciones con el sistema GPS. ¿Cual es el elipsoide de referencia usado por WGS84? Pues el elipsoide definido como parte de la especificación del GRS80 con sus 6.378.137m de semieje mayor y sus 6.356.752,3141m de semieje menor ¿Y dónde se coloca el centro del elipsoide? En el centro de masas de la Tierra (con sus líquidos y gases incluidos). ¿Y cómo se orientan sus ejes? Pues con cuidado :-), de modo que justo a las 24h del 31 de diciembre de 1983 el ecuador y el primer meridiano (el usado como origen para la longitud) del elipsoide coincidan con el ecuador y primer meridiano del Bureau Internationale de l´Heure. Oh la la. La orientación final de un sistema de referencia terrestre se debe hacer respecto a un sistema de referencia celeste. Pero dejemos eso para otro día.
Podemos imaginar una foto del elipsoide y sus ejes aquel fin de año de 1983, junto a los distintos continentes, pero al cabo de los años ¿seguirán igual las cosas? Aquí entra en juego un aspecto de la superficie terrestre no tenido en cuenta hasta ahora. Resulta que el terreno se mueve, sobre todo por la deriva de las placas tectónicas. Unas se acercan entre sí y chocan, otras se van alejando. Como el elipsoide y sus ejes son algo fijo, ¿de que forma seguir vinculandolo a la superficie? Se adopta el criterio de medir la deriva de todas las placas y formar un promedio. Ese promedio global es al que se "ata" la orientación de los ejes del elipsoide.
Así WGS84 es realmente un datum global, útil para relacionar puntos de cualquier parte del mundo. Pero precisamente esto es una pega para aplicaciones que se refieren a cierta parte de una misma placa, pues sus coordenadas varían a lo largo del tiempo con la deriva tectónica, aunque no cambien en términos relativos.
Para estos casos es preferible definir un datum geodésico local. Para Europa se ha decido usar el ETRS89. En esencia ETRS89 es un datum que coincidió exactamente con WGS84 en la fecha 1989,0. Usa el mismo elipsoide con el mismo origen pero la orientación se mantiene "atada" a la placa euroasiática sobre la que está Europa, y en concreto la Península Ibérica y Baleares. A partir del 1 de enero de 1989 ETRS89 se va separando de WGS84 tanto como la deriva de la placa euroasiática se salga del promedio global, pero las coordenadas de los puntos en Europa no cambian en ETRS89. Parece que hoy en día la separación entre ambos sistemas de referencia no sobrepasa los 50cm.
Por todo ello, y mucho más, en España se ha adoptado oficialmente mediante Real Decreto 1071/2007, de 27 de julio
Para Canarias, que esta sobre la placa africana, se emplea otro sistema de referencia específico. ¿Y para Ceuta y Melilla?
Además el Real Decreto indica que
Aquí vemos la referencia al sistema empleado anteriormente, ED50 (European Datum 1950), que usa el elipsoide internacional de 1924 (o de Hayford de 1909, vivan los años), y tiene un caracter local, de ámbito europeo. Las diferencias entre los elipsoides usados y entre el origen y orientación en cada caso llevan a que en España las coordenadas de un mismo punto en ambos sistemas difieran en unos pocos segundos de arco en longitud y latitud.
Si se busca un mismo punto de referencia, por ejemplo en la Puerta del Sol de Madrid, con Google Earth y su WGS89 por un lado

y con el visor Sigpac y su ED50 por otro

las coordenadas de latitud y longitud difieren un poco. La diferencia salta mejor a la vista si por ejemplo en Google Earth se busca el punto que tiene por coordenadas WGS84 las que tiene el de referencia en SigPac, en el datum ED50. En la imagen se ha determinado que la distancia entre ambos puntos es de unos 170m. y hay diferencia tanto en el sentido norte-sur como en el este-oeste.

Aunque hemos visto coordenadas angulares expresando latitud y longitud, en la imagen del SigPac pueden verse tambien unas coordenadas UTM X e Y y una referencia al huso 30

Y es que una cosa son las coordenadas sobre un elipsoide, y otra plasmar una superficie elipsoidal, con curvatura, sobre una superficie plana como la de los planos o mapas, o una pantalla de ordenador. Para el paso de una superficie a la otra se usan las proyecciones, y las hay de todos los tipos. Una de las usadas es la transversa de Mercator. En lo que se denomina UTM, se define un sistema de coordenadas en el plano para plasmar gran parte del elipsoide terrestre, dividiendo el mundo en 60 husos que van en latitud de sur a norte y comprenden una estrecha franja en longitud de 6º; además se define una proyección transversa de Mercator con parámetros específicos, y unas convenciones sobre los origenes de las X e Y. Todo para conseguir asignar a los puntos del elipsoide unos valores de coordenadas cartesianas planas (X,Y) que permitan emplear el teorema de pitágoras para el cálculo de distancias entre puntos del mapa sabiendo la (X,Y) de cada punto. Esto es mucho más fácil que calcular esa distancia a base de la longitud y latitud de los puntos.
Y ahora unos enlaces a recursos interesantes, en inglés. Si hay que elegir sólo uno, sería la Guía a los sistemas de coordenadas en Gran Bretaña, una de las exposiciones más claras y amigables.
Los diferentes organismos del gobierno estadounidense son un rico filón informativo, por ejemplo el glosario geodésico de la NOAA (y resto del sitio web), una referencia al WGS84 del propio DoD, la Geodesia para el gran público, Artículos básicos sobre geodesia de la NGIA de USA, y resto del sitio web. O el tocho Map Projections A Working Manual.
Por el lado europeo tenemos WGS 84 Implementation Manual o un sitio particular sobre proyeciones y sistemas de coordenadas. Y en castellano podemos visitar el Instituto Geográfico de España, o esta interesante web.
Los SIG tienen una vertiente gráfica, de presentación de las diferentes capas de información disponibles, incluyenda fotografías. Estas a veces son ortofotos, fotografías especialmente "retocadas" para que su imagen bidimensional refleje fielmente las posiciones reales de las características del terreno.
Pero los SIG tiene otra vertiente: posicionar geográficamente de forma precisa la información mostrada. Cuando se trata de determinar la posición de un punto en el espacio debemos usar un sistema de referencia, con su origen, sus ejes, y las coordenadas y unidades a emplear para definir con 3 números ese punto. Pero cuando hablamos de puntos sobre la superficie terrestre, debemos tratar con la señora Geodesia.
Una antepasada de la actual Geodesia ya determinó que la superficie terrestre era casi esférica, pero no del todo por culpa de estar más abombada en el ecuador, por la dichosa rotación terrestre. Intentando ajustar lo más posible la rugosa superficie a un cuerpo imaginario sencillo, se empleó como tal un elipsoide oblato, una superficie generada al girar una elipse alrededor de su eje menor.
Una vez que se tiene un elipsoide de referencia, cada punto del mismo se determina por dos coordenadas angulares, latitud y longitud, que fijan el aspecto "horizontal" de la posición de un punto sobre la superficie terrestre. En la perpendicular a la superficie del elipsoide de referencia se mide la distancia desde el mismo hasta el punto del terreno sobre (o bajo) el elipsoide y esa es la altura elipsoidal, el aspecto "vertical". Así con 3 números, se determina cada punto de la superficie terrestre.
Esta es una descripción puramente geométrica, buena para posicionar puntos. Tiene su interés, pero ... Siempre parece haber más peros que peras. Para saber qué se va a hacer cuesta arriba, o por dónde correrá el agua cuesta abajo, hay que mirar la gravedad de la situación, digo la fuerza de la gravedad. Esta puede representarse en cada punto por una flecha hacia abajo en el sentido de la plomada. Esa flecha imaginaria es perpendicular a una superficie (imaginaria) de potencial gravitatorio efectivo constante. Dos puntos del terreno sobre una misma superficie equipotencial pueden unirse mediante vasos comunicantes de modo que el líquido reposa sobre tal superficie imaginaria. A la superficie equipotencial que ocupa el nivel medio del mar se le denomina Geoide. El Geoide tiene pues un origen físico, y está afectado por la distribución de masas tanto a escalas globales como en particular a escalas locales. Cuando se da la altura de un punto de la superficie terrestre respecto al Geoide, medida según la línea de la plomada, se habla de altura ortométrica, o de elevación.
En muchos SIG interesa sólo la posición "horizontal", y se dan dos coordenadas, latitud y longitud. Para interpretar tales coordenadas debe aclararse qué elipsoide de referencia se usa, dónde se pone su origen, y cómo se orientan sus ejes. Todas estas características (y algunos otros detalles más) definen lo que se llama un datum geodésico.
¿Qué datum geodésico emplea Google Earth? El WGS84, que es el usado para indicar las posiciones con el sistema GPS. ¿Cual es el elipsoide de referencia usado por WGS84? Pues el elipsoide definido como parte de la especificación del GRS80 con sus 6.378.137m de semieje mayor y sus 6.356.752,3141m de semieje menor ¿Y dónde se coloca el centro del elipsoide? En el centro de masas de la Tierra (con sus líquidos y gases incluidos). ¿Y cómo se orientan sus ejes? Pues con cuidado :-), de modo que justo a las 24h del 31 de diciembre de 1983 el ecuador y el primer meridiano (el usado como origen para la longitud) del elipsoide coincidan con el ecuador y primer meridiano del Bureau Internationale de l´Heure. Oh la la. La orientación final de un sistema de referencia terrestre se debe hacer respecto a un sistema de referencia celeste. Pero dejemos eso para otro día.
Podemos imaginar una foto del elipsoide y sus ejes aquel fin de año de 1983, junto a los distintos continentes, pero al cabo de los años ¿seguirán igual las cosas? Aquí entra en juego un aspecto de la superficie terrestre no tenido en cuenta hasta ahora. Resulta que el terreno se mueve, sobre todo por la deriva de las placas tectónicas. Unas se acercan entre sí y chocan, otras se van alejando. Como el elipsoide y sus ejes son algo fijo, ¿de que forma seguir vinculandolo a la superficie? Se adopta el criterio de medir la deriva de todas las placas y formar un promedio. Ese promedio global es al que se "ata" la orientación de los ejes del elipsoide.
Así WGS84 es realmente un datum global, útil para relacionar puntos de cualquier parte del mundo. Pero precisamente esto es una pega para aplicaciones que se refieren a cierta parte de una misma placa, pues sus coordenadas varían a lo largo del tiempo con la deriva tectónica, aunque no cambien en términos relativos.
Para estos casos es preferible definir un datum geodésico local. Para Europa se ha decido usar el ETRS89. En esencia ETRS89 es un datum que coincidió exactamente con WGS84 en la fecha 1989,0. Usa el mismo elipsoide con el mismo origen pero la orientación se mantiene "atada" a la placa euroasiática sobre la que está Europa, y en concreto la Península Ibérica y Baleares. A partir del 1 de enero de 1989 ETRS89 se va separando de WGS84 tanto como la deriva de la placa euroasiática se salga del promedio global, pero las coordenadas de los puntos en Europa no cambian en ETRS89. Parece que hoy en día la separación entre ambos sistemas de referencia no sobrepasa los 50cm.
Por todo ello, y mucho más, en España se ha adoptado oficialmente mediante Real Decreto 1071/2007, de 27 de julio
ETRS89 (European Terrestrial Reference System 1989) como sistema de referencia geodésico oficial en España para la referenciación geográfica y cartográfica en el ámbito de la Península Ibérica y las Islas Baleares. En el caso de las Islas Canarias, se adopta el sistema REGCAN95. Ambos sistemas tienen asociado el elipsoide GRS80 y están materializados por el marco que define la Red Geodésica Nacional por Técnicas Espaciales, REGENTE, y sus densificaciones
Para Canarias, que esta sobre la placa africana, se emplea otro sistema de referencia específico. ¿Y para Ceuta y Melilla?
Además el Real Decreto indica que
Toda la cartografía y bases de datos de información geográfica y cartográfica producida o actualizada por las Administraciones Públicas deberá compilarse y publicarse conforme a lo que se dispone en este real decreto a partir del 1 de enero de 2015. Hasta entonces, la información geográfica y cartográfica oficial podrá compilarse y publicarse en cualquiera de los dos sistemas, ED50 o ETRS89, conforme a las necesidades de cada Administración Pública, siempre que las producciones en ED50 contengan la referencia a ETRS89.
Aquí vemos la referencia al sistema empleado anteriormente, ED50 (European Datum 1950), que usa el elipsoide internacional de 1924 (o de Hayford de 1909, vivan los años), y tiene un caracter local, de ámbito europeo. Las diferencias entre los elipsoides usados y entre el origen y orientación en cada caso llevan a que en España las coordenadas de un mismo punto en ambos sistemas difieran en unos pocos segundos de arco en longitud y latitud.
Si se busca un mismo punto de referencia, por ejemplo en la Puerta del Sol de Madrid, con Google Earth y su WGS89 por un lado

y con el visor Sigpac y su ED50 por otro

las coordenadas de latitud y longitud difieren un poco. La diferencia salta mejor a la vista si por ejemplo en Google Earth se busca el punto que tiene por coordenadas WGS84 las que tiene el de referencia en SigPac, en el datum ED50. En la imagen se ha determinado que la distancia entre ambos puntos es de unos 170m. y hay diferencia tanto en el sentido norte-sur como en el este-oeste.

Aunque hemos visto coordenadas angulares expresando latitud y longitud, en la imagen del SigPac pueden verse tambien unas coordenadas UTM X e Y y una referencia al huso 30

Y es que una cosa son las coordenadas sobre un elipsoide, y otra plasmar una superficie elipsoidal, con curvatura, sobre una superficie plana como la de los planos o mapas, o una pantalla de ordenador. Para el paso de una superficie a la otra se usan las proyecciones, y las hay de todos los tipos. Una de las usadas es la transversa de Mercator. En lo que se denomina UTM, se define un sistema de coordenadas en el plano para plasmar gran parte del elipsoide terrestre, dividiendo el mundo en 60 husos que van en latitud de sur a norte y comprenden una estrecha franja en longitud de 6º; además se define una proyección transversa de Mercator con parámetros específicos, y unas convenciones sobre los origenes de las X e Y. Todo para conseguir asignar a los puntos del elipsoide unos valores de coordenadas cartesianas planas (X,Y) que permitan emplear el teorema de pitágoras para el cálculo de distancias entre puntos del mapa sabiendo la (X,Y) de cada punto. Esto es mucho más fácil que calcular esa distancia a base de la longitud y latitud de los puntos.
Y ahora unos enlaces a recursos interesantes, en inglés. Si hay que elegir sólo uno, sería la Guía a los sistemas de coordenadas en Gran Bretaña, una de las exposiciones más claras y amigables.
Los diferentes organismos del gobierno estadounidense son un rico filón informativo, por ejemplo el glosario geodésico de la NOAA (y resto del sitio web), una referencia al WGS84 del propio DoD, la Geodesia para el gran público, Artículos básicos sobre geodesia de la NGIA de USA, y resto del sitio web. O el tocho Map Projections A Working Manual.
Por el lado europeo tenemos WGS 84 Implementation Manual o un sitio particular sobre proyeciones y sistemas de coordenadas. Y en castellano podemos visitar el Instituto Geográfico de España, o esta interesante web.
Etiquetas:
ciencia
viernes, 24 de julio de 2009
Luna 2
Con algún retraso, ya llegué a la luna, y varias veces, pues el libro "Digital Apollo" en su parte final describe los alunizajes de todas las misiones posteriores a la del Apolo 11, aunque con menor detalle que en este caso. Y desde luego casi ni cita al Apolo 13.
Una de las curiosidades en relación con el software es que este debía colocarse físicamente en la memoria "fija", equivalente a una ROM. En esa memoria, con nucleos magneticos en forma de anillos, el bit 0 o 1 se determinaba por la situación física de un hilo conductor respecto a un nucleo concreto: si pasaba por el interior del mismo, o lo sorteaba por el exterior. En definitiva, cuando el programa ya se había compilado y convertido en ceros y unos que debían escribirse en la memoria, la copia del programa implicaba crear la memoria físicamente a base de pasar los hilos adecuados por cada nucleo. Como eso resultaba muy laborioso, el software debía entregarse con un amplio margen antes de llegar a usarlo en cada misión. Y esa laboriosa y delicada labor de "confeccionar" la memoria la realizaban las LOLs, las Little Old Ladies, las viejecitas, experimentadas trabajadoras del sector textil, que ayudadas de máquinas especiales iban hilando bit a bit el programa en la memoria. Alucinante.
La otra curiosidad más destacable que se revela en el libro es la causa de las famosas alarmas del computador del modulo lunar que precedieron, y pusieron en peligro aparente, al alunizaje del Apolo 11.
La primera alarma se produjo tras llegar a los 37000 pies, cuando el radar de altitud empezó a responder dando su estimación. Cuando se iba a validar esa lectura, saltó la alarma. Aldrin preguntó al ordenador, con un comando, la naturaleza de la misma, con el resultado 1202. Abajo en la tierra los ingenieros del IL reconocieron que se trataba de una "sobrecarga del ejecutivo". El ordenador estaba sobresaturado, algo equivalente en Windows a ver en el administrador de tareas que la CPU está al 100% todo el tiempo. Algo estaba haciendo trabajar al ordenador más de la cuenta, incluso a pesar de que por diseño sólo se debía llegar al 85% de uso de la capacidad del ordenador cuando este estuviera a pleno rendimiento. Los ingenieros decidieron seguir, digamos que hacer caso omiso a la alarma. La alarma volvió a aparecer poco después del primer "seguir sin hacer caso". Pero poco después una acción automática que debía tener lugar se llevó a cabo sin problema. Parece que a pesar de todo el ordenador hacía lo que debía. Los ingenieros seguían estrujandose la sesera para dar con la causa de la alarma, buscando posibles "culpables" en alguno de los comandos al ordenador. A pesar de tanta alarma, Armstrong no abortó el descenso. Tras unos minutos se llegó a los 7000 pies y el ordenador cambió al programa adecuado, la fase de aproximación. Otra consulta a todos los controladores en tierra dió el resultado "GO". A 3000 pies otra alarma, esta vez 1201, del mismo tipo que la anterior, y despues otra 1202. El ritmo cardiaco de Amstrong pasó de los 120 a los 150 latidos por minuto.
El caso es que el único efecto adverso de las alarmas en el alunizaje fué desviar la atención de todos, incluido Armstrong, que miró por la ventanilla la zona de alunizaje más tarde de lo normal, a los 2000 pies, para darse cuenta de que había un gran cráter y una zona con muchas rocas grandes cubriendo buena parte de la superficie. El lugar no era el esperado, porque pronto en el descenso se vió que iban largos, con un poco más de velocidad de la debida. En esa parte final se describen las maniobras del comandante, con el mando para redesignar el punto de alunizaje, y pilotando con el sistema "manual", programa P66, desde los 550 pies. Hasta el esperado contacto, tras el que llegan las palabras de Buzz Aldrin
En el control de la misión el respiro y la alegría no retrasaron la febril actividad para saber la causa de la alarma, pues el módulo lunar debía despegar en pocas horas. Los ingenieros del IL fueron a sus simuladores a intentar reproducir la alarma, y uno de ellos llegó corriendo al laboratorio desde casa, para indicar que había visto ese problema en una simulación causado por el radar de acoplamiento (rendezvous) activado en AUTO al aterrizar. Enseguida se consultó la telemetría, y se confirmó que ese radar estaba activado, en modo SLEW , aunque era innecesario para alunizar. Antes de despegar se indicó al módulo lunar pasar ese radar a modo LGC. El problema se solucionó y la alarma no volvió a aparecer.
Tanto en modo AUTO como en SLEW el radar enviaba sus datos al ordenador para presentarlos en la "pantalla" de la cabina. Resultó que el radar de acoplamiento y el ordenador tenián distintas fuentes de alimentación alterna, de igual frecuencia, pero que cayeron en un ángulo de fase especialmente desafortunado que desincronizó radar y ordenador, causando que los contadores del radar variasen constantemente debido al ruido eléctrico aleatorio, enviando el máximo flujo de datos al ordenador, que se veía obligado a incrementar o decrementar sus contadores para seguir los ángulos del radar, empleando cerca del 15% de su tiempo de proceso.
En tierra se habían hecho pruebas, pero conectando ambos sistemas a la misma fuente de alimentación, que evitaba ese problema.
Como se ve, el peligro se agazapa en los recovecos más inesperados. Y ya tiene guasa que lo que pudo haber abortado el alunizaje fuese un elemento que no jugaba entonces ningún papel y era usado sólo para el acoplamiento del módulo lunar con el de mando, tras despegar aquel de la Luna.
Pero al menos la robustez del diseño del ordenador salvó la situación. Además de tener un margen para encajar el 15% extra, el "ejecutivo asíncrono" diseñado por los ingenieros descartó, ante la sobrecarga, las tareas de baja prioridad, manteniendo las esenciales. Además se usó una "protección de reinicio", un requisito impuesto al equipo de software en 1968, que permitía reiniciar el sistema de forma prácticamente inmediata, nada que ver con los inicios y reinicios que sufrimos en los ordenadores normales hoy en día. Ese reinicio descartaba trabajos incompletos y de baja prioridad y seguía como si nada donde lo había dejado con el resto.
Y otro detalle explicado es que se habían tenido en cuenta reacciones a eventos improbables, y desarrollado errores de ordenador que probablemente nunca sucedieran, entre ellas una alarma indicando sobrecarga en el ordenador del módulo lunar. En una simulación pocos meses antes del despegue del Apolo 11 un controlador abortó la misión a causa de una alarma de programa, aunque el aterrizaje podría haberse completado, un error que preocupó mortalmente a todos, pues un aborto indebido de la misión era casi tan malo como no realizar uno necesario. Tras eso se pidió determinar para cada alarma qué podía pasar y qué se podía hacer. Uno de los ingenieros se hizo una chuleta que dejó en su consola de control. En esa chuleta aparecen los errores 1201 y 1202, y que no son causa de abortar. Cuando un controlador de vuelo pidió ayuda a su equipo de soporte tras la primera alarma 1202, ese ingeniero contestó "We´re go on that alarm". Para que luego hablen mal de las chuletas. Pero esa información no la conocía por ejemplo alguien que debería haber sido informado, el piloto Buzz Aldrin.
Al final, la causa del problema con las alarmas no era un error del ordenador o del software, sino un error de comunicación y en parte de ingeniería de sistemas. En proyectos grandes ( y no tan grandes) el mayor problema acaba siendo que la información que sabe A y puede evitar errores a B, no llega a este. Y la causa del éxito a pesar de todo reside también en mucha buena ingeniería, con amplios margenes, minuciosidad, pruebas, simulaciones, y llegar a explicar cualquier fallo que se produzca.
Sin embargo, en una pauta común y repetida, lo que trascendió a la prensa fué que el culpable era el ordenador. Al controlador que decidió seguir a pesar de la alarma se le recompensó por su "decision to proceed with the lunar landing when computer failed"
Aunque siempre se ha ponderado la actuación de los astronautas, y en todas las misiones Apolo que alunizaron el comandante hizo la parte final en modo "manual", incluso entonces las acciones manuales pasaban por el ordenador. Si de verdad hubiese fallado el ordenador, todavía ahora no haría 40 años de la llegada a la luna.
Una de las curiosidades en relación con el software es que este debía colocarse físicamente en la memoria "fija", equivalente a una ROM. En esa memoria, con nucleos magneticos en forma de anillos, el bit 0 o 1 se determinaba por la situación física de un hilo conductor respecto a un nucleo concreto: si pasaba por el interior del mismo, o lo sorteaba por el exterior. En definitiva, cuando el programa ya se había compilado y convertido en ceros y unos que debían escribirse en la memoria, la copia del programa implicaba crear la memoria físicamente a base de pasar los hilos adecuados por cada nucleo. Como eso resultaba muy laborioso, el software debía entregarse con un amplio margen antes de llegar a usarlo en cada misión. Y esa laboriosa y delicada labor de "confeccionar" la memoria la realizaban las LOLs, las Little Old Ladies, las viejecitas, experimentadas trabajadoras del sector textil, que ayudadas de máquinas especiales iban hilando bit a bit el programa en la memoria. Alucinante.
La otra curiosidad más destacable que se revela en el libro es la causa de las famosas alarmas del computador del modulo lunar que precedieron, y pusieron en peligro aparente, al alunizaje del Apolo 11.
La primera alarma se produjo tras llegar a los 37000 pies, cuando el radar de altitud empezó a responder dando su estimación. Cuando se iba a validar esa lectura, saltó la alarma. Aldrin preguntó al ordenador, con un comando, la naturaleza de la misma, con el resultado 1202. Abajo en la tierra los ingenieros del IL reconocieron que se trataba de una "sobrecarga del ejecutivo". El ordenador estaba sobresaturado, algo equivalente en Windows a ver en el administrador de tareas que la CPU está al 100% todo el tiempo. Algo estaba haciendo trabajar al ordenador más de la cuenta, incluso a pesar de que por diseño sólo se debía llegar al 85% de uso de la capacidad del ordenador cuando este estuviera a pleno rendimiento. Los ingenieros decidieron seguir, digamos que hacer caso omiso a la alarma. La alarma volvió a aparecer poco después del primer "seguir sin hacer caso". Pero poco después una acción automática que debía tener lugar se llevó a cabo sin problema. Parece que a pesar de todo el ordenador hacía lo que debía. Los ingenieros seguían estrujandose la sesera para dar con la causa de la alarma, buscando posibles "culpables" en alguno de los comandos al ordenador. A pesar de tanta alarma, Armstrong no abortó el descenso. Tras unos minutos se llegó a los 7000 pies y el ordenador cambió al programa adecuado, la fase de aproximación. Otra consulta a todos los controladores en tierra dió el resultado "GO". A 3000 pies otra alarma, esta vez 1201, del mismo tipo que la anterior, y despues otra 1202. El ritmo cardiaco de Amstrong pasó de los 120 a los 150 latidos por minuto.
El caso es que el único efecto adverso de las alarmas en el alunizaje fué desviar la atención de todos, incluido Armstrong, que miró por la ventanilla la zona de alunizaje más tarde de lo normal, a los 2000 pies, para darse cuenta de que había un gran cráter y una zona con muchas rocas grandes cubriendo buena parte de la superficie. El lugar no era el esperado, porque pronto en el descenso se vió que iban largos, con un poco más de velocidad de la debida. En esa parte final se describen las maniobras del comandante, con el mando para redesignar el punto de alunizaje, y pilotando con el sistema "manual", programa P66, desde los 550 pies. Hasta el esperado contacto, tras el que llegan las palabras de Buzz Aldrin
Engine stop. ACA out of detent.
Houston, Tranquility Base here. The Eagle has landed
En el control de la misión el respiro y la alegría no retrasaron la febril actividad para saber la causa de la alarma, pues el módulo lunar debía despegar en pocas horas. Los ingenieros del IL fueron a sus simuladores a intentar reproducir la alarma, y uno de ellos llegó corriendo al laboratorio desde casa, para indicar que había visto ese problema en una simulación causado por el radar de acoplamiento (rendezvous) activado en AUTO al aterrizar. Enseguida se consultó la telemetría, y se confirmó que ese radar estaba activado, en modo SLEW , aunque era innecesario para alunizar. Antes de despegar se indicó al módulo lunar pasar ese radar a modo LGC. El problema se solucionó y la alarma no volvió a aparecer.
Tanto en modo AUTO como en SLEW el radar enviaba sus datos al ordenador para presentarlos en la "pantalla" de la cabina. Resultó que el radar de acoplamiento y el ordenador tenián distintas fuentes de alimentación alterna, de igual frecuencia, pero que cayeron en un ángulo de fase especialmente desafortunado que desincronizó radar y ordenador, causando que los contadores del radar variasen constantemente debido al ruido eléctrico aleatorio, enviando el máximo flujo de datos al ordenador, que se veía obligado a incrementar o decrementar sus contadores para seguir los ángulos del radar, empleando cerca del 15% de su tiempo de proceso.
En tierra se habían hecho pruebas, pero conectando ambos sistemas a la misma fuente de alimentación, que evitaba ese problema.
Como se ve, el peligro se agazapa en los recovecos más inesperados. Y ya tiene guasa que lo que pudo haber abortado el alunizaje fuese un elemento que no jugaba entonces ningún papel y era usado sólo para el acoplamiento del módulo lunar con el de mando, tras despegar aquel de la Luna.
Pero al menos la robustez del diseño del ordenador salvó la situación. Además de tener un margen para encajar el 15% extra, el "ejecutivo asíncrono" diseñado por los ingenieros descartó, ante la sobrecarga, las tareas de baja prioridad, manteniendo las esenciales. Además se usó una "protección de reinicio", un requisito impuesto al equipo de software en 1968, que permitía reiniciar el sistema de forma prácticamente inmediata, nada que ver con los inicios y reinicios que sufrimos en los ordenadores normales hoy en día. Ese reinicio descartaba trabajos incompletos y de baja prioridad y seguía como si nada donde lo había dejado con el resto.
Y otro detalle explicado es que se habían tenido en cuenta reacciones a eventos improbables, y desarrollado errores de ordenador que probablemente nunca sucedieran, entre ellas una alarma indicando sobrecarga en el ordenador del módulo lunar. En una simulación pocos meses antes del despegue del Apolo 11 un controlador abortó la misión a causa de una alarma de programa, aunque el aterrizaje podría haberse completado, un error que preocupó mortalmente a todos, pues un aborto indebido de la misión era casi tan malo como no realizar uno necesario. Tras eso se pidió determinar para cada alarma qué podía pasar y qué se podía hacer. Uno de los ingenieros se hizo una chuleta que dejó en su consola de control. En esa chuleta aparecen los errores 1201 y 1202, y que no son causa de abortar. Cuando un controlador de vuelo pidió ayuda a su equipo de soporte tras la primera alarma 1202, ese ingeniero contestó "We´re go on that alarm". Para que luego hablen mal de las chuletas. Pero esa información no la conocía por ejemplo alguien que debería haber sido informado, el piloto Buzz Aldrin.
Al final, la causa del problema con las alarmas no era un error del ordenador o del software, sino un error de comunicación y en parte de ingeniería de sistemas. En proyectos grandes ( y no tan grandes) el mayor problema acaba siendo que la información que sabe A y puede evitar errores a B, no llega a este. Y la causa del éxito a pesar de todo reside también en mucha buena ingeniería, con amplios margenes, minuciosidad, pruebas, simulaciones, y llegar a explicar cualquier fallo que se produzca.
Sin embargo, en una pauta común y repetida, lo que trascendió a la prensa fué que el culpable era el ordenador. Al controlador que decidió seguir a pesar de la alarma se le recompensó por su "decision to proceed with the lunar landing when computer failed"
Aunque siempre se ha ponderado la actuación de los astronautas, y en todas las misiones Apolo que alunizaron el comandante hizo la parte final en modo "manual", incluso entonces las acciones manuales pasaban por el ordenador. Si de verdad hubiese fallado el ordenador, todavía ahora no haría 40 años de la llegada a la luna.
Etiquetas:
ciencia,
informática
lunes, 20 de julio de 2009
Luna 1
Sí, hace 40 años que el hombre llegó a la Luna. Nos encantan estas puntuales efemérides redondas y señaladas.
En este caso, ese primer paso cósmico destaca por sí mismo. Pensar que alguién paseo por esa esfera desnuda, mudable y misteriosa, y contempló en directo la estampa de nuestro humilde planeta azul. Um...
Pero cómo se llegó a la Luna es incluso más fascinante que ese momento final.
En las películas actuales la promoción va muchas veces acompañada de documentales de "cómo se hizo", que suele ser más corto que la película. En el caso de la llegada a la Luna, la película dura muy poco, unos minutos, pero cualquier documental de cómo se hizo daría para días y días de metraje.
Ahora estoy leyendo "Digital Apollo. Human and Machine in Spaceflight" de David A. Mindell. Hay dos actores principales en este peculiar "cómo se hizo", los pilotos y los ingenieros, que actúan en el escenario de la Guerra Fría, a finales de la década de los 50 y en los 60 del siglo XX.
Pero antes el desarrollo de la aeronáutica ya plantea la dicotomía existente en todo avión, de estabilidad frente a maniobrabilidad, y la necesidad de usar la instrumentación y el control automático para ayudar al piloto. También hay una tensión en la función del piloto, ¿"conductor" (rol pasivo) o "aviador" (rol activo)?. En general los pilotos quieren ser "aviadores", y los ingenieros piensan en "conductores". El mayor progreso se consigue con personas que unen las dos características de piloto e ingeniero. Dos ejemplos señeros, James Doolittle y Charles Stark Draper.
En los 50 el desarrollo de aviones supersónicos pone en primer plano a los pilotos de prueba experimentales, la crema de la crema de los pilotos, que crean su propia sociedad, SETP (Society of experimental test pilots). Su primer banquete, el 4 de octubre de 1957, coincide con el día en que la URSS se adelanta en la carrera espacial lanzando el Sputnik.
La razón de ser de SETP es defender el papel protagonista y activo del elemento humano en el avance aeroespacial, puesto cada vez más en peligro por el avance técnico del control automático. Los pilotos van a tener a favor un factor clave: en la carrera espacial entre las dos grandes potencias los estadounidenses vinculan la democracia y la libertad al elemento humano, el valor de lo individual, frente a la inhumana automatización soviética. La presencia de los pilotos, luego astronautas, será esencial para el apoyo mediático a la apuesta política de Kennedy.
En el libro se repasan en los primeros capítulos los proyectos X-15, Mercury y Gemini. El X-15 es un avión supersónico, lanzado desde un B-52, capaz de sobrepasar la atmósfera, en donde el mayor problema a resolver es el de la reentrada a la misma. En cambio en Mercury y Gemini el piloto va en una capsula lanzada por un cohete similar a los misiles balísticos. En todos esos proyectos hay considerables retos técnicos, pero siempre surge en primer plano cuál debe ser el papel del piloto. En general se adopta una aproximación de ingeniería de sistemas en que el piloto es un subsistema, que debe interactuar con el resto, debiendo entenderse y modelarse por tanto adecuadamente ese subsistema humano.
Al margen de la exposición principal de esos proyectos con pilotos, se menciona el proyecto Polaris con sus misiles lanzables desde un submarino en inmersión, que influirá notablemente en dos aspectos, de gestión del proyecto (aquí nace el PERT) y de control automático. Los misiles deben ser casi completamente autónomos en su posicionamiento y guiado: desde luego no tienen piloto, deben ser precisos, y las comunicaciones entre estaciones de tierra y el misil pueden ser "estorbadas" por el enemigo.
Antes de que volasen las misiones Mercury o Gemini, antes de que Kennedy decidiese en mayo de 1961, tras menos de medio año de mandato, enviar un norteamericano a la Luna, ya se había creado la NASA, que organizó en el verano de 1960 una reunión industrial para definir un proyecto de alunizaje y hacer saber a los posibles contratistas qué esperar. Tras la bofetada soviética en abril de 1961, al ser Yuri Gagarin el primer humano puesto en órbita, los estadounidenses buscaron algo en lo que poder ser primeros, y encontraron el proyecto Apolo. Y desde el principio los consejeros del presidente tuvieron claro una cosa, antes que las razones técnicas o científicas era preciso "vender" el proyecto como la empresa humana de la conquista del espacio pues
En el proyecto Apolo se iba a dar una situación atípica, distinta al resto de proyectos, pues una parte central del mismo se iba a adjudicar, sin concurso (diriamos que "a dedo"), al Laboratorio de Instrumentación (IL) del MIT, no para la fabricación de componentes, pero si para el diseño y gestión del sistema de guía. El IL (más concretamente 3 "lumbreras", Milt Trageser, Hal Laning y Richard Battin ) había trabajado en una idea de sonda a Marte, plasmada en un informe de 1959 en 5 tomos. Además el MIT había realizado la gestión de sistemas para el sistema de guiado e integración del mismo en el Polaris. Una afortunada visita al MIT, en el momento justo, de un responsable de la NASA facilitó una primera idea de diseño del Apolo, con
El "ordenador digital de propósito general" es coprotagonista del libro, aunque aparece tarde, tras un tercio del metraje. Antes han aparecido varios ordenadores analógicos. Pero el digital hace uso de transistores, y enseguida también de los primeros circuitos integrados que aparecen con la decada de los 60. Las responsabilidades iniciales previstas para el AGC, Apollo Guidance Computer, se van a ir incrementando con el paso del tiempo, llegando a la decisión de usarle también como piloto automático, lo que implicaba una práctica interacción directa con todos los componentes del sistema. Esta ampliación de responsabilidad es posible gracias al carácter "de propósito general", frente a un diseño a la medida como otros diseños digitales y todos los analógicos. Y también gracias al uso de circuitos integrados en vez de transistores individuales, con aumento de capacidad y reducción de tamaño y consumo. En esta evolución fue importante la decisión de hacer una primera versión "bloque I" y una posterior evolución "bloque II".
El reto del hardware, su diseño, y alcanzar la necesaria fiabilidad en compartimento estanco sin posibilidad de reparación tuvo su máximo pico alrededor de 1965, con más de 600 ingenieros trabajando en el IL. La producción del bloque I acabó en el otoño de 1966. La producción del bloque II llegó hasta el verano de 1969. La memoria del computador del bloque II era de 36k palabras de 16 bits para los programas y una memoria borrable de 2k, con un reloj a 1024 kHz
Pero hoy no voy a llegar a la Luna ...
En este caso, ese primer paso cósmico destaca por sí mismo. Pensar que alguién paseo por esa esfera desnuda, mudable y misteriosa, y contempló en directo la estampa de nuestro humilde planeta azul. Um...
Pero cómo se llegó a la Luna es incluso más fascinante que ese momento final.
En las películas actuales la promoción va muchas veces acompañada de documentales de "cómo se hizo", que suele ser más corto que la película. En el caso de la llegada a la Luna, la película dura muy poco, unos minutos, pero cualquier documental de cómo se hizo daría para días y días de metraje.
Ahora estoy leyendo "Digital Apollo. Human and Machine in Spaceflight" de David A. Mindell. Hay dos actores principales en este peculiar "cómo se hizo", los pilotos y los ingenieros, que actúan en el escenario de la Guerra Fría, a finales de la década de los 50 y en los 60 del siglo XX.
Pero antes el desarrollo de la aeronáutica ya plantea la dicotomía existente en todo avión, de estabilidad frente a maniobrabilidad, y la necesidad de usar la instrumentación y el control automático para ayudar al piloto. También hay una tensión en la función del piloto, ¿"conductor" (rol pasivo) o "aviador" (rol activo)?. En general los pilotos quieren ser "aviadores", y los ingenieros piensan en "conductores". El mayor progreso se consigue con personas que unen las dos características de piloto e ingeniero. Dos ejemplos señeros, James Doolittle y Charles Stark Draper.
En los 50 el desarrollo de aviones supersónicos pone en primer plano a los pilotos de prueba experimentales, la crema de la crema de los pilotos, que crean su propia sociedad, SETP (Society of experimental test pilots). Su primer banquete, el 4 de octubre de 1957, coincide con el día en que la URSS se adelanta en la carrera espacial lanzando el Sputnik.
La razón de ser de SETP es defender el papel protagonista y activo del elemento humano en el avance aeroespacial, puesto cada vez más en peligro por el avance técnico del control automático. Los pilotos van a tener a favor un factor clave: en la carrera espacial entre las dos grandes potencias los estadounidenses vinculan la democracia y la libertad al elemento humano, el valor de lo individual, frente a la inhumana automatización soviética. La presencia de los pilotos, luego astronautas, será esencial para el apoyo mediático a la apuesta política de Kennedy.
En el libro se repasan en los primeros capítulos los proyectos X-15, Mercury y Gemini. El X-15 es un avión supersónico, lanzado desde un B-52, capaz de sobrepasar la atmósfera, en donde el mayor problema a resolver es el de la reentrada a la misma. En cambio en Mercury y Gemini el piloto va en una capsula lanzada por un cohete similar a los misiles balísticos. En todos esos proyectos hay considerables retos técnicos, pero siempre surge en primer plano cuál debe ser el papel del piloto. En general se adopta una aproximación de ingeniería de sistemas en que el piloto es un subsistema, que debe interactuar con el resto, debiendo entenderse y modelarse por tanto adecuadamente ese subsistema humano.
Al margen de la exposición principal de esos proyectos con pilotos, se menciona el proyecto Polaris con sus misiles lanzables desde un submarino en inmersión, que influirá notablemente en dos aspectos, de gestión del proyecto (aquí nace el PERT) y de control automático. Los misiles deben ser casi completamente autónomos en su posicionamiento y guiado: desde luego no tienen piloto, deben ser precisos, y las comunicaciones entre estaciones de tierra y el misil pueden ser "estorbadas" por el enemigo.
Antes de que volasen las misiones Mercury o Gemini, antes de que Kennedy decidiese en mayo de 1961, tras menos de medio año de mandato, enviar un norteamericano a la Luna, ya se había creado la NASA, que organizó en el verano de 1960 una reunión industrial para definir un proyecto de alunizaje y hacer saber a los posibles contratistas qué esperar. Tras la bofetada soviética en abril de 1961, al ser Yuri Gagarin el primer humano puesto en órbita, los estadounidenses buscaron algo en lo que poder ser primeros, y encontraron el proyecto Apolo. Y desde el principio los consejeros del presidente tuvieron claro una cosa, antes que las razones técnicas o científicas era preciso "vender" el proyecto como la empresa humana de la conquista del espacio pues
es el hombre en el espacio, no simplemente las máquinas, lo que captura la imaginación del mundo
En el proyecto Apolo se iba a dar una situación atípica, distinta al resto de proyectos, pues una parte central del mismo se iba a adjudicar, sin concurso (diriamos que "a dedo"), al Laboratorio de Instrumentación (IL) del MIT, no para la fabricación de componentes, pero si para el diseño y gestión del sistema de guía. El IL (más concretamente 3 "lumbreras", Milt Trageser, Hal Laning y Richard Battin ) había trabajado en una idea de sonda a Marte, plasmada en un informe de 1959 en 5 tomos. Además el MIT había realizado la gestión de sistemas para el sistema de guiado e integración del mismo en el Polaris. Una afortunada visita al MIT, en el momento justo, de un responsable de la NASA facilitó una primera idea de diseño del Apolo, con
Un ordenador digital de propósito general
Un sextante espacial
Una unidad de guía inercial
Una consola para los astronautas
Otra electrónica de soporte
El "ordenador digital de propósito general" es coprotagonista del libro, aunque aparece tarde, tras un tercio del metraje. Antes han aparecido varios ordenadores analógicos. Pero el digital hace uso de transistores, y enseguida también de los primeros circuitos integrados que aparecen con la decada de los 60. Las responsabilidades iniciales previstas para el AGC, Apollo Guidance Computer, se van a ir incrementando con el paso del tiempo, llegando a la decisión de usarle también como piloto automático, lo que implicaba una práctica interacción directa con todos los componentes del sistema. Esta ampliación de responsabilidad es posible gracias al carácter "de propósito general", frente a un diseño a la medida como otros diseños digitales y todos los analógicos. Y también gracias al uso de circuitos integrados en vez de transistores individuales, con aumento de capacidad y reducción de tamaño y consumo. En esta evolución fue importante la decisión de hacer una primera versión "bloque I" y una posterior evolución "bloque II".
El reto del hardware, su diseño, y alcanzar la necesaria fiabilidad en compartimento estanco sin posibilidad de reparación tuvo su máximo pico alrededor de 1965, con más de 600 ingenieros trabajando en el IL. La producción del bloque I acabó en el otoño de 1966. La producción del bloque II llegó hasta el verano de 1969. La memoria del computador del bloque II era de 36k palabras de 16 bits para los programas y una memoria borrable de 2k, con un reloj a 1024 kHz
Pero hoy no voy a llegar a la Luna ...
En los cinco años desde la adjudicación del contrato hasta la preparación para los primeros vuelos del Apolo, el sistema de guía y navegación maduró desde una idea básica, a través de prototipos de laboratorio, hasta hardware de vuelo manufacturado de alta cualificación. A pesar de su pequeño tamaño y modesta capacidad de proceso, el AGC era tecnología punta, incorporando lo último en control de procesos, fiabilidad, diseño de circuitos, y empaquetamiento. En lo que se convertiría en una pauta familiar en el mundo de los ordenadores, la capacidad de memoria se dobló una, y otra y otra vez. Al mismo tiempo, la presencia del computador se entremezcló con los métodos de gestión de sistemas, especialmente cuando el proyecto se volvió más complejo y acumuló retrasos. Los dispositivos electrónicos en la cabina fueron eliminados gradualmente para ahorrar tiempo, peso o coste, y migrados al flexible computador o a los cerebros de los astronautas. Pero según iban saliendo los computadores del Bloque II de las cadenas de producción, la NASA y el IL empezaban a reconocer la tensión que habían añadido a una nueva parte del proyecto, una escasamente contemplada cuando Apolo comenzó: el software.
Etiquetas:
ciencia,
informática
sábado, 23 de mayo de 2009
Benedetti
Hay poetas de la forma o de lo abstruso. Otros son cercanos Poetas de las Piernas
o profundos Poetas del Silencio
Las piernas de la amada son fraternas
cuando se abren buscando el infinito
y apelan al futuro como un rito
que las hace más dulces y más tiernas
pero también las piernas son cavernas
donde el eco se funde con el grito
y cumplen con el viejo requisito
de buscar el amparo de otras piernas
si se separan como bienvenida
las piernas de la amada hacen historia /
mantienen sus ofrendas y enseguida
enlazan algún cuerpo en su memoria /
cuando trazan los signos de la vida
las piernas de la amada son la gloria
o profundos Poetas del Silencio
Qué espléndida laguna es el silencio
allá en la orilla una campana espera
pero nadie se anima a hundir un remo
en el espejo de las aguas quietas
Etiquetas:
poesía
viernes, 22 de mayo de 2009
Certificados raíz FNMT
Hace unos días actualizé Internet Explorer a la versión 8. De entrada, entre las autoridades de certificación raíz (menú Herramientas / Opciones de Internet, pestaña Contenido, botón Certificados, pestaña Entidades de certificación raíz de confianza ) no estaba la de la FNMT. Pero una vez ya me tocó dar vueltas, como a tantos otros, hasta encontrar el ficherito FNMTClase2CA-FNMT.crt que hay que importar para incluir esa muy importante, en España al menos, Autoridad de Certificación (AC, o CA en inglés). En la versión hispana de Firefox esa AC suele venir preinstalada.
Buscando en http://www.cert.fnmt.es me encontré con más de lo que esperaba.
En la página de ciudadanos se puede descargar el certificado raíz de la FNMT Clase 2 CA.
Pero además hay otra página con los certificados raíz de la nueva Autoridad de Certificación "FNMT-RCM" y también el "AC APE" (Administración Pública Española), derivado de la autoridad "FNMT-RCM".
Como referencia está bien el documento pdf DECLARACIÓN GENERAL DE PRÁCTICAS DE CERTIFICACIÓN que en la página 18 y siguientes presenta las distintas cadenas de certificación empleadas por la FNMT, además de indicar las huellas digitales de cada uno de los certificados raíz. Para el caso de la CA tradicional, "FNMT Clase 2 CA", indica que
Para las otras (nuevas) CA no hay referencias al BOE, pero en el pdf indicado vienen los números de serie y las huellas digitales.
Estas nuevas CA son "AC FIRMA MOVIL” que tiene un único certificado raíz, y "AC RAIZ FNMT-RCM” que tiene tres certificados raíz distintos en base a que se han autofirmado con tres algoritmos distintos, pkcs1-sha1WithRSAEncryption, pkcs1-sha256WithRSAEncryption y pkcs1-sha512WithRSAEncryption. Esos certificados raíz son válidos hasta el 1 de enero de 2030. El certificado de la APE es válido hasta el 2023.
Además de las distintas versiones de hash (sha1, sha256 y sha512) parece que en todos los certificados raíz nuevos la clave utilizada es de 512 bytes (4096 bits) en vez de los 128 bytes del certificado raíz de "FNMT Clase 2 CA", todo para evitar que antes de las fechas de caducidad los certificados raíz se hayan vuelto vulnerables.
Buscando en http://www.cert.fnmt.es me encontré con más de lo que esperaba.
En la página de ciudadanos se puede descargar el certificado raíz de la FNMT Clase 2 CA.
Pero además hay otra página con los certificados raíz de la nueva Autoridad de Certificación "FNMT-RCM" y también el "AC APE" (Administración Pública Española), derivado de la autoridad "FNMT-RCM".
Como referencia está bien el documento pdf DECLARACIÓN GENERAL DE PRÁCTICAS DE CERTIFICACIÓN que en la página 18 y siguientes presenta las distintas cadenas de certificación empleadas por la FNMT, además de indicar las huellas digitales de cada uno de los certificados raíz. Para el caso de la CA tradicional, "FNMT Clase 2 CA", indica que
La huella digital del Certificado Raíz de “FNMT Clase 2 CA” puede consultarse en el BOE nº. 235 (pág. 35194 ) de 1 de Octubre de 1999, en la Orden de 30 de septiembre de 1999 por la que se establecen las condiciones generales y el procedimiento para la presentación telemática de las declaraciones-liquidaciones correspondientes a los modelos 110, 130, 300 y 330.
Para las otras (nuevas) CA no hay referencias al BOE, pero en el pdf indicado vienen los números de serie y las huellas digitales.
Estas nuevas CA son "AC FIRMA MOVIL” que tiene un único certificado raíz, y "AC RAIZ FNMT-RCM” que tiene tres certificados raíz distintos en base a que se han autofirmado con tres algoritmos distintos, pkcs1-sha1WithRSAEncryption, pkcs1-sha256WithRSAEncryption y pkcs1-sha512WithRSAEncryption. Esos certificados raíz son válidos hasta el 1 de enero de 2030. El certificado de la APE es válido hasta el 2023.
Además de las distintas versiones de hash (sha1, sha256 y sha512) parece que en todos los certificados raíz nuevos la clave utilizada es de 512 bytes (4096 bits) en vez de los 128 bytes del certificado raíz de "FNMT Clase 2 CA", todo para evitar que antes de las fechas de caducidad los certificados raíz se hayan vuelto vulnerables.
Etiquetas:
informática
Suscribirse a:
Entradas (Atom)