jueves, 13 de agosto de 2009

Geodesia, cartografía y SIGlas

SIGlas, están por todas partes. Como ocurre cada vez más con los Sistemas de Información Geográficos, SIG, o en inglés GIS. Sobre todo están en internet al alcance de todos con Google Maps o con Google Earth. El agro les utiliza también por ejemplo para pedir las ayudas de la PAC de la UE.

Los SIG tienen una vertiente gráfica, de presentación de las diferentes capas de información disponibles, incluyenda fotografías. Estas a veces son ortofotos, fotografías especialmente "retocadas" para que su imagen bidimensional refleje fielmente las posiciones reales de las características del terreno.

Pero los SIG tiene otra vertiente: posicionar geográficamente de forma precisa la información mostrada. Cuando se trata de determinar la posición de un punto en el espacio debemos usar un sistema de referencia, con su origen, sus ejes, y las coordenadas y unidades a emplear para definir con 3 números ese punto. Pero cuando hablamos de puntos sobre la superficie terrestre, debemos tratar con la señora Geodesia.

Una antepasada de la actual Geodesia ya determinó que la superficie terrestre era casi esférica, pero no del todo por culpa de estar más abombada en el ecuador, por la dichosa rotación terrestre. Intentando ajustar lo más posible la rugosa superficie a un cuerpo imaginario sencillo, se empleó como tal un elipsoide oblato, una superficie generada al girar una elipse alrededor de su eje menor.

Una vez que se tiene un elipsoide de referencia, cada punto del mismo se determina por dos coordenadas angulares, latitud y longitud, que fijan el aspecto "horizontal" de la posición de un punto sobre la superficie terrestre. En la perpendicular a la superficie del elipsoide de referencia se mide la distancia desde el mismo hasta el punto del terreno sobre (o bajo) el elipsoide y esa es la altura elipsoidal, el aspecto "vertical". Así con 3 números, se determina cada punto de la superficie terrestre.

Esta es una descripción puramente geométrica, buena para posicionar puntos. Tiene su interés, pero ... Siempre parece haber más peros que peras. Para saber qué se va a hacer cuesta arriba, o por dónde correrá el agua cuesta abajo, hay que mirar la gravedad de la situación, digo la fuerza de la gravedad. Esta puede representarse en cada punto por una flecha hacia abajo en el sentido de la plomada. Esa flecha imaginaria es perpendicular a una superficie (imaginaria) de potencial gravitatorio efectivo constante. Dos puntos del terreno sobre una misma superficie equipotencial pueden unirse mediante vasos comunicantes de modo que el líquido reposa sobre tal superficie imaginaria. A la superficie equipotencial que ocupa el nivel medio del mar se le denomina Geoide. El Geoide tiene pues un origen físico, y está afectado por la distribución de masas tanto a escalas globales como en particular a escalas locales. Cuando se da la altura de un punto de la superficie terrestre respecto al Geoide, medida según la línea de la plomada, se habla de altura ortométrica, o de elevación.

En muchos SIG interesa sólo la posición "horizontal", y se dan dos coordenadas, latitud y longitud. Para interpretar tales coordenadas debe aclararse qué elipsoide de referencia se usa, dónde se pone su origen, y cómo se orientan sus ejes. Todas estas características (y algunos otros detalles más) definen lo que se llama un datum geodésico.

¿Qué datum geodésico emplea Google Earth? El WGS84, que es el usado para indicar las posiciones con el sistema GPS. ¿Cual es el elipsoide de referencia usado por WGS84? Pues el elipsoide definido como parte de la especificación del GRS80 con sus 6.378.137m de semieje mayor y sus 6.356.752,3141m de semieje menor ¿Y dónde se coloca el centro del elipsoide? En el centro de masas de la Tierra (con sus líquidos y gases incluidos). ¿Y cómo se orientan sus ejes? Pues con cuidado :-), de modo que justo a las 24h del 31 de diciembre de 1983 el ecuador y el primer meridiano (el usado como origen para la longitud) del elipsoide coincidan con el ecuador y primer meridiano del Bureau Internationale de l´Heure. Oh la la. La orientación final de un sistema de referencia terrestre se debe hacer respecto a un sistema de referencia celeste. Pero dejemos eso para otro día.

Podemos imaginar una foto del elipsoide y sus ejes aquel fin de año de 1983, junto a los distintos continentes, pero al cabo de los años ¿seguirán igual las cosas? Aquí entra en juego un aspecto de la superficie terrestre no tenido en cuenta hasta ahora. Resulta que el terreno se mueve, sobre todo por la deriva de las placas tectónicas. Unas se acercan entre sí y chocan, otras se van alejando. Como el elipsoide y sus ejes son algo fijo, ¿de que forma seguir vinculandolo a la superficie? Se adopta el criterio de medir la deriva de todas las placas y formar un promedio. Ese promedio global es al que se "ata" la orientación de los ejes del elipsoide.

Así WGS84 es realmente un datum global, útil para relacionar puntos de cualquier parte del mundo. Pero precisamente esto es una pega para aplicaciones que se refieren a cierta parte de una misma placa, pues sus coordenadas varían a lo largo del tiempo con la deriva tectónica, aunque no cambien en términos relativos.

Para estos casos es preferible definir un datum geodésico local. Para Europa se ha decido usar el ETRS89. En esencia ETRS89 es un datum que coincidió exactamente con WGS84 en la fecha 1989,0. Usa el mismo elipsoide con el mismo origen pero la orientación se mantiene "atada" a la placa euroasiática sobre la que está Europa, y en concreto la Península Ibérica y Baleares. A partir del 1 de enero de 1989 ETRS89 se va separando de WGS84 tanto como la deriva de la placa euroasiática se salga del promedio global, pero las coordenadas de los puntos en Europa no cambian en ETRS89. Parece que hoy en día la separación entre ambos sistemas de referencia no sobrepasa los 50cm.

Por todo ello, y mucho más, en España se ha adoptado oficialmente mediante Real Decreto 1071/2007, de 27 de julio

ETRS89 (European Terrestrial Reference System 1989) como sistema de referencia geodésico oficial en España para la referenciación geográfica y cartográfica en el ámbito de la Península Ibérica y las Islas Baleares. En el caso de las Islas Canarias, se adopta el sistema REGCAN95. Ambos sistemas tienen asociado el elipsoide GRS80 y están materializados por el marco que define la Red Geodésica Nacional por Técnicas Espaciales, REGENTE, y sus densificaciones

Para Canarias, que esta sobre la placa africana, se emplea otro sistema de referencia específico. ¿Y para Ceuta y Melilla?

Además el Real Decreto indica que

Toda la cartografía y bases de datos de información geográfica y cartográfica producida o actualizada por las Administraciones Públicas deberá compilarse y publicarse conforme a lo que se dispone en este real decreto a partir del 1 de enero de 2015. Hasta entonces, la información geográfica y cartográfica oficial podrá compilarse y publicarse en cualquiera de los dos sistemas, ED50 o ETRS89, conforme a las necesidades de cada Administración Pública, siempre que las producciones en ED50 contengan la referencia a ETRS89.


Aquí vemos la referencia al sistema empleado anteriormente, ED50 (European Datum 1950), que usa el elipsoide internacional de 1924 (o de Hayford de 1909, vivan los años), y tiene un caracter local, de ámbito europeo. Las diferencias entre los elipsoides usados y entre el origen y orientación en cada caso llevan a que en España las coordenadas de un mismo punto en ambos sistemas difieran en unos pocos segundos de arco en longitud y latitud.

Si se busca un mismo punto de referencia, por ejemplo en la Puerta del Sol de Madrid, con Google Earth y su WGS89 por un lado


y con el visor Sigpac y su ED50 por otro


las coordenadas de latitud y longitud difieren un poco. La diferencia salta mejor a la vista si por ejemplo en Google Earth se busca el punto que tiene por coordenadas WGS84 las que tiene el de referencia en SigPac, en el datum ED50. En la imagen se ha determinado que la distancia entre ambos puntos es de unos 170m. y hay diferencia tanto en el sentido norte-sur como en el este-oeste.


Aunque hemos visto coordenadas angulares expresando latitud y longitud, en la imagen del SigPac pueden verse tambien unas coordenadas UTM X e Y y una referencia al huso 30


Y es que una cosa son las coordenadas sobre un elipsoide, y otra plasmar una superficie elipsoidal, con curvatura, sobre una superficie plana como la de los planos o mapas, o una pantalla de ordenador. Para el paso de una superficie a la otra se usan las proyecciones, y las hay de todos los tipos. Una de las usadas es la transversa de Mercator. En lo que se denomina UTM, se define un sistema de coordenadas en el plano para plasmar gran parte del elipsoide terrestre, dividiendo el mundo en 60 husos que van en latitud de sur a norte y comprenden una estrecha franja en longitud de 6º; además se define una proyección transversa de Mercator con parámetros específicos, y unas convenciones sobre los origenes de las X e Y. Todo para conseguir asignar a los puntos del elipsoide unos valores de coordenadas cartesianas planas (X,Y) que permitan emplear el teorema de pitágoras para el cálculo de distancias entre puntos del mapa sabiendo la (X,Y) de cada punto. Esto es mucho más fácil que calcular esa distancia a base de la longitud y latitud de los puntos.

Y ahora unos enlaces a recursos interesantes, en inglés. Si hay que elegir sólo uno, sería la Guía a los sistemas de coordenadas en Gran Bretaña, una de las exposiciones más claras y amigables.

Los diferentes organismos del gobierno estadounidense son un rico filón informativo, por ejemplo el glosario geodésico de la NOAA (y resto del sitio web), una referencia al WGS84 del propio DoD, la Geodesia para el gran público, Artículos básicos sobre geodesia de la NGIA de USA, y resto del sitio web. O el tocho Map Projections A Working Manual.

Por el lado europeo tenemos WGS 84 Implementation Manual o un sitio particular sobre proyeciones y sistemas de coordenadas. Y en castellano podemos visitar el Instituto Geográfico de España, o esta interesante web.

viernes, 24 de julio de 2009

Luna 2

Con algún retraso, ya llegué a la luna, y varias veces, pues el libro "Digital Apollo" en su parte final describe los alunizajes de todas las misiones posteriores a la del Apolo 11, aunque con menor detalle que en este caso. Y desde luego casi ni cita al Apolo 13.

Una de las curiosidades en relación con el software es que este debía colocarse físicamente en la memoria "fija", equivalente a una ROM. En esa memoria, con nucleos magneticos en forma de anillos, el bit 0 o 1 se determinaba por la situación física de un hilo conductor respecto a un nucleo concreto: si pasaba por el interior del mismo, o lo sorteaba por el exterior. En definitiva, cuando el programa ya se había compilado y convertido en ceros y unos que debían escribirse en la memoria, la copia del programa implicaba crear la memoria físicamente a base de pasar los hilos adecuados por cada nucleo. Como eso resultaba muy laborioso, el software debía entregarse con un amplio margen antes de llegar a usarlo en cada misión. Y esa laboriosa y delicada labor de "confeccionar" la memoria la realizaban las LOLs, las Little Old Ladies, las viejecitas, experimentadas trabajadoras del sector textil, que ayudadas de máquinas especiales iban hilando bit a bit el programa en la memoria. Alucinante.

La otra curiosidad más destacable que se revela en el libro es la causa de las famosas alarmas del computador del modulo lunar que precedieron, y pusieron en peligro aparente, al alunizaje del Apolo 11.

La primera alarma se produjo tras llegar a los 37000 pies, cuando el radar de altitud empezó a responder dando su estimación. Cuando se iba a validar esa lectura, saltó la alarma. Aldrin preguntó al ordenador, con un comando, la naturaleza de la misma, con el resultado 1202. Abajo en la tierra los ingenieros del IL reconocieron que se trataba de una "sobrecarga del ejecutivo". El ordenador estaba sobresaturado, algo equivalente en Windows a ver en el administrador de tareas que la CPU está al 100% todo el tiempo. Algo estaba haciendo trabajar al ordenador más de la cuenta, incluso a pesar de que por diseño sólo se debía llegar al 85% de uso de la capacidad del ordenador cuando este estuviera a pleno rendimiento. Los ingenieros decidieron seguir, digamos que hacer caso omiso a la alarma. La alarma volvió a aparecer poco después del primer "seguir sin hacer caso". Pero poco después una acción automática que debía tener lugar se llevó a cabo sin problema. Parece que a pesar de todo el ordenador hacía lo que debía. Los ingenieros seguían estrujandose la sesera para dar con la causa de la alarma, buscando posibles "culpables" en alguno de los comandos al ordenador. A pesar de tanta alarma, Armstrong no abortó el descenso. Tras unos minutos se llegó a los 7000 pies y el ordenador cambió al programa adecuado, la fase de aproximación. Otra consulta a todos los controladores en tierra dió el resultado "GO". A 3000 pies otra alarma, esta vez 1201, del mismo tipo que la anterior, y despues otra 1202. El ritmo cardiaco de Amstrong pasó de los 120 a los 150 latidos por minuto.

El caso es que el único efecto adverso de las alarmas en el alunizaje fué desviar la atención de todos, incluido Armstrong, que miró por la ventanilla la zona de alunizaje más tarde de lo normal, a los 2000 pies, para darse cuenta de que había un gran cráter y una zona con muchas rocas grandes cubriendo buena parte de la superficie. El lugar no era el esperado, porque pronto en el descenso se vió que iban largos, con un poco más de velocidad de la debida. En esa parte final se describen las maniobras del comandante, con el mando para redesignar el punto de alunizaje, y pilotando con el sistema "manual", programa P66, desde los 550 pies. Hasta el esperado contacto, tras el que llegan las palabras de Buzz Aldrin

Engine stop. ACA out of detent.

Houston, Tranquility Base here. The Eagle has landed


En el control de la misión el respiro y la alegría no retrasaron la febril actividad para saber la causa de la alarma, pues el módulo lunar debía despegar en pocas horas. Los ingenieros del IL fueron a sus simuladores a intentar reproducir la alarma, y uno de ellos llegó corriendo al laboratorio desde casa, para indicar que había visto ese problema en una simulación causado por el radar de acoplamiento (rendezvous) activado en AUTO al aterrizar. Enseguida se consultó la telemetría, y se confirmó que ese radar estaba activado, en modo SLEW , aunque era innecesario para alunizar. Antes de despegar se indicó al módulo lunar pasar ese radar a modo LGC. El problema se solucionó y la alarma no volvió a aparecer.

Tanto en modo AUTO como en SLEW el radar enviaba sus datos al ordenador para presentarlos en la "pantalla" de la cabina. Resultó que el radar de acoplamiento y el ordenador tenián distintas fuentes de alimentación alterna, de igual frecuencia, pero que cayeron en un ángulo de fase especialmente desafortunado que desincronizó radar y ordenador, causando que los contadores del radar variasen constantemente debido al ruido eléctrico aleatorio, enviando el máximo flujo de datos al ordenador, que se veía obligado a incrementar o decrementar sus contadores para seguir los ángulos del radar, empleando cerca del 15% de su tiempo de proceso.

En tierra se habían hecho pruebas, pero conectando ambos sistemas a la misma fuente de alimentación, que evitaba ese problema.

Como se ve, el peligro se agazapa en los recovecos más inesperados. Y ya tiene guasa que lo que pudo haber abortado el alunizaje fuese un elemento que no jugaba entonces ningún papel y era usado sólo para el acoplamiento del módulo lunar con el de mando, tras despegar aquel de la Luna.

Pero al menos la robustez del diseño del ordenador salvó la situación. Además de tener un margen para encajar el 15% extra, el "ejecutivo asíncrono" diseñado por los ingenieros descartó, ante la sobrecarga, las tareas de baja prioridad, manteniendo las esenciales. Además se usó una "protección de reinicio", un requisito impuesto al equipo de software en 1968, que permitía reiniciar el sistema de forma prácticamente inmediata, nada que ver con los inicios y reinicios que sufrimos en los ordenadores normales hoy en día. Ese reinicio descartaba trabajos incompletos y de baja prioridad y seguía como si nada donde lo había dejado con el resto.

Y otro detalle explicado es que se habían tenido en cuenta reacciones a eventos improbables, y desarrollado errores de ordenador que probablemente nunca sucedieran, entre ellas una alarma indicando sobrecarga en el ordenador del módulo lunar. En una simulación pocos meses antes del despegue del Apolo 11 un controlador abortó la misión a causa de una alarma de programa, aunque el aterrizaje podría haberse completado, un error que preocupó mortalmente a todos, pues un aborto indebido de la misión era casi tan malo como no realizar uno necesario. Tras eso se pidió determinar para cada alarma qué podía pasar y qué se podía hacer. Uno de los ingenieros se hizo una chuleta que dejó en su consola de control. En esa chuleta aparecen los errores 1201 y 1202, y que no son causa de abortar. Cuando un controlador de vuelo pidió ayuda a su equipo de soporte tras la primera alarma 1202, ese ingeniero contestó "We´re go on that alarm". Para que luego hablen mal de las chuletas. Pero esa información no la conocía por ejemplo alguien que debería haber sido informado, el piloto Buzz Aldrin.

Al final, la causa del problema con las alarmas no era un error del ordenador o del software, sino un error de comunicación y en parte de ingeniería de sistemas. En proyectos grandes ( y no tan grandes) el mayor problema acaba siendo que la información que sabe A y puede evitar errores a B, no llega a este. Y la causa del éxito a pesar de todo reside también en mucha buena ingeniería, con amplios margenes, minuciosidad, pruebas, simulaciones, y llegar a explicar cualquier fallo que se produzca.

Sin embargo, en una pauta común y repetida, lo que trascendió a la prensa fué que el culpable era el ordenador. Al controlador que decidió seguir a pesar de la alarma se le recompensó por su "decision to proceed with the lunar landing when computer failed"

Aunque siempre se ha ponderado la actuación de los astronautas, y en todas las misiones Apolo que alunizaron el comandante hizo la parte final en modo "manual", incluso entonces las acciones manuales pasaban por el ordenador. Si de verdad hubiese fallado el ordenador, todavía ahora no haría 40 años de la llegada a la luna.

lunes, 20 de julio de 2009

Luna 1

Sí, hace 40 años que el hombre llegó a la Luna. Nos encantan estas puntuales efemérides redondas y señaladas.

En este caso, ese primer paso cósmico destaca por sí mismo. Pensar que alguién paseo por esa esfera desnuda, mudable y misteriosa, y contempló en directo la estampa de nuestro humilde planeta azul. Um...

Pero cómo se llegó a la Luna es incluso más fascinante que ese momento final.

En las películas actuales la promoción va muchas veces acompañada de documentales de "cómo se hizo", que suele ser más corto que la película. En el caso de la llegada a la Luna, la película dura muy poco, unos minutos, pero cualquier documental de cómo se hizo daría para días y días de metraje.

Ahora estoy leyendo "Digital Apollo. Human and Machine in Spaceflight" de David A. Mindell. Hay dos actores principales en este peculiar "cómo se hizo", los pilotos y los ingenieros, que actúan en el escenario de la Guerra Fría, a finales de la década de los 50 y en los 60 del siglo XX.

Pero antes el desarrollo de la aeronáutica ya plantea la dicotomía existente en todo avión, de estabilidad frente a maniobrabilidad, y la necesidad de usar la instrumentación y el control automático para ayudar al piloto. También hay una tensión en la función del piloto, ¿"conductor" (rol pasivo) o "aviador" (rol activo)?. En general los pilotos quieren ser "aviadores", y los ingenieros piensan en "conductores". El mayor progreso se consigue con personas que unen las dos características de piloto e ingeniero. Dos ejemplos señeros, James Doolittle y Charles Stark Draper.

En los 50 el desarrollo de aviones supersónicos pone en primer plano a los pilotos de prueba experimentales, la crema de la crema de los pilotos, que crean su propia sociedad, SETP (Society of experimental test pilots). Su primer banquete, el 4 de octubre de 1957, coincide con el día en que la URSS se adelanta en la carrera espacial lanzando el Sputnik.

La razón de ser de SETP es defender el papel protagonista y activo del elemento humano en el avance aeroespacial, puesto cada vez más en peligro por el avance técnico del control automático. Los pilotos van a tener a favor un factor clave: en la carrera espacial entre las dos grandes potencias los estadounidenses vinculan la democracia y la libertad al elemento humano, el valor de lo individual, frente a la inhumana automatización soviética. La presencia de los pilotos, luego astronautas, será esencial para el apoyo mediático a la apuesta política de Kennedy.

En el libro se repasan en los primeros capítulos los proyectos X-15, Mercury y Gemini. El X-15 es un avión supersónico, lanzado desde un B-52, capaz de sobrepasar la atmósfera, en donde el mayor problema a resolver es el de la reentrada a la misma. En cambio en Mercury y Gemini el piloto va en una capsula lanzada por un cohete similar a los misiles balísticos. En todos esos proyectos hay considerables retos técnicos, pero siempre surge en primer plano cuál debe ser el papel del piloto. En general se adopta una aproximación de ingeniería de sistemas en que el piloto es un subsistema, que debe interactuar con el resto, debiendo entenderse y modelarse por tanto adecuadamente ese subsistema humano.

Al margen de la exposición principal de esos proyectos con pilotos, se menciona el proyecto Polaris con sus misiles lanzables desde un submarino en inmersión, que influirá notablemente en dos aspectos, de gestión del proyecto (aquí nace el PERT) y de control automático. Los misiles deben ser casi completamente autónomos en su posicionamiento y guiado: desde luego no tienen piloto, deben ser precisos, y las comunicaciones entre estaciones de tierra y el misil pueden ser "estorbadas" por el enemigo.

Antes de que volasen las misiones Mercury o Gemini, antes de que Kennedy decidiese en mayo de 1961, tras menos de medio año de mandato, enviar un norteamericano a la Luna, ya se había creado la NASA, que organizó en el verano de 1960 una reunión industrial para definir un proyecto de alunizaje y hacer saber a los posibles contratistas qué esperar. Tras la bofetada soviética en abril de 1961, al ser Yuri Gagarin el primer humano puesto en órbita, los estadounidenses buscaron algo en lo que poder ser primeros, y encontraron el proyecto Apolo. Y desde el principio los consejeros del presidente tuvieron claro una cosa, antes que las razones técnicas o científicas era preciso "vender" el proyecto como la empresa humana de la conquista del espacio pues

es el hombre en el espacio, no simplemente las máquinas, lo que captura la imaginación del mundo


En el proyecto Apolo se iba a dar una situación atípica, distinta al resto de proyectos, pues una parte central del mismo se iba a adjudicar, sin concurso (diriamos que "a dedo"), al Laboratorio de Instrumentación (IL) del MIT, no para la fabricación de componentes, pero si para el diseño y gestión del sistema de guía. El IL (más concretamente 3 "lumbreras", Milt Trageser, Hal Laning y Richard Battin ) había trabajado en una idea de sonda a Marte, plasmada en un informe de 1959 en 5 tomos. Además el MIT había realizado la gestión de sistemas para el sistema de guiado e integración del mismo en el Polaris. Una afortunada visita al MIT, en el momento justo, de un responsable de la NASA facilitó una primera idea de diseño del Apolo, con


Un ordenador digital de propósito general
Un sextante espacial
Una unidad de guía inercial
Una consola para los astronautas
Otra electrónica de soporte


El "ordenador digital de propósito general" es coprotagonista del libro, aunque aparece tarde, tras un tercio del metraje. Antes han aparecido varios ordenadores analógicos. Pero el digital hace uso de transistores, y enseguida también de los primeros circuitos integrados que aparecen con la decada de los 60. Las responsabilidades iniciales previstas para el AGC, Apollo Guidance Computer, se van a ir incrementando con el paso del tiempo, llegando a la decisión de usarle también como piloto automático, lo que implicaba una práctica interacción directa con todos los componentes del sistema. Esta ampliación de responsabilidad es posible gracias al carácter "de propósito general", frente a un diseño a la medida como otros diseños digitales y todos los analógicos. Y también gracias al uso de circuitos integrados en vez de transistores individuales, con aumento de capacidad y reducción de tamaño y consumo. En esta evolución fue importante la decisión de hacer una primera versión "bloque I" y una posterior evolución "bloque II".


El reto del hardware, su diseño, y alcanzar la necesaria fiabilidad en compartimento estanco sin posibilidad de reparación tuvo su máximo pico alrededor de 1965, con más de 600 ingenieros trabajando en el IL. La producción del bloque I acabó en el otoño de 1966. La producción del bloque II llegó hasta el verano de 1969. La memoria del computador del bloque II era de 36k palabras de 16 bits para los programas y una memoria borrable de 2k, con un reloj a 1024 kHz

Pero hoy no voy a llegar a la Luna ...

En los cinco años desde la adjudicación del contrato hasta la preparación para los primeros vuelos del Apolo, el sistema de guía y navegación maduró desde una idea básica, a través de prototipos de laboratorio, hasta hardware de vuelo manufacturado de alta cualificación. A pesar de su pequeño tamaño y modesta capacidad de proceso, el AGC era tecnología punta, incorporando lo último en control de procesos, fiabilidad, diseño de circuitos, y empaquetamiento. En lo que se convertiría en una pauta familiar en el mundo de los ordenadores, la capacidad de memoria se dobló una, y otra y otra vez. Al mismo tiempo, la presencia del computador se entremezcló con los métodos de gestión de sistemas, especialmente cuando el proyecto se volvió más complejo y acumuló retrasos. Los dispositivos electrónicos en la cabina fueron eliminados gradualmente para ahorrar tiempo, peso o coste, y migrados al flexible computador o a los cerebros de los astronautas. Pero según iban saliendo los computadores del Bloque II de las cadenas de producción, la NASA y el IL empezaban a reconocer la tensión que habían añadido a una nueva parte del proyecto, una escasamente contemplada cuando Apolo comenzó: el software.

sábado, 23 de mayo de 2009

Benedetti

Hay poetas de la forma o de lo abstruso. Otros son cercanos Poetas de las Piernas


Las piernas de la amada son fraternas
cuando se abren buscando el infinito
y apelan al futuro como un rito
que las hace más dulces y más tiernas

pero también las piernas son cavernas
donde el eco se funde con el grito
y cumplen con el viejo requisito
de buscar el amparo de otras piernas

si se separan como bienvenida
las piernas de la amada hacen historia /
mantienen sus ofrendas y enseguida

enlazan algún cuerpo en su memoria /
cuando trazan los signos de la vida
las piernas de la amada son la gloria


o profundos Poetas del Silencio


Qué espléndida laguna es el silencio
allá en la orilla una campana espera
pero nadie se anima a hundir un remo
en el espejo de las aguas quietas

viernes, 22 de mayo de 2009

Certificados raíz FNMT

Hace unos días actualizé Internet Explorer a la versión 8. De entrada, entre las autoridades de certificación raíz (menú Herramientas / Opciones de Internet, pestaña Contenido, botón Certificados, pestaña Entidades de certificación raíz de confianza ) no estaba la de la FNMT. Pero una vez ya me tocó dar vueltas, como a tantos otros, hasta encontrar el ficherito FNMTClase2CA-FNMT.crt que hay que importar para incluir esa muy importante, en España al menos, Autoridad de Certificación (AC, o CA en inglés). En la versión hispana de Firefox esa AC suele venir preinstalada.

Buscando en http://www.cert.fnmt.es me encontré con más de lo que esperaba.

En la página de ciudadanos se puede descargar el certificado raíz de la FNMT Clase 2 CA.

Pero además hay otra página con los certificados raíz de la nueva Autoridad de Certificación "FNMT-RCM" y también el "AC APE" (Administración Pública Española), derivado de la autoridad "FNMT-RCM".

Como referencia está bien el documento pdf DECLARACIÓN GENERAL DE PRÁCTICAS DE CERTIFICACIÓN que en la página 18 y siguientes presenta las distintas cadenas de certificación empleadas por la FNMT, además de indicar las huellas digitales de cada uno de los certificados raíz. Para el caso de la CA tradicional, "FNMT Clase 2 CA", indica que

La huella digital del Certificado Raíz de “FNMT Clase 2 CA” puede consultarse en el BOE nº. 235 (pág. 35194 ) de 1 de Octubre de 1999, en la Orden de 30 de septiembre de 1999 por la que se establecen las condiciones generales y el procedimiento para la presentación telemática de las declaraciones-liquidaciones correspondientes a los modelos 110, 130, 300 y 330.


Para las otras (nuevas) CA no hay referencias al BOE, pero en el pdf indicado vienen los números de serie y las huellas digitales.

Estas nuevas CA son "AC FIRMA MOVIL” que tiene un único certificado raíz, y "AC RAIZ FNMT-RCM” que tiene tres certificados raíz distintos en base a que se han autofirmado con tres algoritmos distintos, pkcs1-sha1WithRSAEncryption, pkcs1-sha256WithRSAEncryption y pkcs1-sha512WithRSAEncryption. Esos certificados raíz son válidos hasta el 1 de enero de 2030. El certificado de la APE es válido hasta el 2023.

Además de las distintas versiones de hash (sha1, sha256 y sha512) parece que en todos los certificados raíz nuevos la clave utilizada es de 512 bytes (4096 bits) en vez de los 128 bytes del certificado raíz de "FNMT Clase 2 CA", todo para evitar que antes de las fechas de caducidad los certificados raíz se hayan vuelto vulnerables.

jueves, 26 de marzo de 2009

La herencia de Mendel

En Biología hay tres problemas básicos:

  • La evolución: ¿Cómo aparece la vida y evoluciona hasta el presente?
  • El desarrollo: ¿Cómo se consigue un organismo adulto a partir de un huevo?
  • La herencia: ¿Por qué los hijos se parecen a los padres?

Respecto a la herencia, a lo largo de la historia los hombres han ido seleccionando especies, tanto vegetales como animales, para que presentaran características cada vez más favorables a sus intereses, y acumulando un conocimiento empírico respecto a los procesos de cruce y selección de individuos. En estos es básico el aspecto sexual : hay que unir las contribuciones masculina y femenina para conseguir un huevo fertilizado que se desarrolle en individuo.

Pero ¿cómo operan, interaccionan o se combinan esas dos contribuciones o "factores"?

Como la naturaleza es bastante complicada y no ofrece sus secretos fácilmente, no queda más remedio que manipularla, tronchar su complejidad, y atacar algún caso sencillo.

A mediados del siglo XIX Gregor Mendel se ocupó de investigar tales cuestiones aplicando el método científico. De joven trabajó de jardinero y estudio apicultura. De su estancia en la Universidad de Viena aprovechó la influencia del físico Doppler, que animaba a aprender la ciencia experimentando y emplear las matemáticas para ayudar a explicar los hechos observados; también la del botánico Unger, que despertó en Mendel el interés por la variabilidad en las plantas y su origen.

El resultado de muchos años de trabajo lo plasmó Mendel en un artículo que hoy puede consultarse, en inglés.

Mendel eligió una especie muy idónea para el éxito experimental, pisum sativum, un tipo de guisante. En estas plantas se fijó en una serie de caracteres externamente reconocibles: el color de las semillas, el de las vainas, el de las flores; el tipo de piel de la semilla; la forma de la vaina; la ubicación de la flor en la planta; la altura de la planta. Había un gran número de variedades puras, lo que le permitió encontrar para cada carácter por separado dos variedades con valores claramente diferenciables. Por ejemplo una variedad con semillas de piel lisa, y otra con semillas de piel arrugada, pero que coincidían en el resto de caracteres indicados (color de la semilla, de la vaina, de la flor, etc). Además "puras" quiere decir que cruzando dos plantas de una misma especie pura se obtienen sucesivas generaciones (tantas como se quiera) con los mismos caracteres.

Otro factor favorable al éxito experimental es que la configuración particular de los estambres (productores de los gametos o células germinales masculinas) y el carpelo (la parte femenina) dentro de la flor facilitan controlar estrictamente la polinización, y asegurar que al efectuar un cruce el "padre" es el deseado y no otro.

Mendel estableció dos resultados fundamentales.

1.- Para cada carácter , las contribuciones genéticas paterna y materna recibidas por un individuo son transmitidas a su descendencia de forma independiente e inalterada: en la formación de gametos del hijo los factores paterno y materno se segregan.

2.- Las contribuciones o factores correspondientes a distintos caracteres se transmiten de forma independiente.

Para este segundo resultado cruzó plantas de variedades que diferían a la vez no en uno sólo (como hizo para el primer resultado), sino en dos factores, por ejemplo cruzando una planta pura de semillas de color amarillo y de piel lisa con otra pura de semillas de color verde y de piel rugosa.

Aunque los trabajos de Mendel no tuvieron repercusión inmediata en la fecha de su publicación, 1865, se redescubriron en 1900 cuando dos personas (Hugo de Vries y Karl Correns) de forma independiente obtuvieron similares conclusiones y se encontaron con que el bueno de Mendel se les había adelantado. No puedo imaginar los juramentos que se verterían. Pero ese es un mecanismo de la ciencia, los resultados deben ser reproducibles por distintos experimentadores.

Claro que el propio Mendel sufrió al parecer la cruel venganza de la ciencia y de la naturaleza. De la ciencia, pues su trabajo no encontró la acogida debida, y uno de los botánicos más relevantes, Nägeli, le recomendó proseguir sus investigaciones con una planta, Hieracium. Y aquí la naturaleza se vengó, pues dicha planta se reproduce asexualmente. De modo que Mendel no pudo obtener resultados similares a los obtenidos con el guisante pisum sativum, y acabó dedicándose a las abejas y a sus cargos eclesiásticos.

Las leyes de Mendel resultan ser verdad en las circunstancias específicas tratadas. Además reflejan un conocimiento que en términos informáticos podríamos llamar de "caja negra", de tipo descriptivo y funcional. La clarificación del porqué de esas leyes, y sus limitaciones, se consigue con el conocimiento de "caja blanca", en que vemos los entresijos de la maquinaria detrás de las descripciones.

Hoy en día suelen presentarse didácticamente las leyes de Mendel después de abordar la estructura celular, la existencia de cromosomas, cómo es la meiosis, el concepto de gen y todo lo que afecta a su expresión. Entonces los diversos tipos de herencia pueden relacionarse con los mecanismos básicos.

Por ejemplo, los caracteres estudiados por Mendel son influidos por un sólo gen, que presenta sólo dos posibles alelos (dos secuencias diferentes de aminoácidos en un lugar concreto de la cadena de DNA).

La dominancia de un alelo y recesividad del otro se relacionan con el efecto que tiene la transcripción del gen en proteínas. Por ejemplo, el gen controla un paso en una serie de reacciones químicas, y el alelo dominante codifica una proteína funcional mientras que el recesivo produce una proteína no operativa.

La segregación de los factores materno y paterno corresponde a la existencia de pares de cromosomas homólogos y a cómo se dividen durante la meiosis para producir los gametos masculinos y femeninos.

La independencia de herencia de diferentes caracteres se explica por su situación en diferentes cromosomas y por cómo se produce la meiosis.

Pero la naturaleza da para mucho más.

Cada par de cromosomas homólogos son similares (contienen los mismos genes, aunque puede que con diferentes alelos), salvo el par de cromosomas sexuales X e Y; hay genes ligados al sexo, presentes sólo en uno u otro de los cromosomas sexuales.

No sólo hay genes con dos alelos, los hay con 3 o muchas más variantes.

No sólo hay genes que afecten a un único carácter, los hay que afectan a muchos caracteres a la vez (pleiotropía).

No sólo hay caracteres determinados por un único gen, muchos caracteres se determinan por más de un gen (herencia poligénica), y en ocasiones el efecto final de un gen depende de otro que le influye (epistasia).

No se heredan de forma independiente los caracteres correspondientes a genes situados en el mismo cromosoma, pero tampoco se heredan conjuntamente siempre. A veces en la meiosis se da el fenómeno de entrecruzamiento que permite a un par de cromosomas homólogos (uno proveniente del aporte masculino y el otro del femenino) intercambiar secuencias genéticas.

Además el ambiente puede ser determinante en el fenotipo obtenido a partir de un genotipo dado.

Y como se ha indicado antes, ¡no todos los organismos se reproducen siempre sexualmente!

De modo que la realidad es mas complicada de lo que desearíamos para explicarla con brevedad y sencillez, pero no tanto como para impedir desvelar muchos de sus antiguos misterios.

martes, 10 de febrero de 2009

Darwin

El bicentenario del nacimiento de Darwin, y sesquicentenario de la publicación de El origen de las especies, es una buena excusa para aprender algo sobre Biología.

Hoy en día esta es la ciencia con resultados más numerosos y de más calado, y con una repercusión mediática creciente, sobre todo por las previsibles aplicaciones médicas de las investigaciones genéticas.

Cada día podemos encontrar novedades como


La avalancha de estudios y resultados es continua, y su impacto en la vida de los humanos es más cercano de lo que pueda suponer encontrar el bosón de Higgs.

Gran parte de esos resultados corresponden más específicamente al ámbito de la Biología Molecular. Inexistente en los tiempos de Darwin, es ahora un puntal básico que afianza la teoría de la evolución.

La teoría de Darwin tiene dos partes. La primera dice: hay evolución, una nueva especie surge a partir de otra previa mediante la descendencia con modificaciones; las especies actuales pueden resultar de la diversificación a partir de un ancestro común. Darwin no sabía el mecanismo de la herencia ni de las modificaciones, pero postulaba que podían darse de forma espontánea. Muchos aceptaron pronto, y muy pocos discuten hoy, la realidad contrastada del proceso evolutivo.

Más polémica resultó la segunda parte expuesta por Darwin: el mecanismo de la evolución es la selección natural. En unas circunstancias ambientales dadas, algunas modificaciones heredables pueden dar ventajas de supervivencia y reproducción a unos individuos respecto a otros, de modo que esos factores ventajosos se acumulen de generación en generación.

La existencia de herencia, y los cambios en la misma son la causa de la evolución. Pero la dirección de esta la marca la selección natural.

Hoy en día es incuestionable la existencia de la herencia, localizada como información en la molécula de ADN, y como proceso en la maquinaria celular que replica el ADN y que en la meiosis da lugar a los gametos o células germinales. Este proceso fiel pero delicado abre la puerta a la variabilidad, las mutaciones, la descendencia con cambio.

Lo que científicamente sigue debatiéndose es si la dirección de la evolución la marca o no la selección natural, y en qué nivel opera esta. Una visión actual del debate puede encontrarse en el número monográfico de enero de Investigación y Ciencia, sobre la actualidad y alcance de la teoría de Darwin.

En el artículo "Genética de la selección natural", de H. Allen Orr, se cita un mecanismo alternativo a la selección natural, el de evolución neutra y deriva genética. Consiste está en la acumulación de mutaciones aleatorias que no tienen efectos favorables ni desfavorables sobre la superviviencia del individuo. Los últimos estudios indican que la teoría neutralista subestima el poder de la selección natural, que como poco es responsable de un 20% de la divergencia genética de las especies estudiadas. Se presentan otros resultados que avalan la vigencia de la selección natural como determinante de la evolución.

Otro artículo interesante y complejo, "Evolución por el bien del grupo", refleja otro frente abierto, en qué nivel actua la selección natural. Se defiende que esta puede actuar de forma multinivel: entre los genes dentro de los individuos (el gen egoista de Richard Dawkins), entre los individuos dentro de los grupos (la propuesta de Darwin), y entre los grupos dentro de las poblaciones (la selección de grupo). La selección a un nivel inferior puede deshabilitar la del nivel superior, pero según cada caso puede operar en varios niveles a la vez.

Un tercer artículo, "Del átomo al carácter", describe varios mecanismos moleculares de la variación, y ejemplos de sus efectos para diferenciar entre especies o entre individuos de una misma especie. En la especie humana hay modificaciones evolutivamente recientes, que afectan al color de la piel, la tolerancia a la lactosa o la digestión del almidón. Todas esas variaciones ventajosamente adaptativas surgen de la variabilidad aleatoria simple. La biología molecular explica la descendencia con modificaciones, que Darwin postuló sin poder explicar sus causas últimas, razón de las críticas de John Herschel, que pensaba que los nuevos rasgos útiles requerían "mente, plan, diseño, con la exclusión lisa y llana del azar como sujeto y del concurso casual de los átomos".

Hoy en día algunos siguen a vueltas con el Dioseñador Inteligente, y hay un artículo al respecto en ese número monográfico, "Estratagemas del creacionismo". Pero la tarea apasionante (y asombrosa) de la ciencia biológica es la comprensión cabal de la vida, explicada en base a los principios de la física y la química, empleando única y exclusivamente procesos naturales. La "Dioseñadora" a descubrir y admirar es la propia Naturaleza, su composición, sus leyes, su devenir. Puede no resultar inteligente del todo, caprichosa e imprevisible a veces, pero es muy, muy paciente. Ha tenido todo el tiempo del mundo.

Y para celebrar a Darwin, un extracto de su libro

As many more individuals of each species are born than can possibly survive; and as, consequently, there is a frequently recurring struggle for existence, it follows that any being, if it vary however slightly in any manner profitable to itself, under the complex and sometimes varying conditions of life, will have a better chance of surviving, and thus be naturally selected. From the strong principle of inheritance, any selected variety will tend to propagate its new and modified form.


que traducido viene a decir

Como nacen muchos más individuos de cada especie que los que pueden sobrevivir, y como, por consecuencia, hay una lucha por la existencia frecuentemente, se sigue que cualquier ser, si varía, por ligeramente que sea, de una manera provechosa para sí mismo, bajo las condiciones complejas y algunsa veces variables de la vida, tendrá una probabilidad mayor de sobrevivir, y de este modo será naturalmente selecto. Por el fuerte principio de la herencia, cualquier variedad selecta tenderá a propagar su forma nueva y modificada