martes, 27 de septiembre de 2011

diagramas de Hertzsprung y de Russell

En el número de septiembre de la revista Investigación y Ciencia hay un breve artículo sobre el diagrama de Hertzsprung-Russell, titulado "La tabla periódica de las estrellas". Hay  además una descarga gratuita de un estupendo póster. La "excusa" para el artículo es que el diagrama H-R cumple 100 años.

Este diagrama, también llamado de espectro - luminosidad (al menos en el Curso de Astronomía General de P.I. Bakulin ) muestra esas dos características fundamentales de las estrellas. En el eje vertical, usando escala logarítmica, se representa la luminosidad, que es la potencia de radiación electromágnetica emitida por la estrella en todas direcciones, y es causa normalmente de la mayor parte de pérdida energética de la estrella. En cuanto a la otra variable, representada en el eje horizontal, adopta varias formas equivalentes:  el tipo espectral, como O, B, A, F, G, K, M; o bien la temperatura superficial; o bien el índice de color. En el póster descargable se usan las dos primeras opciones, el tipo espectral en la parte superior y la temperatura superficial en la inferior.

¿Qué hay detrás del diagrama H-R? Podría decirse que la Historia de la Ciencia.

Ese tipo espectral no es ningún fantasma. La luz del Sol se dispersa, ya sea con un prisma, ya sea con una red de difracción, y salen, además de los colores, las oscuras bandas de absorción que Joseph Fraunhofer estudió a principios del siglo XIX. Es el espectro del Sol, que nos provée una rica mina de información a través de los 150 millones de kilometros que nos separan.  Fraunhofer aportó una gran cantidad de observaciones del espectro del Sol, otras estrellas y planetas, y una maestría técnica para caracterizar con precisión las propiedades cromáticas de los vidrios y lentes, y para construir los mejores telescopios del momento, como el Dorpat con el que Friedrich Georg Wilhelm von Struve determinó la paralaje de Vega.

¿Cómo se fueron comprendiendo tales observaciones? Pues con el desarrollo de la espectroscopía de laboratorio, en condiciones controladas, a veces con mejoras tan "simples" como el mechero Bunsen. Y la contribución de un Gustav Kirchhoff que, además de experimentar, fruto de su absorbente comprensión, era capaz de emitir leyes como la de la radiación térmica.

Pero la clasificación de tipos espectrales de las estrellas tiene tres madres, y varios padres. Uno podría ser el padre Angelo Secchi, con cuatro clases espectrales I, II, III y IV. Otro, financiero, podría ser Henry Drapper. La fundación establecida por su viuda sirvió de generosa fuente financiera para sostener el programa de Edward Pickering, bajo cuya dirección se abordaron  numerosos proyectos en el Harvard College Observatory.

Uno fue la exploración espectroscópica de un gran número de estrellas, llevada a cabo por Williamina P. Fleming, que produjo en 1890 el Draper Memorial Catalogue. Fleming se basó en la clasificación de Sacchi, pero subdividiendo en más clases las de éste, la I en A,B, y C, la II en E,F,G,H,I,K y L, renombrando las clases III y IV como M y N. La letra O se usó para las estrellas Wolf-Rayet (por Charles J. F. Wolf y Georges A. P. Rayet). En otro proyecto Antonia Maury analizó con una mayor resolución espectral  un reducido número de las estrellas más brillantes, empleando un sistema de clasificación propio que no ha perdurado, pero usando otro criterio basado en la anchura o estrechez de las líneas espectrales que resultó muy influyente en el trabajo de Hertzsprung. Un tercer proyecto amplió la exploración del primero al hemisferio sur, y fue Annie Jump Cannon quien realizó la nueva clasificación, modificando algo la de Fleming, sin seguir la de Maury. Cannon eliminó algunas clases y reordenó otras para dejar la secuencia de tipos espectrales como O, B, A, F, G, K y M, con P para las nebulosas planetarias y Q para estrellas peculiares. Además introdujo una notación decimal para subclasificar dentro de una misma clase como la B, empezando con B0, y siguiendo con B1, B2, etc, según se tenga más cercanía a la siguiente clase, la A en este caso.

Así, con dinero privado, con un gran organizador y con tres estudiosas diferentes (y otras muchas mujeres calculadoras, en sentido matemático) se originó  en Harvard a finales del siglo XIX el actual sistema de clasificación espectral de la luz de las estrellas, plasmado en el eje horizontal del diagrama H-R.

En cuanto al eje vertical, a veces la luminosidad se expresa tomando como unidad la del Sol, pero lo más común es emplear la magnitud, término técnico con un significado no ligado al tamaño de la estrella. Y aquí arrastramos el legado de uno de los ilustres astrónomos de la antigüedad, Claudio Ptolomeo, que en su señera obra  Almagesto dividió las estrellas en seis clases según su brillo, siendo las más brillantes las de primera magnitud, y las menos brillantes, en el límite de la percepción del ojo humano, las de sexta magnitud. Numéricamente las más brillantes tienen el menor valor, 1, y las menos brillantes el mayor valor, 6. Unos diecisiete siglos más tarde Norman Pogson desarrolló una escala para las magnitudes aparentes, establecida en base al logaritmo del cociente entre un valor de referencia y el brillo de la estrella. Para mantener aproximadamente la escala usada desde Ptolomeo (algunos dicen que incluso desde Hiparco, aunque no hay evidencia firme), resultó conveniente hacer que un incremento de 5 unidades en la magnitud aparente fuese igual a una disminución del brillo en un factor 100. La nueva escala no sólo sirve para los valores de siempre, del 1 al 6. Valores mayores corresponden a estrellas demasiado tenues como para ser apreciadas por el ojo, pero observables con un telescopio. Valores menores, de 0 e incluso negativos, sirven para algunas estrellas muy brillantes u objetos cercanos y extensos como Júpiter, Venus, la Luna y el Sol.

Lo que quizá no se vea en el eje vertical del diagrama H-R es el lío que uno puede montarse, porque una cosa es la magnitud aparente, que tiene un origen de apreciación visual humana, por lo que cae en el terreno fotométrico, de sensación de luz recibida en destino, y otra lo que hemos dicho que era la luminosidad, de carácter radiométrico y referida a toda la energía electromagnética emitida en origen.

Cuando en el siglo XIX se empezó a usar la fotografía, las magnitudes aparentes dejaron de estimarse a ojo, pero pronto se descubrió la distinta sensibilidad espectral de las placas fotográficas respecto al ojo. Más adelante se distinguieron diversas magnitudes aparentes según la radiación que dejaran pasar distintos filtros estándar correspondientes a una serie de bandas espectrales, definiendo así un sistema fotométrico.

Así llegamos a la noción de índice de color, como diferencia entre las magnitudes aparentes de dos bandas espectrales diferentes, por ejemplo la B y la V. Una diferencia de magnitudes aparentes corresponde a un cociente de potencia recibida, que debería ser igual al cociente de potencia emitida en origen en cada banda, con lo que el índice de color puede considerarse una propiedad intrínseca a la estrella, no afectada por la distancia mayor o menor a la que esté. Lo que deja de ser cierto para estrellas suficientemente lejanas, cuando han de tenerse en cuenta los efectos del gas y polvo interestelar que actúa de forma diferente, esparciendo más los azules, y por tanto enrojeciendo el espectro.

Pero si finalmente se consigue determinar la magnitud aparente en todo el espectro electromagnético, sabiendo la distancia a la estrella (se dice fácil pero ... ) se llega a deducir  la magnitud absoluta bolométrica, que es una forma de expresar la luminosidad, empleando un convenio en el que interviene una distancia estándar de 10 parsec: para una estrella situada a esa distancia coinciden los valores numéricos de la magnitud aparente y de la magnitud absoluta. A veces es mejor no preguntarse cómo se calculan los numeritos que aparecen en un diagrama.

Y a todo esto, en 1911 fué el astrónomo danés Ejnar Hertzsprung quien estudiando los cúmulos globulares de las Híades y de las Pléyades publicó por primera vez un diagrama luminosidad-color como el de la siguiente figura, con luminosidad en magnitud absoluta en el eje horizontal, y una forma de índice de color (mediante una longitud de onda expresada en Angstroms) en el eje vertical:


Aunque pueda decirse que el primer diagrama lo publicó Hans Rosenberg, realmente no hay duda de que la atribución más meritoria y original por sus trabajos desde 1905 se debe dar a Hertzsprung, y parece claro que cuando Henry Norris Russell publicó en 1913 su diagrama, lo hizo de forma independiente, y en un formato coincidente con el actual en cuanto a la colocación de los ejes:


En esta última figura hay un punto aislado, abajo, en la vertical del tipo espectral A. Esa fue la primera enana blanca "descubierta", según los recuerdos de Russell de su encuentro con Pickering en un coloquio en 1910, recogidos en "The Cosmic Century. A History of Astrophysics and Cosmology" de Malcolm Longair.

Russell comentó a Pickering lo interesante de saber el tipo espectral de estrellas cuya paralaje se había obtenido recientemente. Pickering le pidió un ejemplo. Russell citó el caso de la componente débil de ómicron eridani. Pickering descolgó el teléfono y contactó con la señora Fleming, preguntando por el dato. A la media hora la respuesta de Fleming fue que, indudablemente, era de tipo A. Russell quedó atónito (flabbergasted) y desconcertado (baffled), digamos que colocando mentalmente esa estrella en tan inesperado e inexplicable rincón, de tanta temperatura y tan poca luminosidad. Entonces Pickering dijo una de esas frases aplicables a lo largo de los tiempos, incluso ahora mismo, y que describen el proceso de la ciencia:
Yo no me preocuparía. Justamente son estas cosas que no podemos explicar las que conducen al avance de nuestro conocimiento.

miércoles, 31 de agosto de 2011

el mapa estelar más grande de la historia

Hace poco he leído un libro que me ha resultado extraordinariamente gratificante. Se trata de "The Making of History's Greatest Star Map", de Michael Perryman, publicada por Springer. Perryman, que acaba de recibir el premio Tycho Brahe de la Sociedad Astronómica Europea, fue el director científico de la misión Hipparcos de la ESA, que concluyó con "La producción del más grande mapa estelar de la historia".

De una forma amena y divulgativa, clara y sin complicaciones técnicas, plena de pasión personal por el tema, se narra una gran obra colectiva, que necesitó la colaboración de unos 200 científicos y unas 2000 personas.

El título del libro pudiera parecer excesivo o presuntuoso, pero se justifica en el prefacio desde una perspectiva histórica: en 1912 H. H. Turner narraba en "The Great Star Map" una empresa internacional semejante, que comenzada en el siglo XIX se prolongó durante medio siglo. No es pues cosa nueva el unir esfuerzos plurales y mantenerlos prolongadamente.

Pero sí es muy diferente este proyecto: el catálogo estelar deseado se consiguió con un telescopio especial, que era también espacial.  Así arranca el libro, con el lanzamiento de Hipparcos, un satélite puesto en órbita el 8 de agosto de 1989 con un cohete Ariane 4 desde la Guayana francesa. Me gusta esta manera cinematográfica de empezar, con un momento de clímax en que conocemos a varios de los protagonistas de esta historia y tras la cuenta atrás se lanza con éxito el cohete y se celebra la fiesta en la noche tropical, ¡ay!, sin saber lo que se avecina.

Tras este prólogo vibrante, los primeros capítulos se dedican a presentar los conceptos necesarios para entender el porqué de la misión Hipparcos, y abordar el desarrollo histórico de la astrometría. Después siguen los capítulos que detallan la vida del proyecto, desde su génesis, pasando por su desarrollo y ejecución, con los problemas tras el lanzamiento, la superación de los mismos y la culminación del proyecto con los catálogos Hipparcos y Tycho. Los capítulos finales muestran algunos aspectos sobre nuestra galaxia y sus estrellas, que ha sido posible conocer en los años posteriores gracias a los resultados de la misión Hipparcos.

Una forma de comprender nuestro lugar en el Cosmos es estudiando las estrellas que alumbran la nocturna esfera celeste. La información más básica sobre las estrellas es la de su posición y su movimiento.  Para ello necesitamos aprender algo sobre ángulos, su medida en grados, minutos y segundos de arco, y los límites a la precisión en la medida de los mismos que impone la atmósfera terrestre. Conseguir una gran precisión angular es imprescindible para estimar la distancia de cada estrella a la Tierra por triangulación, mediante su paralaje. También es necesaria para determinar la velocidad aparente de las estrellas.

Tras introducir estas nociones, se traza una breve historia de muchos siglos y muy lento progreso, hasta que la cosa se empieza a acelerar en el siglo XVII. No sólo llega el telescopio y Galileo, Kepler o Newton, en 1667 se establece el observatorio de Paris y en 1675 el Real Observatorio de Greenwhich. Al siguiente siglo llega el cronómetro de John Harrison, desde 1767 se publica anualmente el Nautical Almanac, en 1725 se publica postumamente un catálogo de Flamsteed con 2935 estrellas. En 1718 Edmond Halley compara sus observaciones de estrellas brillantes como Aldebarán, Arturo y Sirio, con las del gran Hiparco y concluye que han cambiado de posición, que tienen un movimiento propio a través de la visual. En 1729 Bradley describe el efecto de aberración estelar, prueba del movimiento de la Tierra por el espacio. Pero la medida de la paralaje de una estrella se resiste, a pesar de muchos intentos de los más insignes astrónomos de la época, hasta el siglo XIX, en que casi a la vez, en 1838 y siguientes años, se miden los primeros paralajes: Bessel de Cygni 61, Struve de Vega, y Henderson de alfa centauri.

Otro capítulo cierra el desarrollo histórico entre 1850 y 1980, distinguiendo tres tipos de estudios complementarios : determinación muy precisa de distancias de un pequeño número de estrellas; medida muy precisa de las posiciones angulares de suficiente cantidad de estrellas ampliamente distribuidas para producir un marco de referencia global, constituyendo un Catálogo Fundamental; y medidas menos precisas, pero de una enorme cantidad de estrellas, para establecer la estructura y propiedades de nuestra Galaxia.

Llega entonces la parte central del libro, dedicada a narrar la génesis del proyecto Hipparcos, su desarrollo, ejecución, lanzamiento, crisis, salvación, operativa, tratamiento de datos y triunfante culminación con los catálogos Hipparcos y Tycho.

De una idea inicial en 1967, desarrollada en los 70, pasamos a la lucha con otros proyectos competidores en el marco del programa científico de la ESA para los 80. Hay  detalles de los procesos de selección de proyectos, las tensiones, los intereses, todo muy humano además de científico. El caso es que el proyecto Hipparcos consigue su "hueco en la zona", y  nuestro autor el suyo en el proyecto al unirse a la ESA en 1980. Fue nombrado director científico de la misión, para asegurar la prevalencia de los objetivos científicos. Desde su autorizada posición nos presenta Perryman a muchas de las personas más relevantes para plasmar el concepto de la misión en algo plenamente operativo, superando problemas científicos, tecnológicos y de gestión. También explica las muy especiales características de algunos de los elementos más importantes, diseñados para cumplir el objetivo de la misión.

Y así, casi a la mitad del libro, Disaster Unfolds. El exitoso lanzamiento con el cohete Ariane ha colocado al satélite en una órbita muy elíptica desde la que se debe pasar a la definitiva órbita geoestacionaria en la que desarrollar la misión. El impulso para ese último paso lo debe dar el cohete de apogeo, que tiene el propio satélite. Pero algo falla y el cohete no responde ni a la primera ni en todos los demás intentos. Se despliega el desastre. No ya porque esa órbita elíptica no sea la prevista, y no puedan hacerse observaciones en ella, sino porque atraviesa una y otra vez los dañinos cinturones de radiación van Allen que "atacan" y dañan los circuitos electrónicos, los componentes ópticos y los giróscopos. Con un rápido y decidido esfuerzo se replantean las observaciones, se reprograma software, se habilitan formas inesperadas de comunicación con el satélite, se cruzan los dedos ... y así
"Tras poco más de tres años de exitosa recogida de datos, a principios de 1993 los sistemas van fallando catastróficamente uno a uno. Como si hubiese luchado valientemente para mantener el flujo de datos tan desesperadamente necesario para confeccionar los catálogos definitivos, el ordenador de abordo acaba por expirar, negandose al reinicio, destrozado por su prolongada exposición a la radiación hostil. Todos los intentos sucesivos de comunicarse con el satélite son infructuosos. Hipparcos, finalmente, ha terminado."

Y aquí llega un capítulo de flashback cinematográfico. Volvemos a la decada de los 80, para atender al laborioso, minucioso y fundamental trabajo de seleccionar las estrellas que la misión va a estudiar: el catálogo de entrada. Y a otro aspecto esencial: cómo llevar a cabo el análisis y reducción de los datos, cómo resolver la computacionalmente mastodóntica tarea de pasar de los datos "pelados" a la muy destilada información final que aparece en los catálogos publicados definitivamente en 1997. El análisis de datos se hace de forma independiente y en paralelo por dos consorcios científicos distintos, cuyos resultados se fusionan. El catálogo Hipparcos incluye la posición angular, distancia y movimiento de más de cienmil estrellas, con una precisión sin precedentes de cerca de un milisegundo de arco. El catálogo Tycho incluye datos menos precisos, pero de algo más de un millón de estrellas y con información de su color.

El capítulo 10 cierra los dedicados especificamente al proyecto, y repasa sus dimensiones, los retos que abordó, los límites tecnológicos y científicos por los que discurrió, la evolución de la tecnología acaecida mientras tanto, y las perspectivas que se abrían para ir en el futuro más allá. Ese futuro está ya casi preparado para despegar en uno o dos años, y conseguir precisiones del orden del microsegundo de arco y muchos más datos para muchas, muchas más estrellas, y se llama Gaia, que se describe brevemente en el capítulo final, "The future". ¿Quién y cuándo escribirá su historia?

La última parte del libro, antes de ese postrero capítulo, se dedica a algunos de los usos que la comunidad científica ha dado a los resultados de la misión Hipparcos, y cómo han cambiado nuestra comprensión del Universo, empezando por nuestra propia Galaxia. Perryman nos describe su extensión, sus componentes, su rotación, la historia de su estudio. Nuestra Vía Láctea se compone por un lado de un disco con un abultamiento central, y con brazos espirales, en el exterior de uno de los cuales, a unos 30.000 años luz, se encuentra el Sol, que da una vuelta completa alrededor del centro del disco en unos 226 millones de años. El disco tiene cerca de 300 años luz de espesor, y el Sol esta a unos 70 años luz por encima del plano medio, algo fuera de la zona más poblada de estrellas, lo que permite ahora una vista un poco mejor de nuestra Galaxia. El Sol, a la vez que gira también ondula arriba y abajo del plano medio del disco galáctico, con un periodo de unos 80 millones de años. ¡La de giros y subidas y bajadas que ha dado la Tierra estos últimos 4000 millones de años!

Nuestra Galaxia se compone también de un gran halo esférico mucho más difusamente poblado que el disco. Las estrellas del halo son muy peculiares y a ellas pertenecen las estrellas con mayor velocidad aparente, como la Groombridge 1830, que pasan tan raudas al cruzar segun la perpendicular al disco y no tener el movimiento de giro de las estrellas del disco, como el Sol. Otra de tales estrellas es la de Barnard, uno de los objetos conocidos más viejos del Universo, que ha estado brillando al lento ritmo actual desde hace 10.000 millones de años. Las peculiaridades de las estrellas del halo llevaron a incluir muchas en el programa de observación de Hipparcos. Parece que el halo se ha ido formando por la sucesiva captura y mezcla de minigalaxias que se toparon con la nuestra. Y en la inmensidad esférica del halo galáctico se encuentran otros habitantes peculiares de la Galaxia, los cúmulos globulares, grupos densamente poblados con cientos de miles de estrellas, y con edades en muchos casos tan viejas que antes de Hipparcos parecían más viejas que el Universo, y luego ya resultaron encajar en la cronología de este.  Hay que tener en cuenta que aunque la precisión de Hipparcos dió para medir por paralaje sólo las distancias de estrellas "próximas" (a menos de unos 300 años luz a la redonda), estableció un marco de referencia más preciso, y ayudó a mejorar el rendimiento de otros métodos indirectos de medir distancias mayores, por lo que la influencia de los resultados de Hipparcos abarca la Galaxia entera.

De la Galaxia se pasa al interior de las estrellas, para tratar sobre su estructura, los procesos físicos que las sustentan, su origen, evolución y fin, cómo distinguirlas y clasificarlas, para lo que se explica la importancia del diagrama de Hertzsprung-Russell, que muestra la relación entre la temperatura y la luminosidad de las estrellas. La luminosidad corresponde a la energía total emitida por unidad de tiempo, que solo puede determinarse a partir del brillo observado, del flujo de energía que llega a la Tierra, si además sabemos la distancia, pues el brillo decrece  como el inverso del cuadrado de la distancia. Hipparcos ha permitido calcular con precisión las distancias de muchas estrellas y perfeccionar así los modelos y simulaciones de estructura y evolución estelar, y mejorar dramáticamente la precisión de las estimaciones de distancias basadas en candelas estándar, como las cefeidas. Se repasan las enanas blancas, las estrellas dobles, los encuentros entre pares de estrellas binarias o de un sistema binario con el agujero negro del centro galáctico, y el estudio de dos de los cúmulos abiertos más conocidos, las Híades y las Pléyades. El libro incluye al final un par estereoscópico de ambos cúmulos abiertos, para ver tridimensionalmente (tras un rato de esfuerzo ocular, que no son anaglifos) la disposición de las distintas estrellas de cada cúmulo. Un punto más a favor. Pero lo que destacaría del capítulo "Inside the stars" es la descripción de la vida y futuro fin de la estrella más apreciada por todos nosotros, el Sol, que se encuentra con 5.000 millones de años (Maños, aunque no aragoneses :-) a mitad de su vida "normal" de quemar hidrógeno, para pasar a quemar helio a los 10.000 Maños, aumentar su luminosidad por mil y empezar una eyección de masa creando una nebulosa planetaria hacia los 12.000 Maños, convertirse en una enana blanca, y más tarde perder luminosodidad e ir apagandose cual pequeño  rescoldo, con unos frios 4.000 grados al cumplir 14.000Maños. Quién lo verá. Para apreciar la peculiar prosa de Perryman, su personal estilo líterario no exento de lirismo, aquí va un extracto en el inglés original :

All its fuel at last consumed, the Sun wil have no outflow of energy left to support it, and it will surrender to the force of gravity, collapsing into a final dwarf stage. The Sun will thereafter be nothing more than a hot cinder which slowly cools and dims, its once raging nuclear fires finally extinguished . ... At fourteen billion years the temperature will be around 4000ºC. For billions of years thereafter, our all-but-dead Sun will just continue to glow like a stubborn ember.

Tras las estrellas, volvemos al sistema solar y las condiciones de habitabilidad del mismo, repasando factores que pueden haber condicionado el clima terrestre en distintas escalas temporales, como el paso de la Tierra por los brazos galácticos o el plano central del disco (escala de Maños), las alteraciones de la inclinación del eje terrestre, y su precesión (kaños), nutación (años) y bamboleo. Curiosamente los datos existentes desde principios del siglo XX para seguir el movimiento polar, recogidos por observatorios que medían el tiempo de culminación de estrellas de referencia, se han reinterpretado y mejorado tras Hipparcos, al conocer mucho mejor la posición de las estrellas en aquel entonces. Se habla también de los exoplanetas, y los diversos métodos de detección. En este campo también Hipparcos ha contribuido a establecer mejor las masas de algunos. En el caso de dos de ellos, las variaciones de intensidad observadas por Hipparcos se juntaron con las observaciones realizadas 15 años después, en plena vorágine exoplanética, para establecer sus órbitas con gran precisión. Otro uso del catálogo Hipparcos ha sido la selección por parte del instituto SETI de las estrellas que son más viables para albergar vida, y ser origen de transmisiones inteligentes.

Para acabar, dejo las palabras de Perryman en el Prefacio:

El Universo está más allá de la compresión, pero nuestro lugar en él merece ser explicado lo mejor que podamos. Y aunque los astrónomos en general aparentan un limitado conocimiento de valor práctico directo, podemos ver con una agudeza a veces asombrosa que la humanidad se apiña en una pequeña y desolada roca surcando rauda el espacio, separada de esta perturbadora realidad por límites de nacionalidad y creencias. Si pudieramos articular esa visión más claramente, pudiera ser una pequeña pero definible contribución hacia un espíritu común de sobrecogida existencia.

jueves, 14 de julio de 2011

París con la Lumix DMC-TZ20

El otro día he visto por fín la última película de Woody Allen, Midnight in Paris, que se estrenó allá por mayo, justo cuando yo estaba descubriendo París, que ya era hora. La película empieza con un merecido homenaje a esa hermosa ciudad, y luego la entretenida historia narrada es otro homenaje más a las París que albergaron  distintas celebridades y modos de vivir en épocas pasadas. Una película muy agradable de ver.

Aunque mucho mejor pasear en vivo y en directo por París, incluso aunque no llueva. El mayor distintivo de París, dispuesta a aparecer desde cualquier rincón, más grande o más pequeña, pero grácil, etérea, firme, estilizada, inconfundible y única: la tour Eiffel.
noche en París


Qué maravilla, qué acierto, don Gustavo. Como acertado es comprar la entrada hasta la cumbre por internet.

He de mencionar que para una visita como esta, me regalé una nueva cámara fotográfica, relativamente compacta, la Lumix DMC-TZ20 de Panasonic. Tiene sus pegas, siendo la primera, la segunda y la tercera ... la enclenque batería. A duras penas aguanta un día completo de ir haciendo fotos. La ventaja del GPS incorporado para geolocalizar las fotos es uno de las desventajas para la batería. Por cierto, a veces el GPS tarda en ubicarse y da localizaciones aproximadas, vamos, que no es infalible. Otro de los consumidores de batería es el ir y venir del cuerpo de lentes al encender y apagar la cámara, y no digamos con  el zoom, que es realmente generoso, 16x óptico. También me parece que la grabación de video, eso sí, full HD, es otro gran consumidor de batería. Desde luego no puede sustituir a una videocámara, pero para hacer tomas ocasionales, como por ejemplo grabar el descenso en el ascensor de la torre Eiffel, da buenos resultados. El vídeo se graba con formato AVCHD en archivos con extensión MTS . La wikipedia dice que Windows 7 tiene preregistrado ese tipo de fichero y sabe reproducirlo, pero con mi Vista lo que he tenido que hacer es recurrir al excelente VLC , que lo reproduce perfectamente siempre que se active el desentrelazado (menú Vídeo / Desentrelazar / Activar).

Bueno, salvo los problemas de batería, y algún que otro despiste del GPS, el modo inteligente de la cámara funciona bien, para gente como yo que dispara sin miramiento alguno. Dos características estupendas son por un lado el estabilizador óptico de imagen, que hace pasar el pulso trémulo por uno firme, y debería ser de ahora en adelante algo obligatorio en cualquier cámara; y por otra el sensor de tipo MOS con una maravillosa sensibilidad en condiciones de poca iluminación, que hacen casi superfluo el flash. La anterior imagen, evidentemente nocturna, da una sensación de menos nocturnidad de la que realmente había (se luce el sensor y también el estabilizador, pues el tiempo de exposición fue de 1/8 s, y mi pulso no da para tanto).  Y las imágenes que pueden conseguirse en el interior de los muchos templos a visitar eran impensables con mi vieja Ricoh. Además de estos progresos tecnológicos, GPS, sensor sensible con poca luz, estabilizador de imagen gracias a algúnos MEMS, todo en una cámara bastante compacta y ligera, de unos 220g con batería incluida, hay que destacar la óptica Leica, y el extraordinario rango cubierto desde un gran angular hasta un impresionante zoom.

Aquí, con un gran angular (f/4; 1/1300 s; focal de 24mm en equivalencia de cámaras de 35mm, ), una vista parcial de la magnífica Basílica del Sacré Coeuer

El campanar y el Sagrado Corazón de Montmartre


Es una de las cosas que más me ha gustado. Vista a lo lejos desde la torre Eiffel, o bien desde la torre de Montparnasse, se divisa en alto, casi recortada contra el horizonte, una forma de llamativa blancura, con un efecto en vivo y en directo que no se plasma en las fotografías. Y de cerca no pierde atractivo. Es sin duda un lugar a visitar, con la ventaja adicional de que dentro del templo no se pueden hacer fotos, y realmente ¡no hay que hacer fotos! Poder liberarse de esta esclavitud autoimpuesta al tener el dedo en el disparador, y dejar que sean los párpados nuestro obturador, la retina nuestro sensor, las celulillas grises nuestra memoria. Sentarse y empaparse de la atmósfera espiritual del lugar. Desde luego que yo la experimenté. Tampoco sé si tuvo alguna influencia el acudir allí tras una ajetreada mañana, y una reparadora comida en Montmartre con un suculento entrecot XXL y medio litro de embriagadora Grinbergen.

El caso, volviendo al zoom de la Lumix, es que nos permite ver (f/5,5; 1/640 s; focal equivalente de 197mm) algo más de cerca al arcángel San Miguel venciendo al diablo en forma de cocodrilo.
San Miguel vence al diablo 


Yel zoom llevado al máximo 21x del Zoom Inteligente (f/5,9; 1/500 s; focal equivalente de ¡504mm!) nos permite ver el aro que sostiene el ángel situado sobre la bola que sostiene Napoleón, allá arriba a 44m. de altura, en lo alto de la Columna Vendôme
Napoleón en la picota

Las fotos las he adelgazado un poco para subirlas, aligerando los más 5 MB originales a unos cientos de KB usando GIMP para escalar las imágenes de 4320x3240 a sólo 2160x1620, y guardar como jpg con una calidad del 60%. Aún así se aprecian bastantes detalles.

Los suficientes como para pensar en volver a París.

jueves, 26 de mayo de 2011

UniVerso

Ayer 25 de mayo se cumplía medio siglo desde el arranque de la carrera a la luna, y podemos leer o escuchar (minuto 33 y 50 segundos) las palabras de John F. Kennedy
I believe that this nation should commit itself to achieving the goal, before this decade is out, of landing a man on the moon and returning him safely to the earth
Precisamente la fotografía astronómica del 25 de mayo es un tributo al despegue final de una heredera de aquel arranque.


¡Qué poesía visual!

nubes fuego humo hombres al cielo     UniVerso

martes, 24 de mayo de 2011

GOCE el geoide parte 2

Tras el anterior GOCE el geoide, para ver la relación entre el geoide y el valor de la gravedad trato un caso sencillito. Considero la Tierra perfectamente esférica, homogénea, salvo por una enorme cavidad subterránea también esférica, próxima a la superficie y sobre el plano ecuatorial, como se indica en la siguiente figura.

Para los cálculos reflejados en las figuras de abajo se ha usado \(r=50.000\ m\), \(D=R-2r\), y como valores de las constantes :  
radio terrestre \(R=6.371.000\ m\)
constante de gravitación universal \(G=6\text{,}67 \ 10^{-11} m^3/(kg\ s^2)\)
masa de la Tierra \(M=5\text{,}97 \ 10^{24} kg\)
velocidad angular de la Tierra \(\omega=2 \pi/(23\text{,}9345\times 60\times 60) rad/s\).

La ventaja de semejante modelo es que el potencial gravitacional \(V\) es fácil de calcular: se pone el potencial de la esfera terrestre de radio \(R\) y masa \(M\), y se le resta el que crearía la cavidad si estuviera llena, con una masa \(M (r/R)^3 \), con lo que en un punto fuera de la esfera terrestre tenemos, siendo \(m_r=  {\left(\frac{ r }{R }\right)} ^3\) , es
\[V(P)=GM \left(\frac{ -1 }{d }+ \frac{ m_r }{e }  \right)\] La superficie equipotencial que pasa a 200 metros sobre el polo norte, el punto en que \(\theta=90º\) y \(d=R+200\), es la mostrada en color azul en las gráficas de la siguiente figura, donde la ordenada es la altura sobre la superficie terrestre, \(d-R\).

En la gráfica de la derecha se ha considerado el potencial efectivo \(W = V + C\), que incluye el potencial centrífugo \[ C(P) = -\frac{ 1 }{2 }(\omega  \cdot d \cdot cos\theta )^2 \] La curva equipotencial de W se muestra en color rojo.


Empezemos excluyendo de momento el efecto centrífugo. Si toda la esfera terrestre estuviese rellena homogéneamente la simetría provocaría que la superficie equipotencial pasando a 200m sobre el Polo Norte fuese una esfera perfecta. Debido a la existencia de ese nada despreciable hueco esférico de 50km de radio, centrado a una profundidad de 100km, la superficie equipotencial azul se hunde hasta casi 200m cerca de la oquedad, cuando \(\theta \approx 0º\), y sobresale muy poquito cuando \(\theta \approx 180º\). Lo que parece claro físicamente es que cuando \(\theta \approx 0º\) también deberá ser menor la gravedad \(g\) debido a la ausencia de masa en el hueco. En este caso por tanto un hundimiento de la superficie equipotencial conlleva disminución de \(g\).

Si ahora incluimos el potencial centrífugo \(C\), su influencia es muy marcada, y provoca una gran elevación de la superficie equipotencial de \(W=V+C\) en el ecuador ( \(\theta\approx 0º \ \text{ó} \ \theta \approx 180º\) ) respecto a los polos ( \(\theta\approx 90º \) ). La intuición física nos hace esperar ahora que esa elevación vaya aparejada con una disminución de \(g\), pues cuanto mayor sea la fuerza centrífuga más se contraresta la atracción gravitacional.

Bueno, en un caso es el hundimiento y en el otro la elevación de la superficie equipotencial lo que se corresponde con la disminución de \(g\). Lo que ilustra esta aparente contradicción es que \(g\) no va ligado a subidas o bajadas de la superficie equipotencial, sino a diferencia de distancias entre superficies equipotenciales contiguas. Para calcular aproximadamente \(g\) se buscan dos superficies equipotenciales próximas, por ejemplo las que pasan a 200m y a 300m sobre el Polo Norte. Los valores de \(g\) sin y con el efecto centrífugo se muestran en la siguiente figura. En adelante se expresarán siempre en \(m/s^2\).

Vemos que \(g\) disminuye tanto por el efecto de falta de masa de la oquedad, como por el efecto centrífugo, que es bastante más acusado. Este es el responsable en \(\theta = 180º\) de una disminución de 0,068 en \(g\) comparado con solamente 0,019 en \(\theta = 0º\) debido a la oquedad. Claro que la disminución centrífuga sale casi del doble de lo que uno esperaría considerando el efecto centrífugo sobre la superficie terrestre, \( \omega^2 R \approx 0,034 \). Menudo susto, un factor dos, las cifras que no cuadran, a ver dónde está el error. Bueno, en este caso no hay un 2 extra que sobre, es que \(g\) se calcula sobre la superficie equipotencial, que en el ecuador se eleva 11060 m, con lo que la atracción gravitacional allí se reduce respecto a la superficie terrestre en
\[
 \frac{GM}{(R+200)^2} - \frac{GM}{(R+11060+200)^2}  \approx 0\text{,}034
\]
¡Vaya! 0,034. De modo que la disminución de 0,068 desde el polo al ecuador es una contribución equitativa de efecto centrífugo "directo" y alejamiento del centro. Es curioso que ese factor 2 no es casual. Olvidando la oquedad, atendiendo al efecto centrífugo exclusivamente, el valor de \(g\) en \(\theta=90º\) viene dado por \(GM/d^2\), y para \(\theta=0º\) viene dado por \(GM/{d'}^2-\omega^2 d'\). Si se restan ambos valores teniendo en cuenta que estamos sobre la misma superficie equipotencial, y que por tanto
\[
- \frac{GM}{d} =  - \frac{GM}{d'} - \frac{1}{2} \omega^2 {d'}^2
\]
 usamos la expresión de \(1/d\) en términos de \(1/d'\) y ...
\[
 \frac{GM}{d^2} - \left(\frac{GM}{{d'}^2} - \omega^2 d' \right) = \frac{\omega^4 {d'}^4}{4GM} + \omega^2 d' + \omega^2 d' \approx 2 \omega^2 d'
\]
puesto que  \( \omega^4 {d'}^4 / 4GM = 0\text{,}000029\).

La superficie terrestre tiene cierta plasticidad, y la forma abombada en el ecuador se adapta al efecto centrífugo. En el modelo sencillo utilizado la diferencia entre ecuador y polo norte para la superficie equipotencial es de 11.060m. En realidad la Tierra está muy bien descrita por un elipsoide de radio ecuatorial de 6.378.137 m y radio polar de 6.356.752 m, que supone una diferencia de 21.385 m. Ese elipsoide se diferencia del geoide en pocos cientos de metros. Una vez que hay redistribución de masa el propio potencial gravitacional cambia y no se calcula tan sencillamente.

En cuento a los efectos gravitacionales por exceso o defecto de masa, ya se ve que una oquedad tan inmensa e irreal como la supuesta conlleva un efecto relativamente "débil", de 0,019. No es de extrañar que en geofísica las anomalías de la gravedad a lo largo del terreno se midan en mGal, miligales, siendo un Gal una peculiar designación de \(cm/s^2 = 10^{-2} m/s^2\). Es decir, \(1mGal = 10^{-5}m/s^2\), así de pequeña es la variación local de \(g\).

En el sitio técnico de la misión GOCE hay una enorme cantidad de recursos, en inglés, como el de la gravedad en detalle donde nos presentan entre otras unidades el Gal. El apartado de cantidades del campo de gravedad (Gravity Field Quantities) contiene unas definiciones muy útiles, algunas de las cuales traduzco aquí:

Potencial gravitacional (V): Potencial generado por la atracción de las masas.
Potencial de gravedad (W): Suma del potencial gravitacional (V) y del potencial centrífugo (C) de la Tierra en rotación. Las diferencias entre dos puntos pueden observarse por nivelación.
Superficie equipotencial: Una superficie en la que W es constante. Sus puntos pueden determinarse localmente con mareógrafos, que definen el nivel medio del mar a escala regional.
Geoide: Superficie equipotencial que aproxima el nivel global medio del mar, es decir, una red global de mareógrafos y de señales de nivelación, tras sustracción de los componentes dinámicos. Puede considerarse como un hipotético océano en reposo.
Gravedad: La magnitud, g, del gradiente de W en la superficie terrestre y de V en el espacio. Puede observarse mediante una técnica absoluta (p.ej. experimento de caida libre) o relativa (como una diferencia) mediante un gravímetro de muelle.

He usado esta notación de V, W y C en las anteriores figuras.

En cuanto al código de Octave para sacar semejantes gráficas, primero va esto
#unidades mks
global G = 6.67e-11; #cte gravitacion unidades m^3/(kg s^2)
global MT=5.97e24; #masa de la Tierra en kg
#producto G por MT, unidad de longitud metros
global GMT = G*MT; 
global RT = 6371000; #radio terrestre medio en m
global omegaT = (2*pi/(23.9345*60*60));#vel. angular Tierra tomando periodo rot. 23.9345h

function val = Vd(x,m,D,theta)
 global GMT;
 val = ((-1/x)+(m/sqrt(x^2+D^2-2*x*D*cos(theta))))*GMT;
endfunction

function val = fdz(xp,m,D,theta)
 global GMT;
   C=Vd(xp,m,D,pi/2);
 fun = @(x) ((-1/x)+(m/sqrt(x^2+D^2-2*x*D*cos(theta))))*GMT - C;
 [val, fval, info] = fzero(fun,xp+0.000001*rand);
endfunction

function val = fdzcf(xp,m,D,theta)
 global GMT;
   global omegaT;
   C=Vd(xp,m,D,pi/2);
   fun = @(x)  (((-1/x)+(m/sqrt(x^2+D^2-2*x*D*cos(theta))))*GMT)+ (-0.5*(omegaT*x*cos(theta))^2) - C;
 [val, fval, info] = fzero(fun,xp+0.000001*rand);
endfunction

R=RT;
r=50000;
D=RT-2*r;
m=(r/R)^3;
theta=(0:180) *pi/180;
res1=zeros(1,181);
x1=R+200;
C1PN=Vd(x1,m,D,pi/2);
for k=0:180
 res1(k+1)=fdz(x1,m,D,theta(k+1));
endfor
res2=zeros(1,181);
x2=x1+100;
C2PN=Vd(x2,m,D,pi/2);
for k=0:180
 res2(k+1)=fdz(x2,m,D,theta(k+1));
endfor

cfres1=zeros(1,181);
for k=0:180
 cfres1(k+1)=fdzcf(x1,m,D,theta(k+1));
endfor

cfres2=zeros(1,181);
for k=0:180
 cfres2(k+1)=fdzcf(x2,m,D,theta(k+1));
endfor

y después
subplot(1,2,1)
plot(theta*180/pi,res1-R,'b',90,200,'xk')
set(text(55,190,"equipotencial a 200m"),"color","black")
set(text(55,180,"sobre el Polo Norte"),"color","black")
set(text(55,170,"V (sin efecto centrífugo)"),"color","blue")
set (gca (), "xlim", [0, 180]);
set (gca (), "ylim", [0, 210]);
xlabel(strcat('\theta (grados)'));
ylabel(strcat('d-R (metros)'));
subplot(1,2,2)
plot(theta*180/pi,res1-R,'b',theta*180/pi,cfres1-R,'r',90,200,'xk')
set(text(50,11000,"equipotencial a 200m"),"color","black")
set(text(50,10500,"sobre el Polo Norte"),"color","black")
set(text(5,500,"V (sin efecto centrífugo)"),"color","blue")
set(text(25,10000,"W = V + C (con efecto centrífugo)"),"color","red")
set (gca (), "xlim", [0, 180]);
set (gca (), "ylim", [0, 11500]);
xlabel(strcat('\theta (grados)'));

y para el cálculo y gráfica de \(g\)
#calcula g para caso sin cf
gg=zeros(1,181);
alfa=zeros(1,181);
for k=2:180
 alfa(k)=asin((res1(k+1)-res1(k-1))./(res1(k-1)*2));
 gg(k)=(C2PN-C1PN)./((res2(k)-res1(k))*cos(alfa(k)));
endfor
gg(1)=(C2PN-C1PN)./(res2(1)-res1(1));
gg(181)=(C2PN-C1PN)./(res2(181)-res1(181));
#calcula g para caso con cf
ggcf=zeros(1,181);
alfa=zeros(1,181);
for k=2:180
 alfa(k)=asin((cfres1(k+1)-cfres1(k-1))./(cfres1(k-1)*2));
 ggcf(k)=(C2PN-C1PN)./((cfres2(k)-cfres1(k))*cos(alfa(k)));
endfor
ggcf(1)=(C2PN-C1PN)./(cfres2(1)-cfres1(1));
ggcf(181)=(C2PN-C1PN)./(cfres2(181)-cfres1(181));
subplot(1,1,1)
plot(theta*180/pi,gg,'b',theta*180/pi,ggcf,'r',90,gg(91),'xk')
set(text(120,9.813,"V (sin efecto centrífugo)"),"color","blue")
set(text(120,9.795,"W=V+C (con efecto centrífugo)"),"color","red")
title('gravedad en equipotencial a 200m sobre el Polo Norte');
set (gca (), "xlim", [0, 180]);
set (gca (), "ylim", [9.72, 9.82]);
xlabel(strcat('\theta (grados)'));
ylabel(strcat('g (m/s^2)'));

y ... se acabó. No siento los miligales.

sábado, 21 de mayo de 2011

MathJax y Blogger

Por fin me he enterado de cómo poner ecuaciones matemáticas en Blogger, como Gauss manda, gracias a una de esas herramientas impagables, MathJax (Matemática hermosa en todos los navegadores). Editar la plantilla de Blogger, en Diseño, Edición de HTML, para poner justo antes de
</head>
algo como
<script src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=TeX-AMS-MML_HTMLorMML" 
type="text/javascript">
Puedo poner en línea unos vectores con flechas tal que así \(\vec{x} \acute{\ }= L \vec{x} + \vec{a}\) empleando un latex como
\(\vec{x} \acute{\ }= L \vec{x} + \vec{a}\) 
Y comparar cómo queda una fórmula a base de imagen, como la primera de esta

con la versión textual en bloque
\[
\mathbf{P}_{ki}^{(\alpha)} = \frac{n_\alpha}{\left| G \right|} \sum_{p=1}^{\left| G \right|} { \left[ U_{ki}^{(\alpha)}(g_p)\right]^* \mathbf{ T}_{g_p}}
\]
obtenida gracias a MathJax poniendo
\[
\mathbf{P}_{ki}^{(\alpha)} = \frac{n_\alpha}{\left| G \right|} 
\sum_{p=1}^{\left| G \right|} { \left[ U_{ki}^{(\alpha)}(g_p)\right]^* \mathbf{ T}_{g_p}}
\]
Estupendo

Powered by MathJax

viernes, 6 de mayo de 2011

GOCE el geoide

El geoide es una superficie fácil de definir, en principio, pero no exenta de dudas o malentendidos. Alguno de estos se abordan en este blog de Scientific American , donde se presenta la versión del geoide obtenida gracias a GOCE, el explorador de la circulación oceánica estable y del campo gravitatorio.

En esta imagen los colores representan la desviación en metros, hacia arriba (+) o hacia abajo (-)  del geoide respecto al elipsoide de referencia definido en el WGS84 .

Hay tres superficies útiles al tratar de describir la figura del planeta Tierra. Una es la misma superficie topográfica del terreno, tan irregular y llena de detalles. Otra es el elipsoide, una superficie geométrica. Hay varias elecciones posibles, diferentes elipsoides que intentan aproximarse lo más posible a la irregular superficie topográfica del manto terrestre, bien de forma local (para una nación o continente), bien de forma global, como es el caso del elipsoide definido en WGS84. Tener una forma geométrica de referirnos a los puntos del terreno facilita enormemente la cartografía.

Pero hay otro aspecto de gran interes práctico, la nivelación: qué está más alto o más bajo, no ya geométricamente, sino tomando como testigo una bola rodante o un líquido como el agua, que inicialmente están en reposo respecto al terreno. Un punto A está gravitatoriamente al mismo nivel (o potencial) que B, si podemos establecer entre ambos unos vasos comunicantes, una tubería que les une y que podemos llenar por completo de líquido en equilibrio. Si por contra A está más alto (a más potencial) que B, el líquido en la tubería no podrá llenarla permaneciendo inmovil, se verterá desde A hacia B.

Podemos tomar un punto cualquiera A sobre la superficie terrestre y partiendo de él ir estableciendo una superficie formada por todos los puntos a su mismo nivel. A una tal superficie se le llama superficie equipotencial. Podemos imaginar que por cada punto pasa una, y si A está gravitatoriamente más alto que B, la superfice equipotencial que pasa por A tiene un potencial mayor que la que pasa por B.

De todas las posibles superficies equipotenciales, la única a la que se llama geoide es la que en promedio se ajusta mejor a superficie media del mar. Esta superficie media puede obtenerse mediante altimetría por satélite, promediando la superficie instantánea del mar, que varía según las mareas oceánicas, las mareas de la corteza terrestre, y la presión de la atmósfera. La diferencia arriba o abajo entre el geoide y la superficie media del mar es como mucho de un metro, y para muchas aplicaciones ambas superficies pueden considerarse coincidentes. Pero no para las más delicadas a las que GOCE ayuda a dar respuesta, como la circulación oceánica. En fin, lo más importante es que el geoide es una superfice equipotencial, de nivel.

Pero ¿de qué potencial? Del relacionado con la gravedad terrestre. ¿Y que se entiende por "gravedad" en el mundillo geodésico, y en el de los niveles, las plomadas y los vasos comunicantes? Pues la fuerza efectiva que se percibe en nuestra siempre giratoria Tierra, resultado de componer la muy real atracción gravitacional descrita por Newton con la muy ficticia fuerza centrífuga asociada a la rotación terrestre. Esta elección es obvia: al estudiar el nivelado de los vasos comunicantes queremos tener el líquido de los vasos comunicantes inmóvil  respecto a la superficie terrestre. Aunque esta gira y no es un sistema inercial, podemos plantear el nivelado como un problema de estática introduciendo esa fuerza centrífuga ficticia. Esta descripción es la más relevante para la vida cotidiana, en que nos movemos con la Tierra.

Una descripción alternativa, de un observador inercial mirando desde "fuera", es que el agua quieta respecto al terreno gira velozmente con una aceleración centrípeta notable, fruto de la acción de las dos únicas fuerzas reales que actuan sobre ella, la newtoniana atracción gravitacional terrestre y la fuerza de contacto de la tubería o el terreno. La descripción desde "fuera" es más natural al estudiar un cuerpo en caída libre, cuando la única fuerza existente es la gravitacional newtoniana, como es justamente el caso del satélite GOCE.

Un mismo valor de la fuerza gravitacional newtoniana da en distintas latitudes distintos valores de la fuerza de gravedad efectiva, pues la aportación centrífuga es máxima en el ecuador y nula en los polos. Además la fuerza gravitacional en el ecuador es menor que en los polos al estar más lejos del centro, por la forma de la Tierra, abombada por el ecuador precisamente por culpa del giro y la deformabilidad terrestre.

Teniendo claro que el geoide es una superficie equipotencial, de potencial gravitatorio efectivo, no diremos equivocadamente que la fuerza gravitatoria debe ser la misma en todos sus puntos. ¡Nooooo! La fuerza es vectorial, el potencial escalar, y la dirección de la flecha fuerza es perpendicular en cada punto a la superficie equipotencial. Tomando dos superficies equipotenciales próximas, con una diferencia de potencial dada constante, la magnitud de la fuerza será mayor allí donde las superficies estén más próximas, y menor dónde se alejen más.

Viendo los colores del geoide, azules cuando el geoide se hunde bajo el elipsoide, rojos cuando el geoide sobresale del elipsoide, ¿hay una relación con el valor de la gravedad? Por lo dicho, la gravedad puede variar sobre el geoide, no tiene porqué ser constante. Bueno, pues yo diría que la gravedad es menor en las zonas azules, de hundimiento, y mayor en las zonas rojas, de emersión. Pero no por mi inapreciable intuición física (cómo me gustan esas palabras tan tan tan duales y equívocas) sino por algunos cálculos que dejaré para otro día.