We are searching data for your request:
Upon completion, a link will appear to access the found materials.
Dans l'interférométrie à très longue ligne de base, il est typique d'utiliser une horloge atomique maser à hydrogène pour échantillonner les données. Cependant, étant donné le coût de ces horloges atomiques, il semble surprenant que davantage d'observatoires n'utilisent pas d'horloges atomiques non locales, telles que les horloges GPS.
Cet article de Wikipedia dit "Le signal de l'antenne est échantillonné avec une horloge atomique extrêmement précise et stable (généralement un maser à hydrogène) qui est en outre verrouillée sur une norme de temps GPS." Ma question est, pourquoi ne pas supprimer complètement le maser à hydrogène ?
Il y a une présentation qui couvre ce sujet qui est régulière dans les ateliers du Service International VLBI. La version la plus récente est à Temps et fréquence de haute précision dans VLBI et la dérivation pertinente de la précision nécessaire est sur la diapositive 5. Fondamentalement pour l'interférométrie, vous essayez de faire correspondre la phase des formes d'onde (position le long d'une onde sinusoïdale dans le sens) des deux signaux de chacune des paraboles.
Si nous utilisons une fréquence d'observation de 10 GHz (10e9 Hz) et que nous voulons garder la phase cohérente à ~10 degrés (sur les 360 degrés) après 1000 secondes d'intégration, alors vous avez besoin de 10 / (360 * 10 * 1e9 * 1e3) ou 10 / 3.6e16 ou une stabilité d'horloge d'environ 2.8e-15. Des fréquences plus élevées telles que les 230 GHz mentionnées dans le commentaire seront encore plus exigeantes.
Si vous regardez les tracés Allan Deviation/Variance, qui mesurent la stabilité des horloges, comme le tracé de la diapositive 4 (et copié ci-dessous) : ce niveau de performance à 1000 secondes n'est atteint que par les masers à hydrogène. L'oscillateur discipliné GPS typique sera à environ 1e-12@1000secondes, voir cette comparaison récente de 17 GPSDO. En corrigeant soigneusement l'erreur en dents de scie causée par l'oscillateur interne du GPS (discuté à la fin de la présentation), vous pouvez améliorer la gigue typique de 50 ns du GPS à ~5 ns. Au-delà de cela, des effets atmosphériques/ionosphériques entrent en jeu et vous devez utiliser un GPS à double fréquence pour les éliminer.
Comment fonctionne le VLBI ?
Qu'en est-il de "l'un ou l'autre de ce qui précède" ? L'objet étudié n'est pas une source à photon unique, et les détecteurs ne sont pas des détecteurs de photons - c'est un rayonnement électromagnétique radiofréquence ordinaire que nous observons.
vous ne comprenez pas ce que Nurgatory vous dit
Le VLBI ne détecte pas les photons, sa détection des ondes radio, essayer de penser aux ondes radio comme des photons individuels n'est pas correct et vous conduira à beaucoup de confusion
vous ne comprenez pas ce que Nurgatory vous dit
Le VLBI ne détecte pas les photons, sa détection des ondes radio, essayer de penser aux ondes radio comme des photons individuels n'est pas correct et vous conduira à beaucoup de confusion
Quand je fais de la radioastronomie, je reçois un signal radio d'objets distants
les photons individuels ne sont pas pertinents.
L'idée principale derrière tout grand interféromètre de base est de synthétiser un radiotélescope de la même taille
pour améliorer la résolution de l'objet étudié
Quand je fais de la radioastronomie, je reçois un signal radio d'objets distants
les photons individuels ne sont pas pertinents.
L'idée principale derrière tout grand interféromètre de base est de synthétiser un radiotélescope de la même taille
pour améliorer la résolution de l'objet étudié
Ils ne le font pas, mais vous essayez de tuer un moustique avec un bazooka, ce qui n'a aucun sens.
QM est utile lorsque l'effet de la mécanique quantique est évident, ou lorsque l'image classique est insuffisante. Essayer de résoudre ce qui peut être décrit clairement et FACILEMENT par une onde classique en utilisant une image QM plus compliquée est irrationnel. C'est comme demander à quelqu'un qui construit des maisons d'utiliser la relativité restreinte.
Ils ne le font pas, mais vous essayez de tuer un moustique avec un bazooka, ce qui n'a aucun sens.
QM est utile lorsque l'effet de la mécanique quantique est évident, ou lorsque l'image classique est insuffisante. Essayer de résoudre ce qui peut être décrit clairement et FACILEMENT par une onde classique en utilisant une image QM plus compliquée est irrationnel. C'est comme demander à quelqu'un qui construit des maisons d'utiliser la relativité restreinte.
Il n'a pas été conçu pour détecter des "photons uniques" de cette longueur d'onde.
C'est là que votre compréhension des détecteurs fait défaut. Nous concevons des détecteurs en fonction de ce que nous avons l'intention de détecter. Aucun détecteur ne peut fonctionner sur toute la plage possible, et celui-ci fonctionne comme une "antenne de collecte" pour ainsi dire.
On vous a dit à plusieurs reprises pourquoi l'image que vous souhaitez utiliser n'est pas réalisable ici. Je ne sais pas ce que quelqu'un peut vous dire d'autre pour vous en sortir.
Il n'a pas été conçu pour détecter des "photons uniques" de cette longueur d'onde.
C'est là que votre compréhension des détecteurs fait défaut. Nous concevons des détecteurs en fonction de ce que nous avons l'intention de détecter. Aucun détecteur ne peut fonctionner sur toute la plage possible, et celui-ci fonctionne comme une "antenne de collecte" pour ainsi dire.
On vous a dit à plusieurs reprises pourquoi l'image que vous souhaitez utiliser n'est pas réalisable ici. Je ne sais pas ce que quelqu'un peut vous dire d'autre pour vous en sortir.
Cela devient idiot. Je n'ai jamais dit que nous ne détectons pas les photons individuels. J'ai dit que CE détecteur particulier n'a jamais été conçu dans un tel but ! LIRE ATTENTIVEMENT!
Cela devient idiot. Je n'ai jamais dit que nous ne détectons pas les photons individuels. J'ai dit que CE détecteur particulier n'a jamais été conçu dans un tel but ! LIRE ATTENTIVEMENT!
http://astrogeo.org/vlbi_development/gravity/gravity.html
"Des mesures du retard différentiel du temps de trajet des photons causé par le champ gravitationnel du Soleil [1], [2] et de Jupiter [3] ont permis d'obtenir des estimations précises du paramètre post-newtonien gamma. Actuellement, VLBI fournit l'estimation la plus précise de ce paramètre : 1.00058 -+ 0.00014 (incertitude formelle non mise à l'échelle). C'est une contribution importante du VLBI à la physique fondamentale.
http://arxiv.org/pdf/1012.2267
". il serait intéressant d'estimer les limites gravitationnelles pour le
masse du photon en considérant les mesures les plus récentes de la gravitation solaire
déviation des ondes radio obtenue au moyen du VLBI."
Cela n'a pas d'importance, car cela n'a rien à voir avec le fonctionnement du détecteur. Cela ne change rien au fait que le détecteur ne détecte pas de photons individuels à la fois. L'énergie d'un seul photon dans les fréquences radio ou micro-ondes est beaucoup trop faible pour que ce détecteur puisse le détecter. En fait, il n'existe pas de détecteurs capables de détecter des photons uniques à ces fréquences. Au lieu de cela, ils détectent la contribution d'un grand nombre de photons qui sont absorbés par le détecteur sur une courte période de temps.
Le fait que le détecteur ne détecte pas de photons uniques ne signifie pas que le rayonnement EM n'est pas composé de photons. Cela signifie simplement que le rayonnement EM peut être décrit avec précision par la physique classique à cette fin particulière.
Cela devient idiot. Je n'ai jamais dit que nous ne détectons pas les photons individuels. J'ai dit que CE détecteur particulier n'a jamais été conçu dans un tel but ! LIRE ATTENTIVEMENT!
Je ne sais pas de quel détecteur vous parlez. Ma question portait sur l'instrumentation VBLI en général.
En principe, vous pourriez obtenir des horloges de mieux en mieux afin que vous puissiez faire correspondre des événements de détection quasi simultanés aux détecteurs. Mais je ne vois pas comment un photon peut être détecté par deux antennes différentes, et deux photons sur deux antennes seraient deux événements à des moments légèrement différents.
Z. Altamimi, P. Rebischung, L. Métivier, X. Collilieux, ITRF2014 : une nouvelle version du référentiel terrestre international modélisant les mouvements de stations non linéaires. J. Géophys. Rés. 121, 6109-6131 (2016). https://doi.org/10.1002/2016JB013098
J.M. Anderson, G. Beyerle, S. Glaser, L. Liu, B. Männel, T. Nilsson, R. Heinkelmann, H. Schuh, Simulations d'observations VLBI d'un satellite géodésique assurant la colocalisation dans l'espace. J. Geod. 2018, sous presse. https://doi.org/10.1007/s00190-018-1115-5
Y. Bar-Sever, B. Haines, W. Bertiger, S. Desai, S. Wu, Antenne de référence géodésique dans l'espace (GRASP)—une mission pour améliorer la géodésie spatiale, dans Proc. 2e Colloque Aspects scientifiques et fondamentaux du programme Galileo, Padoue, Italie (2009)
R. Biancale, A. Pollet, D. Coulot, M. Mandea, E-GRASP/eratosthenes : une proposition de mission pour la réalisation millimétrique de TRF, en Résumés de la conférence de l'Assemblée générale de l'EGU, vol. 19 (2017), p. 8752
J.S. Border, Innovations in Delta Differential Oneway Range : de Viking à Mars Science Laboratory, en Proc. 21e Int. Sym. Dynamique des vols spatiaux, Toulouse, France, 28 sept.–02 oct. 2009, http://issfd.or/ISSFD_2009/OrbitDeterminationI/Border.pdf
D.A. Duev, G. Molera Calvés, S.V. Pogrebenko, L.I. Gurvits, G. Cimó, T. Bocanegra Bahamon, Spacecraft VLBI et suivi Doppler : algorithmes et implémentation. Astron. Astrophys. 541, A43 (2012). https://doi.org/10.1051/0004-6361/201218885
D.A. Duev, S.V. Pogrebenko, G. Cimo, G. Molera Calvés, T.M. Bocanegra T.M. Bahamon, L.I. Gurvits, M.M. Kettenis, J. Kania, V. Tudose, P. Rosenblatt, J.-C. Marty, V. Lainey, P. de Vicente, J. Quick, M. Nickola, A. Neidhardt, G. Kronschnabl, C. Plötz, R. Haas, M. Lindqvist, A. Orlati, A.V. Ipatov, M.A. Kharinov, A.G. Mikhailov, J.E.J. Lovell, J.N. McCallum, J. Stevens, S.A. Gulyaev, T. Natush, S. Weston, W.H. Wang, B. Xia, W.J. Yang, L-F. Hao, J. Kallunki, O. Witasse, Technique d'interférométrie radio planétaire et d'expérience Doppler (PRIDE): un cas test du Mars express phobos y-by. Astron. Astrophys. (2016). https://doi.org/10.1051/0004-6361/201628869
E. Himwich, A. Bertarini, B. Corey, K. Baver, D. Gordon, L. La Porta, Impact of station clocks on UT1-TAI estimate, in Proc. 23e réunion de travail du groupe européen VLBI pour la géodésie et l'astrométrie, éd. par R. Haas, G. Elgered (Göteborg, Suède, 2017), pp. 12-176
T. Nilsson, R. Haas, Impact de la turbulence atmosphérique sur l'interférométrie géodésique à très longue base. J. Géophys. Rés. 115(B03), 407 (2010). https://doi.org/10.1029/2009JB006579
T. Nilsson, B. Soja, M. Karbon, R. Heinkelmann, H. Schuh, Application du filtrage de Kalman dans l'analyse des données VLBI. Espace Planètes Terre 67, 1–9 (2015)
A. Pany, J. Böhm, D. MacMillan, H. Schuh, T. Nilsson, J. Wresnik, simulations Monte Carlo de l'impact de la troposphère, des erreurs d'horloge et de mesure sur la répétabilité des positions VLBI. J. Geod. 85, 39-50 (2011). https://doi.org/10.1007/s00190-010-0415-1
B. Petrachenko, A. Niell, D. Behrend, B. Corey, J. Böhm, P. Charlot, A. Collioud, J. Gipson, R. Haas, T. Hobiger, Y. Koyama, D. MacMillan, T. Nilsson, A. Pany, G. Tuccari, A. Whitney, J. Wresnik, Aspects de conception du système VLBI2010. Rapport d'activité du Comité VLBI2010. Mémorandum technique de la NASA, NASA/TM-2009-214180, 58 pages (juin 2009)
W.T. Petrachenko, A.E. Niell, B.E. Corey, D. Behrend, H. Schuh, J. Wresnik, VLBI2010 : système VLBI de nouvelle génération pour la géodésie et l'astrométrie, en Geodesy for Planet Earth, International Association of Geodesy Symposia, vol. 136, éd. par S. Kenyon, M.C. Pacino, U. Marti (Springer, Berlin, 2012), pp. 999–1006. ISBN 978-3-642-20337-4
L. Plank, VLBI suivi par satellite pour la réalisation de liens de trame. Thèse de doctorat, Technische Universität Wien, Vienne, Autriche (2013)
L. Plank, J. Böhm, H. Schuh, Positions précises des stations des observations VLBI aux satellites : une étude de simulation. J. Geod. 88(7), 659-673 (2014). https://doi.org/10.1007/s00190-014-0712-1
L. Plank, A. Hellerschmied, J. McCallum, J. Böhm, J. Lovell, observations VLBI de satellites GNSS : de la planification à l'analyse. J. Geod. 91(7), 867-880 (2015). https://doi.org/10.1007/s00190-016-0992-8
C. Rieck, R. Haas, P. Jarlemark, K. Jaldehag, transfert de fréquence VLBI utilisant CONT11, dans Proc. du 26ème Forum Européen des Fréquences et du Temps, Göteborg, Suède (2012). http://publications.lib.chalmers.se/records/fulltext/171390/local_171390.pdf
A.E.E. Rogers, Interférométrie à très longue ligne de base avec une large bande passante efficace pour les mesures de retard de phase. Radio Sci. 5(10), 1239-1247 (1970). https://doi.org/10.1029/RS005i010p01239
A.E.E. Rogers, J.M. Moran, Limites de cohérence pour l'interférométrie à très longue base. IEEE Trans. Instrument. Mes. J'AI 30 ANS(4), 283–286 (1981)
O.J. Sovers, J.L. Fanselow, C.S. Jacobs, Astrométrie et géodésie avec interférométrie radio : expériences, modèles, résultats. Rév. Mod. Phys. 70(4), 1393–1454 (1998)
J. Sun, J. Böhm, T. Nilsson, H. Krásná, S. Böhm, H. Schuh, Nouvelles stratégies d'ordonnancement VLBI2010 et implications sur les référentiels terrestres. J. Geod. 88(5), 449-461 (2014). https://doi.org/10.1007/s00190-014-0697-9
G. Tang, J. Cao, S. Han, S. Hu, T. Ren, L. Chen, J. Sun, M. Wang, Y. Li, L. Li, Recherche sur les mesures radio lunaires par Chang'E- 3, dans Actes de l'Assemblée Générale IVS 2014 « VGOS : le nouveau réseau VLBI », éd. par D. Behrend, K.D. Baver, K.L. Armstrong (Science Press, Pékin, 2014), pp. 473-477. ftp://ivscc.gsfc.nasa.gov/pub/general-meeting/2014/pdf/101_Tang_etal.pdf
A.R. Thompson, J.M. Moran, G.W. Swenson, Interférométrie et synthèse en radioastronomie, 2e éd. (Wiley, New York, 2007)
O. Titov, Estimation des variations subdiurnes UT1-UTC par la méthode des moindres carrés de collocation. Astron. Astrophys. Trans. 18(6), 779-792 (2000). https://doi.org/10.1080/10556790008208172
V. Tornatore, R. Haas, S. Casey, D. Duev, S. Pogrebenko, G. Molera Calvés, Observations VLBI directes des signaux du système global de navigation par satellite, dans Association internationale des symposiums de géodésie. Proc. Assemblée générale de l'AIG, Melbourne, 2011, vol. 139 (2014), p. 247-252. https://doi.org/10.1007/978-3-642-37222-3_32. ISBN/ISSN : 978-3-642-37221-6
A.R. Whitney, géodésie de précision et astrométrie via interférométrie à très longue base. doctorat Thèse, MIT (1974)
VLBI à l'ère GLAST
L'atelier sera divisé en deux blocs, nominalement d'une journée chacun.
Les deux blocs sont subdivisés en sessions d'exposés et de tables rondes et sont complétés par une session d'affiches. Des posters seront affichés tout au long de l'atelier.
Bloc 1 : Contexte
Nous voulons mettre tout le monde au courant : si vous n'êtes pas un expert en VLBI ou en astronomie gamma (ou les deux), vous en apprendrez davantage sur les instruments, l'accès et l'analyse des données, et les faits saillants de la recherche des deux mondes. L'accent sera mis sur la recherche sur les blazars, mais d'autres cibles communes potentielles seront également discutées. Nous voulons revoir nos connaissances actuelles, nos hypothèses de travail, nos attentes et nos prévisions.
Bloc 2 : Objectifs
Le deuxième jour, nous souhaitons formuler les questions les plus importantes auxquelles les observations VLBI+GLAST doivent répondre et discuter des moyens de les résoudre. Nous discuterons des programmes VLBI en cours et futurs et des efforts de collaboration avec GLAST. Un accent particulier sera mis sur les observations multi-longueurs d'onde à travers le spectre à l'appui de la recherche conjointe VLBI/GLAST.
La plupart des sessions se termineront par une table ronde. Ceux-ci auront en général 4-5 panélistes et un modérateur et dureront 25-35 minutes. Tous les participants sont fortement encouragés à participer en posant des questions aux panélistes et/ou en soulevant des questions qui n'ont pas encore été abordées dans la discussion.
Pourquoi les femmes quittent l'astronomie ?
Bien que le nombre de femmes en astronomie ait augmenté au fil du temps, le domaine reste dominé par les hommes. Ce n'est pas parce que les femmes s'intéressent moins à l'astronomie. Au lycée, les cours de physique et d'astronomie sont composés à environ 50 % de femmes, mais à chaque transition de carrière, les femmes sont plus susceptibles que les hommes de quitter le domaine. Les femmes ne gagnent qu'environ 30 % des baccalauréats en astronomie, et le pourcentage continue de diminuer à chaque étape de leur carrière. L'article d'aujourd'hui présente les résultats d'une étude de recherche longitudinale qui a suivi un groupe d'étudiants au doctorat pendant plusieurs années alors qu'ils se dirigeaient vers différentes carrières. Le but de l'étude était d'essayer de cerner certaines des raisons pour lesquelles les gens quittent le domaine, telles que le syndrome de l'imposteur, de mauvais conseils ou la prise en compte de la carrière d'un conjoint ou d'un partenaire. Ils identifient lequel de ces problèmes a un effet significatif sur la décision de quitter le terrain, et en particulier quels problèmes ont un effet plus important sur les femmes. Avec ces informations, nous pouvons travailler à apporter des changements au sein de la communauté de l'astronomie pour qu'il soit plus facile et plus attrayant pour les femmes et d'autres groupes sous-représentés de continuer dans l'astronomie.
L'Étude longitudinale des étudiants diplômés en astronomie (LSAGS) consistait en trois sondages envoyés au même groupe de participants sur une période de huit ans (en 2007, 2012, 2015). Le but était de collecter des informations sur les expériences des participants et de rechercher des différences statistiquement significatives entre ceux qui ont continué dans le domaine de l'astronomie et ceux qui ont choisi de quitter le domaine. Les participants étaient tous des doctorants de l'année universitaire 2006-07, et le même groupe a été contacté pour chacune des trois enquêtes. 2056 participants ont été contactés, le premier sondage a reçu 1143 réponses utilisables, le second 837 et le troisième 814. 465 participants ont répondu aux trois sondages.
Les trois facteurs abordés dans les sondages étaient le syndrome de l'imposteur, l'attitude et les encouragements du conseiller et le « problème à deux corps ».
Syndrome de l'imposteur : Le syndrome de l'imposteur est défini comme « croire que les réalisations d'une personne sont le résultat non pas d'une capacité réelle, mais du fait d'avoir eu de la chance, d'avoir travaillé plus dur que les autres et d'avoir manipulé les impressions des autres ». Bref, c'est le sentiment que vous ne méritez pas vraiment vos succès et que vous n'en faites pas partie.
Conseil : LSAGS a évalué la qualité des conseils en demandant aux participants si leurs conseillers étaient « utiles, encourageants, faciles à discuter d'idées et apportaient une contribution adéquate », s'ils avaient des mentors supplémentaires et si leurs conseillers les soutenaient dans la poursuite de leur projet. buts.
Problème à deux corps : Le «problème à deux corps» fait référence à la difficulté pour un couple de trouver deux carrières (souvent deux carrières universitaires) au même endroit. Il s'agit d'un problème qui affecte de manière disproportionnée les femmes, en partie parce qu'elles sont plus susceptibles d'avoir des partenaires qui sont également des universitaires. En fait, le document cite une étude qui a révélé que la principale raison pour laquelle les femmes ont refusé des emplois universitaires était que leurs partenaires n'ont pas réussi à trouver un emploi au même endroit.
L'enquête LSAGS a révélé que les femmes étaient significativement plus touchées par le syndrome de l'imposteur, avaient tendance à avoir de moins bonnes relations avec leurs conseillers et étaient beaucoup plus susceptibles d'avoir déménagé pour une carrière de partenaire ou d'avoir vécu séparément de leur partenaire dans le but de travailler ou étudier. Ils ont également constaté que tous ces facteurs contribuent à l'attrition de l'astronomie.
Plus précisément, les principaux indicateurs permettant de savoir si un répondant travaillait en dehors de l'astronomie lors de l'enquête finale étaient « l'encouragement de son conseiller à atteindre des objectifs », et s'ils étaient déjà hors du domaine lors de la deuxième enquête. Les indicateurs directs de l'absence d'un répondant dans la deuxième enquête étaient le fait de changer de conseiller, de ne pas faire de postdoctorat, de déménager pour un conjoint ou un partenaire et de limiter les options de carrière pour quelqu'un d'autre. Bon nombre de ces facteurs ont montré une forte corrélation avec le sexe. En fait, le seul facteur pertinent qui n'a pas montré de corrélation avec le sexe était de savoir si le répondant avait déjà été postdoctorant. La figure 1 montre la relation entre le sexe, chacun de ces facteurs et le fait qu'un répondant ait quitté le terrain lors de la deuxième ou de la troisième enquête (2012 et 2015, respectivement).
Figure 1. Cet organigramme montre la relation entre le sexe, divers facteurs abordés par les enquêtes et si un répondant travaillait toujours en astronomie lors de la deuxième ou de la troisième enquête. Par exemple, les femmes sont plus susceptibles d'avoir un score d'imposteur élevé, ce qui les rend à leur tour plus susceptibles d'avoir changé de conseiller, et plus susceptibles de travailler en dehors du terrain d'ici la deuxième enquête. La couleur des flèches indique un facteur direct (bleu) ou indirect (rouge). (Source : Figure 3 dans le document.)
L'étude LSAGS montre que bon nombre des facteurs qui conduisent à l'attrition de l'astronomie affectent de manière disproportionnée les femmes. Les femmes sont plus susceptibles d'avoir un problème à deux corps, de souffrir du syndrome de l'imposteur et de recevoir des conseils insuffisants. En particulier, l'étude a révélé qu'un bon conseil contribue directement à continuer sur le terrain. Même des années après l'obtention de leur diplôme, les répondants ont indiqué que la qualité des conseils avait un effet significatif et direct sur leur maintien dans le domaine. Les résultats de l'étude LSAGS indiquent les mesures que nous pouvons prendre pour améliorer le domaine de l'astronomie. Les conseillers devraient être formés pour soutenir leurs étudiants et les encourager à atteindre leurs objectifs, et les établissements devraient continuer à travailler pour apporter des solutions au problème des deux corps.
Il est important de noter, cependant, que cette étude n'a abordé qu'une seule composante de l'identité d'un élève et n'a permis qu'un sexe binaire masculin ou féminin, excluant ainsi les répondants ayant toutes les autres identités de genre. C'est un premier pas vers la reconnaissance des facteurs qui conduisent à l'attrition de l'astronomie et qui affectent préférentiellement un groupe sous-représenté. Cependant, il est important de garder à l'esprit que tous ces facteurs affectent probablement encore plus fortement les personnes ayant d'autres identités de genre, ainsi que les femmes qui appartiennent également à d'autres groupes sous-représentés. Pour bien comprendre le problème du biais de l'attrition dans notre domaine, nous devons nous appuyer sur des études comme celles-ci et continuer à examiner les facteurs qui empêchent les personnes de toutes identités de choisir de poursuivre une carrière en astronomie.
VLBI et théorème de van Cittert-Zernike/CLEAN/CHIRP/RML
Je prépare actuellement une présentation pour la radioastronomie, et j'essaie actuellement de comprendre les mesures prises pour produire une image à partir de radiotélescopes. Alors corrigez-moi si je me trompe, les signaux bruts détectés par les radiotélescopes sont "interférés" dans le plan UV en utilisant VLBI pour produire le fonction de cohérence spatiale, alors le théorème de van Cittert-Zernike est utilisé (bien qu'il soit coûteux en calcul et nécessite des données parfaites, donc des algorithmes tels que CLEAN, CHIRP et RML sont utilisés, c'est-à-dire dans l'image M87 EHT) pour produire l'image finale ? Est-ce correct?
J'ai quelques pinailleries sur la terminologie, ce qui est très normal quand quelqu'un a rapidement assimilé un sujet avec beaucoup de jargon technique.
Premièrement, le VLBI est un sous-ensemble de l'interférométrie, associé (comme son nom l'indique) à de très longues lignes de base (des télescopes très largement séparés). Celles-ci nécessitent des étalonnages et des corrections supplémentaires qui ne sont pas vraiment nécessaires sur des interféromètres «normaux» plus compacts. VLBI n'est pas vraiment quelque chose qui est utilisé dans le processus, c'est l'étiquette pour l'ensemble du processus allant des télescopes collectant des signaux à l'obtention d'une image.
Les signaux ne sont pas perturbés dans le plan UV. Le signal d'un télescope peut être brouillé avec le signal d'un autre télescope, produisant un visibilité, une mesure singulière de la fonction de cohérence spatiale, correspondant à une position particulière dans le plan uv (le domaine sur lequel la fonction de cohérence spatiale est définie). Faire cela avec chaque paire possible de télescopes participant à l'observation vous donne un ensemble de visibilités qui constituent les mesures.
À partir de là, le théorème vC-Z s'applique et nous transformons nos visibilités en sens inverse pour produire une image, qui est imparfaite en raison des informations limitées disponibles (les visibilités ne couvrent qu'une partie du plan UV). Divers algorithmes tels que CLEAN s'habituent à améliorer la qualité de l'image en appliquant des hypothèses sur la structure sous-jacente de l'image.
2 Monument à l'histoire
Cette version moderne élaborée de l'expérience de Huygens a été construite par la société d'horlogerie spécialisée Relojes Centenario à Zacatlán, Puebla, au Mexique, et apparaît dans le musée de l'entreprise. Constituées de deux horloges à pendule couplées par une structure en bois, les horloges finissent par se déplacer en parfaite synchronisation. Le pendule de chaque horloge est constitué d'une masse métallique de 5 kg fixée à une tige en bois d'environ 1 m de long.
À l'aide de cet équipement, nous avons remarqué qu'après environ 30 minutes, les pendules oscillaient tous les deux dans le même sens et à la même fréquence. Les horloges restaient synchronisées aussi longtemps que l'énergie potentielle était stockée dans les poids pour entraîner le mécanisme d'échappement. En effet, chaque horloge dispose d'un dispositif qui rembobine les poids environ toutes les 30 minutes, ce qui signifie qu'ils peuvent continuer à fonctionner aussi longtemps que vous le souhaitez. S'il n'était pas en place, l'horloge se serait arrêtée après environ 14 heures.
À l'aide de cet équipement, nous avons confirmé le secret derrière le début de la synchronisation – observé pour la première fois par Huygens il y a toutes ces années. Comme il le soupçonnait, elle est due à la transmission de vibrations – et donc d'énergie – à travers la structure en bois sur laquelle sont fixées les horloges. La table en bois, en d'autres termes, est le canal par lequel les pendules peuvent communiquer entre eux et éventuellement « décider » d'un rythme commun. Bien que nos horloges modernes reposent sur une table en pin, alors que les appareils de Huygens sont suspendus à une barre, les deux dépendent de la déformation élastique d'un morceau de bois.
Le projet de géodésie spatiale de la NASA prépare un avenir radieux
Image de bannière : Le radiotélescope de nouvelle génération de Kokee Park à Hawaï, construit dans le cadre du projet Space Geodesy, est plus petit et plus rapide que l'ancienne technologie VLBI, ce qui le rend plus adaptable aux conditions atmosphériques. Crédit : NASAEn avril 2019, une équipe internationale de plus de 300 scientifiques a dévoilé les premières images enregistrées d'un trou noir, son ombre sombre et son disque orange vif scrutant à travers 55 millions d'années-lumière de l'espace. Capturer des images de si loin nécessitait la puissance combinée de huit radiotélescopes sur quatre continents, travaillant ensemble pour former essentiellement un télescope massif de la taille de la Terre appelé Event Horizon Telescope (EHT).
La technologie qui alimente l'imagerie EHT est également utilisée par les scientifiques de la NASA et du monde entier pour mesurer la Terre. L'interférométrie à très longue ligne de base, ou VLBI, est une technique qui combine des formes d'onde enregistrées par deux ou plusieurs radiotélescopes. Cet outil polyvalent est utilisé non seulement en astronomie, mais aussi en géodésie : la science de la mesure de la taille, de la forme, de la rotation et de l'orientation de la Terre dans l'espace.
La géodésie nous permet de voir des cartes sur nos téléphones, de mesurer les marées océaniques, de planifier les lancements de fusées, d'étalonner les horloges, de prévoir les tremblements de terre, de suivre les tsunamis et de maintenir les orbites des satellites. En tant qu'outil géodésique, le VLBI aide les scientifiques à mesurer avec précision les distances et la topographie et à suivre les changements de la surface et de la rotation de la Terre au fil du temps. Des scientifiques du Goddard Space Flight Center de la NASA à Greenbelt, Maryland, et de l'Observatoire Haystack du MIT à Westford, Massachusetts, ont été les pionniers de l'utilisation géodésique du VLBI dans les années 1960.
Aujourd'hui, la NASA, le MIT Haystack et d'autres partenaires collaborent pour améliorer et étendre les stations géodésiques à travers le monde dans le cadre du Space Geodesy Project (SGP) de la NASA. Le MIT Haystack sert de plaque tournante pour le développement matériel et logiciel qui profite à la fois à l'astronomie et à la géodésie, en partenariat avec la National Science Foundation pour soutenir l'EHT et avec la NASA pour stimuler le SGP. Ensemble, cette synergie a contribué directement à la réalisation de l'image du trou noir tout en travaillant vers des radiotélescopes plus petits et plus rapides, plus d'automatisation et un accès à plusieurs outils géodésiques au même endroit, permettant des cartes, des graphiques, des trajectoires de vol et des orbites plus précis que jamais.
VLBI : Tout sur cette ligne de base
Les radiotélescopes mesurent les ondes radio. Ces ondes sont plus faibles et plus faibles que la lumière visible, mais elles pénètrent la poussière et les gaz interstellaires et les interférences de la propre atmosphère de la Terre d'une manière que la lumière visible ne peut pas. Ils donnent également aux astronomes des informations sur l'espace qui n'existent pas dans le spectre visible.
L'observation des ondes radio nécessite de grands télescopes sensibles. Un réseau VLBI a un pouvoir grossissant, ou "résolution angulaire", équivalent à un seul télescope avec une parabole aussi large que la ligne de base la plus longue entre deux télescopes du réseau. (Par exemple, les télescopes les plus éloignés de l'EHT étaient séparés de plus de 7 000 milles, ce qui équivaut à un seul télescope plus de deux fois plus large que les États-Unis.) Chaque télescope du réseau EHT capturait les ondes radio émises par le trou noir à partir d'un en fonction de leur emplacement sur Terre. L'addition de toutes ces observations avec un ordinateur puissant a donné les images finales.
Dans les années 1960, les scientifiques de la NASA Goddard et du MIT Haystack ont réalisé que cette légère différence de perspective était une source précieuse d'informations, non seulement sur l'espace, mais sur la Terre.
"Le principe de base du VLBI géodésique est que les ondes radio provenant d'une source distante frappent une station avant l'autre", a déclaré Stephen Merkowitz, directeur du projet de géodésie spatiale de la NASA. "Nous utilisons des quasars, qui sont des galaxies actives très éloignées, si éloignées qu'elles sont des points fixes dans le ciel. Nous mesurons le délai entre le moment où le signal atteint ces deux points, et convertissons en une distance en utilisant la vitesse de la lumière."
La rotation de la Terre modifie le délai entre les signaux de quasar observés par les stations VLBI, permettant aux scientifiques de mesurer avec précision la vitesse de rotation. Ils peuvent également utiliser ces données pour mesurer l'emplacement et la distance entre les stations VLBI, et en répétant ces mesures au fil du temps, peuvent observer même des changements lents et infimes à la surface de la Terre, comme la dérive des continents.
La fonction la plus importante du VLBI est peut-être d'aider à construire les référentiels terrestres et célestes internationaux. Le cadre de référence terrestre attribue des coordonnées aux emplacements sur Terre, y compris son centre, fournissant un cadre cohérent pour relier les mesures les unes aux autres.
"Supposons que vous ayez une mission qui mesure le niveau de la mer dans le golfe du Mexique et que vous ayez un marégraphe au large des côtes de la Louisiane qui prend également des mesures du niveau de la mer, et que vous vouliez les relier afin d'avoir une certaine vérité sur le terrain dans l'espace observations », a déclaré Merkowitz. "S'ils ne sont pas dans le même cadre de référence, vous ne pouvez pas le faire. Si votre cadre n'est pas précis et stable, cela introduira toutes sortes d'erreurs dans ce lien. Ainsi, un bon cadre de référence vous permet de vous connecter différents ensembles de données grâce à la géolocalisation."
Le cadre de référence céleste sert un objectif similaire, mais au lieu de créer un cadre stable pour les emplacements de la Terre, il crée un cadre pour la localisation d'objets astronomiques. Les scientifiques utilisent les paramètres d'orientation de la Terre (mesures du temps, de l'orientation et de la rotation) pour relier les deux cadres. Cela crée un système complet pour géolocaliser les objets dans l'espace et sur Terre.
Un exemple d'une technologie quotidienne qui dépend de ces cadres de référence est le système de positionnement global, ou GPS. Le GPS s'appuie sur une constellation de satellites diffusant en permanence leurs emplacements et leurs heures à des appareils au sol compatibles GPS, des téléphones portables aux équipements agricoles. Les satellites de la constellation s'appuient sur le cadre de référence terrestre et les paramètres d'orientation de la Terre pour relayer leur position, il est donc essentiel de maintenir ces cadres précis et précis pour les activités quotidiennes dans le monde.
Les quantités que nous tenons parfois pour acquises, comme la durée du jour de la Terre et sa vitesse de rotation, ne sont pas réellement constantes, a déclaré Merkowitz. "They depend on lots of different things like weather, major mass motions like El Niño or La Niña, and movements of large amounts of water," he explained.
Charting a Course for Geodesy's Future
With Earth constantly changing, geodesy keeps maps accurate, planes and ships on course and satellite measurements precise. In fact, VLBI and other tools are vital for Earth-observing satellites like ICESat-2 and instruments like GEDI, both of which use laser pulses to measure the structures of ice sheets and forests. Without knowing exactly where the spacecraft are located above Earth's surface, scientists wouldn't be able to make these kind of precision measurements.
"When you do precision orbit determination for something like ICESat-2, it requires the reference frame as input," Merkowitz said. "ICESat-2 is very sensitive to errors, so if the calculation of Earth's center is off, it translates into an error in the science measurements. Precision orbit missions and missions that measure heights are particularly dependent on the framework."
In 2007, the National Academy of Sciences reported that the nation's geodesy infrastructure was aging too quickly to keep up with growing demands for data. So NASA launched the Space Geodesy Project to develop and deploy the next generation of geodetic stations, which includes VLBI as well as other techniques that use lasers to precisely track satellites (called satellite laser ranging, or SLR).
The new VLBI stations will be able to sample across a broad range of frequencies instead of just two, giving them more flexibility to keep collecting data if there is interference from Wi-Fi or other signals. Their smaller size and quicker movement will make them more adaptable to atmospheric conditions, but to make up for the smaller dishes (remember, with radio telescopes, bigger is better), they will sample data much faster. Eventually, Merkowitz said, the systems will be able to collect data 24 hours a day without human supervision to provide much more rapid measurements.
The National Academy of Sciences and other international geodetic associations recommend that, for the best science outcomes, the updated Space Geodesy Network should be accurate to within one millimeter, or about the thickness of an ID card. It should also be stable to within one-tenth of a millimeter—the width of a human hair. This precision is crucial for measuring sea levels, which are increasing at about 3.4 millimeters, or 0.13 inches, per year, Merkowitz said.
The project is in its first phase: replacing NASA's domestic geodetic stations with the next-generation systems. NASA recently installed its third domestic VLBI station in Texas its next-generation VLBI stations in Hawaii and Maryland are already in operation and routinely taking measurements.
NASA is also working with international partners to help transition the international VLBI network to the next-generation technology, Merkowitz said. "International cooperation is vital to the success of space geodesy. Measuring global effects requires a global network, and NASA cannot do this alone."
The next-generation network will support more precise GPS, increasingly precise reference frames and better support for the many ways we use maps in today's world. With the help of VLBI, the team will help us know where we are—and where we're going—with even more accuracy in the future.
Introduction and motivation
Through immense progress in the development of the respective solvers, today mixed-integer linear programming (MILP) has many applications in production and planning. In this publication, we demonstrate its applicability to the scheduling process of very-long-baseline interferometry (VLBI, Sovers et al. 1998) which has many similarities to routing but also complications beyond.
VLBI is a space geodetic technique used for the maintenance of the International Terrestrial Reference Frame (ITRF, Altamimi et al. 2016) and the International Celestial Reference Frame (ICRF, Fey et al. 2015). Both reference frames are essential for the determination of geophysical phenomena such as sea-level rise or plate tectonic movements, as well as for precise navigation on Earth and in space.
Furthermore, VLBI is the only technique able to determine without hypothesis all transformation parameters between the ICRF and the ITRF, i.e., the Earth orientation parameters (EOPs). VLBI is especially important for the determination of the Earth’s phase of rotation UT1 (Universal Time) which is commonly parameterized as the difference UT1-UTC with respect to Universal Time Coordinated (UTC) derived by atomic clocks (Lambeck 1980). To guarantee the availability of UT1-UTC results every day, the network sessions of 24-h duration carried out by the International VLBI Service for Geodesy and Astrometry (IVS, Nothnagel et al. 2017) are complemented by daily 1-h-long, so-called Intensive sessions (Nothnagel and Schnell 2008) that have the only purpose to determine UT1-UTC.
VLBI measurements need an active scheduling of the observations because it has to be guaranteed that two or more radio telescopes located on the Earth always simultaneously observe the same compact extragalactic radio sources, such as quasars, to form a radio interferometer. The radio telescopes are usually located as far apart as several thousand kilometers. Thus, the visible sky above each radio telescope is different, and only a subset of common radio sources can be observed by two or more telescopes at any time. VLBI scheduling is a combinatorial optimization problem determining which radio telescopes should observe which source at what time and for how long in order to achieve an optimal geometric stability and precision of the final data adjustment.
Existing scheduling approaches are all heuristic and sequential, lacking a view of the entire time period to be scheduled and the constantly changing optimal options which might be excluded because of previous decisions. In this paper, we present a new approach for a VLBI scheduling program which finds the schedule with the optimal sky coverage considering the geometries at the whole time period as a single decision entity using mixed-integer linear programming, i.e., we formalize the optimization problem as a linear objective function with a set of linear inequality constraints over a set of variables. In contrast to pure linear programming (LP), which requires that each variable receives a real number, in mixed-integer linear programming (MILP) we can require that a pre-defined set of variables receives integer values. This additional degree of freedom provides us with the possibility of formulating binary decisions problems, such as the selection of observations. On the other hand, this additional strength makes it NP-hard Footnote 1 to find a solution for a mixed-integer linear programming formulation, while for linear programming this is possible in polynomial time. Despite this computational hardness, highly specialized solvers (e.g., CPLEX (2015) and Gurobi Optimization (2019)) can be used for solving real-world instances of mixed-integer linear programming in adequate time (Bixby and Rothberg 2007). In particular, with the increasing computational power of servers and the ongoing development of the solvers, integer linear programming specifically and mathematical programming in general have become a powerful and generic tool for combinatoric optimization. One of our main contributions is the transfer of the corresponding scheduling problem with its manifold geometric and technical constraints into a mixed-integer programming formulation. We describe the general setup of this scheduling algorithm emphasizing the logic behind it. To that end, we focus on the test case of single-baseline sessions of only 1-hour duration for the determination of UT1-UTC (so-called Intensives). However, the basic concepts can be transferred to more general problem settings.
All existing and frequently used scheduling strategies have in common that they take a sequential approach. This means that the observations are scheduled chronologically and that a new observation is planned based on the already existing ones. The most commonly used software for producing geodetic schedules is currently the sked package (Gipson 2016) which has its origin in the early 1980s and which started off requiring that each scan was selected manually. In the following years, an automatic selection process was added featuring a rough sky coverage optimization option. The selection criterion was how well the observations were distributed on the local sky above each station. This is due to that a good local sky coverage is important for the determination of the delay caused by the wet part of the troposphere.
Later, Steufmehl (1994) extended sked with a dynamic method based on covariance analysis in analogy to the optimization of geodetic networks. New observations are chosen such that the average variance of the estimated parameters is minimized. In the approach of Sun et al. (2014), the observations are chosen so that each source in the list of candidate radio sources is observed in a well-balanced manner, optimizing the sampling of the complete celestial sphere. For short-duration, single-baseline sessions employing twin telescopes, Leek et al. (2015) developed a criterion based on impact factors. The impact factors depend on the Jacobian matrix and the covariance matrix of the observations and are used to find the most influential observations.
Mathematical programming formulations have been used for scheduling problems before (Williams 2013), for example, for the job shop scheduling problem (Błażewicz et al. 1996), in which the sequence of jobs on machines has to be determined. Furthermore, there are models for most forms of transportation (Barnhart and Laporte 2007) such as flight and crew schedules for airplanes (Ball et al. 2007), passenger railway transportation (Caprara et al. 2007 Fügenschuh et al. 2006) or maritime transportation (Christiansen et al. 2007). Further examples for integer linear programming (ILP) applied to scheduling problems are the scheduling of sport events (Nemhauser and Trick 1998 Durán et al. 2007) and the scheduling of physicians in the emergency room (Beaulieu et al. 2000). More related, mathematical programming has also been applied for scheduling Earth observations via satellites, e.g., Marinelli et al. (2011) and Wang et al. (2016). Moreover, several authors have presented approaches to scheduling the observations of astronomical telescopes. However, to the best of our knowledge mathematical programming has not been applied to scheduling problems in geodetic VLBI before.
Usually, heuristic methods have been proposed, such as iteratively choosing the observation that requires the telescope to slew as little as possible (Moser and van Straten 2018). Johnston and Adorf (1992) formalized the problem of scheduling the Hubble Space Telescope as a nonlinear 0-1 integer program and applied a heuristic neural network algorithm for computing solutions. Giuliano and Johnston (2008) presented a heuristic approach based on evolutionary algorithms for scheduling the James Webb Space Telescope.
Lampoudi and Saunders (2013) developed an ILP-based optimization approach for scheduling telescope networks, and Lampoudi et al. (2015) presented experimental results with the exact mathematical solver gurobi, which we also used for our work. However, while the general methodology of their work is similar to ours, the scheduling problems considered by them and by us are very different. More specifically, the method of Lampoudi et al. (2015) deals with requests of researchers for observation time, which would allow the researchers to conduct their experiments. Scheduling, in this sense, means to allocate a time slot for each request. The problem that we aim to solve, however, is to schedule every single measurement, each of which typically takes not longer than a few minutes, while considering geometric constraints that are specific for geodetic VLBI. A more detailed review of scheduling approaches in astronomy with a focus on scheduling networks of radio telescopes is provided by Buchner (2011), who notes that in typical applications it is ‘not a big deal to lose 15 min of observation,’ and thus, a rather coarse discretization of time is justifiable. This is very different in our application, however, in which a typical 24-h experiment incorporates several thousand observations.
The main challenge of scheduling geodetic VLBI experiments is that the problem is not purely combinatoric, but requires geometric constraints and objectives that are highly problem-specific. Most prominently, the solutions should maximize the geometric distributions of the observations optimizing the local sky coverage at each station. For that purpose, we present a new score that is developed based on existing approaches (Sun et al. 2014) and that is used for rating the sky coverage of the computed schedules. However, also other geometric and more technical constraints need to be taken into account. For example, due to the cables connecting the moving and non-moving part of the radio telescope, the degree of rotation is restricted. Further, the shading of each radio telescope caused by terrain, buildings and vegetation has to be considered when pointing the telescope. All these constraints make the problem of controlling the radio telescopes for geodetic VLBI to be a complex and nonstandard scheduling problem. We have tested the proposed approach on 1-h, single-baseline Intensif sessions for daily determinations of UT1-UTC. Compared to the software sked, more observations were found and the uncertainty of UT1-UTC was decreased in four out of the five sessions that we investigated.
The paper is structured as follows. Dans la Sect. 2, we first present the VLBI scheduling problem in detail discussing all its requirements and constraints taken into account. Afterward, in Sect. 3 we introduce a newly developed formal definition of the score used for rating the sky coverage. For the convenience of readers who are not familiar with mathematical programming, we give a short and general introduction to this technique in Sect. 4. In Sect. 5, we then present a mathematical formalization of the scheduling problem, which we then use in Sect. 6 to give a basic mathematical programming formulation. This formulation comprises all constraints that are necessary to obtain a feasible scheduling and may be also used as starting point for future work for related problems. However, this formulation is not sufficient to be deployed in practice for the considered problem setting. Further extensions that can be plugged in to model technical details such as the cable wrap of the radio telescope are given in Appendix B. In Sect. 7, we introduce simplifications to our model that can be applied to modern VLBI Global Observing System (VGOS) telescopes. Dans la Sect. 8, we then evaluate the approach by investigating the standard deviations of the estimated parameters, the sky coverage and the number of observations. Finally, in Sect. 9 we conclude the paper and give a short outlook on future work.
Sky plots with source transits on January 4, 2018, 18:30–19:30 UT. The blue transits are visible from both stations. The gray transits are only visible at the corresponding station. On the northern hemisphere, the sources are moving clockwise around the pole of the Earth rotation axis, which is marked with a black dot. The thick black lines are the station-specific horizon masks, and the orange line represents the transit of the Sun
History of RTK—Part 2: RTK Roots Run Deep
Left: Charles R. Trimble signs a gift agreement for Trimble’s first production GPS receiver at the Smithsonian Museum, Washington, in late 1985 or early 1986. Source: Trimble
When it comes to Real Time Kinematic (RTK), full appreciation of its development trajectory means never forgetting its roots, especially the predecessor technologies and research steppingstones that advanced the use of the Global Positioning System (GPS) for static and kinematic surveying.
In this second article exploring the history of RTK, we focus mostly on the 1980s to look at what confirmed or inspired further exploration of GPS for land and marine surveying and foreshadowed an intense period of development (to come in Part 3) in the first half of the 1990s as geodesists, scientists and engineers tried to build the perfect system.
Cornerstone: Using extraterrestrial systems for centimeter-level accuracy
The development of satellite geodesy would rest on the foundation of using phase differencing for high-accuracy baseline determination, such as was used with Very Long Baseline Interferometry (VLBI). GPS, which launched its first satellite in 1978, was designed to use code-based signals for real time accuracies of 3-to-5 meters horizontal and 10-to-15 meters vertical, but there was so much more potential.
A Texas Instruments 4100, or TI 4100, which was used in early GPS surveying experiments. Source : NOAA
Clever scientists determined they could use GPS satellites in a similar way, using two receivers to interpret its non-code signals, called carrier-phase signals, for precise measurement to the accuracy of centimeters. This was known as carrier-phase differential GPS positioning, and a host of individuals started developing software algorithms for extracting and processing that data, as well as developing techniques to improve GPS surveying capabilities.
One of those individuals was Dr. Benjamin W. Remondi, a GPS technologist for the National Geodetic Survey (NGS) who in the early 1980s began a long, productive career in static and kinematic positioning based primarily on GPS observations. His body of work over several decades included more than 50 technical papers on methods still in use today, such as the triple differencing method, the antenna exchange method, and the kinematic survey method. Researchers in the field would come to refer to him as “the father of Real Time Kinematic survey.”
Meter-level positioning at sea
Prior to Remondi’s research, there were also technologies that routinely used broadcast radio waves for meter-level positioning of marine vessels performing engineering and construction work in the world’s ports and harbors.
A USACE survey crew sets up a Raydist base station around 1980. Source: Steve DeLoach
One was Raydist, a marine navigation system that relied on carrier signals broadcast from land-based shore stations. In the 1940s, engineer Charles Hastings developed a method to measure the phase shift of a signal superimposed on radio waves transmitted between aircraft and a ground station. This led to the Raydist radio wave system for accurately measuring distance through continuous wave phase comparison.
Raydist was in use for hydrographic positioning and dredging when Steve DeLoach, a civil engineer and land surveyor, began working for the U.S. Army Corps of Engineers (USACE). “We had to run geodetic control along all the nation’s bays, rivers and harbors to establish stations to locate the Raydist towers and had to set ‘spar buoys’ along the shipping channels as known points, and locate these geodetically, with multiple angle resections from shore,” said DeLoach, now retired. “These spar buoys were often many miles offshore bobbing about. The boat would pull alongside, and the captain would yell ‘mark’ so the Raydist operator could enter the correct number of cycles from the two base stations.”
As a young engineer DeLoach was dumbfounded at the Raydist system’s mass of paper tape, whirling analog dials, massive ships’ power systems (fire hazards), and no vertical positioning. “All vertical information was from a tide station that was miles away, therefore in significant error.”
But those issues aside, Raydist represented the same type of solution as GPS ambiguity resolution, making GPS carrier-phase positioning worth pursuing for hydrographic surveying. “The method of using a known static point to ‘resolve integers’ is exactly what the old 1960s Raydist system did in the marine environment,” DeLoach said.
Comparing Raydist and other marine navigation systems was a way to prove that GPS could actually work and provide compatible results, and those results also helped DeLoach make his case with USACE for funding in the late 1980s for a major project to develop a GPS carrier-phase positioning system for hydrographic surveying and dredging that would lead to RTK development.
“Raydist counts lanes of phase difference, and that is exactly what geodetic GPS does,” DeLoach said. “It’s the same basic math problems—just complicated by satellites orbiting versus base stations on the ground.”
Remondi would join the dredging project team in 1989 as one of its key problem-solvers, but before that phase of development could begin, other steppingstones on the way to RTK needed to be found.
Centimeter GPS positioning on land
Dr. Clyde Goad (right) conducting a kinematic survey with another USACE employee. Goad published the results in “Kinematic Survey of Clinton Lake Dam”, ASCE journal of Surveying Engineering, Feb 1989. Source: Steve DeLoach
The Macrometer was another predecessor technology demonstrating centimeter-level accuracy in GPS positioning. In the 1980s, Charles Counselman, a physicist at the Massachusetts Institute of Technology (MIT), led the development of the Macrometer V-1000. According to a 2010 article on Counselman by MIT Technology Review, a NASA scientist labeled Counselman’s invention as “snake oil” but would soon be proven wrong as it represented a new way to harness GPS by combining expertise in radio and astronomy.
Counselman proved his technology in a series of demonstrations in the early 1980s and was subsequently granted 36 patents. But while the Macrometer demonstrated extraordinary accuracy, it had downsides for everyday civilian surveying uses. It was expensive, heavy, took two people to carry, and had to be transported in a utility vehicle. Even so, it would play an important role in research on the way to more streamlined and nimble commercial GPS systems.
“Today, GPS receivers embodying Chuck’s technologies are portable, inexpensive, and ubiquitous,” noted a 2008 article when Counselman received the Charles A. Whitten Medal from the American Geophysical Union. “Look under the hood and you’ll find many of his basic patents inside.”
GPS data simulation for precise carrier phase data
After earlier work in orbital mechanics and software development (see Part 1), Remondi was hired in 1981 by Admiral John Bossler and Dr. Clyde Goad to work at the NGS to solve “a most important problem”—using GPS for surveying at centimeter-level accuracy.
At the time, there was no carrier data, so Remondi’s first activity was to write a GPS data simulator for precise carrier phase data. During that time, Remondi recalls being given tremendous freedom as a researcher, including use of the lab’s minicomputer. The combination made developing software at NGS “amazing,” he said. “I had been programming by that time probably 20 years of my life, and it was always a burden. Sometimes I had to wait two or three days in the early days for a response to a program, and another two to three days to get feedback. Now, it was instantaneous. I could do two lines of code and ask it to compile and run two more lines of code. This was just unbelievable. This just super-charged me like you can’t believe.”
With this new computing power, Remondi wrote two software programs that could process his simulated data. One used an interferometric search method he learned from Counselman and Sergei A. Gourevitch (Miniature Interferometer Terminals for Earth Surveying: Ambiguity And Multipath with Global Positioning System, October, 1981), while the other was a triple-difference program of his own invention. The programs were written to anticipate cycle slips and repair them if desired.
There was an obsession with cycle slips, and the interferometric methods Remondi got from Gourevitch and Counselman enabled him to develop advanced computer methods to speed up the time for processing by a factor of 100,000. The triple-difference method, while considered naïve on the theory that there would be too little signal, was faster in processing, detected cycle slips and worked fine.
Collaboration and data familiarity advance RTK methods
The TI 4100 in use in Alaska in 1984 (approximately). Source : NOAA
Also, to support Remondi’s initial work, Bossler approved the purchase of two Macrometers at $250,000 apiece. “They are usually $300,000 but we got them for a Sunday Special,” Remondi recalled. The receivers tracked six GPS satellites, were codeless, and had weak signals, but with a small dataset provided by MIT, “miraculously, my programs worked.”
Meanwhile, NGS was working with four sister government agencies to partner with Texas Instruments to develop the TI 4100, one of the first commercial GPS receivers and antennas. The TI 4100 team included excellent engineers writing simulation software, Remondi said, and he contributed timing software to their efforts. “They liked my contribution, and good relations were established.”
After receiving the Macrometers, the NGS team put them to work surveying the nation. It was no small logistical and physical effort, because the receivers were heavy, required large batteries and had to be time-synced. The team had to generate orbital data in the home office and send it to the field.
“I became extremely cozy with the data,” Remondi said. “I noticed that a tracking channel could get confused and switch satellites when the doppler signal was the same. The receiver would then report the wrong satellite. This was easy to fix, but it pointed to how close I was watching the data. MIT was unaware of this sympathetic tracking behavior.”
Initialization without sitting still for hours
Also, in the 1983-84 timeframe and as part of the Macrometer testing, Larry D. Hothem, a geodesist with the United States Geological Survey, set up a test network in California with survey marks near each other. At the time, it was taking three hours at each monument to establish a position, and Remondi thought there had to be a more efficient way. He realized the long stays at each monument were to give time for the satellites to move and wondered if they should stay a couple of minutes at each site and return several times. “I did not experiment with this method right then,” he said, “but I did later.”
The jumping from site to site made him wonder: Could the antenna be moved from a known site to an unknown site while maintaining carrier tracking? “While I believed the Macrometers could not do this, I thought if I rotated the antenna very slowly, I could prove the point. I asked Professor Counselman if such tracking could be done. He said, no, but if there was an application, they would consider it.”
By the spring of 1984, Remondi—inspired by a paper by Dr. Alan G. Evans at the Naval Surface Warfare Center (NSWC) that proved carrier tracking could be done while moving—set up a kinematic (or motion geometry) test, but it didn’t work.
He learned from Texas Instruments engineers that, with an increase in bandwidth, the TI 4100 could track the carrier when the antenna was in motion. Next, he asked his colleagues at NSWC to modify the receiver’s software to widen the bandwidth to 8 Hz. With this change, Remondi repeated his experiment, with field personnel carrying an antenna around a roughly square path and sending the data to him.
Antenna swapping—an awkward dance
The Trimble 4000A GPS Locator was one of the first GPS positioning products used by hydrographic survey boats. Even though coverage times were only 4 or 5 hours because there were only a few GPS satellites in orbit at the time, the receiver paid for itself quickly by saving time and resources. Source: Trimble
The experiment was successful. With that proof, Remondi designed more interesting experiments to travel between known survey marks using RTK. “Those tests were not in real time yet, so we called the method ‘kinematic’ and not ‘RTK,’” he said. “One of those experiments added the technique of swapping antennas.”
It looked like an awkward dance. Picture two tripods, each with a GPS antenna, and two guys lifting the antennas carefully up over their heads so they don’t interfere with the signal and then walking around each other to set the antennas down on the other tripod, and not tangling the cords in the process. “They looked silly while doing it,” said DeLoach, and at some point, the antenna swap started being referred to as “the Remondi Foxtrot.”
The article “Performing Centimeter-Level Surveys in Seconds with GPS Carrier Phase: Initial Results” (NAVIGATION, Journal of The Institute of Navigation, Winter 1985-1986), describes the initial tests: “The results of this experiment show that centimeter-level relative surveys can be performed in seconds. A priori geodetic coordinates of the initial location of the ‘roving’ antenna are not required since they, too, can be determined within seconds.”
Surveying with kinematic GPS—stopping only for a few seconds—seemed preposterous to many of Remondi’s colleagues. Jusqu'à ce que non. One scientist eventually apologized for his skepticism, and receiver manufacturers started asking for the capability. “The antenna swap was greeted with a big ‘wow’ and without skepticism,” Remondi said, “meaning my work was beginning to be taken seriously.”
GPS commercial development: What can we do to keep the company going?
Hydrographers use the Raydist system in the Gulf of Mexico. Source: NOAA’s Photo Library
Alongside the scientific work of GPS technologists like Remondi were efforts by commercial GPS pioneers, including Charles R. Trimble, who founded the company in 1978 to initially focus on Loran-C, a hyperbolic radio navigation system, but in 1982 began developing receivers using GPS signals.
Unlike scientists at NGS or the Department of Defense who had access to the computer systems that tracked the GPS satellites and could develop the ephemeris data for their calculations, surveyors needed receivers that could download and understand the ephemeris, or orbital data.
In 1984, Trimble introduced one of the first GPS positioning products, called the 4000A GPS Locator, a C/A code receiver intended to replace Loran. The main users for the 4000A were hydrographic survey boats locating previously drilled holes over which to build oil platforms.
Then, on Jan. 28, 1986, the Space Shuttle Challenger was engulfed in flames 73 seconds into flight, killing all seven crew members aboard. Also lost in the explosion was a satellite to enhance coverage worldwide. It would be two more years before additional GPS satellites could be launched.
Unlike other GPS manufacturers that were able to shift to other areas of production, Trimble was invested almost exclusively in GPS. “Here was Charlie with a commercial company, and all of a sudden, the whole GPS program came to a halt because they could no longer launch satellites,” said Mark Nichols, general manager at Trimble and one of the company’s early RTK development leaders. “So, he turned to Ron Hyatt, who also came out of HP, and said, ‘What can we do with GPS to keep the company going when there aren’t enough satellites in the sky?’”
They shifted the company’s focus to time transfer because it was possible to get atomic clock accuracy timing out of a GPS receiver with only one or two satellites, and also to the development of GPS static carrier-phase differential positioning for geodetic surveying.
“GPS entered into the surveying industry by virtue of Trimble looking for a commercial application after the Space Shuttle disaster,” Nichols added. “And it was used initially for doing control surveys over long distances.”
Check out our next issue for History of RTK—Part 3
Stacey Hartmann writes about surveying and geospatial topics for Trimble’s Geospatial division.