Navigation à l'estime
Les bases du magnétisme terrestre
    La boussole
    Le compas
Mesurer les étoiles
Navigation par satellite
    L'aventure
    Segment spatial
    Segment utilisateur
    Segment de contrôle
    Applications
 

Le sextant (ENS)

Navigation à l'estime : Marine & Nature...

 

L'eau pour sa relativité immense
Le vent pour son inconstance
Le ciel comme référence…

Parce que l’effrayante uniformité des étendues aquatiques était bien plus difficile à comprendre, à appréhender, à modéliser que le continent, le repérage fut tout d’abord l’apanage des navigateurs. Il y a environ trois mille ans, des marins phéniciens quittèrent leurs ports d'attache, sur la côte orientale de la Méditerranée, pour commercer avec l'Europe et l'Afrique du Nord. Au IVe siècle avant notre ère, un explorateur grec du nom de Pythéas fit le tour de la Grande-Bretagne. Et bien avant que les navires européens ne pénètrent dans l'océan Indien, les marins arabes et chinois l'avaient déjà traversé. Comment ces marins du passé se repéraient-ils en mer ?

Il importe de disposer de trois données :

1) son point de départ
2) son cap (sa direction)
3) sa vitesse

Si le point de départ est évident, comment connaître en revanche son cap et sa vitesse?

à Comment évaluer la vitesse du navire ?   à Comment maîtriser le cap suivi ?
En calculant le temps qu’il met à dépasser un objet jeté depuis la proue. Et pour plus de précision, en jetant par-dessus bord une planche attachée à une ligne comportant des nœuds régulièrement espacés : La planche flotte, déroulant la ligne à mesure que le navire avance. Après un temps donné, la ligne est retirée et l’on peut compter le nombre de nœuds ayant filé. La vitesse ainsi déterminée s’exprime en nœuds, autrement dit en milles marins par heure, une unité de mesure encore largement en usage aujourd’hui. Une fois sa vitesse connue, il est possible de calculer la distance parcourue par le bateau en la multipliant par la durée écoulée et mesurée avec un sablier par exemple (voir également le repérage par satellite à ce sujet, qui reprend le même principe).
 

En analysant les changements de la voûte céleste. Du lever au coucher, le soleil décrit l’axe Est-Ouest. À l’aurore, les navigateurs peuvent noter la variation de la déclinaison du soleil en comparant sa position avec celle des étoiles encore visibles. L’étoile polaire qui apparaît après le crépuscule presque à la verticale du pôle Nord est un repère très apprécié. Dans l’hémisphère austral, c’est toute une constellation, la Croix du Sud permet de localiser le pôle Sud (donc également le Nord). Enfin, si le ciel est couvert, il est possible de s’orienter à la houle : des ondulations longues et régulières provoquées par des vents stables, qui ont préalablement été analysées, permettent de déduire les caractéristiques théoriques de la carte du ciel.

Régulièrement, le navigateur calculait les corrections dues aux courants marins et aux vents latéraux. Sur une carte marine (ci-dessous, une carte attribuée à Christophe Colomb) on tirait alors un trait pour indiquer son avancée par rapport au référentiel établi.

Une méthode plus directe était utilisée par les Polynésiens qui lisaient le ciel nocturne comme une carte routière. Une de leurs méthodes consistait en effet à se diriger vers une étoile qu’ils savaient se lever ou se coucher en un point de l’horizon proche de leur destination. Ils contrôlaient aussi l’alignement d’autres étoiles pour s’assurer qu’ils étaient dans la bonne direction.

Ces deux techniques étaient-elles fiables ? Lorsqu’elle était soigneusement consignée, l’estime avait l’avantage d’être utile aux futurs repérages. Dès le 14ème siècle, la découverte d'îles impose aux marins des méthodes de navigation à l'estime pour pouvoir retrouver ces îles. Mais tandis que les Européens longeaient encore les côtes, certaines tribus du Pacifique faisaient déjà, si l’on suit certaines hypothèses, de longs voyages transocéaniques entre des îlots minuscules. Il y a plus de 1 500 ans par exemple, des Polynésiens quittèrent les îles Marquises pour parcourir quelque 3700 kilomètres avant d’accoster à l’actuelle Hawaii. Des marins de notre époque ont reconduit avec succès cette expérience en ne s’orientant qu’avec les étoiles, la houle et d’autres phénomènes naturels, sans utiliser d’instruments.

Aux antipodes, les navigateurs de l’océan Indien ont appris à tenir compte du calendrier. Les vaisseaux qui doublaient le cap de Bonne Espérance en direction de l’Inde devaient partir au début de l’été, sous peine d’attendre des vents propices pendant des mois. Ceux qui larguaient les amarres pour se rendre en Europe quittaient l’Inde à la fin de l’automne pour ne pas avoir à affronter la mousson d’été. La route de l’océan Indien ressemblait donc à une voie à circulation alternée.

En combinant sa faculté analytique avec une observation exclusive des éléments naturels, l’homme peut donc déjà se repérer admirablement. Il a néanmoins besoin des conclusions de ses erreurs passées pour donner un sens à l’interprétation de sa situation.

Lorsque le temps se couvre (brouillard, nuages, neige…), difficile de se contenter d’une estime qui devient très limitée ! Les navigateurs (car c’est ainsi que s'appelaient ceux qui avaient le plus besoin de se repérer), commerçants, pirates ou plaisanciers peuvent alors tirer profit d’une autre variable, naturelle mais plus subtile que les signes astraux : le champ magnétique. En premier lieu grâce à la boussole qui se nommera également compas sec, puis en adaptant grandement le système aux conditions océaniques : le compas vitreux que nous connaissons…

 

Le champ magnétique

Apprivoiser une force invisible présente en tous points de la Terre pourrait paraître déroutant, et l’utiliser, inconcevable. Pourtant, la compréhension du phénomène magnétique a ouvert la voie à une formidable donnée : un vecteur directionnel constant. (Et c’est sans compter le développement de l’électricité, proche cousine.)On appelle aimants permanents les matériaux qui génèrent autour d'eux un champ magnétique sans besoin d’intervention extérieure (à la différence des électroaimants). C’est globalement le cas de la Terre, qui suite aux frottements entre les différentes couches (noyaux ferreux liquide et solide, manteau et lithosphère) possède un véritable champ magnétique. L’orientation presque identique des roches terrestres quelle que soit leur localisation permet une modélisation du champ à l’échelle planétaire. Outre le détournement des particules cosmiques (rayonnements très dangereux) qu’il occasionne  – accessoirement en faveur de la biosphère, le champ magnétique terrestre est bipolaire. Comment est-il alors possible de s’en servir pour disposer d’une donnée directionnelle constante quelle que soit notre position et notre allure ?

Il suffit en fait d’utiliser un autre aimant, qui va s’orienter en fonction du champ magnétique émanant de l’Aimant terrestre. Expérimentalement, ce mécanisme est très simple à observer : si vous prenez un aimant en U et que vous souhaitez placer une barre aimantée entre ses deux branches, ou si vous la placez entre les polarités antagonistes de deux aimants droits, il n’y aura qu’une seule configuration équilibrée possible :

Et un aimant fixe situé en dehors de la zone d'équilibre suivra les lignes de champs magnétique, ainsi qu'il est possible de le constater dans l'applet schématique sur cette page.

Il semble que ce soient les Chinois qui aient découvert les premiers la polarité de l'aimant et l'action directrice que la Terre exerce sur lui, dès les débuts de l'ère chrétienne, puisqu'un de leurs dictionnaires en fait mention en l'an 120… C’est cela précisément qui constitue le principe de base des instruments de repérage unidimensionnels horizontaux (boussole, compas). Mais les pôles magnétiques ne coïncident pas toujours avec les pôles géographiques (ce qui rappelle le problème d’Eléonore, l’étoile Polaire J). On peut toutefois adapter aisément la donnée à nos conventions de repérage. C’est la détermination du décalage angulaire, condition préalable, qui est loin d’être évidente.

II] Le nord magnétique  

Eh oui, malheureusement, le nord magnétique n'est pas vraiment le Nord ! La direction dans laquelle pointe l'aiguille de la boussole est le nord magnétique, et pour obtenir la direction du nord géographique, il faut effectuer une correction qui est différente suivant l'endroit ou l'on se trouve, c'est la déclinaison magnétique  :

Le pôle nord magnétique est actuellement situé dans le nord du Canada, sur l'île de Bathurst, approximativement à 1560km au sud du vrai Pôle Nord. Sa position subit d'importantes fluctuations : les scientifiques du gouvernement canadien ont montré que le glissement Nord-Ouest du pôle s'est opéré à raison de 10 kilomètres par an durant le siècle, ce qui correspond pour la France à une variation d'environ 8 minutes d'angle par an. Ce changement lent et continu porte le nom de mouvement séculaire. Ainsi, la correction à apporter dépend du lieu et du moment.

A Paris la correction au 13/07/2000 était de 1°51,3 min Ouest, alors qu'en 1960 elle était de 6° 23,5 min Ouest (avec 1° = 60 minutes d'angle).

Le site Internet des satellites NOAA permet de connaître la déclinaison magnétique pour n'importe quel point du globe jusqu'en 2005 : http://www.ngdc.noaa.gov/seg/geomag/jsp/Declination.jsp

 

La boussole

Un peu d'histoire
Les dates d’apparition de la boussole restent assez mystérieuses : il semblerait que nul ne puisse prétendre exclusivement à son invention. Tandis que les Arabes revenant de l'Orient au tournant du premier millénaire initiaient Génois et Vénitiens, d'autres peuples européens mettaient au point eux-mêmes leurs premières boussoles. En 1187, un poète français évoque la demoiselle marinette, compagne des marins. Mais l’aiguille aimantée pourrait en fait avoir déjà existé en Chine au IIe siècle avant notre ère, sous la forme de cuillères à soupe, bien que l’utilisation consciente du magnétisme n’aurait été effective que huit siècles plus tard.

L’apparition en Occident en revanche est mieux cernée, et l’évolution plutôt rapide : aiguille sur un roseau flottant dans un bol d’eau ou attaché à une épingle, puis fixation de la boussole sur un cadran pour compenser les mouvements du navire, correction du décalage du nord magnétique, attribuée à Christophe Colomb…

Le premier instrument ayant l'aspect de celui d'aujourd'hui est dû au Portugais Ferrande (1483).

 

Fonctionnement
Le principe de base de la boussole est le suivant : une petite aiguille aimantée de forme allongée est placée sur un pivot qui lui permet de tourner librement dans le plan horizontal. L'aiguille est alors orientée par le champ magnétique terrestre (vers son pôle nord), la Terre pouvant être assimilée à un gros aimant droit. Comme nous l'avons vu, le nord magnétique n'est pas tout à fait à la même place que le vrai nord ou le nord cartographique ; il diffère de quelques degrés selon l'endroit où l'observateur est placé. Plus celui-ci est près des pôles, plus grande est la force magnétique.
Mais quelle que soit la boussole, elle répond toujours aux mêmes propriétés :

La plupart des boussoles se composent ainsi d’une base (ou d’un socle) sur laquelle repose en équilibre une aiguille aimantée et sur laquelle figure une rose des vents.

La rose des vents est un cercle gradué de 0 à 360° et divisé en plusieurs parties qui indiquent notamment la position des quatre points cardinaux. L’aiguille oscille et tend à prendre une position d’équilibre stable, celle du nord magnétique.

Voici les conseils que donnerait lui même le grand navigateur Christophe Colomb pour utiliser une boussole :

Munissez-vous d'une boussole d'orientation et d'une carte du monde (assez récente, c’est à dire éditée après 1492) et suivez les instructions ci-dessous pour arriver rapidement vers votre destination :

Voguez dans cette direction, en comptant le nombre de kilomètres estimés. Vous devriez ainsi atteindre les Indes (ou peut être même l’Amérique) !

 

Le compas

Le passé des compas se confond avec celui des boussoles. C'est pourquoi l'instrument désigné jusqu'au XIXème siècle sous le terme "compas sec", car non situé sur un socle d'eau, avait tout d'une boussole. Les premières descriptions précises des objets magnétiques de ce type permettant de connaître la direction du Sud nous viennent encore une fois de Chine. Normal, puisque la fonction comme l'objet étaient identiques J. Le cadran du compas ci-dessous représente schématiquement la Petite Ourse, symbole du shao.

Compas sec chinois (Musée de la Marine)

Mais jusqu'au 17ème siècle, une distinction existe, bien que purement conventionnelle : les topographes, sur la terre ferme, utilisent des boussoles indiquant le Sud tandis que les compas, surtout utilisés en milieu maritime, indiquent le Nord.

Roses de compas (extrait de Der Kompass du Capitaine Schuck

 

Renard de navigation en bois (Allemagne, début XVIIème)
Altonaer Museum, Hambourg
Le compas ou la boussole était placé au centre.

Dès 1650, il est fait état des déviations de l'aiguille dues aux masses ferreuses du container, mais c'est seulement en 1801 que Flinder, alors à bord du vaisseau Investigator, essaie d'apporter une solution grâce au cylindre de fer doux (tube de Flinders) qui équipe encore de nos jours les habitacles de type Thomson.

Habitacles Thomson (XIXème siècle)

Les travaux de Sir William Thomson (plus connu sous le nom de Lord Kelvin ) aboutirent en effet à ce type d'habitacle, d'ailleurs utilisé dans le Titanic...

Sur l'avant se trouve le tube de Flinders, à l'intérieur du fût l'éclairage ainsi que l'aimant de bande (corrigeant les déviations dues à la gîte), sur le côté les sphères compensent les erreurs quadrantales, dans des tiroirs sur les côtés du fût on trouve enfin les aimants permanents latéraux et longitudinaux.

Compas quadridal et sec (chez un antiquaire, à la Trinité sur Mer)

Principe de fonctionnement
Le principe de fonctionnement du compas est très semblable à celui de la boussole. Tous deux utilisent l'orientation du champ magnétique terrestre disponible en tous lieux, en tous temps (comme le GPS !J). L'utilisation du compas pour l'orientation d'un mobile assez rapide et instable est néanmoins particulièrement préférable à l'information donnée par une boussole. Si les compas étaient et sont d'ailleurs toujours l'élément indispensable des navires (obligatoire pour les embarcations de type II et au dessus), il n'est pas rare de constater leur présence dans des voitures haut de gamme, voire en série aux Etats-Unis où les noms de routes sont systématiquement complétés par leur orientation cardinale !

Un compas magnétique de marine est composé d'une cuvette, d'une ligne de foi avec ses alidades , et d'un équipage magnétique avec une rose graduée de 0° à 360°. Ces derniers sont montés sur un cardan afin de compenser les mouvements du navire. La rose possède en son centre une chape dans laquelle est sertie une pierre dure synthétique qui repose sur un pivot acéré ; du bon état de ces derniers dépend le bon fonctionnement du compas (en cas d'usure les frottements augmentent et la précision du compas s'en ressent). Les compas non secs sont remplis d'un mélange d'alcool et eau distillée, ou d'un distillat de pétrole. Comme le niveau du liquide est perpendiculaire à la force de gravité, l'aiguille est donc plane par rapport à l'horizontale quelle que soit (ou presque) la position du navire, ou de tout autre mobile.

Utilisation
Une installation spéciale s'impose pour disposer d'une précision accrue : la ligne de foi du compas doit être bien parallèle à l'axe du bateau (lors du montage d'un compas de cloison, il s'agit donc de vérifier que cette cloison est bien perpendiculaire à l'axe). Il s'avère ensuite nécessaire de vérifier les déviations du compas et de les faire compenser si besoin est.
Bien sûr, le système n'est pas encore infaillible, et il lui serait très difficile de l'être. Deux erreurs sont néanmoins corrigibles :

Courbe de régulation

L'approche du pôle magnétique dans un rayon d'environ 1.000 kms ne permet plus au compas magnétique de donner satisfaction. Toutefois, au cours d'un demi-millénaire de voyages transcontinentaux, cet instrument fut décisif.

Avenir gyroscopique
Le compas idéal n'est pas resté un simple rêve : le gyrocompas, indépendant du champ magnétique terrestre a finalement supplanté celui-ci par l'utilisation de l'effet gyroscopique (découvert par le physicien français Léon Foucault dans la seconde moitié du XIXème siècle), permettant de définir une direction de référence constante (généralement le nord) en alignant leur axe de rotation sur l'axe de rotation de la Terre lorsqu'ils sont libres de se mouvoir. N'ayant pas les inconvénients du compas magnétique évoqués précédemment (déclinaison, sensibilité aux masses magnétiques, perturbations au voisinage des pôles), le gyrocompas peut donc avantageusement s'y substituer. Il reste qu'il est moins autonome en énergie, puisqu'il faut initier un mouvement pour que les effets de la force gyroscopique soient exploitables.

 

Mesurer les étoiles

« Deux navigateurs hollandais, piégés par la tempête alors que leur GPS était en panne, sont parvenus sains et saufs à Curaçao grâce a un sextant décorant leur cabine de pilotage. »

On connaît le mot sextant mais qui sait véritablement le définir, lui et ses tenants ? « C'est une boussole utilisant les étoiles », répond le qu'en-dira-t-on... Est-ce un substitut, ou plutôt un indispensable allié ?

Historique
Au XVIIe siècle, le quart de nonante remplaçait les astrolabes et l’arbalète, mais restait d’un emploi difficile par mer agitée, faute d’un moyen permettant la visée simultanée de l’astre et de la ligne d’horizon. L’invention des appareils à réflexion résolut le problème. C’est ainsi qu’en 1699 Newton créa le premier appareil à double réflexion, utilisant des miroirs. Puis en 1731, le mathématicien anglais Hadley (John de son prénom) et l'ingénieur américain Thomas Godfrey inventèrent simultanément mais indépendamment l’un de l’autre un quadrant réfléchissant, que l’on assimile aujourd’hui à un octant, mais à partir duquel va être créé le sextant, plus précis.
Contrairement à la boussole, le principe de fonctionnement de ce type d'appareil de navigation reste tout de même assez complexe et nécessite un petit apprentissage…

Un sextant est composé de deux miroirs, un fixe (A) et un mobile (B), d’une lunette de visée (O) et d’un arc de cercle gradué (voir le schéma 1). Cet arc de cercle est de 60°, soit un sixième de cercle, d’où le mot sextant. Le miroir fixe est appelé miroir d’horizon. Sa moitié supérieure est transparente alors que sa moitié inférieure est réfléchissante. Pour mesurer l’élévation d’un astre (l’angle ), la démarcation entre les deux moitiés du miroir doit concorder avec l’horizon (H) lorsqu’on regarde dans la lunette de visée. Le second miroir, celui qui est mobile, est fixé à un levier (L) dont le point d’attache se trouve au sommet (S) de l’appareil. Ce miroir réfléchit la lumière provenant des astres vers le miroir fixe. En regardant dans la lunette de visée, on voit donc une partie du ciel étoilé superposé à l’horizon. Pour obtenir la mesure de l’élévation d’un objet céleste, il suffit de déplacer le miroir mobile jusqu’à ce que l’image de l’objet en question concorde avec la ligne d’horizon. Le levier indique alors un angle (l’angle ) sur l’arc de cercle gradué. Cet angle est la moitié de l’élévation de l’astre, puisque la lumière subit deux réflexions. Lorsque la ligne d’horizon n’est pas visible, en ville ou en région montagneuse par exemple, la surface d’un liquide réfléchissant comme le mercure peut servir de ligne de référence.

Mais à cause de la rotation de la Terre sur elle-même, il peut être compliqué de déduire la latitude à partir de l’élévation d’un astre quelconque. Il est donc préférable d’utiliser comme astre de référence une étoile dont la position est fixe en tout temps. Dans l’hémisphère Nord, cette étoile est l'étoile Polaire (on se retrouve !). Mais au fait, pourquoi nous semble-t-elle immobile dans le ciel ? L'explication est simple : l’axe de rotation de la Terre pointe presque exactement dans sa direction (voir le schéma 2). Son élévation mesurée au point O (l’angle ) ainsi que le quasi parallélisme des rayons de l'étoile permettent d'assimiler l'angle à l'angle théorique (bien que l'analogie ne soit pas illustrée par le schéma). Il est ainsi possible d’obtenir directement une mesure de la latitude (l’angle ) de l’endroit où l’on se trouve. Dans le schéma 2, on a en effet, d'après le théorème de Thalès :

Ce qui prouve que les triangles SAB et COA sont semblables. Il en résulte .

Or, et est déterminé grâce au sextant. Comme , on a donc successivement :

L'angle mesuré au sextant correspond donc à l'angle qui est précisément la latitude cherchée ! (voir ici pour un rappel sur la latitude et la longitude)

Malheureusement, l’étoile Polaire n'a pas d'homologue dans l’hémisphère Sud. Il faut alors se servir d’étoiles qui ne sont pas fixes pour déterminer la latitude, ce qui peut s’avérer particulièrement complexe et nécessite un couplage avec l'estime (pour l'observation de la configuration céleste) pour se reporter efficacement sur une carte de la voûte céleste déterminée à une heure précise.

Une symbiose instrumentale
Si le monde de la navigation a été profondément transformé grâce à l'invention de l'octant (45° d'angle) puis du sextant (60° d'angle), le compas n'est pas pour autant passé à la trappe, pas plus que l'estime. Par contre, la précision d’environ une minute d’arc du sextant, ce qui correspond à une erreur de position d’un mille nautique (1852 mètres), semble définitivement avoir relégué l'astrolabe (ci-dessous, un astrolabe orbitaire) au rang d’antiquité.

Aujourd'hui, le sextant semble lui-même dépassé et en voie de disparition face aux systèmes de positionnement par satellite. On peut toutefois n'y voir qu'une technologie complémentaire, une sécurité, extrêmement précise certes mais nécessitant une alimentation électrique, pas toujours à portée dans les canaux de sauvetage des grands paquebots de croisière ou des voiliers de plaisance privés. En 1984, Gilles Mayer (oncle d'Erwin) traversa ainsi l'Atlantique par les seuls repères stellaires et magnétiques a bord d'un voilier qu'il avait lui-même construit.

Octant (musée de la Marine) Géographe du XVIIIème siècle

 

Navigation par satellite

Système de navigation par satellite par-ci , GPS par-là... De quoi s'agit-il donc pour que certains aillent jusqu'à affirmer qu'il rend obsolète n'importe lequel des instruments de navigation qui l'ont précédé ?

L'aventure

Installer des étoiles invisibles à 20000 kilomètres d’altitude pour se repérer est finalement devenu l'apanage des hommes qui ont relayé à l’effort oculaire une transmission ondulatoire…

Tout commence en 1963 lorsque des chercheurs de la division spatiale du département de la Défense américaine s’intéressent à un système de radionavigation imaginé par la société Californian Aerospace Corporation. Des systèmes de repérage existaient déjà (Decca, Loran, Satnav, TRANSIT/NNS…) mais leur utilisation était très contraignante et peu précise. C’est ainsi qu’un projet est lancé sous le nom de NAVSTAR (« Navigation des étoiles », ou NAVigation System Time And Ranging), entièrement financé par l’armée étasunienne.
Dans un contexte de Guerre Froide, l’objectif était de disposer de coordonnées de positions très précises, notamment pour un guidage performant des missiles à longue portée. En effet, pour connaître le point d'impact exact, il fallait connaître précisément les coordonnées du point de tir, ce qui était loin d’être évident lorsque les missiles étaient lancés d’un sous-marin. Etymologiquement, coordonnées disponibles implique coordination possible.
En 1972, des études concrètes de faisabilité sont initiées, et de 1974 à 1978, le perfectionnement du projet amène à sa validation, finalement baptisé GPS (« Global Positioning System », alias système de positionnement mondial).
Le 22 février 1978, le premier satellite GPS est lancé de Cap Canaveral en Floride par la fusée Delta 2-7925, puis mis en orbite pour être opérationnel 1 mois plus tard. Suivront trois lignées (Blocks) de constellations satellitaires jusqu’en 1994.
Au début des années 1980 le département fédéral des Transports et son homologue de la Défense décident que le système GPS pourra également être utilisé par les services civils, pour réduire le nombre de balises de radionavigation aériennes et maritimes. Ils proposent alors la création de deux normes : SPS (Standard Positioning System), une version dégradée du GPS, et le PPS (Precise Positioning System), strictement réservée à l’armée américaine. Les Etats-Unis allient ainsi intérêts militaires et économiques.
En 1983, le président Reagan demande que le SPS soit accessible dans le monde entier et que sa précision soit de 100 mètres.
Le 4 juillet 1991, les informations transmises par les satellites sont dégradées grâce à la technologie SA (Selective Availability).
Le 8 décembre 1993, 24 satellites sont opérationnels sur leur orbite et utilisables pour la navigation.
A l’aube du troisième millénaire, le 1er mai 2001, six mois avant la fin de son mandat, le Président Clinton annonce que la SA est supprimée. Le GPS civil, celui qui nous intéresse particulièrement, donne désormais une précision inférieure au décamètre à un nombre illimité d'utilisateurs.
Pendant ce temps, l’Union Soviétique a développé son propre système de repérage GLONASS (Global'naya Navigatsionnaya Sputnikovaya Sistema), qui signifie la même chose que le terme générique GNSS (Global Navigation Satellite System). Le premier satellite est lancé le 12 octobre 1982, cependant la maintenance est très mal assurée et les algorithmes présentent de nombreux disfonctionnements. De plus, l'accessibilité est très limitée par le nombre restreint de récepteurs destinés au public. L'usage du GLONASS est donc presque exclusivement militaire.

Le succès scientifique et opérationnel du GPS est ainsi universel, et bénéficie à tous les pays. Cela entraîne en revanche ses utilisateurs dans une dépendance vis-à-vis du gouvernement américain. La nécessité d'utiliser les satellites pour les opérations de positionnement et de navigation est en effet un phénomène qui s’avère désormais irréversible. Des instances internationales, ainsi que certains Etats, ont donc entrepris le développement d’autres GNSS équivalent, à l’exemple du futur système GALILEO. Dès 2008, sous la supervision de l’Agence Spatiale Européenne (ESA) trois douzaines de satellites seront ainsi mis en orbite par les lanceurs Ariane. Il est même prévu de rendre les trois systèmes (GPS, GLONASS, GALILEO) intercompatibles !

 

Fonctionnement
Le système de repérage global n’est pas unipolaire : trois segments sont nécessairement corrélés pour obtenir finalement les coordonnées souhaitées. En orbite se trouve l'indispensable segment spatial, sur la Terre se situent les composantes traditionnelles du segment utilisateur, tandis qu'un segment de contrôle assure la cohérence du tout.

 

Le segment spatial

30 satellites pour le système GPS et 24 pour le système russe ! Si cela pourrait paraître peu par rapport à la surface de la Terre (500 millions de km²), il est en réalité tout à fait pertinent d’assimiler les G.N.S.S à des constellations, puisque la couverture de leurs signaux est planétaire ! Pour le GPS, la répartition orbitale a été dessinée de telle sorte qu’au moins quatre satellites soient visibles en tout point de la terre, à tout moment (la constellation correspond à ce cahier des charges depuis avril 1994) :

A l’aide du logiciel de simulation spatiale Celestia (cliquer ici pour le télécharger), nous avons comparé le nombre de satellites de deux constellations différentes visibles à Belfort au cours du temps :

Le résultat, que nous avons en partie pu confronter à la réalité avec notre récepteur GPS, est éloquent : au cours d’une journée, il y a en moyenne 4 satellites Globalstar visibles, contre 6 à 8 satellites GPS. En outre, les satellites Globalstar restent visibles pendant 30 minutes environ, tandis que l'on peut observer un satellite GPS pendant 5 heures d'affilée en moyenne. Ces derniers sont répartis sur 6 orbites, à raison de 5 par orbites. Chaque orbite forme un angle de 55° avec l'équateur et de 60° avec une autre orbite. La période de révolution de chaque satellite est d’environ 12 heures. Ainsi, dans 99.9% des cas, au minimum 4 satellites sont visibles à plus de 5° au-dessus de l’horizon. Bien sûr, ce chiffre est théorique et les caractéristiques environnementales de l’utilisateur (champ de vison, obstacles, interférences) peuvent réduire les capacités de réception réelle.

On distingue six grandes familles de satellites GPS :

La constellation russe est quant à elle triorbitale, avec 8 satellites sur chaque plan, tandis que le système Galiléo sera constitué de 30 satellites répartis sur 3 orbites.

Nous pouvons plus précisément établir un tableau comparatif des systèmes GPS et GLONASS, où les différentes variables qui leur sont inhérentes révèlent l’orchestration requise pour leur fiabilité et leur disponibilité (reliability et availability).

Etude comparative GLONASS/GPS

 

GLONASS

GPS

Fabricant

NPO PM

Rockwell Space Systems

# de satellites initiaux

24

24

Durée de vie

Minimum 18 mois

Minimum 7 ans

Structure & équipement

¤ Stabilisé sur 3-Axes
¤ Panneaux solaires doubles
¤ pointage directionnel
¤ Horloge atomique au Césium (précision de 1000 ns)

¤ Stabilisé sur 3-Axes
¤ Panneaux solaires doubles (surface déployée de 7,5 m² à 710 watts)
¤ Bande S (SGLS) de communication pour le télécontrôle et les communications
¤ Lien croisé UHF entre les satellites.
¤ Propulsion de trajectoire à l’Hydrazine
¤ Contrôle de direction utilisant des roues de réaction
¤ 4 Horloges atomiques (2 au rubidium et 2 au Césium)
¤ Détecteur d’explosion nucléaire.

Masse du satellite

600 à 1400 kg

Block 1 :
163 à 770 kg
Block 2 :
1165 à 1665 kg
Block 2A :
1105 à 1665 kg

Lanceurs

Proton K/DM-2

Delta 2-7925-6925 / Atlas E-F

Nombre de lanceurs

3

2

Site de lancement

Baïkonour, Kazakhstan

Cap Canaveral, Etats-Unis

Nombre de vols orbitaux

3

6

Inclinaison orbitale

64.8°

55°

Altitude orbitale

19,130 km

20,180 km

Période de révolution

11h15m40s

11h58m00s

Période de répétition de trajectoire au sol

8 jours sidéraux

1 jour sidéral

Données éphémérides du satellite

Position, vitesse et accélération par rapport à des coordonnées géocentriques fixées.

Paramètres de Kepler, perturbations harmoniques

 

Type de paquet

PZ-90

WGS-84

Référence de temps

UTC (Russie)

UTC (USNO)

Almanach
(paquet envoyé)
Longueur
de la chaîne

152 bits

120 bits

Durée

12m30s

2m30s

Contenu

Jour de validité

Semaine de validité

Numéro de chaîne

Identification S/C

Excentricité

Excentricité

Inclinaison

Inclinaison

Heure à l’équateur

Heure du satellite

Durée de validité du paquet

Etat du satellite

Longitude par rapport à l’équateur

Altitude géoverticale

-

RA : taux de variation

Période de révolution

Racine carrée de l’axe semi majeur

Donnée de périgée

Donnée de périgée

-

Alerte d’anomalie

Décalage de temps

Décalage de temps

-

Perturbation de fréquence

Signaux

FDMA

CDMA

Fréquences porteuses
 L1

1598.06 - 1605.38 MHz

1575.42 MHz

 L2

7/9 L1

60/77 L1

Type de code PRN

ML

GOLD

nombre d’éléments de code
 C/A

511

1023

 P

5110000

2.35·10 14

Vitesse d’envoi du code
 C/A

0.511 Mbit/s

1.023 Mbit/s

 P

5.11 Mbit/s

10.23 Mbit/s

Corrélation croisée d’interférence

-48 dB

-21.6 dB

Message de navigation
Taux de transfert

50 bit/s

50 bit/s

Modulation

BPSK Manchester

BPSK NRZ

Longueur totale

2m30s

12m30s

Longueur
de la frame supérieure

30s

6s

 

Satellite GLONASS Satellite GPS (block II)

 

Le segment utilisateur

Physiquement, le segment utilisateur se compose d’une antenne de réception des signaux satellites, voire ceux émis par les stations terrestres. C’est le récepteur qui effectue les calculs de coordonnées à partir des informations reçues des satellites.

Positionnement absolu

Pour déterminer les coordonnées sphériques de l’utilisateur, c'est-à-dire dans un repère géocentrique théorique, GPS comme GLONASS ou le système GALILEO à venir, tous utilisent un principe fondamental similaire, basé sur la résolution de simples systèmes d’équations. Cette technique de recherche d’intersections multiples peut être appelée la triangulation, dès lors qu’il y a trois équations dans le système. Mais la précision est d’autant plus grande qu’il y a plus de signaux reçus. Ainsi, il s’agit souvent de tétralation, de pentalation, de sextulation, d’heptalation, d’octalation, d’ennéalation, de décalation, d’endécalation, voire dans le meilleur des cas de dodécalation… Nous étudierons spécifiquement le principe de triangulation, puisque les niveaux supérieurs en dérivent et sont tout de même moins fréquents.

1ère phase : émission

Tous les satellites possèdent une horloge atomique qui permet une mesure du temps très précise, ils peuvent donc envoyer sous formes d’ondes radio l’heure précise d’envoi d’un code, à intervalles très rapprochés et dans toutes les directions de l’espace. Les signaux des satellites GPS sont toutefois émis sous deux fréquences distinctes : L1 à 1575 MHz et L2 à 1227 MHz. La deuxième est la plus riche en informations (voir tableau précédent), mais cryptée, elle est réservée aux usagers autorisés de l’armée américaine.

2ème phase : propagation

Les signaux transmis traversent les 20180 km séparant le satellite du sol terrestre, et leur intégrité est notamment perturbée par les variations d’isotropies de l’atmosphère (cf. la section consacrée au segment de contrôle).

3ème phase : réception

Un récepteur reçoit les signaux : c’est à partir de ce moment que commencent les calculs de position. Connaissant l’heure d'émission par le satellite des paquets informatiques reçus et leur heure d'arrivée au récepteur, la distance parcourue se déduit aisément :

Distance = Vitesse de la lumière x (heure d'émission - heure de réception)

et donc plus formellement : D=c Dt

Le repère étant spatial, on obtient le lieu du récepteur sur une sphère ayant pour centre le satellite et pour rayon la distance récepteur/satellite que l'on vient de calculer :

Si ce même récepteur capte le signal d’un second satellite, un calcul équivalent permet de définir une seconde sphère, centrée sur ce second satellite, sur laquelle doit également se trouver notre récepteur. Il se situe alors à la fois sur la première sphère et sur la deuxième. Il est donc quelque part sur le cercle de leur intersection.

Même chose avec un troisième satellite. Alors, où sommes-nous ? Tout simplement sur l’un des deux points d'intersection de ces trois sphères !

Or, l’utilisateur ne flottant pas dans l’espace, on peut déduire sa position exacte en éliminant le point incohérent

Si les positions des satellites sur leurs orbites sont connues avec suffisamment de précision - ce qui est le cas - et si un récepteur capte au moins 3 satellites, il dispose donc en théorie de trois données qui lui permettent de résoudre les trois inconnues définissant sa position : la latitude, la longitude et l'altitude.

On note R1, R2 et R3 les distances du récepteur par rapport à trois satellites de coordonnées connues (xi, yi, zi). Si (x, y, z) sont les coordonnées de l'utilisateur, la résolution du système suivant permet de déterminer les coordonnées effectives de l'utilisateur dans un repère ECEF (Earth-Centered, Earth-Fixed : Terre-Centré, Terre-Fixé) :

Un quatrième satellite est nécessaire.

Pour valider tout le raisonnement qui précède, il faudrait que la mesure du temps soit extrêmement précise. Une erreur d’un millième de seconde provoque en effet une erreur de position de 300km ! A la vitesse de la lumière, une très grande précision est de rigueur.

Si les horloges atomiques des satellites sont très précises, et synchronisées au Temps Universel Coordonné UTC via l'observatoire américain USNO exploité par le segment de contrôle, ce n’est pas le cas en revanche des horloges des récepteurs, généralement à quartz. De plus, la transmission des signaux peut être perturbée par de multiples facteurs, que nous détaillerons plus loin.

Il importe donc d’utiliser un 4ème satellite pour rectifier les calculs de manière satisfaisante. Afin de comprendre l'intérêt qu'il constitue (sa présence est prévue dans le cahier des charges de la constellation GPS, GLONASS et GALILEO), ramenons nous à un espace à 2 dimensions, c'est-à-dire un plan.

1. En 2D, il faudrait 2 satellites pour repérer un point

2. Mais si la mesure a une seconde d'erreur, c’est le point XX qui est calculé au lieu du point exact X.

3. L’utilisation d’un troisième satellite sans erreur de mesure lève directement le doute...

4. Dans la pratique, le troisième satellite commet également une erreur du même ordre (1s). Cela permet toutefois de déterminer une zone très restreinte du lieu où se trouve le récepteur.

Pour affiner la précision, on peut considérer que l’erreur commise par chacun des satellites A, B et C est la même. Il suffit alors d’enlever à chaque mesure une valeur qui correspond à l’erreur commise pour que les arcs de cercle se coupent en un même point.

Le raisonnement dans la dimension supérieure est identique, il faut simplement recourir à un quatrième satellite. Au final, on dispose donc d’un système de quatre équations à quatre inconnues, qui peut bien sûr être complémenté par les données bienvenues de satellites supplémentaires. La page disponible ici explicite une résolution de coordonnées globales avec le logiciel Mathematica ©.

Mesures de positionnement avancées

Parfois, le positionnement absolu dans le repère ECEF n’est pas assez précis pour l’utilisation souhaitée… Il existe d’autres méthodes de repérage moins directes mais plus avancées qui permettent de fournir des indications de l’ordre de l’infiniment petit à l’échelle de l’espace (le mm par exemple) ! Il s’agit pour la plupart de réduire l’influence des facteurs d’erreurs ou de corriger les calculs en fonction de leurs effets modélisables.

En navigation routière, il ne s’agit pas de conduire les yeux rivés sur son GPS... Mais lors d’un atterrissage par temps de brouillard, un gros porteur aérien comme le très attendu A380 ne peut se permettre d’atterrir à 50 mètres de la piste ! Le besoin d’une précision de l’ordre du mètre se fait donc sentir pour certaines utilisations. Sans requérir plus que les signaux de fréquence L1, la mesure GPS différentielle (DGPS) parvient à cette précision en utilisant des informations radios émises par des stations terrestres de référence.

On part en effet du principe que les erreurs volontaires et naturelles sont fortement corrélées, et que par conséquent deux récepteurs géographiquement proches l'un de l'autre réceptionneront des signaux pareillement erronés. Il suffit donc de disposer d’une station de référence (par exemple une tour de contrôle) qui connaît ses coordonnées exactes tout en recevant en permanence les signaux des satellites GPS présent dans son champ de vision. La différence entre ses coordonnées exactes et celles obtenues à l’aide des signaux peut être assimilée à l'erreur commise. Un utilisateur (par exemple un avion) qui dispose d’un récepteur adapté peut alors connaître l’erreur qu’il lui suffit de retrancher en temps réel à ses coordonnées obtenues par GPS pour disposer d'une mesure de positionnement affinée. Le processus en deux étapes peut être schématisé ainsi :

et finalement

Utilisée très couramment en navigation maritime, la précision DGPS est suffisante pour rentrer au port les yeux fermés (en se laissant guider par la voix du logiciel d’interprétation des données et en écoutant tout de même les alertes radar d’autres navires susceptibles d’être croisés… :-)

Toutefois, les informations apportées par les stations de référence ne sont valables que dans un rayon de moins de 100 km. Au-delà, les différences latérales de l'atmosphère terrestre devenant trop importantes, le signal n’est plus pertinent.

Pour des applications encore plus précises, on peut exploiter directement la phase sur les ondes porteuses L1 ou L2 (si cette dernière réservée au PPS est connue) en déterminant le déphasage entre le satellite et le récepteur. Le récepteur compare en fait la phase du signal reçu avec une phase du même signal qu’il génère lui-même. La distance d’erreur s’obtient alors en multipliant la mesure effectuée par la longueur d'onde l initiale des ondes porteuses qui est connue (l=c/F).

Ce procédé est toutefois plus compliqué que celui basé sur le code (DGPS) car il requiert un récepteur spécifique permettant d'exploiter la phase et capable de réaliser des calculs complexes à l’aide de longs algorithmes. C’est pour cette raison que le traitement des données se fait généralement en mode postopératoire, bien qu’il soit toujours possible de traiter ces signaux en temps réel à condition de disposer de matériel très performant : on parle alors de RTK (Real Time Kinematic).

Si le récepteur est à même de détecter l’arrivée d’un signal de L2 émis en même temps que celui de la fréquence porteuse L1, les lois de Doppler peuvent être utilisées pour mesurer l’erreur résultant de la traversée atmosphérique. En effet, Les ondes L1 et L2 se déplacent à la vitesse de la lumière jusqu’à ce que la traversée des milieux aériens dispersifs réduise leur vitesse en fonction de leur fréquence. Ainsi, il suffit de mesurer le délai séparant l’arrivée du signal L1 de celle du signal L2, qui est proportionnel à l’erreur de temps due à la perturbation atmosphérique subie par les deux signaux. Retrancher l’intervalle trouvé au temps mesuré pour la réception du signal et multiplier ce dernier par la vitesse de la lumière permet finalement d’obtenir une distance satellite/récepteur corrigée.

Lorsque le repérage n’a pas d’intérêt à être absolu, par exemple lors des mesures de mouvements tectoniques, l’étude des signaux enregistrés par deux récepteurs situés en 2 points différents mais peu éloignés (d’une distance maximale de 20 km) permet d’établir les variations du vecteur spatial reliant ces 2 points. En les considérant par rapport à un point de coordonnées connues dans le repère ECEF, on dispose d’une précision relative à ce point fixe de l’ordre du millimètre. Ce mode est d’ailleurs utilisé en géodésie, qui on le verra, est elle-même indispensable à la pertinence du positionnement absolu.

 

Mesure de positionnement relatif

Sans même mesurer la différence de position retranchée sur la différence de temps, il est possible de déterminer la vitesse du mobile récepteur par la simple prise en compte de l’effet Doppler sur les signaux. En effet, la fréquence porteuse du signal perçu par le récepteur GPS n’est plus exactement la même que celle générée par le satellite, car le rapport des fréquences dépend des vitesses relatives du satellite et de l'utilisateur. La vitesse du satellite étant facilement déterminable (à partir de l’information d’altitude de ses éphémérides et connaissant le rayon terrestre, il suffit d’appliquer la formule V=((Rayon de la Terre+Altitude) x 2p) / (période de révolution) ce qui donne une vitesse d’environ 3,8 km/s), la seule inconnue restante dans les formules relativistes de Doppler appliquées aux signaux électromagnétiques est la vitesse de l’utilisateur.

Une étude théorique du phénomène est disponible sur la page Internet de Michel Bonin, du C.E.R.E.S.P. de Dijon : http://www.ac-dijon.fr/pedago/Astronomie/AnalyseSpectrale/Doppler/Doppler.htm ou plus avancée, dans l’ouvrage La Nature sans foi ni loi de Christian Magnan, professeur au Collège de France dont la section consacrée à l’effet Doppler se trouve à cette adresse http://www.dstu.univ-montp2.fr/PERSO/magnan/doppler.html.

Le segment de contrôle

La transmission ondulatoire n’est pas immaculée. Afin de garantir la fiabilité des informations reçues par les récepteurs, un segment de contrôle est mis en place. Nous déterminerons quelles erreurs sont susceptibles d’être corrigées avant de préciser l'interaction effective du segment de contrôle avec ses deux homologues, satellites et utilisateurs.

Sources d'erreurs

Outre les erreurs dues à la non synchronisation du récepteur et des satellites, que nous avons résolues, il importe de prendre en compte :

a.
Les dégradations volontaires de signal : principale source d’erreur, elle permet à l’armée américaine de préserver son avantage sur les civils ;
b.
Les éphémérides : bien qu’une mesure soit rapide, le déplacement des satellites sur leur orbite (les calculs théoriques partent du principe qu’il est fixe...) n’est pas sans effet sur la précision de la distance ;
c.
La faiblesse du volume constitué par le polyèdre de sommets les satellites et le récepteur ;
d.
Les perturbations dues à la traversée atmosphérique ;
e.
La réverbération : le signal peut être dévié par des obstacles, avant de parvenir au récepteur, ce qui fausse ainsi les calculs (en montagne ou dans un espace urbain par exemple)

 

 

 

 

 

a. Dégradations volontaires

Les signaux émis par les satellites sont complexes et contiennent en particulier des codes que l'armée américaine peut crypter à sa guise afin de se réserver les plus grandes précisions du système.

Le code C/A (coarse acquisition), sur la fréquence L1, est accessible à tout utilisateur civil, et n’est plus dégradé par la S/A (selective availability) depuis le 1er mai 2000 sur décision du président Clinton. La précision est de l’ordre de la dizaine de mètre.

Le code P (precision), sur la fréquence L2, n’est accessible qu’aux militaires américains et permet un positionnement avec une précision inférieure à 3 mètres, la valeur réelle restant top secrète. Le cryptage par l’algorithme A/S (anti-spoofing) empêche a priori les puissances ennemies de retourner le GPS contre ses propriétaires par l’émission de faux signaux.

b. Ephémérides

La justesse des coordonnées résultant de la résolution des systèmes d’équations à inconnues multiples implique pour le récepteur de connaître très précisément les coordonnées spatiales des centres des sphères sur lesquelles il se trouve. Le segment de contrôle doit permettre aux satellites de connaître très précisément leurs éphémérides : d’abord, le satellite envoie sa position théorique à une station de contrôle, qui calcule alors la véritable position et renvoie finalement au satellite la valeur de l’erreur commise. Ainsi, le satellite est à même d’inclure dans ses signaux la différence entre sa position théorique et sa position réelle afin que les récepteurs la prennent en compte dans leurs calculs.

c. Faiblesse du volume polyédrique

Un « coefficient d'affaiblissement de la précision », GDOP (Geometric Dilution Of Precision) peut être associé au niveau de précision correspondant à la configuration géométrique des satellites avec le récepteur. En effet, si quatre satellites par exemple sont utilisés pour le positionnement d’un récepteur, la localisation spatiale des cinq éléments conduit à une représentation pentaédrique. Plus le volume est grand, moins l’indicateur GDOP est élevé et donc meilleure est la précision. Pour calculer le GDOP d’un positionnement, le récepteur GPS n’a besoin que des éphémérides des satellites utilisés.

On considère généralement que la configuration géométrique est acceptable lorsque le GDOP est inférieur à 6. L'utilisateur peut ainsi avoir une idée de la confiance à apporter dans une mesure :
- une valeur de GDOP de 2 à 3 est excellente (grande précision).
- une valeur de GDOP de 5 à 6 est bonne (précision moyenne).
- une valeur de GDOP de 9 à 10 est passable (mauvaise précision).

Le GDOP est donc un indicateur précieux du repérage. Associé à l’erreur de distance U.E.R.E (User Equivalent Ranging Error) déterminée par les facteurs évoqués ci-haut et ci-après, il permet d’exprimer l’erreur générale de position par le produit (G.D.O.P) x (U.E.R.E) = Erreur globale de position.

d. Perturbations atmosphériques

La modélisation de l'ionosphère, transmises aux satellites par les station de contrôle et incluse dans les bandes L1 et L2 permet au récepteur de corriger les données qu’il reçoit en fonction des conditions atmosphériques propre à sa situation géographique et à l'inclinaison du satellite sur l'horizon.

Comme l'ionosphère est un milieu dispersif, la vitesse du signal la traversant dépend de la fréquence de l'onde radio. Les satellites émettant sur deux fréquences distinctes L1 et L2, certains récepteurs bifréquenciels peuvent éliminer l’erreur ionosphérique avec la technique dite de « mesure de phase », en corrélant l’écart d’arrivée des deux signaux à la perturbation dispersive. Jouxtant la Terre, la troposphère est quant à elle le lieu privilégié d’une réfraction des signaux. Cette couche s'élève à une altitude d'environ 11 km au-dessus des pôles et peut atteindre jusqu'à 16 km au-dessus des régions équatoriales. A fortiori, il est possible de la modéliser jusqu’à 60 km d’altitude. La durée de propagation de l'onde du signal satellitaire est affectée par la teneur en vapeur d'eau de cette couche basse de l'atmosphère, qui réfracte les ondes radios. Pour établir les imprécisions sur les mesures de pseudo-distances qui en découlent, il serait nécessaire de connaître cette quantité tout le long du trajet suivi par l'onde. En pratique cela se révèle très difficile, sinon impossible, même avec une mesure de phase utilisant les ondes L1 et L2 comme on peut le pratiquer pour l'ionosphère.

 

e. Réverbération

Le phénomène des trajets multiples altère également la mesure de position. En effet, les ondes radios émises par les satellites peuvent être l’objet de réflexions en milieu urbain par les hautes infrastructures, qui augmentent la distance du trajet satellite/récepteur et donc la durée de propagation du signal. Le récepteur calcule alors une distance faussée et commet finalement une erreur sur la position.

 A tout cela, on peut enfin ajouter l’erreur due au bruit qui affecte tout signal radio. En résumé, nous pouvons dresser un tableau des principaux facteurs d’erreurs sur l’exactitude du positionnement absolu :

Source d'erreur
Erreur sur la mesure du temps (en nanosecondes)
Erreur sur la distance (en mètres)

Stabilité en fréquence du satellite, variations d'accélération et autres

35
10,5

Connaissance de la position du satellite et autres

33
10

Traversée de la troposphère

13
3.9

Traversée de l'ionosphère

33 à 65
9,8 à 19,6

Stabilité horloge utilisateur et autre, résolution du receveur et bruit, précision de la résolution des équations

9,7
2,9

Trajets multiples

8
2,4

On serait tenté de calculer le total des perturbations, pour obtenir un intervalle de temps entre 131 et 164 ns, correspondant à une précision de 39,5 à 49,3 m, mais dans la pratique, les différents facteurs se compensent plus ou moins, ce qui permet une précision jusqu’à 10 fois supérieure.

Avec une mesure différentielle (DGPS), les conséquences des facteurs d’erreur sur le calcul sont évidemment moindres :

Source d'erreur

Erreur sur la distance en mètres

Horloge atomique

0 m

Position du satellite

0 m

Traversé ionosphère

0,4 m

Traversé troposphère

0,2 m

Précision du récepteur

0,3 m

Réflexion parasites

0,6 m

Pour la même raison que précédemment, il serait importun d’additionner les erreurs. Bien qu’un total d’imprécision d’1,5 mètre serait déjà remarquable, la compensation confère au DGPS une précision inférieure au mètre.

Les stations de contrôle

Cinq stations de surveillance coordonnées par la base militaire Falcon Air Force du Colorado (Etats-Unis) sont réparties autour de la planète afin que chaque satellite de la constellation GPS puisse être en permanence contrôlé par au moins une station. Leur mission est en effet de calculer l’orbite exacte des satellites et de leur transmettre incessamment les corrections nécessaires (éphémérides, synchronisation de leur horloge au temps UTC, dégradation des signal pour raison militaire). Ceci permet d’augmenter la fiabilité du système GPS en permettant à tout instant de vérifier que les informations générées par chacun des satellites sont correctes.

Les coordonnées géodésiques

Le repérage théorique ECEF est séduisant, il n’empêche que la Terre est loin d’être une sphère parfaite! Sa surface topographique doit tenir compte des montagnes s’élevant à près de 9000 m d’altitude, des vallées et des fonds océaniques s’enfonçant à plus de 11000 m de profondeur. Au total, 20 km d’écart possible dont la tolérance ne serait pas seyante à une mesure GPS convenable. Une autre contrainte existe donc, indépendante des satellites, et néanmoins primordiale pour la justesse de la précision : la géodésie.

Mais tout d’abord, un rappel des définitions des coordonnées d'un point en géographie fondamentale s’impose :
  ¥ La latitude permet de se repérer en terme de nord ou de sud, elle s'exprime en degré et correspond à l'angle que forme la droite joignant le centre de la Terre au point à positionner avec le plan de l'équateur. Elle varie entre 90° Nord et 90° Sud.
  ¥ La longitude permet de se repérer en terme d'Est ou d'Ouest (avec comme référence le méridien de Greenwich) ; elle s'exprime également en degré et correspond à l'angle que forme le méridien sur lequel se trouve le lieu avec le méridien de Greenwich. Elle varie entre 180° Ouest et 180° Est.
  ¥ L’altitude équivaut conventionnellement à la distance entre un point et son projeté orthogonal sur la tangente au géoïde terrestre au niveau de la mer.

La géodésie est une science dont l’objectif est la modélisation de la forme et des dimensions de la Terre dans l'espace à trois dimensions. Jusqu’au XVIIème siècle, les savants admettant la sphéricité de la Terre n’avaient que le rayon de la Terre comme principale inconnue à résoudre. Seule la méthode des arcs était employée ; elle fut élaborée dans son principe par Eratosthène au III° siècle av. J. C., et met en oeuvre des mesures de distances à la surface de la terre et des mesures astronomiques, c'est-à-dire des mesures de directions de la verticale, pour un résultat final de seulement 3% d’erreur. Vous trouverez ici un historique des principales méthodes utilisées pour la mesure de la Terre au cours des trois derniers millénaires. Il fut ensuite admis la difficulté d'une modélisation mathématique, bien qu’un ellipsoïde de révolution, aplati aux pôles, semblait constituer la meilleure approximation.

C’est finalement en 1956 à Munich que le géodésien anglais Hotine présente la géodésie tridimensionnelle. Il ne s’agit plus de considérer l'espace à deux dimensions de la surface d'un ellipsoïde de référence, dimensions auxquelles on ajoute l'altitude, mais un système directement à trois dimensions défini par un trièdre trirectangulaire de coordonnées, et par un certain nombre de trièdres auxiliaires locaux rattachés à ce dernier. Les paramètres d’un point de la surface topographique sont ainsi ses coordonnées spatiales (x,y,z). La géodésie vise alors à décrire directement la forme de la surface topographique, sans chercher à lui imposer a priori le support approché de l'ellipsoïde. A la description géométrique s'ajoute en outre une description dynamique : le potentiel et la pesanteur en chaque point qui permettra d’établir une synthèse à travers la modélisation informatique du géoïde terrestre.

Ondulations du géoïde terrestre.
L'amplitude des ondulations est exagérée d
'un facteur 100 000 par rapport au rayon de la Terre.

Source : Courrier du CNRS n°76 (juillet 1990)

Ondulations à grande longueur d'onde du géoïde terrestre
déterminées à partir de l'analyse des perturbations
de trajectoires des satellites

Source : Groupe de Recherche en Géodésie Spatiale

Une telle représentation s’impose pour la pertinence des données de repérage satellitaire car tout système de coordonnées repose sur une définition de paramètres cartographiques issus de la géodésie et de la physique. Pour le système GPS, on a défini une référence globale répondant aux objectifs d'un système mondial de navigation : en 1972 est créé la norme WGS72 (World Geodetic System 1972) qui deviendra WGS84 (World Geodetic System 84) douze ans plus tard. Le système est défini par un repère géocentrique de coordonnées cartésiennes (x,y,z) et d’origine le centre de gravité de la Terre. L'axe z passe par l'axe de rotation de la Terre et l'axe x est l'intersection de l'équateur avec le méridien de Greenwich. La surface ainsi déterminée est équipotentielle au champ de gravité terrestre, et coïncide avec le niveau moyen des mers. Cette surface est donc en tout point perpendiculaire à la direction indiquée par un fil à plomb (verticale du lieu).

Les conversions de systèmes géodésiques nécessitent ainsi sept paramètres de conversions : 3 paramètres de translation, 3 paramètres de rotation, et un paramètre de facteur d’échelle. Une fois la position repérée dans un système géodésique, elle est transmise à l’utilisateur sous la principale forme : longitude, latitude, ou bien dans un nouveau système qui est de plus en plus fréquemment utilisé : le système UTM (Universal Transverse Mercator). Celui-ci fut créé de manières à éviter les problèmes de conversion entre degrés et mètre. Il se base sur une décomposition de la Terre en 60 fuseaux de 6° chacun, numérotés de 01 à 60, et de 20 bandes de 8° chacune, identifiées par des lettres : cliquez ici pour visualiser le découpage. La France est ainsi située dans les zones 30U, 31U, 32U, 30T, 31T, 32T. Une correction préétablie en fonction de la zone du récepteur étant systématiquement apportée, ce système permet de ne pas ralentir les calculs de distance.

 

Applications

Même les concepteurs du GPS n'avaient imaginé de telles prouesses possibles. La précision ainsi développée permet désormais la surveillance d'une marge active en géologie, de la déformation du cône d'un volcan, de définir le géoïde terrestre, mais aussi de guider nos voitures errantes sur les sentiers macadamés, de partir en randonnée sans semer pierres ou pain… De plus le nombre d'utilisateurs est illimité puisqu’ils ne font que recevoir. Les six frères du Petit Poucet pourront donc aussi s’équiper.

Les usages du GPS ont tout d’abord été militaires : le guidage de bombes larguées à 3 km d’altitude réduit l’erreur maximale de 17 mètres, et l’intérêt est encore plus grand lorsqu’il s’agit de guider des missiles de croisière. C’est précisément cette technologie qui était sous-jacente à l'assurance des Américains lors de la Guerre du Golfe en 1991, lorsqu’ils évoquaient des précisions dignes d’opérations chirurgicales. Le système n'était pourtant pas encore complètement opérationnel (nous avons vu qu'il le sera trois ans plus tard). Et bien sûr, le repérage absolu des troupes au sol constitue l’outil technique nécessaire (mais pas suffisant) à une coordination presque parfaite des unités.

Quant aux applications civiles, elles sont multiples. Les grands domaines en bénéficiant sont de loin :

Mais aussi dans l'espace, certains satellites d’étude terrestre utilisent les signaux GPS pour déterminer leur position, afin de fournir des images correspondant très précisément à celles qui leur sont demandées. L’orbitographie des satellites de haute altitude est cependant plus délicate, puisqu’ils ne peuvent recevoir que des signaux GPS des satellites situés dans l’hémisphère opposé. Or, ils ne peuvent traverser la Terre et le signal des satellites excentrés est très affaibli. Les données restent toutefois exploitables si le récepteur dispose d’une antenne à gain très important.

Pour les compagnies d'ambulances ou les services de police, mais aussi pour les compagnies de taxis désireuses d'améliorer leur efficacité, il est capital de connaître en temps réel la position de chaque véhicule d'une flotte. Grâce au GPS, c'est possible. Ce système de localisation automatique de véhicule s'appelle AVLS : chaque véhicule embarque un récepteur GPS ainsi qu’une antenne radio émettrice permettant de transmettre ses coordonnées à la centrale de visualisation globale.

Quant aux trains, la mise en place des systèmes avancés de voies ferrées (ARES) permettent également aux locomotives d’envoyer leur position à une centrale. Celle-ci contrôle le cheminement des trains et peut dès lors informer en temps réel les voyageurs de tout retard, voire surveiller le trafic pour prévenir tout risque de collision.

Ces facultés de repérage couplées à des technologies de télécontrole préexistantes conduisent à se demander si les GNSS permettront finalement une automatisation totale du repérage, et a fortiori, des transports !