ADRESSE MAIL: suzy.collin@obspm.fr

CURRICULUM VITAE

ACTIVITÉS SCIENTIFIQUES PASSÉES

ACTIVITÉS GRAND PUBLIC DEPUIS 2009

DIVERS

DU SANG SUR LES ETOILES: annexes scientifiques

CURRICULUM VITAE

 

2008- : Chercheur retraitée associée à l’Observatoire de Paris, Observatoire de Paris, section de Meudon, 5 Place Janssen, 92195 Meudon Cedex, France

2003-2008 : Directeur de Recherches émérite

1974-2003 : Directeur de Recherches CNRS

1973-1974 : Chargée de Recherches CNRS

1971-1972 : Astronome déléguée à l’Observatoire de Paris

1960-1971 : Assistante, puis Maitre-Assistante Université de Paris (Sorbonne, puis Paris 7)

1968 : Thèse d’Etat de physique, Sorbonne : « Etude des Noyaux de Galaxies de Seyfert »

1964 : Thèse de 3ème cycle : « Etude de la fonction de distribution des électrons dans la chromosphère »

1960 : Licence de physique, DES d’Astronomie, troisième cycle « Physique des plasmas », Paris

1955 : Baccalauréat 

Née en Septembre 1938, j’ai passé une partie de la guerre cachée avec ma mère dans un village près de Blois (la famille qui nous a hébergées a été reconnue comme « Juste parmi les Nations » par Yad Vashem).  J’ai ensuite suivi des études secondaires à Nevers, avant de venir à Paris en 1955 pour faire mes études supérieures.

Depuis 2008, je me consacre essentiellement à des activités grand public.

Ma carrière est décrite dans « Parcours d’astrophysiciens », de Azar Khalatbari, Ed. Le Cavalier Bleu, 2009

 

ACTIVITÉS SCIENTIFIQUES PASSÉES

 

Recherche :

Après avoir travaillé sur les conditions physiques dans l’atmosphère solaire, j’ai commencé en 1964 une thèse sur l’étude des galaxies de Seyfert qui, suite à la découverte des quasars en 1963, s’étaient avérées être des objets aux propriétés très semblables, mais plus facilement observables car plus proches. Dans ma thèse, j’ai montré que les raies spectrales sont émises dans deux régions de conditions physiques différentes, les raies « larges » étant émises dans une petite région dense ; j’ai prédit la variabilité de ces raies, et j’ai montré que l’ionisation des éléments est due à un rayonnement ultraviolet intense. Je me suis ensuite intéressée au chauffage de la matière interstellaire et aux abondances chimiques dans les régions HII et dans les galaxies. En 1980, je suis revenue définitivement aux noyaux actifs de galaxies et aux quasars, m’intéressant à l'environnement du trou noir supermassif: formation des raies spectrales dans les domaines visible et X, physique du disque d’accrétion. J’ai montré en particulier que le disque est irradié par le rayonnement X et que dans certains objets appelés les "Narrow Line Seyfert 1" le trou noir devait accréter la matière à un taux bien supérieur à ce que le laissait penser sa luminosité. J’ai aussi montré que la formation d’étoiles massives était favorisée autour d’un trou noir supermassif peu actif, ce qui a été effectivement observé dans le Centre de notre Galaxie. 

 

 

 

 

 

 

 

 

 

 

 

 

 

Portrait robot d’un quasar ou d’un noyau actif de galaxie. Les petits cercles bleu clair représentent des nuages de gaz « froid » (10000 degrés). Ceux du haut (raies étroites) sont environ 1000 fois plus grands que ceux du bas (raies larges). Les ellipses bleu foncé représentent des nuages d’électrons se déplaçant à une vitesse proche de celle de la lumière.

J’ai participé récemment au livre « Fifty years of quasars », From Early Observations and Ideas to Future ResearchSeries: Astrophysics and Space Science Library, Vol. 386,  Springer, 2012 

J’ai publié environ 200 articles scientifiques, dont une centaine dans des revues à referee, et une trentaine comme revues dans des congrès. J’ai été éditeur de trois livres scientifiques. J’ai publié trois livres de vulgarisation et j’ai participé à de nombreux autres. J’ai dirigé 15 thèses. J’ai obtenu deux prix de l’Académie des Sciences, en 1973 et en 1994. J’ai été membre de nombreux comités d’experts, du Comité National d’Astronomie et de Géophysique, et j’ai été présidente de la Société Française d’Astronomie et d’astrophysique. 

 Distintinctions honorifiues

J'ai eu deux prix de l'Académie des Sciences (1973 et 1994), et le prix 2013 "Lodewijk Woltjer Lecture" de la Société Astronomique Européenne (EAS).

Enseignement : 

J’ai enseigné de 1960 à 1971 dans des cursus d’astronomie et de physique (licence et master), puis, après ma nomination comme chercheur au CNRS et jusqu’en 2000, dans deux DEA d’astronomie, ceux de Paris 6  et de Paris 7.  J’ai édité mon cours sous forme de livre « Processus de rayonnement en astrophysique ». Révisé en 2010, il est disponible sur le web.

 

Popularisation de la science :

J’ai publié une cinquantaine d’articles de journaux scientifiques grand public (Pour la Science, Science et Avenir, Science et Vie…), des chapitres de livres et d’encyclopédies, et j’ai participé à de nombreuses émissions de radio, à quelques émissions de télé, à des CD et des DVD.


 

ACTIVITÉS GRAND PUBLIC DEPUIS 2009

Livres et revues :

QUELLE EST NOTRE PLACE DANS L'UNIVERS ? Dialogues sur la cosmologie moderne, en collaboration avec Christiane Vilain, l’Harmattan, Collection Science et Société, 2012


Quatrième de couverture :

La période actuelle voit surgir, à côté de théories nouvelles visant à compléter ou unifier nos théories confirmées, de nombreuses spéculations et interrogations sur la nature de l’univers dans son ensemble et les raisons de notre présence sur une planète perdue dans cette immensité. Des notions nouvelles sont apparues : inflation cosmique, matière noire et énergie noire, cordes et boucles, principe anthropique… Pris entre l’enthousiasme et la critique, nous ne savons plus que penser de ces domaines dont nous ne maîtrisons pas les techniques. Il devient difficile de faire une distinction entre ce qui est scientifique et ce qui l’est moins.

Dans ce livre, une philosophe et une scientifique débattent, souvent âprement, en présence d’un Candide qui les ramène parfois sur terre, sans se contraindre à adopter une position commune mais en restant dans un cadre strictement scientifique et en évitant toute dérive spiritualiste. Elles montrent d’abord comment s’est constituée la cosmologie moderne à travers une démarche scientifique faite d’essais et d’erreurs, d’imagination et de rigueur. Puis, tout en laissant au lecteur sa liberté de jugement, elles tentent de répondre à la question de la valeur des constantes physiques, et de la façon dont celles-ci ont permis l’émergence de la vie à ce stade de l’évolution de l’Univers.

Des quasars aux trous noirs. , EDP Sciences, 2009.

Quatrième de couverture :

La recherche n'est pas un long fleuve tranquille. Contrairement à ce que l'on croit souvent, elle ne se développe pas linéairement, elle hésite, s’enlise souvent dans des voies de garage et retourne parfois même en arrière. L'histoire de chaque discipline est ainsi jalonnée d'avancées et de reculs,  d'idées prémonitoires qui ne sont pas prises en compte, ou au contraire de théories erronées discutées à perte de vue, de conclusions justes mais fondées sur des idées fausses et vice-versa, de découvertes inattendues et de controverses passionnées. Pourtant, malgré cette démarche cahoteuse et grâce à des bonds brutaux en avant, la Science finit toujours par progresser sur le long terme.

Découverts par hasard au début des années soixante, les quasars sont les astres les plus lumineux et les plus distants de l’Univers. Leur puissance vertigineuse est produite dans une région absolument minuscule. On conçoit donc aisément combien ils ont suscité d’intérêt, tant par les phénomènes extraordinaires qui y sont en jeu, que par leurs distances qui en font des sondes de l’Univers lointain et de son passé. On a mis presque vingt ans à admettre qu’ils tiraient leur puissance de la présence d’un trou noir géant en leur sein, et encore vingt autres années à se convaincre que la plupart des galaxies, et même la Voie Lactée,  contiennent de tels trous noirs qui sont les cadavres des quasars du passé. L’histoire des quasars permet mieux que toute autre d’illustrer le cheminement erratique de la science, en montrant comment une discipline finit par se structurer après un demi-siècle d'errance, pour déboucher sur un modèle physique cohérent et sur une nouvelle vision de la structuration de l’Univers et de l'évolution des galaxies.

Suzy Collin-Zahn est astronome à l’Observatoire de Paris Meudon, et elle a participé à cette histoire qu’elle raconte aujourd’hui, en y ajoutant ses souvenirs personnels.


« Faut-il mettre en cause le système copernicien ? »,  avec Christiane Vilain, dans l’Astronomie, Janvier 2012

« Quasars et Noyaux Actifs de galaxies », dans « Le ciel à découvert », sous la direction de Jean Audouze, CNRS Edition, 2010

« Mystère des trous noirs supermassifs, », Revue des planetariums, 2010

Active nuclei of galaxies, avec Bozena Czerny, Edt. Encyclopedia of Life Support Systems, Unesco,  2009

Les Noyaux Actifs de Galaxies, chapitre 2 dans « Galaxies et Cosmologie », coordination par F. Combes, Edt Ellipses, dans la série pour l’Année Mondiale de l’Astronomie, à 2009

Les quasars, trous noirs en action, dossier sur les trous noirs, Pour la Science, Juillet 2007 : « Des trous noirs trônent au centre des galaxies et dévorent toute matière à la dérive. S'il est alimenté, l'ogre sombre devient un puissant émetteur de lumière, un quasar. »


Conférences :

En 2009: Observatoire de Paris,  Institut d’Astrophysique de Paris, Rennes (Le Kiosque Citoyen), Société Astronomique de France (Observatoire Camille Flammarion), lycée Camille Claudel de Blois, Université d’Orsay pour les « 100 heures » de l’Année Mondiale d’Astronomie, à la Société Astronomique de Lyon, Université de tous les savoirs de Strasbourg, Club d’astronomie Vega (Ollioules, Var), Club d'Information Scientifique (CIS) de la Poste et de France-Télécom ; bar des Sciences de Savigny sur Orge, commission de cosmologie de la SAF, St Pierre du Perray…, et de nombreuses autres depuis.

 

Quelques diaporamas et videos

cosmologie et trous noirs supermassifs en pdf (accessible à des élèves de terminale)  :

Videos associées avec commentaires: video 1, video 2, video 3, video 4, video 5, video 6, video 7

Video de la conférence à la Société Astronomique de Lyon (SAL) « Les trous noirs supermassifs »

Diaporama de la conférence de l'IAP-EPHSR: le principe anthropique, et video de la même


Autres activités grand public :

Artciles et participation mensuelle aux « Actualités » dans la revue de la SAF, l’Astronomie et membre du comité de rédaction

Articles et participation régulière à la rubrique « autour de la Science » dans la revue « Science et pseudo-sciences » de l’AFIS (Association Française pour l’Information Scientifique).

 

 

DIVERS

 

 Mes hobbies sont la musique classique, le théâtre, le cinéma et la lecture. Je fais du vélo, de la marche,  et du tennis. J’ai écrit mes mémoires et des pièces de théâtre, ainsi qu'un "polar astronomique" (on peut l'obtenir en me le demandant). J’enregistre des lectures sonores à destination des aveugles et mal-voyants (on peut m'en demander). 

 

DU SANG SUR LES ETOILES: annexes scientifiques

Ces annexes fournissent au lecteur curieux d'astronomie quelques détails sur les sujets astronomiques évoqués dans ce livre. Pour le lecteur qui souhaiterait comprendre plus à fond les sujets abordés, il est conseillé de consulter un cours d’astronomie ou bien des livres spécialisés dans ses différents domaines, comme il en existe de nombreux en circulation.

 

1. Le pendule de Foucault

Il a été inventé pour montrer la rotation de la Terre par le physicien français Jean Bernard Léon Foucault, qui en a fait la première démonstration en février 1851 à l’Observatoire de Paris, puis un mois plus tard au Panthéon où il a été par la suite installé définitivement. Foucault a montré que le plan d’oscillation du pendule tournait autour de la verticale et effectuait un tour complet dans le sens horaire en 1,4 jour à la latitude de Paris.  Il a attribué à juste titre ce mouvement à la rotation de la Terre, le pendule demeurant dans un plan fixe par rapport aux étoiles.
A l’époque, Foucault n’était pas au courant des travaux de Coriolis effectués en 1832 qui portaient sur les lois de la dynamique dans un référentiel non inertiel (c’est à dire possédant une accélération, tel un système en rotation comme la Terre). La « force de Coriolis » agit perpendiculairement à la direction du mouvement dans un système en rotation, vu par un observateur dans le même référentiel, et c’est elle qui, combinée avec la rotation de la Terre, permet d’expliquer le résultat observé.
En général un mécanisme magnétique permet d'entretenir le mouvement qui sans cela s’amortirait à cause des frottements de l'air.


Le pendule de Foucault installé au Panthéon

 

2. La dynastie des Cassini

Cassini I (1625-1712) : Giovanni Domenico (Jean-Dominique) Cassini arrive d’Italie en France en 1669, se fait naturaliser et est reçu membre de l'Académie des sciences fondée deux ans plus tôt. Il dirige l'observatoire de Paris dès sa création. Il participe à la découverte de la variation d'intensité de la pesanteur en fonction de la latitude au cours d'un voyage à Cayenne. Il découvre la tache rouge de Jupiter, et mesure sa vitesse de rotation ainsi que celles de Mars et Vénus. Il découvre quatre satellites de Saturne et la « division de Cassini » des anneaux de Saturne. Il fait la première mesure précise de la distance de la Terre au Soleil, grâce à la mesure de la parallaxe de Mars déduite des observations de Jean Richer à Cayenne.
Cassini II (1677-1756): Jacques, fils du précédent. Il est l’auteur d’un travail sur l'inclinaison des satellites et de l'anneau de Saturne et de plusieurs ouvrages.
Cassini III (1714-1784): César-François, fils du précédent, devient aussi directeur de l’Observatoire de Paris. Sa renommée est surtout due à la production d’une carte de France qu’il dirige. Il corrige la méridienne qui passe par l'Observatoire et est chargé de la description géométrique de la France.
Cassini IV (1748-1845) : Jean-Dominique, fils du précédent, devient directeur de l’Observatoire en 1784 et restaure le bâtiment. Il termine la carte de France commencée par son père. Il est chargé au moment de la Révolution de participer aux travaux préparant le système métrique mais, étant monarchiste, il démissionne de toutes ses fonctions, avant d’accepter en 1799 d’être membre de la nouvelle Académie des sciences.

3. Utilité astronomique du passage de Vénus devant le Soleil

Un « transit » de Vénus se produit lors du passage de la planète Vénus exactement entre la Terre et le Soleil : Vénus apparait de la Terre comme un petit disque noir se déplaçant devant le Soleil. La durée de tels transits est en général de quelques heures. C’est un phénomène rare. En effet, lorsque Vénus et la Terre sont en conjonction, elles ne sont en général pas alignées avec le Soleil car le plan de L'orbite de Vénus est incliné par rapport à celui de la Terre, et c’est donc seulement lorsque les deux planètes sont sur la ligne d'intersection des deux plans orbitaux (appelée ligne des nœuds) qu’il peut se produire. On calcule que les transits se répètent suivant une séquence de 243 ans avec une paire de transits séparés de 8 ans suivis d'un intervalle de 121,5 ans, puis une autre paire de transits séparés de 8 ans et un intervalle de 105,5 ans.
En observant depuis deux points de latitudes différentes sur Terre et en mesurant la différence angulaire entre les positions de l’ombre de Vénus sur le Soleil, on peut déterminer la distance Terre-Soleil (voir le schéma). La première observation d’un transit de Vénus dans le but de déterminer la distance Terre-Soleil fut réalisée le 4 décembre 1639 par l’astronome Jeremiah Horroks depuis son domicile en Angleterre, tandis que son ami William Crabtree l’observait d’un autre endroit. Son estimation de la distance Terre-Soleil fut de 95,6 millions de kilomètres soit les deux tiers de la distance réelle. Edmond Halley (1656-1742), le découvreur de la comète du même nom, proposa ensuite de mesurer les temps de transits au lieu de mesurer des angles, beaucoup plus incertains, ce qui permit d’améliorer considérablement la précision. Il ne put en faire lui-même l’observation, mais après sa mort, aux 18ème et 19ème siècles, des équipes d'astronomes se déplacèrent sur toute la Terre à chacun des passages de Vénus pour mesurer la distance du Soleil depuis des endroits éloignés les uns des autres. Par exemple, lors du transit de 1874, les français organisèrent six expéditions, dont une au Japon avec les astronomes J. Janssen et F. Tisserand. De nombreuses anecdotes sont restées de ces expéditions, dont la plus célèbre concerne Guillaume Le Gentil de la Galaissière (1725-1792). Il partit pour observer le transit de Vénus de 1761 à Pondichéry et fut empêché de débarquer en raison de la guerre qui venait d’éclater entre la France et le Royaume-Uni. Il attendit alors sur place pendant huit ans le passage de 1769, mais il ne put l’observer à cause des nuages !
Les deux derniers transits ont eu lieu en 2004 et 2012, et l’Observatoire de Paris a joué un grand rôle dans la préparation et la coordination des observations pour le public, ainsi que dans la mise à disposition des résultats. Le prochain transit aura lieu en 2117.

 


Conditions d’observation du passage de Vénus (crédit IMCCE)


Méthode du passage de Vénus

Pour l'observateur A, Vénus décrit la corde (C), et pour A', elle décrit la corde (C'), plus courte. On mesure la distance angulaire BB’ vue de la Terre. Connaissant la distance entre A et A’ et le rapport des distances de Vénus et de la Terre au Soleil, on déduit la distance Terre-Soleil (figure due à Pierre Causeret, parue dans le numéro 108 des Cahiers Clairaut).

 

4. Les sondes Voyager

Une sonde spatiale est un véhicule spatial sans équipage qui n’est pas en orbite autour de la Terre, et qui est lancé pour étudier les objets du Système Solaire ainsi que le milieu interplanétaire.
Dans les années 1960, les sondes spatiales avaient prospecté le système solaire intérieur à la Terre (programme « Mariner »). La NASA décida alors d’envoyer des sondes vers les planètes plus lointaines : Jupiter, Saturne, Uranus et Neptune. Une conjonction favorable de planètes en 1977 permettait d’utiliser l’effet de « fronde gravitationnelle » dû à la gravité de Jupiter pour propulser la sonde loin dans le système solaire (voir le schéma) : ce furent les sondes Voyager 1 et 2, envoyées respectivement le 20 août et le 5 septembre 1977. Elles avaient été précédées d’une mission exploratoire par les sondes Pioneer 10 et 11.
Voyager 1 se rapprocha en 1979 à 350 000 km de Jupiter puis en 1980 à 124000 km de Saturne et sortit ensuite du plan de l’écliptique. En 2009, elle était à peu près à 15 heures-lumière de la Terre, ce qui signifie que les données (qu’elle continue à envoyer) mettent 15 heures à nous parvenir. Voyager 2 approcha également Jupiter en 1979 et Saturne en 1981, puis elle survola Uranus en 1986 et Neptune en 1989. Les résultats de ce programme ont été très fructueux, permettant non seulement d’étudier la composition de l'atmosphère de Jupiter, les anneaux de Saturne, les anneaux de Jupiter, ceux d'Uranus et de Neptune, mais également de découvrir l’extraordinaire diversité des satellites de ces planètes.
De très nombreuses sondes spatiales ont été envoyées depuis cette époque, dont certaines destinées à explorer une planète ou un de ses satellites en particulier. La France participe à cette exploration à travers le Centre d’Etudes Spatiales (CNES) et l’Agence Européenne Spatiale (ESA).


Le trajet des sondes Voyager 1 et 2.

5. Supernovae et étoiles à neutrons

Le phénomène de supernova correspond à l’explosion d’une étoile massive arrivée en fin de vie après avoir épuisé ses réserves nucléaires. Il s’accompagne d'une augmentation brève mais fantastiquement grande de la luminosité. L’explosion dure quelques secondes, mais l’objet reste brillant pendant plusieurs mois avant de disparaître lentement.
C’est l’astrophysicien indien Chandrasekhar, ainsi que les astronomes Baade et Zwicky,  qui ont prédit dans les années 1930 que les étoiles plus massives que le Soleil (précisément plus de 1,4 fois la masse du Soleil) devaient subir à la fin de leur vie une explosion spectaculaire sous forme de supernova. L’explosion s’accompagne de l’éjection des couches extérieures, tandis que le cœur implose et devient une minuscule étoile de quelques dizaines de kilomètres de diamètre appelée « étoile à neutrons ». La formidable pesanteur régnant dans le cœur stellaire pousse en effet les électrons à se coller aux protons pour former des noyaux électriquement neutres (appelés par conséquent « neutrons ») qui, ne subissant plus la répulsion électrique, peuvent se coller à leur tour les uns aux autres. L’essentiel de la matière consiste alors en une sorte de magma constitué essentiellement de neutrons. Plus tard, en 1939, les deux physiciens Oppenheimer et Volkoff montrèrent que la masse maximale d’une étoile à neutrons est d’environ 0,7 fois la masse du Soleil : au-dessus de cette valeur, l'étoile doit s'effondrer en « trou noir », un objet dont le champ gravitationnel est si grand que ni la lumière ni les particules ne peuvent s’en échapper. Depuis, cette valeur a été révisée à la hausse, et c’est maintenant deux fois la masse solaire que ne peut dépasser un étoile à neutrons. Ce qui n’était pas prévu, c’est que les étoiles à neutrons et même les trous noirs, seraient observés quelques dizaines d’années plus tard. Les étoiles à neutrons parce qu’elles tournent comme des toupies avec des périodes de quelques secondes ou moins en émettant un rayonnement directif. Lorsque l’émission est bien dirigée, l’étoile nous apparaît sous la forme d’un « pulsar », sorte de phare de l’espace. Et les trous noirs sont observés grâce à la matière qu’ils attirent et qui devient très lumineuse juste avant de s’engouffrer à l’intérieur. 
On sait maintenant que le phénomène de supernova est dû à deux mécanismes différents. Ou bien il s’agit d’étoiles solitaires s’effondrant sous l’effet de leur propre gravité (les « supernovae de type 2 »), ou bien de couples d’étoiles dont l’une est compacte et l’autre est normale (les « supernovae de type 1a »). Dans le deuxième cas, le gaz de l’étoile normale est attiré par la compacte, mais celle-ci ne peut supporter indéfiniment cet apport et finit par subir une explosion thermonucléaire. On a remarqué que ces supernovae forment une classe remarquablement homogène ; elles peuvent donc servir de « chandelles standard » pour jalonner l’Univers car on peut déterminer leur distance avec une bonne précision.
Les enveloppes éjectées au moment de l’explosion se répandent rapidement dans l’espace et deviennent ces superbes nébuleuses constituées de lacis de filaments appelés « restes de supernovae », dont l’exemple le plus connu est la nébuleuse du Crabe.  C’est le résidu de l’explosion d’une supernova ayant eu lieu en 1054 (pour une raison incomprise, elle fut observée par les astronomes chinois, mais non par les européens). Les filaments de la nébuleuse du Crabe baignent dans une lumière bleutée intense. Il s’agit de « rayonnement synchrotron » dû à des électrons très rapides se déplaçant dans le champ magnétique de la nébuleuse.  Ces électrons sont produits par la dépouille de la supernova, une étoile à neutrons située au centre de la nébuleuse.
Aucune supernova n'a été observée dans la Voie Lactée depuis plusieurs siècles. La plus rapprochée observée est SN 1987A, survenue en 1987 dans le Grand Nuage de Magellan, à 170000 années-lumière de distance, et qui se présente maintenant sous la forme d’un curieux entrelacs d’anneaux.


Photographie de la nébuleuse du Crabe

Elle montre les filaments expulsés au moment de l’explosion de la supernova, qui se sont répandus depuis dans le milieu interstellaire. Sur la photo en couleurs, on distingue très bien la lumière bleutée diffuse due au rayonnement synchrotron, dans laquelle baignent les filaments de gaz, rougeâtres à cause de la raie intense Hα de l’hydrogène.

 


Image actuelle du reste de la supernova SN 1987A (télescope Hubble)

6. Les trous noirs

Un trou noir est un corps dont le champ gravitationnel est si intense que ni la matière ni le rayonnement ne peuvent s’en échapper (à l’exception du rayonnement de Hawking, mais nous n’en parlerons pas ici). Ils sont décrits par la théorie de la relativité générale, proposée par Einstein en 1915. Dès 1916, le physicien allemand Karl Schwarzschild conçut à partir de là un objet dont le nom ne fut donné que cinquante ans plus tard, le « trou noir ». Il définit un rayon – qui fut appelé plus tard « rayon de Schwarzschild » - délimitant son « horizon », car on ne peut rien voir au delà, comme l’horizon à la surface de la Terre. Il s’agit d’une frontière immatérielle. Schwarzschild montra que ce rayon est proportionnel à la masse du trou noir : exprimé en kilomètres, il est égal à trois fois la masse du trou noir exprimée en masses du Soleil. Par exemple, un trou noir de dix fois la masse du Soleil (sans rotation, précisons-le) a un rayon de trente kilomètres (sa masse par unité de volume moyenne serait alors telle qu’un dé à coudre pèserait vingt milliards de tonnes ; notons que c’est à peine supérieur à la densité d’une étoile à neutrons, dont l’existence est avérée). Si la Terre devenait un trou noir, elle aurait la taille d’une bille et sa densité moyenne serait encore dix millions de milliards de fois plus grande. Notons qu’Einstein ne crut jamais à l’existence des trous noirs, de même qu’il ne crut pendant longtemps pas à l’expansion de l’Univers. Les grands génies font parfois de lourdes erreurs ! Et malheureusement Schwarzschild, qui était mort sur le front russe quelques semaines après avoir proposé leur existence, ne sut pas que sa théorie aurait un immense succès.
Les trous noirs ont des propriétés étranges qui sont à l’origine de nombreux paradoxes. Par exemple, un vaisseau spatial tomberait dedans en quelques secondes alors que pour un observateur extérieur, le temps de sa chute s’étirerait infiniment. Mais le plus étrange peut-être est que ce sont des objets particulièrement simples, plus simples en tout cas que tout ce que nous connaissons dans le cosmos, les étoiles, les planètes, la Terre, etc… Ils sont décrits par seulement trois propriétés : leur masse, leur rotation, et leur charge électrique.
Il existe deux sortes de trous noirs : ceux qui ont une dizaine de fois la masse du Soleil d’une part (« les trous noirs stellaires »), et d’autre part ceux qui pèsent un million à un milliard de fois la masse du Soleil (les « trous noirs supermassifs »), dont l’un est présent dans le cœur de presque toutes galaxies.
En ce qui concerne les trous noirs stellaires, il a été mentionné dans l’annexe 5 qu’à la fin de leur vie, les étoiles massives deviennent des étoiles à neutrons, ou bien des trous noirs si elles le cœur dépasse deux fois la masse du Soleil : on n’a effectivement jamais observé d’étoile à neutrons plus massive.
Comment peuvent-ils être observables, puisqu’ils n’émettent pas de rayonnement ? Simplement parce qu’ils attirent la matière qui les entoure et que celle-ci, portée à de hautes températures en arrivant dans l’environnement du trou noir, rayonne, de la même façon qu’une météorite tombant sur la Terre est chauffée, s’évapore, et nous apparaît comme une étoile filante (mis la météorite arrive sur la Terre avec une vitesse mille fois plus faible que la matière près du trou noir). Et qu’advient-il si un « cadavre stellaire » – donc une étoile compacte ou un trou noir – est membre d’un système double comme l’est environ la moitié des étoiles de la galaxie ? Cela a plusieurs conséquences importantes lorsque les deux étoiles sont suffisamment proches.
Première conséquence, l’étoile compacte ou le trou noir attire le gaz de l’étoile normale qui forme ce que l’on appelle un « disque d’accrétion ». Le gaz du disque émet du rayonnement, en particulier des rayons X, avant de tomber sur l’étoile compacte ou à l’intérieur du trou noir. Ce rayonnement signale donc la présence d’une étoile compacte ou d’un trou noir. Deuxième conséquence, la masse de l’étoile compacte ou du trou noir peut être déterminée, au moins approximativement, grâce au mouvement orbital de sa compagne. L’étude des étoiles doubles permet en effet de les « peser ». On détermine en fait une combinaison des masses des deux étoiles appelée la « fonction de masse ». Et si l’on peut estimer la masse de la compagne par exemple par son spectre, on en déduit la limite inférieure de la masse de la compacte (en fait au sinus de l’inclinaison de l’orbite près, mais on peut le déterminer également si le plan de l’orbite est très voisin de la ligne de visée). Si cette masse est supérieure à deux fois la masse du Soleil, on en déduit qu’il s’agit d’un trou noir. On connaît ainsi dans la Voie Lactée une vingtaine d’objets satisfaisant à ce critère. Il faut noter d’ailleurs que les propriétés de ces trous noirs stellaires sont différentes de celles des étoiles à neutrons. En particulier, les trous noirs propulsent dans l’espace de puissants « jets » de particules que l’on n’observe pas dans le cas des étoiles à neutrons.
Les trous noirs supermassifs, eux, sont d’origine très différente. On spécule qu’ils se sont formés lorsque l’Univers était encore jeune, environ 500 millions d’années après le Big-Bang, au moment où les galaxies et les étoiles se formaient elles aussi. Ils ont grossi en même temps que leur galaxie-hôte par des mécanismes encore mal compris.  Ces trous noirs supermassifs peuvent attirer des étoiles entières, qui sont brisées par des effets de marée ; une partie du gaz provenant de la rupture est alors attirée par le trou noir  et forme un disque d’accrétion, tandis qu’un autre partie échappe à son attraction (voir l’image). On pense que les captures d’étoiles et de gaz par le trou noir central sont fortement activées lorsque deux galaxies entrent en interaction ou fusionnent.
Deux éléments apportent des preuves de l’existence des trous noirs supermassifs au centre des galaxies. D’une part, le fait qu’ils sont les seuls à pouvoir expliquer l’énergie gigantesque produite pas les quasars (noyaux de galaxies lointaines extrêmement lumineux). D’autre part, le fait qu’il existe un trou noir supermassif au centre de notre propre galaxie, la Voie Lactée. On peut en connaître le rayon et la masse par l’observation des étoiles orbitant autour de lui, comme les planètes autour du Soleil : on a ainsi suivi pendant vingt ans les étoiles environnantes : certaines passent près de lui à une distance plus petite que la distance Terre-Soleil avec une vitesse supérieur à 5000 kilomètres par seconde ! On en déduit qu’il a une masse de 4 millions de masses solaires, ce qui exclut tout autre objet qu’un trou noir dans un rayon aussi petit.


Image d’artiste : un couple constitué d’un trou noir et d’une étoile normale

Image d’artiste : capture d’une étoile par un trou noir supermassif

L’une des premières orbites complètes observées d’une étoile autour du trou noir  supermassif de la Galaxie.
L’instrument NAOS-Conica a été construit en partie à l’Observatoire de Paris-Meudon (observation ESO).

7. La matière noire

La matière noire désigne une matière hypothétique jusqu'à présent non détectée, invoquée pour rendre compte de la masse des galaxies et des amas de galaxies, et plus récemment des propriétés du fond diffus cosmologique.
En 1933, l'astronome suisse Fritz Zwicky, qui eut par ailleurs d’autres grandes intuitions comme l’existence des étoiles à neutrons, détermina la masse d’un groupe de galaxies en mesurant la dispersion des vitesses de galaxies constituant ce groupe (c’est à dire les différences des vitesses entre elles). Conformément à la loi de Newton et ses dérivées, cette vitesse est d’autant plus élevée que la masse totale est plus grande. Zwicky découvrit qu’en fait elle dépassait d’un facteur 400 la masse déduite de la luminosité des galaxies. Mais à cette époque, la relation entre la masse et la luminosité était très mal connue et l’on pensait – à juste titre - que de nombreux astres rayonnant très peu étaient invisibles, donc personne ne prêta attention à cette découverte (d’autant que Zwicky avait très mauvais caractère et était mal vu de ses collègues !).
Ce n'est qu'une trentaine d'années plus tard, dans les années 1960, que la question de la « matière manquante » fut reposée. A partir de mesures des vitesses de rotation de galaxies spirales effectuées dans le domaine radio, on s’aperçut que les régions extérieures invisibles tournaient trop vite, ce qui impliquait (conformément aux lois de Kepler), qu’elles contenaient de la matière non lumineuse s’étendant bien au delà des bords visibles des galaxies. Le problème était donc identique à celui des amas de galaxies.


Courbe de rotation d’une galaxie spirale,
telle qu’elle devrait être, et telle qu’on l’observe en réalité.

C’était la preuve de l’existence de matière noire. Les spéculations de Zwicky concernant la matière invisible dans les amas de galaxies étaient donc justes. Les amas contiennent en fait une proportion de matière noire encore plus grande que les galaxies elles-mêmes, et cette proportion semble croître avec la masse des objets : relativement faible dans les galaxies, plus grande dans les amas de galaxies, et encore plus grande dans les superamas.
Dans un premier temps, on supposa qu’il s’agissait de matière ordinaire, et plusieurs expériences furent mises en place pour la détecter. On pensait à des objets comme des étoiles compactes, des trous noirs, des naines brunes (étoiles de faible masse qui rayonnent très peu), du gaz moléculaire, etc…, mais il s’avéra rapidement que la quantité de matière ainsi détectée était insuffisante pour rendre compte de la masse des amas de galaxies et des galaxies. De plus, on savait par les observations des éléments légers dans l’Univers et par la théorie de leur nucléosynthèse qu’il ne pouvait pas exister dans l’Univers trop de matière baryonique (c’est à dire de matière normale, constituée principalement de protons et de neutrons) : il fallait que moins de 10% de la matière détectée dans les amas de galaxies soit de la matière baryonique, pour obtenir le bon rapport de deutérium et d’hélium (l’isotope hélium trois est plus crucial dans cette affaire que l’hélium quatre habituel). Tout ce qui dépassait cette valeur devait être de la matière non baryonique. Or on avait par ailleurs besoin de la présence de matière non baryonique pour accélérer le processus de condensation conduisant à la formation des grandes structures dans l’Univers, car la matière ordinaire peut alors « tomber » dans les régions plus denses de matière exotique. Pour couronner le tout, les propriétés du fond cosmologique (ce rayonnement à trois degrés absolus observé dans le domaine radio qui nous parvient des débuts de l’Univers, 400 000 ans après le Big-Bang) impliquent également la nécessité de matière non baryonique.
Quelle est la nature de cette matière ? On l’ignore encore ! Elle doit avoir comme particularité de n’être sensible qu’à la gravité, et par conséquent d’être invisible. Différentes hypothèses ont été émises, dont la plus répandue est celle des WIMPs (Weakly Interacting Massive Particles, ou particules massives à interaction faible ; notons que « wimp » signifie « mauviette » en anglais !). Ces particules pourraient exister dans le cadre de théories « non standard » de la physique sur lesquelles travaillent de nombreux physiciens. Malheureusement, depuis quarante ans qu’on a émis cette hypothèse, aucune expérience n’a été encore capable de détecter ces particules, ou d’autres qui pourraient constituer la matière non baryonique.
C’est un problème grave pour la cosmologie, et certains cherchent par conséquent des solutions ne faisant pas appel à de la matière non baryonique. L’une d’elle est la théorie MOND (« Modified Newtonian Dynamics »), qui est en fait une modification empirique de la loi de Newton pour les faibles champs de gravité (la force ne serait plus proportionnelle à l’inverse du carré de la distance). Elle a été proposée en 1983 par un physicien israélien, Moti Milgrom, pour rendre compte des courbes de rotation des galaxies. Cependant, bien qu’elle ait été adaptée pour tenir compte de corrections relativistes, elle est toujours impuissante à expliquer les observations des amas de galaxies. Une autre hypothèse est celle d’un Univers inhomogène, mais elle n’est pas encore aboutie, car très difficile à mettre en œuvre.
Pour le moment, on continue donc à espérer que les expériences en cours permettront de détecter enfin des particules de matière noire…

8. L’expansion de l’Univers et l’énergie sombre

On sait depuis 1930 que les galaxies « fuient » avec une vitesse proportionnelle à leur distance : c’est la « loi de Hubble ». Elle signifie que l’Univers est en expansion. Cette découverte est due en partie à une femme, Henrietta Leavitt, qui avait remarqué la relation entre la luminosité des Céphéides et leur période de variation, grâce à laquelle Hubble put calculer la distance des galaxies proches. Henrietta travaillait presque bénévolement à l’Observatoire d’Harvard et n’avait jamais pu passer un doctorat car, aux Etats-Unis, il était réservé aux hommes, ainsi que le droit d’aller observer les étoiles ! Lorsqu’on l’avait proposée pour le prix Nobel, on s’était aperçu qu’elle était décédée depuis quelques années… Einstein lui-même ne croyait pas à l’expansion, alors que vers 1920, deux scientifiques presque inconnus, le jeune abbé belge Lemaître et le russe Friedmann, avaient montré que sa théorie de la Relativité Générale y menait tout naturellement. Einstein avait même été assez méprisant pour ses deux collègues et ne s’était converti à l’expansion que dix ans plus tard, après la découverte de la loi de Hubble. En 1915, il avait appliqué sa théorie à l’Univers dans son ensemble, en le supposant homogène à très grande échelle (à l’époque c’était seulement une intuition). Pour le rendre statique, ce qui correspondait à ses idées philosophiques, il avait ajouté à ses équations une force s’opposant à l’attraction gravitationnelle, qu’il appela « la constante cosmologique », et il lui donna une valeur qui permettait de contrebalancer exactement la gravité. La constante cosmologique fut abandonnée par la suite pendant plusieurs décennies.
Mais elle allait refaire surface dans les années 1980 sous une forme un peu différente, appelée « énergie sombre », ou « énergie noire ». C’est une forme d’énergie hypothétique emplissant l’Univers et se comportant comme une force gravitationnelle répulsive qui devait accélérer l’expansion. Plusieurs astrophysiciens (Weinberg entre autres, voir l’annexe 11) recommencèrent à s’y intéresser car elle paraissait indispensable pour expliquer que l’Univers ne soit pas « retombé » sur lui-même bien avant notre époque sous l’effet de la matière noire. Puis à partir de 1998, les observations d’une classe très homogène de supernovae (les SN 1a, voir l’annexe 5) permirent de déterminer leurs distances avec précision et de montrer que l’expansion de l’Univers, qui avait commencé par décélérer pendant les premiers milliards d’années après le Big-Bang, était accélérée depuis environ 6 milliards d’années. Cette accélération peut être interprétée comme l’effet d’une constante cosmologique, mais on ne sait pas encore si elle est vraiment constante. Elle est caractérisée par une densité s’ajoutant à la densité de matière-énergie constituant la masse de l’Univers qui en détermine la géométrie. Mais contrairement à la matière, elle correspond à une pression négative s’opposant à l’effet de la gravité, et intervient dans sa dynamique pour l’accélérer et non le décélérer.
Depuis la découverte de l’accélération de l’expansion, plusieurs autres observations sont venues confirmer l’existence de l’énergie sombre, en particulier l’étude des « oscillations acoustiques baryoniques », ondes de matière qui ont été figées au moment de l’émission du fond diffus cosmologique émis 380 000 ans après le Big-Bang, et qui se traduisent maintenant par des ondulations dans la distribution des galaxies.  Ces observations, combinées avec celle des fluctuations du fond diffus cosmologique, permettent de déduire un modèle de l’Univers, appelé « modèle de concordance », constitué pour 70% d’énergie noire, et 30% de matière, dont les trois quarts sont de la matière noire (voir annexe précédente). La masse de l’Univers observé constitué de ces ingrédients est telle qu’il est strictement plat (c’est à dire que son rayon de courbure est infini).

 

 

Les composantes de l’Univers dans le modèle de concordance.

La nature de l’énergie sombre, comme celle de la matière noire, est encore inconnue. L'explication la plus simple consiste à supposer qu’il s’agit bien de la constante cosmologique introduite par Einstein (mais pas avec la valeur qu’il lui avait donnée), et que c’est une propriété fondamentale de l'Univers au même titre que sa vitesse d’expansion et sa densité de matière. Cela impliquerait que la densité d’énergie sombre serait uniforme dans tout l'Univers et invariable en fonction du temps. Pour le moment, les observations – encore peu précises sur ce point – ne sont pas en désaccord avec cette hypothèse. Mais d'autres hypothèses ont été avancées. Certains cosmologistes pensent que l’énergie sombre est associée à l’énergie due aux fluctuations du vide quantique. Problème : cette dernière est beaucoup plus grande que la valeur observée ! Dix à la puissance 120 fois (1 suivi de 120 zéros !), ou à la rigueur dix à la puissance 60 fois trop grande, dépendant des hypothèses sur la symétrie. Donc il faudrait qu’elle soit annulée presque exactement par une autre constante. On est confronté là à un grave problème dont une solution repose sur le « principe anthropique » (voir l’annexe suivante). Et certains supposent que l’énergie sombre pourrait être induite par des champs ou des particules inconnues.
Si la densité de l’énergie sombre reste constante au cours du temps, tandis que la densité de matière diminue, l'expansion de l'espace va continuer à accélérer. Les structures qui ne sont pas liées gravitationnellement s'éloigneront les unes des autres à des vitesses apparentes supérieures à celle de la lumière, et l’horizon de l’Univers observable se rétrécira dans quelques dizaines de milliards d’années pour se réduire aux galaxies les plus proches. Si la densité d’énergie augmente avec le temps, l’Univers finira par se désagréger complètement, devenant totalement vide. Il n’est pas impossible aussi – mais peu probable - qu’elle se mette à diminuer, et que la gravité recommence alors à dominer l’Univers, qui pourrait subir dans ce cas un « Big Crunch » inverse du Big-Bang. Mais tout ceci n’est que spéculation, car tant que l’on n’aura pas compris la nature de l’énergie noire, il est impossible de prévoir le futur de l’Univers.
Une mission spatiale nommée EUCLID (sans « e »)(EUropean Cooperation for LIghtning Detection) doit être lancée en 2019 par l’Agence Spatiale Européenne pour avancer sur ce problème, et ce sera la seule dans les vingt ou trente prochaines années à pouvoir le faire.

9. La vie dans l’Univers

Nous savons que les conditions de naissance de la Vie, et en particulier de la Vie intelligente, sont très contraignantes. Il faut une planète solide et non gazeuse  (donc relativement petite comme la Terre, et beaucoup moins massive que les planètes géantes comme Jupiter ou Saturne qui, elles, sont gazeuses), qu’elle soit située à une distance ni trop grande ni trop petite de son étoile pour que la température y soit vivable, que l’étoile elle-même puisse durer plusieurs milliards d’années en émettant une énergie à peu près constante, qu’il ne s’agisse pas d’une étoile double comme le sont plus de la moitié des étoiles, etc… Ces conditions ont été résumées dans les années 1960 par une formule célèbre, dite « formule de Drake », où le nombre N de civilisations pouvant éventuellement communiquer avec nous est exprimé sous la forme du produit N = R fp ne fl fi fc L, avec : R= Rythme annuel de formation des étoiles similaires au Soleil, fp = Fraction des étoiles disposant d'un système planétaire, ne =Nombre de planètes où l'environnement serait viable, fl =Nombre de planètes où la vie s'est développée, fi =Fréquence de l'émergence de l'intelligence, fc=Probabilité que cette civilisation ait accès aux communications, L=Durée pendant laquelle ces civilisations sont détectables.
Les deux premiers facteurs se calculent facilement car ils ne font intervenir que des processus physiques comme la mécanique céleste ou la nucléosynthèse. D’autre part, si on suppose que la Vie est fondée sur l’existence de l’eau liquide, il est facile de déterminer dans quelle fourchette de distance d’une étoile la surface d’une planète a une température comprise entre zéro et cent degrés (Vénus et Mercure sont trop près du Soleil, Jupiter et Saturne sont trop loin, et de plus ce ne sont pas des planètes solides). Mais même dans un bon contexte, il a fallu un concours de circonstances pour que la Vie ait le temps de se développer sur la Terre. En particulier il faut qu’elle possède une Lune bien placée et de la bonne masse stabilisant son axe et l’empêchant de se retourner en permanence, ce qui aurait induit d’énormes changements climatiques rendant très difficile la survie des espèces. En ce qui concerne les autres facteurs, ils sont tous quasiment inconnus.
Il y a donc une controverse sur la valeur de N : certains (comme « l’astronome fou » de notre livre) soutiennent qu’il est égal à 1, c’est à dire que nous sommes seuls, au moins dans la Galaxie, sinon dans l’Univers entier ; d’autres – la majorité -  pensent qu’étant donné le nombre de planètes dans la Galaxie (plusieurs centaines de milliards, probablement), et la possibilité pour la Vie de voyager dans l’espace interstellaire, il y a beaucoup de chances pour que d’autres civilisations soient présentes dans la Galaxie en même temps que nous. C’est la raison de l’existence du programme SETI (Search for Extra-Terrestrial Intelligence). Ce programme américain lancé au début des années 1960, se propose de détecter les signaux qu’une civilisation extraterrestre pourrait émettre, volontairement ou non. Aucun signal n’a été détecté en plus de cinquante ans. Par contre, une mission spatiale appelée Darwin, aurait pu permettre de détecter dans quelques années la présence de dioxyde de carbone, d’eau et d’oxygène dans les atmosphères des planètes extra-solaires, s’il y en avait. On sait que la combinaison d’eau et d’oxygène est un bon indicateur de photosynthèse. Ç’aurait été déjà un premier pas vers une réponse qu’il était difficile de déduire du pur calcul ; malheureusement cette mission a été annulée car elle était trop chère, mais peut-être va-t-elle renaître de ses cendres dans une période plus favorable.
Mais il existe un autre problème, qui concerne cette fois l’Univers tout entier. C’est l’astronome britannique Fred Hoyle qui le mentionna explicitement pour la première fois.  Il montra en 1954 que le carbone – nécessaire à la formation des éléments plus lourds comme l’oxygène et au développement d’une chimie complexe - se forme lorsqu’un noyau de béryllium rencontre un noyau d’hélium. Mais il faut pour cela qu’existe un niveau du noyau de carbone ayant une énergie égale à la somme de celle du couple hélium-bérylium: c’est ce que l’on nomme une « résonnance ». Sinon la réaction mettrait un temps beaucoup plus long que la durée de vie de l’Univers à se produire. Hoyle prédisait donc l’existence de ce niveau du carbone ; son ami le physicien américain William Fowler entreprit de le chercher expérimentalement et le découvrit presque immédiatement. Hoyle dit alors, à propos de sa prédiction : « La position de ce niveau signifie que des créatures vivantes comme nous ne peuvent exister que dans une portion de l’univers où cette résonnance existe ». 
L’astronome américain Robert Dicke postula pour la première fois en 1961 que l’âge de l’Univers est conditionné par des facteurs biologiques. Il faisait remarquer que l'apparition de la vie nécessite la présence de carbone. Or les noyaux de carbone (et ceux d’oxygène,  de l’azote, du soufre, du silicium, etc… par conséquent) ne sont pas créés dans les premières minutes après le Big-Bang, comme le sont ceux d’hélium et de béryllium, mais lors des réactions nucléaires au sein des étoiles. Il faut donc attendre que les premières étoiles soient formées, et même qu’elles aient évolué et se soient éteintes, pour que leur matière ait été dispersée dans l’espace. L’Univers doit donc avoir au moins un milliard d’années pour avoir déjà généré le carbone et les autres éléments qui nous sont indispensables. Par ailleurs Dicke remarqua que l’Univers ne devait pas être trop âgé, puisque les étoiles ne vivent pas beaucoup plus de dix milliards d’années, et que la formation de nouvelles étoiles va se  tarir au cours du temps. 
En 1973, le physicien britannique Brandon Carter, qui travaille à l’Observatoire de Meudon,  introduisit le terme de “principe anthropique” (« Anthropique », dans le sens « anthropos », homme, en grec) en faisant remarquer que notre présence implique peut-être que nous nous trouvons dans un secteur très particulier de l’Univers : celui qui contient la vie. « Les conditions que nous observons autour de nous sont nécessaires à notre existence, mais nous ne devons pas nécessairement les généraliser à l’ensemble de l’Univers » dit-il. A contrario, si l’Univers est considéré comme homogène, il faut expliquer qu’il soit tel qu’il ait pu donner lieu à l’émergence des systèmes complexes que nous sommes.
D’autres coïncidences favorables à l’apparition de la vie ont été plus récemment mises en avant. L’une d’entre elles est la valeur de l’accélération de l’expansion de l’Univers. Si elle avait été un peu plus grande, l’Univers aurait été soufflé en quelques minutes ou en quelques années, et il n’y aurait eu ni étoile ni Vie ! D’ailleurs le physicien américain Steven Weinberg en a déduit en 1987 (donc bien avant la découverte de l’accélération de l’expansion, voir l’annexe précédente), que la constante cosmologique devait avoir une valeur non nulle, et il a prédit cette valeur, à peu de chose près celle qui est observée. On considère en général qu’il s’agit là d’une prédiction du principe anthropique. On a également remarqué que si l’amplitude des fluctuations du fond diffus cosmologique (dont il est question dans l’annexe précédente) avait été dix fois plus grande ou dix fois plus faible, il n’y aurait jamais eu d’étoiles et de galaxies. Bref, les paramètres cosmologiques semblent tous contraints par le principe anthropique. On peut aller plus loin, et montrer que si les paramètres physiques, comme les intensités des différentes forces de la nature, les masses des particules, la vitesse de la lumière, etc… avaient été légèrement différentes de ce qu’elles sont, la Vie n’aurait pas pu se développer dans l’Univers.
La question qui se pose est donc : pourquoi notre Univers a-t-il ces propriétés particulières qui ont permis à la Vie de se développer ? De nombreux scientifiques répondent que ce problème n’est pas du ressort de la Science mais de la métaphysique. D’autres proposent une solution avec les « multivers », ou univers multiples, dans lesquels les constantes de la nature seraient différentes. Nous vivrions alors dans l’un de ceux qui ont les bonnes constantes. Certains pensent qu’il existe un principe de complexification, qui a amené l’Univers au cours de son refroidissement, depuis la grande simplicité des débuts où tout était lumière, aux particules, aux atomes, aux molécules complexes, et finalement à la biologie. Enfin d’autres disent tout simplement que la réponse est le hasard : les dés sont bien tombés, et d’ailleurs il n’est pas certain que des formes de vie très différentes de la nôtre n’auraient pas pu se développer en présence d’autres constantes de la nature (une vie qui ne serait pas à base de chimie moléculaire, par exemple).

10. Les grands télescopes de l’ESO

L’ensemble du Very Large Telescope(VLT – très grand télescope) a été construit par l’ESO (European Southern Observatory) sur le mont Paranal dans le désert d’Atacama au nord du Chili. Il se compose de quatre télescopes ayant des miroirs primaires de 8,2 mètres de diamètre et de quatre télescopes auxiliaires mobiles de 1,8 mètre. Tous ces télescopes peuvent former un « interféromètre » géant, où les faisceaux lumineux venant des différents télescopes sont combinés pour faire des interférences (VLTI). Le pouvoir de résolution du VLTI est celui d’un télescope unique de 200 mètres de diamètre. Les télescopes de 8,20 mètres peuvent aussi être utilisés indépendamment, ou en additionnant les images des 4 miroirs (mais sans les faire interférer), ce qui en fait l’équivalent du point de vue de la surface collectrice d’un télescope de 16,6 m de diamètre, donc le plus grand du monde actuellement.
L’idée du VLT est apparue à l’ESO à partir de 1978, la recherche d’un site a commencé en 1981, la cnstruction en 1990, et en 2001 les quatre VLT étaient tous opérationnels. Le site est à une altitude de 2600 m, à 12 km de la mer.


Les quatre grands télescopes du Cerro Paranal, à la nuit tombante

Le site où résident et travaillent les astronomes, un peu plus bas