Astronomie

Partie de l'univers visible si l'image de l'époque de l'inflation est collectée

Partie de l'univers visible si l'image de l'époque de l'inflation est collectée


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Toutes mes excuses d'avance pour ma surexposition à la science pop. Je souhaite proposer un télescope suffisamment puissant pour collecter des images de 10^-32 secondes après le « Big Bang », ou dès la fin de l'époque inflationniste. Avec la lumière provenant de l'univers d'un diamètre d'environ 10 ly, ainsi que l'expansion jusqu'à notre taille actuelle, je ne verrais que la plus petite fraction de la lumière d'il y a si longtemps avec un télescope regardant à cette distance.

En supposant que mon télescope a un champ de vision identique à celui du télescope spatial Hubble, quelle fraction du volume total de l'univers à la fin de l'époque inflationniste aurais-je réellement vu ?


tl; dr: Votre champ de vision couvrirait environ un centimètre carré du ciel à ce moment-là, et vous observeriez environ 50 milliardièmes de l'Univers observable.


Vous ne pouvez pas vraiment…

Avec les photons, vous ne pourrez jamais voir plus loin que la recombinaison, lorsque l'Univers avait 380 000 ans, car jusque-là, les électrons libres fabriqués sont opaques au rayonnement.

Avec les neutrinos, vous pouvez (en principe) voir jusqu'à 1 seconde après le Big Bang, mais pour "voir" jusqu'au gonflage, vous aurez probablement besoin d'ondes gravitationnelles.

… mais supposons que vous puissiez quand même

Quoi qu'il en soit, faisons une expérience de pensée et supposons que vous avez un RLT (Ridicully Large Telescope) avec un champ de vision (FoV) du HST. Quelle fraction de l'Univers pouvez-vous voir ? La réponse pourrait vous surprendre:

Plus un objet est éloigné de vous, plus son angle sur le ciel est petit, c'est-à-dire plus il a l'air petit. Cela est vrai pour les oiseaux et les planètes et même pour les galaxies les plus proches. Cependant, pour les galaxies lointaines, un effet étrange contrecarre cela : en raison 1) de la vitesse finie de la lumière et 2) de l'expansion de l'Univers, les galaxies lointaines étaient plus proches de vous lorsqu'elles émettaient la lumière que vous voyez aujourd'hui, et couvraient donc un plus grand angle. . Par conséquent, si vous comparez des galaxies de même taille physique, elles semblent de plus en plus petites jusqu'à environ 15 Glyr (giga-années-lumière), après quoi elles sembleront de plus en plus grandes.

Le champ ultra-profond de Hubble a un FoV de 2,8 sur 2,5 minutes d'arc. La région de l'Univers que couvre ce FoV est donc la plus grande à une distance de 15 Glyr, où elle s'étend sur $4,8 imes4.3,mathrm{Mlyr}^2$ (c'est-à-dire des méga-années-lumière carrés). Mais alors votre FoV commence à s'étendre sur une région de plus en plus petite. Lors de la recombinaison, il ne couvre que 34 $ imes30,mathrm{klyr}^2$ - en d'autres termes, si une galaxie de la taille de la Voie lactée y était présente (elle ne l'était pas), elle serait plus grande que le FoV.

Si vous pouviez remonter jusqu'à 4 heures après le Big Bang, votre FoV s'étendrait sur environ une année-lumière carrée. Trois minutes après BB, alors que tout l'hydrogène et l'hélium de l'Univers venaient d'être créés, il s'étendrait sur $sim0.1 imes0.1,mathrm{lyr}^2$. Quelques microsecondes après BB, il s'étendrait sur environ un carré-UA (la distance de la Terre au Soleil). Environ 10 $^{-22},mathrm{s}$ après BB, il s'étendrait sur un kilomètre carré.

Et à 10 $^{-32},mathrm{s}$ après BB, votre FoV s'étendrait sur 0,8 $ imes0,7,mathrm{cm}^2 $, soit environ un centimètre carré !

Fraction de l'Univers observée

La partie de l'Univers observable que vous observeriez est le volume "derrière" votre FoV. Cela peut être obtenu en intégrant la zone le long de la distance, mais un moyen plus simple consiste simplement à noter le fait que, si votre FoV était le ciel entier, vous observeriez l'univers entier. Puisque votre FoV couvre une fraction du ciel de $$ egin{array} f & = & frac{2.8' imes2.5'}{mathrm{full,sky}} & = & frac{8 imes10^{-4},mathrm{rad},, imes,,7 imes10^{-4},mathrm{rad}}{4pi, mathrm{rad}^2} & = & 5 imes10^{-8}, end{array} $$ c'est la fraction de l'Univers que vous observeriez.

À $t=10^{-32},mathrm{s}$, la partie de l'Univers est devenue plus tard notre Univers observable aujourd'hui, mesurait une dizaine de mètres de rayon. Une autre façon de calculer la fraction est de se rendre compte que le centimètre carré observé ci-dessus comprend approximativement une fraction $f$ de la surface d'une sphère avec un rayon de dix mètres.


Étiquette : astronomie

À cette époque, la semaine dernière, j'avais hâte de sortir de cette maison - celle dans laquelle nous nous abritons depuis la mi-mars pour un voyage d'une semaine dans un BnB à Flint Hills.

Mon plan initial prévoyait de dépoussiérer mon télescope dans l'espoir d'observer le ciel sombre, seulement j'ai oublié de vérifier le calendrier des phases de la lune avant de réserver la cabine. La pleine lune a lieu cette semaine (demain si je me souviens bien).

Mais malgré tout le stress de participer (en tant que chef d'équipe) à un hackathon (et de terminer deuxième), s'échapper de notre maison, même brièvement, n'était pas dans les étoiles.

La santé de Terry est un problème depuis plusieurs mois maintenant, y compris un voyage à l'hôpital le mois dernier pendant quelques jours (qui s'est avéré être une mauvaise réaction et interaction médicamenteuse). La nourriture de l'hôpital a également eu un impact sur son système digestif et il souffre encore des semaines plus tard. Ainsi, au dernier moment possible, j'ai annulé le voyage (reprogrammé pour la nouvelle lune à la mi-avril 2021) et me suis résigné à une semaine de projets de rénovation et d'entretien de l'habitat.


Q&A : Un multivers nie-t-il la vérité biblique ?

Tout d'abord, je tiens à vous remercier infiniment pour tout ce que vous faites. Vous avez certainement étiré mon cerveau d'une manière que je ne pensais pas vraiment possible. Je suppose que ma question en témoigne. Ma question concerne le concept d'histoires multiples, ou plutôt infinies, dans le cadre du multivers. Je pense que je me souviens avoir lu dans l'un des nombreux articles multivers que Jeff a écrits qu'un univers infini… est purement physique ou quelque chose du genre. Donc, à partir de là, j'ai conclu que des choses comme les Écritures ne sont pas affectées puisqu'elles parlent de choses spirituelles et que la vérité est une chose non physique. Cependant, j'ai commencé à me demander, s'il y a effectivement des histoires infinies, n'est-il pas possible qu'aux confins de l'univers infini, il y ait une autre planète comme la nôtre, avec des humains comme nous, avec une Bible comme la nôtre, avec un sauveur tout comme Jésus qui prétendait être le Fils de Dieu, sauf que ce Jésus est mort par une autre méthode ou a enseigné une autre vérité ? Alors, à partir de là, comment pouvons-nous vraiment savoir si la spiritualité, ou l'âme humaine, existe, ou même si la vérité existe, si tout n'est qu'un produit du multivers ? J'espère avoir de vos nouvelles et que Dieu vous bénisse.

Bonne question, Ethan. Pour commencer, je dirais que les humains sur la planète Terre sont uniques quelle que soit l'existence/la taille de notre univers/multivers. Et, non, Jésus ne prend pas une autre nature humaine comme sauveur sur une autre planète. Mais deux ou trois choses ont besoin d'être clarifiées.

Premièrement, la raison pour laquelle de plus en plus de scientifiques pensent qu'il existe un multivers infiniment grand découle en fin de compte de l'inflation. Des preuves récentes plaident fortement en faveur d'une époque inflationniste au début de l'histoire de notre univers. Alors que les scientifiques cherchent à comprendre comment fonctionne l'inflation, ils rencontrent à plusieurs reprises la situation selon laquelle le processus même qui conduit l'inflation produit un univers extrêmement grand (sinon infini), un univers qui est l'un des membres d'un vaste multivers.

Deuxièmement, dans ce scénario, la taille de notre univers (extrêmement grande et peut-être infinie) soulève la question de savoir si tout ce que nous pouvons voir se produit réellement de manière répétée dans d'autres parties de l'univers. Pour clarifier, considérons une main de cinq cartes distribuée à partir d'un jeu standard (pas de jokers). Chaque nouvelle main de cinq cartes sera probablement différente des autres car il existe plus de deux millions de mains possibles – 2 598 960 pour être exact. Cependant, distribuer la 2 598 961ème main garantit au moins deux mains identiques. La même situation se présente lorsque l'on considère notre univers observable. Bien qu'il soit extrêmement grand, le nombre d'arrangements de tout l'espace, du temps, de la matière et de l'énergie est fini et notre univers observable est beaucoup plus petit que l'ensemble de l'univers inflationniste. Ainsi, il semblerait que toute l'histoire visible par l'humanité se répéterait dans des régions éloignées de l'univers.

Pourquoi, alors, est-ce que je plaide pour l'unicité de l'humanité ? Parce que le scénario décrit ci-dessus ne se produit que pour les éléments physiques (comme les atomes, les photons, les électrons, etc.). Pourtant, la Bible décrit l'humanité comme étant faite à l'image de Dieu, ce qui semble inclure une composante intrinsèquement non physique. Cela conduit même des penseurs athées à reconnaître que la conscience ne se réduit pas à des composants physiques. Si les humains possèdent une composante intrinsèquement non physique, alors aucune réorganisation de la matière du cosmos ne reproduira l'humanité ailleurs (bien qu'une planète similaire à la Terre se produise). Nous sommes donc les seuls humains dans l'univers.

Un moyen puissant de déterminer la vérité est de tester les affirmations par rapport à la réalité. Maintes et maintes fois, les affirmations de la Bible correspondent aux données dérivées de l'étude de cet univers. Compte tenu de ce bilan, nous pouvons faire confiance à ce qu'il dit sur le caractère unique de l'humanité avec confiance que les futurs tests continueront d'affirmer sa véracité.


Un nouveau changement de paradigme pour l'univers infantile

Un nouveau paradigme pour comprendre les premières époques de l'histoire de l'univers a été développé par des scientifiques de la Penn State University. En utilisant des techniques d'un domaine de la physique moderne appelé cosmologie quantique en boucle, développée à Penn State, les scientifiques ont maintenant étendu des analyses qui incluent la physique quantique plus loin que jamais auparavant - jusqu'au début. Le nouveau paradigme des origines quantiques en boucle montre, pour la première fois, que les structures à grande échelle que nous voyons maintenant dans l'univers ont évolué à partir de fluctuations fondamentales de la nature quantique essentielle de l'espace-temps, qui existait même au tout début de l'univers il y a plus de 14 milliards d'années. Cette réalisation offre également de nouvelles opportunités pour tester les théories concurrentes de la cosmologie moderne par rapport aux observations révolutionnaires attendues des télescopes de nouvelle génération. La recherche sera publiée le 11 décembre 2012 sous la forme d'un article « Suggestion de l'éditeur » dans la revue scientifique Physical Review Letters.

Selon la théorie du Big Bang sur la façon dont notre univers a commencé, tout notre cosmos s'est étendu à partir d'un état extrêmement dense et chaud et continue de s'étendre aujourd'hui. Le schéma graphique ci-dessus est un concept d'artiste illustrant l'expansion d'une partie d'un univers plat. Image via Wikimedia Commons.

"Nous, les humains, avons toujours aspiré à mieux comprendre l'origine et l'évolution de notre univers", a déclaré Abhay Ashtekar, l'auteur principal de l'article. “C'est donc une période passionnante dans notre groupe en ce moment, alors que nous commençons à utiliser notre nouveau paradigme pour comprendre, plus en détail, la dynamique de la matière et la géométrie vécues pendant les premières ères de l'univers, y compris au tout début.& #8221 Ashtekar est titulaire de la chaire Eberly Family en physique à Penn State et directeur de l'Institut universitaire pour la gravitation et le cosmos. Les coauteurs de l'article, avec Ashtekar, sont les boursiers postdoctoraux Ivan Agullo et William Nelson.

Le nouveau paradigme fournit un cadre conceptuel et mathématique pour décrire la géométrie exotique de la mécanique quantique de l'espace-temps au tout début de l'univers. Le paradigme montre que, au cours de cette première ère, l'univers a été compressé à des densités si inimaginables que son comportement n'était pas régi par la physique classique de la théorie de la relativité générale d'Einstein, mais par une théorie encore plus fondamentale qui intègre également l'étrange dynamique de la mécanique quantique. La densité de matière était alors énorme : 1094 grammes par centimètre cube, par rapport à la densité d'un noyau atomique aujourd'hui, qui n'est que de 1014 grammes.

Dans cet étrange environnement de mécanique quantique, où l'on ne peut parler que de probabilités d'événements plutôt que de certitudes, les propriétés physiques seraient naturellement très différentes de la façon dont nous les vivons aujourd'hui. Parmi ces différences, a déclaré Ashtekar, se trouvent le concept de « temps », ainsi que la dynamique changeante de divers systèmes au fil du temps à mesure qu'ils expérimentent le tissu de la géométrie quantique elle-même.

Aucun observatoire spatial n'a été capable de détecter quoi que ce soit aussi longtemps et aussi loin que les toutes premières ères de l'univers décrites par le nouveau paradigme. Mais quelques observatoires se sont rapprochés. Le rayonnement de fond cosmique a été détecté à une époque où l'univers n'avait que 380 000 ans. À ce moment-là, après une période d'expansion rapide appelée "inflation", l'univers avait éclaté en une version très diluée de son ancien moi super-compressé. Au début de l'inflation, la densité de l'univers était mille milliards de fois inférieure à ce qu'elle était à ses débuts, de sorte que les facteurs quantiques sont maintenant beaucoup moins importants pour régir la dynamique à grande échelle de la matière et de la géométrie.

Les observations du rayonnement de fond cosmique montrent que l'univers avait une consistance principalement uniforme après l'inflation, à l'exception d'un léger saupoudrage de certaines régions plus denses et d'autres moins denses. Le paradigme inflationniste standard pour décrire l'univers primitif, qui utilise les équations de la physique classique d'Einstein, traite l'espace-temps comme un continuum lisse. « Le paradigme inflationniste connaît un succès remarquable pour expliquer les caractéristiques observées du rayonnement de fond cosmique. Pourtant, ce modèle est incomplet. Il retient l'idée que l'univers a jailli de rien dans un Big Bang, qui résulte naturellement de l'incapacité de la physique de la relativité générale du paradigme à décrire des situations extrêmes de mécanique quantique », a déclaré Agullo. « On a besoin d'une théorie quantique de la gravité, comme la cosmologie quantique en boucle, pour aller au-delà d'Einstein afin de capturer la vraie physique près de l'origine de l'univers.

Le Hubble eXtreme Deep Field montre la partie la plus éloignée de l'espace que nous ayons encore vue en lumière optique. C'est notre regard le plus profond à ce jour sur le temps du tout premier univers. Sortie le 25 septembre 2012, l'image a compilé 10 ans d'images précédentes et montre des galaxies d'il y a 13,2 milliards d'années. Crédit image : NASA ESA G. Illingworth, D. Magee et P. Oesch, Université de Californie, Santa Cruz R. Bouwens, Université de Leiden et équipe HUDF09.

Des travaux antérieurs avec la cosmologie quantique en boucle dans le groupe Ashtekar avaient mis à jour le concept du Big Bang avec le concept intrigant d'un Big Bounce, qui permet la possibilité que notre univers ait émergé non pas de rien mais d'une masse de matière super-comprimée qui auparavant peut avoir eu une histoire qui lui est propre.

Même si les conditions de la mécanique quantique au début de l'univers étaient très différentes des conditions de la physique classique après l'inflation, la nouvelle réalisation des physiciens de Penn State révèle un lien surprenant entre les deux paradigmes différents qui décrivent ces époques. Lorsque les scientifiques utilisent le paradigme de l'inflation avec les équations d'Einstein pour modéliser l'évolution des zones semblables à des graines dispersées dans le rayonnement de fond cosmique, ils constatent que les irrégularités servent de graines qui évoluent avec le temps dans les amas de galaxies et d'autres amas de galaxies à grande échelle. structures que nous voyons dans l'univers aujourd'hui. Étonnamment, lorsque les scientifiques de Penn State ont utilisé leur nouveau paradigme d'origines quantiques en boucle avec ses équations de cosmologie quantique, ils ont découvert que les fluctuations fondamentales de la nature même de l'espace au moment du Big Bounce évoluent pour devenir les structures semblables à des graines observées. dans le fond cosmique des micro-ondes.

"Nos nouveaux travaux montrent que les conditions initiales au tout début de l'univers conduisent naturellement à la structure à grande échelle de l'univers que nous observons aujourd'hui", a déclaré Ashtekar. « En termes humains, c'est comme prendre un instantané d'un bébé dès sa naissance et pouvoir ensuite projeter à partir de celui-ci un profil précis de la façon dont cette personne sera à 100 ans. »

“Cet article repousse la genèse de la structure cosmique de notre univers de l'époque de l'inflation jusqu'au Big Bounce, couvrant environ 11 ordres de grandeur dans la densité de la matière et la courbure de l'espace-temps,” Nelson mentionné. "Nous avons maintenant réduit les conditions initiales qui pourraient exister au Big Bounce, et nous constatons que l'évolution de ces conditions initiales est en accord avec les observations du rayonnement de fond cosmique."

Les résultats de l'équipe identifient également une gamme plus étroite de paramètres pour lesquels le nouveau paradigme prédit de nouveaux effets, le distinguant de l'inflation standard. Ashtekar a déclaré : « Il est passionnant que nous puissions bientôt tester différentes prédictions de ces deux théories par rapport à de futures découvertes avec des missions d'observation de nouvelle génération. De telles expériences nous aideront à continuer à acquérir une compréhension plus approfondie de l'univers très, très ancien.”


Le Big Bang des données et l'univers numérique en expansion : des ensembles de données de grande dimension, complexes et massifs à une époque d'inflation

Les progrès récents et à venir dans l'instrumentation et les nouveaux relevés géants créent des ensembles de données astronomiques qui ne se prêtent pas aux méthodes d'analyse familières aux astronomes. Les méthodes traditionnelles sont souvent inadéquates non seulement en raison de la taille en octets des ensembles de données, mais aussi en raison de la complexité des ensembles de données modernes. Les limitations mathématiques des algorithmes et des techniques familiers dans le traitement de tels ensembles de données créent un besoin critique de nouveaux paradigmes pour la représentation, l'analyse et la visualisation scientifique (par opposition à la visualisation illustrative) de données hétérogènes et multirésolutions dans tous les domaines d'application. Certains des problèmes présentés par les nouveaux ensembles de données ont été abordés par d'autres disciplines telles que les mathématiques appliquées, les statistiques et l'apprentissage automatique et ont été utilisés par d'autres sciences telles que les géosciences spatiales.Malheureusement, les résultats précieux relatifs à ces problèmes se trouvent pour la plupart dans des publications en dehors de l'astronomie. Nous proposons ici de brefs aperçus d'un certain nombre de concepts, de techniques et de développements essentiels à l'analyse et à la visualisation d'ensembles de données et d'images complexes. L'un des objectifs de cet article est d'aider à combler le fossé entre les mathématiques appliquées et l'intelligence artificielle d'un côté et l'astronomie de l'autre.

1. Introduction

L'astronomie connaît une croissance rapide, sans précédent et qui s'accélère à la fois en termes de quantité et de complexité intrinsèque des données. Ceci résulte en partie des grands relevés du ciel passés et futurs : le Sloan Digital Sky Survey [1], le Large Synoptic Survey Telescope (LSST) [2, 3], la mission GAIA de l'ESA [4], Pan-STARRS [5, 6], Palomar Transient Factory [7], LAMOST [8] et Palomar-Quest Survey [9]. Des enquêtes plus petites et des catalogues composés de

10 3 –10 4 objets apparaissent chaque année. La disponibilité croissante de spectrographes à objets multiples déployés dans des observatoires au sol permet aux observateurs d'obtenir des spectres de centaines d'objets en une seule exposition [10-16]. Des spectrographes à millions d'objets ont été proposés et font l'objet d'études de conception (par exemple, [17, 18]). Tous ensemble, et parfois individuellement, ces projets créent pour l'astronomie d'énormes ensembles de données multitemporelles et multispectrales composés d'images couvrant plusieurs bandes d'ondes et comprenant des milliards d'objets. En outre, l'Observatoire virtuel (VO) entreprend de combiner les données historiques existantes de toutes les longueurs d'onde en ce qui sera, du point de vue de l'utilisateur, un ensemble de données unique d'une taille gigantesque et d'une complexité sans précédent (http://www.ivoa.net/) .

De plus, des formes de données mathématiquement nouvelles (pour l'astronomie) commencent à apparaître, comme celles de la mission Planck de l'ESA dans laquelle le fond diffus cosmologique (CMB) est caractérisé par un

matrice en chaque point du ciel [19].

D'autres grands défis découlent des reconstructions dites tridimensionnelles (3D). Par exemple, un problème très important et difficile de l'astrophysique solaire est la reconstruction 3D des éjections de masse coronale [20]. Le problème de reconstruction qui en résulte ne peut pas être résolu par des méthodes classiques et doit être résolu par des méthodes de traitement d'images plus modernes comme la détection compressée (voir Section 5). Un autre exemple de reconstruction tomographique provient de la cartographie de l'hydrogène neutre utilisant la raie décalée vers le rouge de 21 cm qui est récemment apparue comme une sonde cosmologique prometteuse. Un certain nombre de radiotélescopes sont actuellement proposés, planifiés ou construits pour observer la ligne d'hydrogène décalée vers le rouge de 21 cm de l'époque de la réionisation (par exemple, le télescope à transformation de Fourier rapide, [21]).

La richesse et la complexité des nouveaux ensembles de données fourniront à l'astronomie une mine d'informations et la plupart des progrès de recherche attendus de ces ensembles reposent intrinsèquement sur leur énormité et leur complexité. Afin de tirer pleinement parti des immenses ensembles de données multispectrales et multitemporelles, leur analyse doit être automatisé, ou au moins semi-automatisé, et devrait comprendre les étapes suivantes : détection, caractérisation et classification de divers éléments d'intérêt, suivis, si nécessaire, de prise de décision automatisée et éventuellement par des alertes automatiques intelligentes (par exemple pour des observations de suivi ou des problèmes de qualité des données). De plus, un traitement en temps réel peut être requis. Les données complexes nécessitent également une visualisation scientifique plutôt qu'une visualisation illustrative ordinaire. Par visualisation scientifique, nous entendons une visualisation qui ne reproduit pas simplement les choses visibles, mais rend les choses visibles, permettant ainsi l'extraction de modèles significatifs à partir d'ensembles de données multiparamétriques et facilitant finalement l'analyse. Tout cela nécessite le développement et l'adaptation de méthodes modernes de représentation, d'analyse et de visualisation des données. Les méthodes désormais standard en astronomie sont souvent inefficaces car les ensembles de données sont trop volumineux et trop complexes pour que les outils existants puissent être facilement mis à l'échelle, allant de la gestion de plusieurs paramètres à des dizaines ou plus. Il existe également des limitations importantes inhérentes aux algorithmes mathématiques familiers aux astronomes. La visualisation scientifique, la réduction de dimensionnalité et les méthodes non paramétriques en général font partie des catégories d'outils les moins avancées en astronomie, car jusqu'à ce siècle, il n'y avait pas eu d'ensembles de données nécessitant de nouvelles approches liées à ces aspects des données. Tout cela crée non seulement un besoin critique de nouveaux outils sophistiqués, mais appelle en outre de toute urgence nouveaux paradigmes pour l'analyse, la visualisation et l'organisation de données hétérogènes et multirésolutions dans tous les domaines d'application.

La communauté astronomique est de plus en plus consciente du fait que des méthodes nouvelles et avancées de mathématiques appliquées, de statistiques et de technologies de l'information doivent être développées et utilisées. Trois des exposés de position sur l'état de la profession soumis à l'Astronomy and Astrophysics Decadal Survey ont fortement souligné le besoin de l'astronomie de nouveaux outils informatiques et mathématiques au cours de la prochaine décennie [22-24] (voir : http://sites.nationalacademies.org/bpa /BPA_049492). Diverses initiatives et projets de recherche individuels et organisationnels ont été proposés ou sont en cours pour relever au moins partiellement ce défi imminent en développant ou en mettant en œuvre une nouvelle génération de méthodes de représentation, de traitement et de visualisation des données.

Cependant, il existe un grand fossé de communication entre l'astronomie et d'autres domaines où des solutions adéquates existent ou sont en cours de développement : mathématiques appliquées, statistiques et intelligence artificielle.

Les principaux objectifs de cet article sont doubles. Tout d'abord, nous souhaitons attirer l'attention sur certains besoins spécifiques de nouvelles techniques d'analyse de données. Deuxièmement, nous décrivons quelques approches et solutions innovantes à certains de ces problèmes et donnons des exemples de nouveaux outils qui permettent une analyse, une représentation et une visualisation efficaces des nouveaux ensembles de données multispectrales/multitemporelles qui offrent une richesse énorme s'ils sont exploités avec les outils appropriés. La quantité considérable de travaux pertinents déjà accomplis dans des disciplines en dehors de l'astronomie ne nous permet pas d'offrir un examen complet de tous les aspects de ces sujets et problèmes complexes, mais nous avons sélectionné un certain nombre d'exemples importants.

La structure du papier est la suivante. Dans la section 2, nous discutons des défis liés au traitement semi-automatisé des images de faible dimension et décrivons brièvement notre cadre pour le traitement avancé des images astronomiques. La section 3 décrit les problèmes posés par les ensembles de données astronomiques complexes. La section 4 aborde certains de ces problèmes et présente des méthodes innovantes pour la réduction de dimension non linéaire, l'échantillonnage sur des graphes et des variétés. intuition physique dérivée de la synchronisation des oscillations non linéaires La section 5 passe en revue certaines approches récentes des défis posés par les ensembles de données complexes de grande dimension et leur importance pour les problèmes cosmologiques et astrophysiques en particulier, nous discutons brièvement dans cette partie d'un nouvel outil appelé aiguilles pour le traitement des données posées sur la sphère, des applications des aiguilles à l'analyse des données CMB, et une généralisation des transformées en ondelettes aux variétés riemanniennes. L'article se termine par une conclusion.

2. Cadre de traitement et de visualisation des images astronomiques

De vastes ensembles de données exigent un traitement d'image automatisé ou semi-automatisé et une évaluation de la qualité des images traitées. En effet, le grand nombre d'objets observés en attente d'analyse rend évident le besoin d'une automatisation sophistiquée de la détection, de la caractérisation et de la classification des objets. L'adaptation des avancées récentes de la vision par ordinateur et du traitement d'images pour l'astronomie et la conception et la mise en œuvre d'un cadre de traitement d'images (voir ci-dessous) qui utiliserait ces réalisations continues, reste cependant un défi majeur.

Les développeurs et les utilisateurs ont compris que la création d'une application ne se résume pas à une simple programmation. L'objectif de créer une application flexible (voir ci-dessous) est habituellement atteint en exploitant le paradigme orienté objet [25, 26]. En informatique, de tels systèmes sont appelés frameworks [27]. Les frameworks sont flexibles et les utilisateurs peuvent étendre les capacités des frameworks en installant des plug-ins sans avoir à réécrire le code de base. Un cadre d'application se compose de modules de calcul (de traitement), de données et d'une interface interactive. Les frameworks sont extensibles (c'est-à-dire qu'ils peuvent facilement adopter des produits logiciels pour des changements de spécifications) et réutilisables (les éléments logiciels peuvent servir à la construction de nombreuses nouvelles applications différentes).

Les éléments clés d'un système qui unifie un large éventail de méthodes de traitement d'images astronomiques devraient être des modules de calcul et de visualisation. Un tel cadre indépendant de la plate-forme avec un environnement intégré a été décrit dans Pesenson et al. [28]. Il fournit de nombreuses fonctionnalités de visualisation courantes ainsi que la possibilité de combiner ces images (superpositions, etc.) de manière nouvelle et unique. Le framework dispose d'une interface graphique très intuitive qui permet à l'utilisateur de configurer un pipeline personnalisé de manière interactive et de traiter des images individuellement ou en mode batch. Les produits finaux, ainsi que les résultats de chaque étape, sont visibles avec le cadre. Il donne également accès à différentes archives de données et peut facilement incorporer des modules personnalisés écrits dans n'importe quel langage de programmation. Les figures 1 à 4 donnent quelques exemples explicites qui illustrent certaines des fonctionnalités du framework.


(une)
(b)
(une)
(b) ESO-La Silla avec l'aimable autorisation de A. Grado, INAF-Osservatorio Astronomico di Capodimonte. (a) images pré et post-traitées superposées, la croix rouge montre approximativement le bord du halo diffus. (b) Flux coupé à travers les images pré et post-traitées superposées (rouge et verte, resp.) la ligne grise verticale (près du centre du tracé) correspond à la croix rouge dans le tracé à gauche après le prétraitement le niveau moyen « extérieur » du halo est inférieur au niveau moyen « intérieur », permettant ainsi une meilleure séparation automatisée du halo diffus du fond.

(une)
(b)
(une)
(b)
(une)
(b)
(une)
(b) Images pré et post-traitées superposées [28]. (a) Trois images superposées d'IC ​​405 : Spitzer Caméra IRAC 8.0

(une)
(b)
(c)
(une)
(b)
(c)

Le cadre traite principalement de la régularisation et de la segmentation des images. Ce sont des premières étapes fondamentales pour la détection et la caractérisation d'éléments d'image ou d'objets et en tant que tels, ils jouent un rôle principal dans la réalisation d'applications de vision par ordinateur automatisées. La segmentation d'images peut être décrite en gros comme le processus qui subdivise une image en ses parties constitutives (objets) et extrait ces parties d'intérêt. Depuis le début de la segmentation d'images dans les années 1960, un grand nombre de techniques et d'algorithmes de segmentation d'images ont été développés.

Cependant, en raison des progrès révolutionnaires de l'instrumentation, la complexité des images a considérablement changé : l'extension des images en niveaux de gris aux images multi et hyperspectrales, des images 2D à la 3D, des images fixes aux séquences d'images, des images tensorielles (polarisation données), et ainsi de suite. Certaines méthodes modernes et de pointe pour le traitement d'images ont été développées récemment, et sont développées aujourd'hui, par des scientifiques de l'information en dehors de l'astronomie. Les progrès substantiels dans cette direction réalisés par les communautés du traitement d'images et de la vision par ordinateur [30, 31], ont trouvé de multiples applications en physique, technologie et sciences biomédicales. Malheureusement, pour la plupart, ces avancées n'ont pas encore été utilisées par la communauté astronomique.

La représentation et l'amélioration d'images à plusieurs échelles sont de telles approches. Ils sont devenus des éléments importants des systèmes de vision par ordinateur et du traitement d'image moderne. L'approche multi-échelle s'est avérée particulièrement utile pour la segmentation d'images pour la détection de caractéristiques et d'artefacts. Il permet une recherche fiable d'objets de morphologies très différentes, tels que des sources ponctuelles faibles, des restes diffus de supernova, des amas de galaxies, des artefacts de données indésirables, ainsi que des objets inhabituels nécessitant une inspection détaillée par un scientifique. Il est bien connu que dans les images astronomiques, on voit souvent à la fois des sources ponctuelles et des objets étendus tels que des galaxies noyées dans une émission étendue (voir, par exemple, les figures 2, 6 et 7). En raison du problème de robustesse par rapport au bruit (section 4), un prétraitement minutieux est nécessaire avant de pouvoir appliquer en toute sécurité une segmentation d'image ou une réduction de dimension. Ainsi, un moyen adéquat de prétraitement est ce qui doit être traité en premier.

Une approche efficace du débruitage est basée sur des équations aux dérivées partielles et peut être considérée comme le lissage local adaptatif d'une image le long de directions définies qui dépendent des intensités locales. On veut lisser une image tout en préservant ses caractéristiques en effectuant un lissage local majoritairement suivant les directions des bords en évitant de lisser orthogonalement à ces bords. De nombreux schémas de régularisation ont été développés jusqu'à présent pour le cas d'images scalaires bidimensionnelles simples. Une extension de ces algorithmes aux images vectorielles n'est pas simple. Pour une image en niveaux de gris, le dégradé est toujours perpendiculaire aux objets level set de l'image cependant, dans le cas multicanal, cette qualité ne tient pas. L'application de la diffusion non linéaire à chaque canal ou bande spectrale séparément est une façon possible de traiter les cubes multi- et hyperspectraux cependant, elle ne tire pas parti de la richesse des données multi/hyperspectrales. De plus, si le détecteur de contour n'agit que sur un canal, cela peut entraîner un effet indésirable, tel qu'un flou de couleur, où les contours des images en couleur sont flous en raison de la géométrie locale différente dans chaque canal. Ainsi, un couplage entre canaux d'images devrait apparaître dans les équations à travers la géométrie vectorielle locale. Nous y parvenons en implémentant une diffusion non linéaire sur un graphe pondéré, généralisant ainsi l'approche adoptée par Pesenson et al. [28]. L'équation principale est linéaire, mais la non-linéarité entre par les poids affectés aux bords du graphique. Cet algorithme respecte la géométrie de lissage local et sert donc bien d'étape de prétraitement nécessaire à la réduction de dimension (Section 4).

Notre framework gère les images scalaires bidimensionnelles et ouvre la voie au traitement d'image semi-automatisé et à l'évaluation de la qualité d'image. Cependant, la capacité d'extraire des connaissances utiles à partir d'ensembles de données de grande dimension devient de plus en plus importante (section 3). Elle est étroitement liée à la recherche de modèles structurels complexes de connexions interdépendantes et dépend fortement de la capacité à réduire les dimensions des données brutes. Ce problème constitue un grand défi pour les communautés scientifiques et technologiques. Pour étendre les fonctionnalités du framework aux images et aux ensembles de données de grande dimension, nous avons développé de nouveaux algorithmes pratiques pour la réduction des dimensions. Dans la section suivante, nous décrivons certains des défis présentés par les ensembles de données modernes de grande dimension.

3. Ensembles de données complexes et massifs

L'astronomie a longtemps trouvé que l'utilisation de plusieurs dimensions de données était une aide cruciale pour progresser. Par exemple, des études de sources H-alpha lorsqu'elles sont corrélées avec des types spectraux ont guidé l'astronomie pour découvrir de nouveaux types d'objets intéressants tels que les étoiles Herbig AeBe [32]. La comparaison croisée des luminosités, des décalages vers le rouge et des morphologies des objets optiques a conduit à la découverte des quasars. L'émission de rayons X s'est avérée être une méthode très efficace pour identifier les objets pré-séquence principale dans un large champ de vision (par exemple, revue [33]). Le fait que le même objet (SS 433) présentait une émission H-alpha et une forte variabilité radio et optique a conduit les astronomes à approfondir leurs recherches et ainsi découvrir l'existence de microquasars [34-36]. D'autres découvertes résultant de l'utilisation de données multidimensionnelles utilisant seulement quelques dimensions incluent des éléments tels que les binaires à rayons X Be et les répéteurs de rayons gamma mous.

Les diagrammes couleur-amplitude simples sont un autre outil traditionnel tirant parti de plusieurs dimensions de données (par exemple, le catalogage des candidats YSO à partir des données d'enquête Spitzer, Whitney et al. [37]). De plus, il est bien connu que de simples tracés couleur-couleur utilisant quatre couleurs permettent de classer de manière efficace et assez fiable en types physiques un grand nombre d'objets (données IRAS, par exemple [38, 39] données 2MASS, par exemple, [40 ] Données MSX, par exemple [41, 42] Spitzer données, par exemple, [43]) ainsi que pour découvrir de nouveaux objets intéressants en tant que valeurs aberrantes (par exemple, Luminous Red Novae, [44, 45]). La signification et l'utilité de corrélations croisées multi-longueurs d'onde plus complexes dans des domaines de longueurs d'onde largement séparés restent un défi non trivial mais fructueux encore en cours d'exploration (par exemple, les microquasars identifiés en comparant les propriétés radio, IR et rayons X [46]).

Comme des données multi-longueurs d'onde sont devenues disponibles pour un grand nombre d'objets au cours des dernières décennies, le nombre de dimensions de données pour un objet typique a augmenté au-delà de ce qui peut être visualisé et étudié à l'aide de tracés couleur-couleur classiques et de corrélations utilisant seulement quelques dimensions. Par exemple, Egan et al. [41] écrivent « les données à six dimensions sont difficiles à représenter de plus, il n'est pas clair que toutes les couleurs donnent des informations complètement indépendantes » (voir Figure 5).


Les graphiques couleur-couleur sont une forme familière de visualisation scientifique. Cet exemple (de [41]) montre, simultanément, des informations couleur-couleur infrarouge pour plusieurs catégories différentes d'objets. Différentes classes d'objets sont représentées par différents symboles ou différentes teintes. Ainsi, plusieurs dimensions de données (les quatre couleurs IR et les différentes classes d'objets) sont représentées.



Alors que la figure 5 permet avec succès d'identifier des modèles significatifs, on imagine facilement qu'essayer d'afficher un nombre beaucoup plus grand de dimensions de données en utilisant simplement beaucoup plus de couleurs et de symboles superposés sur le même tracé et la même région de l'espace des paramètres ne serait pas utile. forme de visualisation scientifique. De plus, les tracés à deux dimensions ne sont évidemment pas utiles pour exprimer des relations entre plus de quatre couleurs. La visualisation scientifique efficace d'un grand nombre de dimensions de données nécessite de nouvelles techniques.

Les informations de catalogue disponibles pour un grand nombre d'objets comprennent déjà des informations telles que la magnitude, plusieurs couleurs optiques et IR, les métallicités, les types spectraux, etc. Un catalogue de galaxies inclurait bien sûr d'autres paramètres tels que la morphologie et le redshift. Lorsque les spectres sont considérés et comparés en détail, le grand nombre de caractéristiques d'émission et d'absorption aggrave évidemment considérablement le problème. Encore plus de complexité est ajoutée lorsque l'on tente de corréler une grande grille de modèles avec un grand ensemble de données ayant de nombreuses dimensions (par exemple, l'analyse YSO [37]) afin de créer une rétroaction pour les modèles basés sur des échantillons statistiquement significatifs plutôt que sur quelques prototypes présumés.


(une)
(b)
(c)
(une)
(b)
(c) Tester l'algorithme sur des données synthétiques. Un ensemble tridimensionnel simulé d'un millier de points aléatoires uniformément répartis avec un motif à double losange créé en attribuant des poids importants aux arêtes reliant les points du motif (alors que le reste des poids est négligeable). (a) et (b): deux captures d'écran d'une animation en cours - chaque point de l'ensemble oscille (dans ce cas en trois dimensions) avec sa propre fréquence aléatoire. (c) La synchronisation des points qui sont connectés avec des bords de poids élevé permet de révéler le motif visuellement (pour éviter un encombrement supplémentaire, les bords ne sont pas affichés dans l'animation), ou automatiquement, en sélectionnant des points synchronisés et en les mettant en évidence.

D'autres exemples de données de grande dimension incluent, sans s'y limiter, des ensembles de données multiparamétriques (par exemple, la variété de galaxies, [47, 48]), des ensembles de données et des images multitemporelles, multispectrales et hyperspectrales, et des simulations à haute résolution sur massivement ordinateurs parallèles. L'ampleur du défi informatique pour les algorithmes de reconnaissance de formes et de classification est suggérée par le fait que le VO contiendra des milliards de points de données ayant chacun des centaines de dimensions [49].

Tous ces exemples démontrent clairement que le traitement automatisé et semi-automatisé requis par la croissance sans précédent et accélérée à la fois de la quantité et de la complexité des données astronomiques exige de nouvelles façons de représenter l'information. Dans la section suivante, nous discutons de ces approches et décrivons certains des algorithmes originaux que nous avons développés au cours de ce travail en cours.

4. Réduction de la dimensionnalité et échantillonnage pour les ensembles de données complexes et volumineux

Étant donné que les approches de données complexes nécessitent des mathématiques avancées, les astronomes qui souhaitent en tirer parti auront besoin d'au moins quelques connaissances de base sur des concepts et une terminologie mathématiques nouveaux et inconnus. L'adoption pratique complète de telles méthodes nécessite des scientifiques interdisciplinaires qui comprennent les nouvelles approches en profondeur et souhaitent travailler avec des astronomes pour adapter et appliquer les méthodes aux ensembles de données astronomiques. Cela se produit déjà dans le cadre de certaines recherches. La première étape pour un astronome « ​​néophyte », cependant, est d'apprendre « ce qui existe » comme base pour une enquête plus approfondie et une considération de l'utilité de diverses méthodes. Le but de cette section est d'offrir une introduction et une explication très basiques de certains de ces concepts inconnus.

L'apprentissage automatique [50] devient de plus en plus important en astronomie (voir des revues approfondies [51, 52]). Les principaux objectifs de l'apprentissage automatique sont le clustering (identification automatique de groupes d'objets similaires) et la classification (attribution d'étiquettes aux instances). Cependant, la haute dimensionnalité complique l'apprentissage automatique et peut facilement contrecarrer l'ensemble de l'effort. Cela devient également un obstacle redoutable dans le calcul de solutions numériques en statistiques bayésiennes pour des modèles comportant plus que quelques paramètres.

Bellman [53] a inventé le terme « malédiction de la dimensionnalité », pour décrire à quel point il était difficile d'effectuer une intégration numérique de grande dimension. Par exemple, 100 points d'échantillonnage régulièrement espacés suffisent pour échantillonner un intervalle unitaire avec pas plus de 0,01 de distance entre les points un échantillonnage équivalent d'un hypercube unitaire à 10 dimensions avec un réseau avec un espacement de 0,01 entre les points adjacents nécessiterait 10 20 points d'échantillonnage . Ainsi, dans un certain sens, l'hypercube à 10 dimensions peut être considéré comme un facteur de 10 18 « plus grand » que l'intervalle unitaire. De toute évidence, cela rendra de nombreuses tâches de calcul insolubles pour les ensembles de données de grande dimension.

Les espaces euclidiens sont généralement utilisés comme modèles pour les types de données astronomiques traditionnels (scalaires, tableaux de scalaires). Une autre manifestation générale de haute dimensionnalité est le fait que dans un espace euclidien de grande dimension, le volume se dilate beaucoup plus rapidement avec l'augmentation du diamètre qu'il ne se dilate dans les espaces de faible dimension. En effet, si l'on compare la taille de la boule unitaire avec le cube unitaire au fur et à mesure que la dimension de l'espace augmente, il s'avère que la boule unitaire devient un volume insignifiant par rapport à celui du cube unitaire. Ainsi, dans un certain sens, presque tout l'espace de grande dimension est « loin » du centre. C'est ce qu'on appelle le « phénomène de l'espace vide » [54, 55] : on peut dire que l'espace unitaire de grande dimension se compose presque entièrement des « coins » de l'hypercube, sans presque aucun « milieu ». Un autre exemple important des propriétés inattendues des espaces euclidiens de grande dimension est le comportement suivant de la distribution gaussienne en grandes dimensions : le rayon d'une hypersphère qui contient 95% de la distribution augmente à mesure que la dimensionnalité augmente.

Ces types de problèmes démontrent que pour rendre pratique l'extraction de structures significatives à partir d'ensembles de données multiparamétriques de grande dimension, une représentation de faible dimension des points de données est requise. La réduction de dimension (DR) est motivée par le fait que plus nous sommes capables de réduire la dimensionnalité d'un ensemble de données, plus nous y avons trouvé de régularités (corrélations) et donc, plus nous avons appris des données. La réduction de la dimension des données est une branche active des mathématiques appliquées et des statistiques [50]. Il s'agit de méthodes permettant de trouver une représentation de dimension inférieure de données de dimension élevée, sans perdre une quantité significative d'informations, en construisant un ensemble de fonctions de base qui capturent des modèles intrinsèques à un espace d'état particulier. Les méthodes de DR augmentent considérablement l'efficacité de calcul des algorithmes d'apprentissage automatique, améliorent l'inférence statistique et permettent une visualisation et une classification scientifiques efficaces. À partir d'un grand ensemble d'images obtenues sur plusieurs bandes d'ondes, la réduction de dimension efficace fournit une information compréhensible et

-image unique riche avec une perte d'information minimale et des détails statistiques, contrairement à un simple codage avec des poids empiriques arbitraires (voir un exemple simple à quatre longueurs d'onde sur les figures 6 et 7).

Les approches classiques de la réduction de dimension qui ne sont pas étrangères à l'astronomie sont l'analyse en composantes principales (ACP) [56] et la mise à l'échelle multidimensionnelle [57]. Bien qu'appliquée pour la première fois à l'astronomie par Bijaoui [56] en 1974, l'ACP n'a été couramment utilisée que dans les années 1990 [58, 59] voir aussi une introduction générale à l'ACP dans [60]. Il a été utilisé pour des choses telles que la classification des galaxies et des quasars [59, 61], l'estimation photométrique et spectroscopique du décalage vers le rouge (par exemple, [62, 63], la soustraction du ciel [64] et les indicateurs spectraux optiques [65]. L'ACP a été utilisée pour l'analyse simultanée de dizaines de paramètres de données pour chaque membre d'un échantillon de 44 noyaux galactiques actifs [66], ce qui semble être le plus grand nombre de paramètres jamais analysés à l'aide de l'ACP dans une étude astronomique.

L'ACP présente un sérieux inconvénient en ce qu'elle ne considère pas explicitement la structure du collecteur sur lequel les données peuvent éventuellement résider. En géométrie différentielle, une variété -dimensionnelle est un espace métrique qui, à petite échelle, ressemble à l'espace euclidien à n dimensions, donc un cercle est une variété unidimensionnelle, tandis qu'une sphère est une variété bidimensionnelle. PCA est intrinsèquement linéaire, donc si les points de données forment un collecteur non linéaire, alors évidemment, il n'y a pas de rotation et de décalage de l'axe (c'est ce que fournit une transformation linéaire comme le PCA) qui peut "déplier" un tel collecteur. En d'autres termes, si les données sont principalement confinées à un sous-espace de faible dimension presque linéaire, alors des méthodes linéaires simples telles que l'ACP peuvent être utilisées pour découvrir le sous-espace et estimer sa dimensionnalité. Si, d'un autre côté, les données se trouvent sur (ou à proximité) une sous-variété de faible dimension hautement non linéaire, alors les méthodes linéaires ne sont pas efficaces pour capturer les structures significatives fines dans les données. Une application aveugle de méthodes linéaires peut entraîner une fausse représentation complète des données.

Nous avons récemment développé des méthodes avancées et originales pour effectuer une DR non linéaire, qui ne souffrent pas des limitations de l'ACP. Dans ce qui suit, nous décrivons brièvement ces méthodes. Tout d'abord, nous présentons d'autres concepts et méthodes qui se sont avérés efficaces dans le domaine de l'apprentissage automatique.

4.1. Graphiques

Dans le cadre de la récupération et du traitement des données, les méthodes de réduction de dimensionnalité basées sur la théorie des graphes se sont avérés très puissants. En mathématiques et en informatique, la théorie des graphes est l'étude des structures mathématiques pour modéliser les relations entre les objets [67]. La théorie des graphes a été appliquée avec succès à un large éventail de disciplines très différentes, de la biologie aux sciences sociales, en passant par l'informatique et la physique. Parmi de nombreuses applications, des graphiques et des collecteurs ont été utilisés pour traiter des bases de données minières, des moteurs de recherche Internet, des graphiques informatiques, la réorganisation des calculs, le traitement d'images, etc. Dans ce qui suit, nous discutons de diverses structures de données et algorithmes que nous avons déjà développés et que nous développons.

La représentation graphique des données structurées fournit un modèle fructueux pour le processus d'exploration de données relationnelles. Un graphique est une collection de nœuds et de liens entre eux, les nœuds représentent des points de données et les poids des liens ou des arêtes indiquent la force des relations. Un graphe dans lequel chaque arête de graphe est remplacée par une arête de graphe orientée est appelé graphe orienté, ou diagramme [67]. Les diagrammes sont utilisés pour les moteurs de navigation contextuels et pour classer les documents hyperliés pour une requête donnée.

L'approche moderne des images ou des ensembles de données multidimensionnels consiste à les approcher par des graphes ou des variétés riemanniennes. La première étape importante, et très difficile, consiste à convertir un tel nuage de données en un graphe fini pondéré. Le prochain problème important est le choix des poids « corrects » qui doivent être affectés aux arêtes du graphe construit. La fonction de pondération décrit une notion de « similitude » entre les points de données et en tant que telle affecte fortement l'analyse des données. Les poids doivent être entièrement déterminés par domaine d'application. La façon la plus évidente d'attribuer des poids est d'utiliser un noyau positif comme une fonction exponentielle dont l'exposant dépend de la distance euclidienne locale entre les points de données et d'un paramètre choisi subjectivement appelé « bande passante ». (Il existe également d'autres façons d'attribuer des poids, qui dépendent de mathématiques plus complexes que celles dont nous discutons dans cet article.)

Ensuite, après avoir construit un graphe pondéré, on peut introduire l'opérateur combinatoire de Laplace correspondant [67, 68]. En apprentissage automatique, les méthodes basées sur les laplaciens de graphes se sont révélées très puissantes [50]. Les fonctions propres et valeurs propres du Laplacien forment une base, permettant ainsi de développer une analyse harmonique ou de Fourier sur des graphes. En développant davantage l'analyse harmonique sur les graphes et les variétés [69-81], nous avons conçu des algorithmes innovants pour la compression des données et la réduction non linéaire de la dimension des données. Ces résultats permettent de surmonter les limitations de l'ACP pour la gestion des variétés de données non linéaires et permettent également de traiter efficacement les données incomplètes (telles que les observations manquantes ou la couverture partielle du ciel).

4.2. Hypergraphes

La plupart des méthodes d'exploration de données et d'analyse de réseau existantes se limitent à des interactions par paires. Cependant, les ensembles d'objets astronomiques présentent généralement des relations multiples, de sorte que restreindre l'analyse aux relations dyadiques (par paires) conduit à la perte d'informations importantes et à des découvertes manquantes. Les interactions triadiques, tétradiques ou supérieures offrent un grand potentiel pratique. Cela a conduit à l'approche basée sur les hypergraphes (e.g., [82]). Les hypergraphes constituent une extension importante des graphes qui permettent aux arêtes de connecter plus de deux sommets simultanément. Ainsi, les hypergraphes fournissent une description plus complète des relations et des structures de caractéristiques. Les hypergraphes fournissent une approche beaucoup plus adéquate des ensembles de données du monde réel et permettent de traiter le regroupement et les classifications en utilisant des relations d'ordre supérieur. Il a été montré qu'en général, il n'existe pas de modèle de graphe qui représente correctement les propriétés de coupe de l'hypergraphe correspondant (Ihler et al. [83]). Ainsi, de nouvelles méthodes mathématiques sont nécessaires pour tirer parti de la richesse des informations disponibles dans les hypergraphes. Afin de fournir des moyens d'analyse de bases de données à relations multiples, nous développons actuellement des extensions des méthodes originales décrites dans la sous-section précédente.

4.3. Fractales

Des ensembles de données ayant des dimensions fractionnaires (« fractales » : Mabdelbrot [84] Schroeder [85] Faloutsos [86]) ont été suggérés pour représenter de nombreux phénomènes en astronomie. Les exemples incluent la formation d'étoiles à l'échelle galactique [87], la fonction de masse initiale stellaire [88], les distributions des galaxies dans l'espace [89, 90], les distributions des nuages ​​dans les noyaux galactiques actifs [91], le fond diffus cosmologique [92], la flamme thermonucléaire vitesses dans les supernovae de type Ia [93], et le spectre de masse des nuages ​​interstellaires [94]. De tels ensembles de données présentent une dimensionnalité qui est souvent bien inférieure à la dimension de l'espace euclidien dans lequel ils sont intégrés. Par exemple, la distribution des galaxies dans l'univers a une dimension

.23. La différence entre les deux dimensions se produit parce que la dimensionnalité fractale est intrinsèque. La dimension intrinsèque d'un graphe reflète la dimension intrinsèque de la variété échantillonnée.

De toute évidence, une première étape importante dans la réduction de la dimensionnalité pratique est une bonne estimation de la dimension intrinsèque des données. Sinon, DR n'est qu'une supposition risquée puisqu'on ne sait pas dans quelle mesure la dimensionnalité peut être réduite. Pour permettre l'analyse d'ensembles de données astronomiques présentant une nature fractale, nous développons actuellement un concept pratique de dimensionnalité spectrale, ainsi que des algorithmes originaux pour l'échantillonnage, la compression et l'intégration de données fractales.

4.4. La connexion pétascale

Les approches décrites ci-dessus traitaient des variétés compactes et des graphes finis. Cependant, les ensembles de données massifs sont mieux décrits par des variétés non compactes et des graphes infinis. Afin de traiter des ensembles de données extrêmement volumineux, nous avons étendu la réduction de dimension à non compact collecteurs et infini graphiques. Nous travaillons également à la généralisation de l'analyse de Fourier à non compact Variétés riemanniennes et infini graphes quantiques et combinatoires, graphes orientés, hypergraphes et quelques fractales. La mise en œuvre de ces algorithmes, et leur incorporation dans le cadre décrit dans la section 2, permettront une analyse plus adéquate des ensembles de données massifs.

4.5. Robustesse des algorithmes de réduction de dimension vis-à-vis du bruit

Malgré les propriétés importantes et attrayantes des algorithmes de réduction de dimension mentionnés ci-dessus, les approches linéaires et non linéaires sont sensibles au bruit, aux valeurs aberrantes et aux mesures manquantes (mauvais pixels, valeurs de données manquantes). Comme le bruit et les imperfections des données peuvent modifier la structure locale d'une variété, la préservation de la localité signifie que les algorithmes existants sont topologiquement instables et non robustes contre le bruit et les valeurs aberrantes [95].

C'est évidemment un sérieux inconvénient car les données astronomiques sont toujours corrompues par le bruit. Budavari et al. [96] ont présenté une version robuste de l'ACP et l'ont appliquée aux spectres astronomiques. Leur approche a abordé les problèmes des valeurs aberrantes, des informations manquantes, du grand nombre de dimensions et de la grande quantité de données en combinant des éléments de statistiques robustes et d'algorithmes récursifs qui fournissent des estimations améliorées du système propre étape par étape. Cependant, comme il a été mentionné précédemment, la méthode PCA est intrinsèquement linéaire et ne peut pas être appliquée à des points de données résidant sur une variété non linéaire.

Ainsi, l'utilisation pratique de la réduction de dimension exige une amélioration soigneuse du rapport signal/bruit sans salir les caractéristiques essentielles. L'implémentation d'une diffusion non linéaire sur des graphes pondérés (Section 2) nous permet également d'appliquer une réduction de dimension aux ensembles de données bruités.

4.6. Segmentation d'images, apprentissage non supervisé et visualisation de l'information

Dans ce qui suit, nous décrivons brièvement une nouvelle approche unificatrice originale de la segmentation des images en particulier et de la reconnaissance des formes et de la visualisation de l'information en général. La segmentation d'images (voir section 2) joue un rôle principal dans la réalisation de traitements informatiques automatisés, en tant qu'étape préalable pour la reconnaissance de différents éléments d'images ou objets.

Les solutions au problème d'apprentissage multiple peuvent être basées sur l'intuition dérivée de la physique. Un bon exemple de ceci est l'approche de Horn et Gottlieb [97] qui est basée sur l'opérateur de Schrödinger, où ils ont construit une fonction propre approximative et calculé son potentiel correspondant. Les clusters ont ensuite été définis par les minima du potentiel.

Nous avons développé [98] une alternative également basée sur l'intuition physique, celle-ci étant dérivée de la synchronisation d'oscillations non linéaires [99, 100]. L'approximation d'une image multidimensionnelle ou d'un ensemble de données par un graphe et l'association d'un système dynamique non linéaire à chaque nœud permet d'unifier les trois tâches apparemment indépendantes : segmentation d'images, apprentissage non supervisé et visualisation de données. La reconnaissance des formes peut bénéficier de manière significative des nouvelles méthodes de visualisation et de représentation des données, car elles peuvent révéler des relations importantes dans des ensembles de données multidimensionnels. Faire ressortir des motifs en plaçant des points de données dans un mouvement oscillatoire est un moyen très efficace de visualiser les données [101]. Notre méthode est un algorithme multi-niveaux basé sur des caractéristiques qui trouve des motifs en utilisant un mouvement oscillatoire non linéaire. Dans le même temps, le mouvement oscillatoire révèle à l'œil des motifs en les faisant osciller de manière cohérente avec une fréquence différente du reste du graphique. Les motifs sont détectés de manière récursive à l'intérieur du graphique, et les caractéristiques trouvées sont soit regroupées en nœuds uniques, formant une hiérarchie de motifs, soit peuvent être zoomées et étudiées individuellement. Cette méthode peut être décrite comme une animation précalculée et elle permet à la fois la découverte qualitative (à l'œil nu) et quantitative des corrélations (voir Figure 8).

Les approches présentées dans cette section permettent l'interpolation, le lissage et les immersions de divers complexes (des dizaines ou des centaines de paramètres utiles associés à chaque objet astronomique) et de grands ensembles de données dans des espaces euclidiens de plus faible dimension. La classification dans l'espace de dimension inférieure peut être effectuée de manière plus fiable que dans les dimensions élevées. Ainsi, DR peut être considérablement bénéfique en tant qu'étape de pré-traitement pour de nombreux packages astronomiques existants, tels que par exemple, le populaire extracteur de source SExtractor [102]. L'intégration dans notre cadre (Section 2) des outils basés sur des graphes/collecteurs décrits dans cette section, permettra d'aborder de multiples tâches de reconnaissance de formes (clustering) ainsi que la visualisation de données multidimensionnelles. Dans l'ensemble, ces approches fournissent des généralisations importantes des outils de regroupement spectral et de réduction de dimensionnalité, et permettent une représentation plus adéquate, une récupération efficace des données et une analyse d'ensembles de données astronomiques modernes et complexes.

5. Quelques approches récentes des défis de l'astronomie intensive en données

L'astrophysique intensive en données nécessite une approche interdisciplinaire qui inclura des éléments de mathématiques appliquées [67, 103], des méthodes statistiques modernes [104, 105], l'apprentissage automatique [50], la vision par ordinateur [31] et le traitement d'images [30]. L'étendue et la complexité des travaux relatifs aux défis des données astronomiques modernes sont vastes et ne permettent pas un traitement complet ici. Cependant, il est utile de mentionner brièvement un certain nombre de problèmes, d'approches et d'efforts importants qui ont été poursuivis.

Le problème du traitement des données qui reposent sur une variété est très important pour l'analyse des données cosmologiques. Le progiciel d'analyse de données standard et puissant HealPix [106] traite les données sur une variété bidimensionnelle, la sphère. Le concept d'aiguillettes (ondelettes sphériques de deuxième génération) a récemment attiré beaucoup d'attention dans la littérature cosmologique. La première application des aiguilles aux données cosmologiques a été fournie par Pietrobon et al. [107]. Ils ont analysé la corrélation croisée des données CMB de la sonde d'anisotropie micro-onde Wilkinson (WMAP) avec les données radiogalactiques du NRAO VLA Sky Survey (NVSS). L'approche basée sur les aiguilles a permis des résultats statistiques plus précis liés à la composante d'énergie noire.L'étude des aiguilles du point de vue probabiliste et leur pertinence pour l'analyse statistique des champs aléatoires sur la sphère a été réalisée pour la première fois par Baldi et al. [108]. Une présentation approfondie des aiguilles sphériques pour l'analyse des données CMB est donnée par Marinucci et al. [109]. Divers problèmes liés au CMB, tels que l'estimation du spectre, la détection de caractéristiques et d'anisotropies, la cartographie ont été abordés par Faÿ et al. [110], Pietrobon et al. [111] (voir également les références ici). Les modèles CMB sont mieux analysés dans le domaine fréquentiel, où le comportement à différents multipôles peut être étudié séparément. D'autre part, des problèmes tels que des observations manquantes ou une couverture partielle du ciel rendent impossible l'évaluation des transformées harmoniques sphériques. Les aiguilles permettent une formule de reconstruction simple très efficace qui permet d'effectuer une analyse de fréquence en n'utilisant que des informations partielles sur les données et en fournissant des moyens pour traiter les données masquées. En outre, les aiguilles illustrent d'autres propriétés importantes qui ne sont généralement pas partagées par d'autres constructions d'ondelettes sphériques : elles ne reposent sur aucun type d'approximation du plan tangent, elles ont de bonnes propriétés de localisation à la fois dans l'espace des pixels et dans l'espace harmonique et les coefficients des aiguilles sont asymptotiquement non corrélés à n'importe quel angle fixe. distance (ce qui rend leur utilisation dans les procédures statistiques très prometteuse). Toutes ces propriétés uniques font des aiguilles un outil très précieux dans divers domaines de l'analyse de données CMB. Récemment, Geller et Marinucci [112] ont introduit les aiguilles de spin comme outil pour l'analyse des champs aléatoires de spin. Geller et al. [113] ont adopté l'approche des aiguilles de spin pour l'analyse des mesures de polarisation du CMB. Dernièrement, Geller et Mayeli [114] ont construit des ondelettes continues et des cadres presque serrés (aiguillettes) sur des variétés compactes.

La partie essentielle de l'analyse générale basée sur les constructions en ondelettes est l'échantillonnage de fonctions à bande limitée. Les fondements mathématiques de l'échantillonnage sur des variétés riemanniennes arbitraires de géométrie bornée ont été posés par Pesenson [115, 116]. Récemment, Geller et Pesenson [117] ont construit des cadres serrés à bande limitée et hautement concentrés sur des variétés homogènes compactes. Ces résultats peuvent être considérés comme une extension des transformées en ondelettes aux variétés riemanniennes, permettant ainsi de reconstruire des informations à partir de données incomplètes définies sur une variété arbitraire.

L'analyse de données à plusieurs échelles s'est avérée être un outil très puissant dans de nombreux domaines. Les applications de l'analyse d'images multi-échelles à l'astronomie ont été lancées par Starck et al. [118] et Starck et Murtagh [119].

Les méthodes spectrales et les cartes de diffusion sont récemment apparues comme des approches efficaces pour la réduction de la dimensionnalité non linéaire [120–122]. L'approche des cartes de diffusion a été appliquée avec succès à l'analyse des spectres astronomiques par Richards et al. [123].

L'apprentissage multiple peut être considéré comme une procédure DR visant à capturer les degrés de liberté et les structures (clusters, motifs) au sein de données de grande dimension. Des algorithmes non linéaires d'apprentissage multiple tels que la cartographie isométrique (ISOMAP) de Tenenbaum et al. [124] et le plongement linéaire local (LLE) de Roweis et Saul [125] projettent des données de variétés de grande dimension dans un espace de faible dimension en préservant les caractéristiques géométriques locales. Ball et Brunner [51] fournissent un examen très large de l'état actuel de l'apprentissage automatique et de l'exploration de données en astronomie.

Le groupe de collaboration AstroNeural [52] a mis en œuvre des outils basés sur des réseaux de neurones, des ensembles de C flou et des algorithmes génétiques, et les a appliqués pour effectuer des tâches complexes telles que le regroupement non supervisé et supervisé et l'analyse de séries chronologiques. D'Abrusco et al. [126] présentent une approche de réseau de neurones supervisé pour la détermination des redshifts photométriques. D'Abrusco et al. [127] décrivent une méthode de sélection photométrique de quasars candidats dans les levés multibandes basée sur les surfaces principales probabilistes. Pasian et al. [128] donnent un aperçu général de l'évolution des outils qui seront ensuite utilisés au sein de la VO internationale.

Comparato et al. [129] montrent comment des outils de visualisation avancés peuvent aider le chercheur à rechercher et à extraire des informations à partir de données. Ils se concentrent sur VisIVO, une nouvelle application graphique open source qui associe des techniques de visualisation multidimensionnelles hautes performances et des technologies de pointe pour coopérer avec d'autres applications et accéder à des archives de données distantes et distribuées.

Draper et al. [130] discutent de l'application GAIA pour l'analyse d'images astronomiques et montrent comment le protocole PLASTIC a été utilisé pour interagir avec des applications compatibles VO.

Le Center for Astrostatistics (CASt) de la Pennsylvania State University fournit une mine de ressources (codes, données, tutoriels, programmes, etc.) liées aux défis des traitements statistiques des données astrophysiques : http://astrostatistics.psu.edu/.

Une grande quantité d'informations pratiques et à jour (textes, didacticiels, prépublications, logiciels, etc.) relatives à l'inférence bayésienne en astronomie et dans d'autres domaines est fournie par T. Loredo sur le site Web Bayesian Inference for the Physical Sciences (BIPS ) sur http://www.astro.cornell.edu/staff/loredo/bayes/index.html.

Le groupe International Computational Astrostatistics (InCA) de l'Université Carnegie Mellon développe et applique de nouvelles méthodes statistiques aux problèmes d'inférence en astronomie et en cosmologie, en mettant l'accent sur les approches computationnelles non paramétriques (voir pour plus de détails http://www.stat.cmu.edu/

Le projet AstroMed de l'IIC de l'Université Harvard est dédié à l'application de la visualisation d'images médicales aux données astronomiques 3D [131].

La détection compressée et l'utilisation de représentations éparses offrent une autre nouvelle approche prometteuse. Traditionnellement, il a été considéré comme inévitable que tout signal doit être échantillonné à une fréquence d'au moins deux fois sa fréquence la plus élevée afin d'être représenté sans erreur. Cependant, une technique appelée détection compressée qui permet un échantillonnage sans erreur à un taux inférieur a fait l'objet de nombreuses recherches récentes. Il est très prometteur pour de nouvelles façons de compresser l'imagerie sans perte significative d'informations, améliorant ainsi les limitations d'analyse découlant des limitations des ressources informatiques. La puissance de la détection compressée a été illustrée de manière frappante lorsqu'un objet a été imagé avec succès en détail par une caméra composée d'un un seul pixel [132]. Bobin et al. [133] discutent des avancées récentes dans le traitement du signal qui utilisent des représentations éparses. Des introductions relativement non techniques à la détection compressée peuvent être trouvées dans Candes et Wakin [134] et Romberg [135]. Les premiers résultats astronomiques de la littérature basés sur l'utilisation de la détection compressée sont ceux de Wiaux et al. [136].

Divers types de données ainsi que les méthodes utilisées pour leur représentation sont brièvement résumés dans le tableau 1. Le tableau n'est pas exhaustif, mais il donne un aperçu rapide de ce qui a été discuté ci-dessus.

6. Conclusion

Des ensembles de données extrêmement volumineux, ainsi que l'analyse de centaines d'objets ayant chacun un grand nombre de dimensions de données, posent à l'astronomie des défis sans précédent. Les défis ne concernent pas seulement la taille des bases de données en soi, mais aussi l'intelligence avec laquelle on organise, analyse et navigue dans les bases de données, et les limites des approches d'analyse de données existantes familières à l'astronomie. Les réponses à ces défis ne sont pas anodines et se situent pour la plupart dans des domaines de recherche complexes bien en dehors de la formation et de l'expertise de presque tous les astronomes. Heureusement, d'autres disciplines telles que les sciences de l'imagerie et les sciences de la terre sont confrontées depuis de nombreuses années aux mêmes types de problèmes. Un travail interdisciplinaire fructueux est déjà devenu une caractéristique régulière de la recherche dans ces autres disciplines et a abouti à des applications d'une valeur cruciale pour d'autres sciences cherchant à tirer parti d'ensembles de données complexes et géants dans leurs domaines respectifs. Ces travaux ont débouché sur de nombreuses applications utiles et sur des voies prometteuses pour de nouveaux progrès qui ont potentiellement une valeur significative pour l'astronomie.

Le traitement d'images multidimensionnelles, la fusion d'images (combinaison d'informations provenant de plusieurs capteurs afin de créer une image composite améliorée) et la réduction de dimension (trouver une représentation en dimensions inférieures de données de grande dimension) sont des approches efficaces pour des tâches cruciales pour l'astronomie multitemporelle et multi-longueurs d'onde : étude des transitoires, relevés numériques à grande échelle du ciel, recherche d'archives, etc. Ces méthodes augmentent considérablement l'efficacité de calcul des algorithmes d'apprentissage automatique et améliorent l'inférence statistique, facilitant ainsi la sélection automatisée des fonctionnalités, la segmentation des données, la classification et la visualisation scientifique efficace (par opposition à la visualisation illustrative). Les images de dimensions réduites offrent également une énorme économie d'espace de stockage et de bande passante de transmission de base de données pour l'utilisateur, sans perte significative d'informations, si des méthodes appropriées sont utilisées.

Pour utiliser efficacement les grands ensembles de données complexes créés dans l'astronomie du 21e siècle, une communication et une collaboration interdisciplinaires importantes entre les astronomes et les experts dans les disciplines des mathématiques appliquées, des statistiques, de l'informatique et de l'intelligence artificielle seront essentielles. Les concepts et les approches décrits dans cet article sont parmi les premières étapes d'un effort interdisciplinaire aussi vaste et à long terme qui aidera à combler le fossé de communication entre l'astronomie et d'autres disciplines. Ces concepts, et les approches qui en découlent, aideront à fournir des moyens pratiques d'analyse et de visualisation des ensembles de données de plus en plus volumineux et complexes. Ces nouvelles méthodes sophistiquées contribueront également à ouvrir la voie à une analyse et un traitement automatisés efficaces d'ensembles de données gigantesques et complexes.

Remerciements

Les auteurs tiennent à remercier Alanna Connors pour ses discussions stimulantes et ses suggestions utiles. Ils souhaitent également remercier le rapporteur pour ses suggestions constructives qui ont conduit à des améliorations substantielles de l'article. Le premier auteur tient à remercier Michael Werner pour son soutien. Ce travail a été réalisé avec le financement de la National Geospatial-Intelligence Agency University Research Initiative (NURI), la subvention HM1582-08-1-0019, et le soutien de la NASA au California Institute of Technology et au Jet Propulsion Laboratory.

Les références

  1. D. York, J. Adelman, J. Anderson et al., "The Sloan digital sky survey: Technical summary," Journal astronomique, vol. 120, pp. 1579-1587, 2000. Voir sur : Google Scholar
  2. J. Tyson, C. Roat, J. Bosch et D. Wittman, « LSST and the dark sector : image processing challenges », dans Actes de la 17e conférence annuelle sur les logiciels et systèmes d'analyse de données astronomiques (ADASS '08), J. Lewis, R. Argyle, P. Bunclark et al., Eds., vol. 394 de Série de conférences de l'ASP, ASP, Londres, Royaume-Uni, 2008. Voir sur : Google Scholar
  3. A. S. Szalay, J. Gray et J. Van den Berg, « Exploration de données à l'échelle du pétaoctet : rêve ou réalité ? » dans Topographie et autres technologies et découvertes de télescopes, vol. 4836 de Actes de SPIE, pp. 333-338, 2002. Voir sur : Site de l'éditeur | Google Scholar
  4. M. A. C. Perryman, « GAIA : un relevé astrométrique et photométrique de notre galaxie », Astrophysique et sciences spatiales, vol. 280, non. 1-2, pp. 1-10, 2002. Voir sur : Site de l'éditeur | Google Scholar
  5. K. W. Hodapp, N. Kaiser, H. Aussel et al., « Conception des télescopes Pan-STARRS », Astronomische Nachrichten, vol. 325, non. 6–8, pp. 636–642, 2004. Voir sur : Site de l'éditeur | Google Scholar
  6. P. Price, E. Magnier et J. Hoblitt, « Processing petabytes for Pan-STARRS, AAS Meeting 210 », Bulletin de la Société américaine d'astronomie, vol. 38, p. 183, 2007. Voir sur : Google Scholar
  7. N. M. Law, S. R. Kulkarni, R. G. Dekany et al., « L'usine transitoire palomar : aperçu du système, performances et premiers résultats » Publications de la Société d'astronomie du Pacifique, vol. 121, n. 886, pp. 1395–1408, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  8. G. Zhao, Y. Q. Chen, J.-R. Shi et al., « Abondance stellaire et évolution chimique galactique grâce au relevé spectroscopique LAMOST », Journal chinois d'astronomie et d'astrophysique, vol. 6, non. 3, pp. 265-280, 2006. Voir sur : Site de l'éditeur | Google Scholar
  9. S. G. Djorgovski, C. Baltay, A. A. Mahabal et al., "The Palomar-Quest digital synoptic sky survey," Astronomische Nachrichten, vol. 329, non. 3, pp. 263–265, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  10. S. C. Barden et T. Armandroff, « Performance of the WIYN fiber-fed MOS system : Hydra », dans La fibre optique dans les applications astronomiques, S. Barden, éd., vol. 2476 de Actes de SPIE, pp. 56-67, Orlando, Floride, États-Unis, avril 1995. Voir sur : Google Scholar
  11. B. C. Bigelow, A. M. Dressler, S. A. Shectman et H. W. Epps, « IMACS : le spectrographe et l'imageur multi-objets pour le télescope Magellan I », dans Instrumentation optique astronomique, S. D'Odorico, éd., vol. 3355 de Actes de SPIE, pp. 225-231, 1998. Voir sur : Site de l'éditeur | Google Scholar
  12. I. J. Lewis, R. D. Cannon, K. Taylor et al., "The Anglo-Australian observatory 2dF facility," Avis mensuels de la Royal Astronomical Society, vol. 333, non. 2, pp. 279-298, 2002. Voir sur : Site de l'éditeur | Google Scholar
  13. R. M. Sharples, R. Bender, M. Lehnert et al., « KMOS : un spectrographe de champ intégral infrarouge à objets multiples pour le VLT de l'ESO », dans Instrumentation au sol pour l'astronomie, A.F.M. Moorwood et I. Masanori, Eds., vol. 5492 de Actes de SPIE, pp. 1179-1186, 2004. Voir sur : Site de l'éditeur | Google Scholar
  14. R. Mark Wagner, « Un aperçu de l'instrumentation pour le grand télescope binoculaire », dans Instrumentation au sol et aéroportée pour l'astronomie, I.S. McLean et I. Masanori, Eds., vol. 6269 de Actes de SPIE, 2006. Voir sur : Site de l'éditeur | Google Scholar
  15. K. Freeman et J. Bland-Hawthorne, « Spectroscopie panoramique à haute résolution », dans Actes des vues panoramiques de la formation et de l'évolution des galaxies, T. Kodama, T. Yamada et K. Aoki, Eds., vol. 399 de Série de conférences de l'ASP, p. 439, 2008. Voir sur : Google Scholar
  16. S. Eto, T. Maihara, K. Ohta et al., « The fiber multi-object spectrograph (FMOS) for the Subaru Telescope III », dans Instrumentation au sol pour l'astronomie, A.F.M. Moorwood et I. Masanori, Eds., vol. 5492 de Actes de SPIE, pp. 1314–1318, 2004. Voir sur : Site de l'éditeur | Google Scholar
  17. S. C. Barden, A. Dey, B. Boyle et K. Glazebrook, « KAOS : spectrographe optique à kilo-ouverture », dans Instrumentation au sol pour l'astronomie, A.F.M. Moorwood et I. Masanori, Eds., vol. 5492 de Actes de SPIE, pp. 364–372, Glasgow, Royaume-Uni, juin 2004. Voir sur : Site de l'éditeur | Google Scholar
  18. T. D. Idem et J. M. Ritter, « Million object spectrograph », dans Technologies optiques et mécaniques avancées dans les télescopes et l'instrumentation, E. Atad-Ettedgui et D. Lemke, Eds., vol. 7018 de Actes de SPIE, pp. 70182R.1–70182R.12, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  19. M. Zaldarriaga et U. Seljak, « Analyse tout ciel de la polarisation dans le fond micro-onde », Examen physique D, vol. 55, non. 4, pp. 1830-1840, 1997. Voir sur : Google Scholar
  20. R. Frazin, M. Jacob, W. Manchester, H. Morgan et M. Wakin, « Vers la reconstruction de la densité d'éjection de masse coronale à partir de trois points de vue seulement », Journal d'astrophysique, vol. 695, non. 1, pp. 636-641, 2009. Voir sur : Google Scholar
  21. M. Tegmark et M. Zaldarriaga, « Télescope à transformée de Fourier rapide », Examen physique D, vol. 79, non. 8, numéro d'article 083530, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  22. T. Loredo, A. Accomazzi, J. Bloom et al., « The astronomical information sciences: a keystone for 21st-century astronomy », soumis au L'enquête décennale d'astronomie et d'astrophysique. Voir sur : Google Scholar
  23. K. Borne, « Exploration de données scientifiques en astronomie », dans Nouvelle génération d'exploration de données, H. Kargupta, J. Han, P.S. Yu, R. Motwani et V. Kumar, Eds., pp. 91–114, CRC Press, 2009. Voir sur : Google Scholar
  24. H. Ferguson, P. Greenfield, T. Axelrod et al., « Réduction et analyse des données astronomiques pour la prochaine décennie », soumis au L'enquête décennale d'astronomie et d'astrophysique. Voir sur : Google Scholar
  25. Monsieur Grand, Modèles en Java v.1, Addison-Wesley, New York, NY, États-Unis, 1998.
  26. G. Booch, J. Rumbaugh et I. Jacobson, Le guide de l'utilisateur du langage de modélisation unifié, Addison-Wesley, Reading, Mass, États-Unis, 2005.
  27. M. Fayad, R. Johnson et D. Schmidt, Création de frameworks d'applications : fondements orientés objet de la conception de frameworks, John Wiley & Sons, New York, NY, États-Unis, 1999.
  28. M. Pesenson, W. Roby et B. McCollum, « Traitement d'images astronomiques à plusieurs échelles basé sur des équations aux dérivées partielles non linéaires » Journal d'astrophysique, vol. 683, non. 1, pp. 566-576, 2008. Voir sur : Site de l'éditeur | Google Scholar
  29. K. France, S. McCandliss et R. Lupu, « A Cometary Bow Shock and Mid-Infrared Emission Variations Revealed in Spitzer Observations de HD 34078 et IC 405 », Le Journal d'Astrophysique, vol. 655, non. 2, pp. 920-939, 2007. Afficher sur : Site de l'éditeur | Google Scholar
  30. A. Bovik, éd., Manuel de traitement de l'image et de la vidéo, Elsevier, Amsterdam, Pays-Bas, 2005.
  31. N. Paragios, Y. Chen et O. Faugeras, Manuel des modèles mathématiques en vision par ordinateur, Springer, Berlin, Allemagne, 2006.
  32. G. Herbig, "Les spectres des étoiles Be- et Ae-TYPE associés à la nébulosité", Supplément du journal d'astrophysique, vol. 4, p.337, 1960. Voir sur : Google Scholar
  33. E. D. Feigelson et T. Montmerle, « Processus à haute énergie dans les jeunes objets stellaires », Revue annuelle d'astronomie et d'astrophysique, vol. 37, non. 1, pp. 363-408, 1999. Voir sur : Google Scholar
  34. D. H. Clark et P. Murdin, « Une étoile à émission inhabituelle/source de rayons X/étoile radio, éventuellement associée à un SNR » Nature, vol. 276, non. 5683, pp. 44–45, 1978. Voir sur : Site de l'éditeur | Google Scholar
  35. P. Feldman, C. Purton, T. Stiff et S. Kwok, « H-alpha-Emission Object SS 433 », Circulaires de l'IAU, no. 3258, 1978. Voir sur : Google Scholar
  36. B. Margon, H. Ford, J. Katz et al., « Le spectre bizarre de SS 433 », Journal d'astrophysique, vol. 230, pp. L41–L45, 1979. Voir sur : Google Scholar
  37. B. A. Whitney, M. Sewilo, R. Indebetouw et al., "Spitzer sage survey of the grand magellanic cloud. III. Formation d'étoiles et 1000 nouveaux jeunes objets stellaires candidats », Le journal astronomique, vol. 136, non. 1, pp. 18–43, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  38. W. van der Veen, H. Habing et T. Geballe, « Objects in transition from the AGB to the planetary Nebula stage », Astronomie et astrophysique, vol. 226, pp. 108-136, 1989. Voir sur : Google Scholar
  39. W. van der Veen et H. Habing, "Des étoiles AGB très évoluées dans le renflement galactique", Astronomie et astrophysique, vol. 231, non. 2, pp. 404-418, 1990. Voir sur : Google Scholar
  40. K. Finlator, Z. Ivezic, X. Fan et al., « Couleurs optiques et infrarouges des étoiles observées par le Two Micron All Sky Survey et le Sloan Digital Sky Survey » Le journal astronomique, vol. 120, non. 5, pp. 2615–2626, 2000. Voir sur : Google Scholar
  41. M. P. Egan, S. D. Van Dyk et S. D. Price, « MSX, 2Mass et le grand nuage de Magellan : une vue combinée des infrarouges proche et moyen » Le journal astronomique, vol. 122, non. 4, pp. 1844–1860, 2001. Voir sur : Site de l'éditeur | Google Scholar
  42. R. Ortiz, S. Lorenz-Martins, W. J. Maciel et E. M. Rangel, « Evolution from AGB to planetary nebula in the MSX Survey », Astronomie et astrophysique, vol. 431, non. 2, pp. 565-574, 2005. Voir sur : Site de l'éditeur | Google Scholar
  43. S. V. Ramirez, R. G. Arendt, K. Sellgren et al., « Sources ponctuelles d'un sondage Spitzer IRAC du centre galactique » Journal d'astrophysique, vol. 175, non. 1, pp. 147-164, 2008. Voir sur : Site de l'éditeur | Google Scholar
  44. U. Munari, A. Henden, S. Kiyota et al., « L'éruption mystérieuse du V838 Mon », Astronomie et astrophysique, vol. 389, non. 2, pp. L51–L56, 2002. Voir sur : Google Scholar
  45. H. E. Bond, A. Henden, Z. G. Levay et al., « Une explosion stellaire énergique accompagnée d'échos de lumière circumstellaires » Nature, vol. 422, non. 6930, pp. 405-408, 2003. Voir sur : Site de l'éditeur | Google Scholar
  46. J. A. Combi, J. F. Albacete-Colombo et J. Martí, "Une nouvelle stratégie de recherche pour les candidats microquasars utilisant les données NVSS/2MASS et XMM-Newton," Astronomie et astrophysique, vol. 477, non. 1, pp. 125–132, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  47. P. Brosche, « La multiplicité des galaxies. Galaxies avec des paramètres dynamiques connus », Astronomie et astrophysique, vol. 23, pp. 259-268, 1973. Voir sur : Google Scholar
  48. S. Djorgovski et M. Davis, « Propriétés fondamentales des galaxies elliptiques », Journal d'astrophysique, vol. 313, p. 59, 1987. Voir sur : Google Scholar
  49. S. Djorgovski, R. Brunner, A. Mahabal, R. Williams, R. Granat et P. Stolorz, « Challenges for cluster analysis in a virtual observatory », dans Défis statistiques en astronomie, E. Feigelson et G. Babu, Eds., pp. 127-141, Springer, Berlin, Allemagne, 2003. Voir sur : Google Scholar
  50. S. Haykin, Réseaux de neurones et machines d'apprentissage, Prentice Hall, Upper Saddle River, NJ, États-Unis, 2009.
  51. N. Ball et R. Brunner, « Exploration de données et apprentissage automatique en astronomie », Journal international de physique moderne D, vol. 18, non. 17, pp. 1–53, 2009. Voir sur : Google Scholar
  52. G. Longo, C. Donalek et G. Raiconi, « Outils d'intelligence artificielle pour l'exploration de données dans les grandes bases de données astronomiques », dans Amas globulaires - Guides des galaxies, p. 1431, Springer, Berlin, Allemagne, 2004. Voir sur : Google Scholar
  53. R. Bellman, Processus de contrôle adaptatif, Princeton University Press, Princeton, NJ, États-Unis, 1961.
  54. D. Scott, Estimation de la densité multivariée : théorie, pratique et visualisation, Wiley Series in Probability and Mathematical Statistics, John Wiley & Sons, New York, NY, USA, 1992.
  55. J. Matousek, Cours sur la géométrie discrète, Springer, New York, NY, États-Unis, 2002.
  56. A. Bijaoui, « Application astronomique de la compression de l'information », Astronomie et astrophysique, vol. 30, p. 199, 1974. Voir sur : Google Scholar
  57. I. Borg et P. Groenen, Mise à l'échelle multidimensionnelle moderne : théorie et applications, Springer, New York, NY, États-Unis, 2005.
  58. T. A. Boroson et R. F. Green, « Les propriétés de la raie d'émission des objets quasi-stellaires à faible décalage vers le rouge », Journal d'astrophysique, vol. 80, non. 1, pp. 109-135, 1992. Voir sur : Google Scholar
  59. P. J. Francis, P. C. Hewett, C. B. Foltz et F. H. Chaffee, « An objective classification scheme for QSO spectres », Journal d'astrophysique, vol. 398, non. 2, pp. 476-490, 1992. Voir sur : Google Scholar
  60. P. Francis et B. Wills, « An introduction to PCA », dans Quasars et cosmologie, G. Ferland et J. Baldwin, Eds., vol. 162 de Série de conférences de l'ASP, p. 363, ASP, San Francisco, Californie, États-Unis, 1999. Voir sur : Google Scholar
  61. A. J. Connolly, I. Csabai, A. S. Szalay, D. C. Koo, R. G. Kron et J. A. Munn, « Slicing through multicolor space: galaxy redshifts from large bande photometry », Le journal astronomique, vol. 110, non. 6, pp. 2655-2664, 1995. Voir sur : Google Scholar
  62. K. Glazebrook, A. R. Offer et K. Deeley, « Détermination automatique du décalage vers le rouge à l'aide de l'analyse en composantes principales. I. Fondamentaux », Journal d'astrophysique, vol. 492, non. 1, pp. 98-109, 1998. Voir sur : Google Scholar
  63. C. W. Yip, A. J. Connolly, D. E. Vanden Berk et al., « Classification spectrale des quasars dans le sloan digital sky survey : eigenspectra, redshift et effets de luminosité » Le journal astronomique, vol. 128, non. 6, pp. 2603–2630, 2004. Voir sur : Site de l'éditeur | Google Scholar
  64. V. Wild et P. C. Hewett, « Peering through the OH forest : a new technique to remove résidus sky features from sloan digital sky survey spectres », Avis mensuels de la Royal Astronomical Society, vol. 358, non. 3, pp. 1083-1099, 2005. Voir sur : Site de l'éditeur | Google Scholar
  65. V. Wild, G. Kauffmann, T. Heckman et al., « Populations stellaires éclatées et noyaux galactiques actifs obscurcis dans les renflements des galaxies » Avis mensuels de la Royal Astronomical Society, vol. 381, n. 2, pp. 543-572, 2007. Afficher sur : Site de l'éditeur | Google Scholar
  66. J. Kuraszkiewicz, B. Wilkes, G. Schmidt et P. Smith, « Analyse en composantes principales de la distribution spectrale de l'énergie et des propriétés de la raie d'émission des noyaux galactiques actifs rouges 2Mass », Journal d'astrophysique, vol. 692, non. 2, pp. 1180-1189, 2009. Voir sur : Google Scholar
  67. J. Gross et J. Yellen, éd., Manuel de théorie des graphes, CRC Press, Boca Raton, Floride, États-Unis, 2004.
  68. F. Chung, « Théorie des graphes spectrales », dans Conference Board des sciences mathématiques, American Mathematical Society, Providence, RI, États-Unis, 1997. Voir sur : Google Scholar
  69. I. Pesenson, « Inégalités de type Poincaré et reconstruction de fonctions de Paley-Wiener sur les variétés », Journal d'analyse géométrique, vol. 14, non. 1, pp. 101-121, 2004. Voir sur : Google Scholar
  70. I. Pesenson, « Une approche des problèmes spectraux sur les variétés riemanniennes », Pacific Journal of Mathematics, vol. 215, non. 1, pp. 183-199, 2004. Voir sur : Google Scholar
  71. I. Pesenson, "Splines variationnelles sur les variétés riemanniennes avec applications à la géométrie intégrale," Avancées en mathématiques appliquées, vol. 33, non. 3, pp. 548-572, 2004. Voir sur : Site de l'éditeur | Google Scholar
  72. I. Pesenson, « Fonctions à bande limitée sur les graphes quantiques », Actes de la Société mathématique américaine, vol. 133, non. 12, pp. 3647–3655, 2005. Voir sur : Site de l'éditeur | Google Scholar
  73. I. Pesenson, « Splines polynomiales et approximations des valeurs propres sur les graphes quantiques », Journal de la théorie de l'approximation, vol. 135, non. 2, pp. 203-220, 2005. Voir sur : Site de l'éditeur | Google Scholar
  74. I. Pesenson, « Analyse des fonctions à bande limitée sur les graphes quantiques », Analyse harmonique appliquée et computationnelle, vol. 21, non. 2, pp. 230-244, 2006. Voir sur : Site de l'éditeur | Google Scholar
  75. I. Pesenson, « Cadres pour les espaces des fonctions de Paley-Wiener sur les variétés riemanniennes, géométrie intégrale et tomographie », dans Mathématiques contemporaines, vol. 405, pp. 135-148, American Mathematical Society, Providence, RI, États-Unis, 2006. Voir sur : Google Scholar
  76. I. Pesenson, « Echantillonnage dans les espaces de Paley-Wiener sur des graphes combinatoires », Transactions de l'American Mathematical Society, vol. 360, non. 10, pp. 5603-5627, 2008. Voir sur : Google Scholar
  77. I. Pesenson, « Splines variationnelles et espaces de Paley-Wiener sur les graphes combinatoires », Approximation constructive, vol. 29, non. 1, pp. 1–21, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  78. I. Pesenson, « Approximations de Paley-Wiener et approximations multi-échelles dans les espaces de Sobolev et de Besov sur les variétés », Journal d'analyse géométrique, vol. 19, non. 2, pp. 390-419, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  79. I. Pesenson et M. Pesenson, « Sampling of bandlimited functions on combinator graphs », dans Actes de la 8e Conférence internationale sur la théorie et les applications de l'échantillonnage, Marseille, France, 2009. Voir sur : Google Scholar
  80. M. Pesenson, I. Pesenson et B. McCollum, « Face à « la malédiction de la dimensionnalité » : fusion d'images et réduction de la dimensionnalité non linéaire pour l'exploration de données avancées et la visualisation d'images astronomiques », dans Actes de la 214e réunion de l'AAS, 2009. Voir sur : Google Scholar
  81. I. Pesenson et M. Pesenson, « Eigenmaps, immersions minimales et à bande limitée de graphes dans des espaces euclidiens », Journal d'analyse mathématique et d'applications, vol. 366, non. 1, pp. 137-152, 2010. Afficher sur : Site de l'éditeur | Google Scholar
  82. D. Zhou, J. Huang et B. Scholkopf, « Au-delà de la classification et du regroupement par paires à l'aide d'hypergraphes », Tech. Rep. 143, Max Plank Institute for Biological Cybernetics, Tubingen, Allemagne, 2005. Voir sur : Google Scholar
  83. E. Ihler, D. Wagner et F. Wagner, « Modélisation d'hypergraphes par des graphiques avec les mêmes propriétés de coupe minimale », Lettres de traitement de l'information, vol. 45, non. 4, pp. 171-175, 1993. Voir sur : Google Scholar
  84. B. Mabdelbrot, Géométrie fractale de la nature, W.H. Freeman, New York, NY, États-Unis, 1977.
  85. M. Schroeder, Fractales, chaos, lois de puissance, W. H. Freeman, New York, NY, États-Unis, 1991.
  86. C. Faloutsos, « Outils d'exploration de données de nouvelle génération : lois de puissance et autosimilarité pour les graphes, les flux et les données traditionnelles », dans Actes de la 7e Conférence européenne sur les principes et la pratique de la découverte des connaissances dans les bases de données, vol. 2838 de Notes de cours en intelligence artificielle, pp. 10-15, 2003. Voir sur : Google Scholar
  87. B. G. Elmegreen et D. M. Elmegreen, « Structure fractale dans les champs d'étoiles galactiques », Le journal astronomique, vol. 121, n. 3, pp. 1507-1511, 2001. Voir sur : Site de l'éditeur | Google Scholar
  88. R. Larson, « Vers la compréhension de la fonction de masse initiale stellaire », Avis mensuels de la Royal Astronomical Society, vol. 256, non. 4, pp. 641-646, 1992. Voir sur : Google Scholar
  89. J. Einasto, M. Einasto, M. Gramann et E. Saar, « Structure et formation des superamas. XIII - la fonction de probabilité de vide », Avis mensuels de la Royal Astronomical Society, vol. 248, p. 593, 1991. Voir sur : Google Scholar
  90. T. Kurokawa, M. Morikawa et H. Mouri, « Analyse à l'échelle de la distribution des galaxies dans les données du Las Campanas Redshift Survey », Astronomie et astrophysique, vol. 370, non. 2, pp. 358-364, 2001. Voir sur : Google Scholar
  91. M. Bottorff et G. Ferland, « Fractal quasar clouds », Journal d'astrophysique, vol. 549, non. 1, pp. 118-132, 2001. Voir sur : Site de l'éditeur | Google Scholar
  92. E. M. de Gouveia dal Pino, M. Elisabete, A. Hetem et al., « Preuve d'une structure fractale à très grande échelle dans l'univers à partir des mesures COBE » Journal d'astrophysique, vol. 442, n. 2, pp. L45–L48, 1995. Voir sur : Google Scholar
  93. C. R. Ghezzi, E. M. de Gouveia dal Pino et J. E. Horvath, « Asymmetric explosions of thermonuclear supernovae », Avis mensuels de la Royal Astronomical Society, vol. 348, non. 2, pp. 451-457, 2004. Voir sur : Google Scholar
  94. B. G. Elmegreen et E. Falgarone, « Une origine fractale pour le spectre de masse des nuages ​​interstellaires », Journal d'astrophysique, vol. 471, non. 2, pp. 816-821, 1996. Voir sur : Google Scholar
  95. M. Balasubramanian et E. L. Schwartz, « L'algorithme isomap et la stabilité topologique » La science, vol. 295, non. 5552, p. 7a, 2002. Voir sur : Google Scholar
  96. T. Budavári, V. Wild, A. S. Szalay, L. Dobos et C.-W. Yip, « Spectres propres fiables pour les enquêtes de nouvelle génération », Avis mensuels de la Royal Astronomical Society, vol. 394, non. 3, pp. 1496–1502, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  97. D. Horn et A. Gottlieb, « Algorithm for data clustering in pattern reconnaissance issues based on quantum memory », Lettres d'examen physique, vol. 88, non. 1, numéro d'article 018702, 4 pages, 2002. Voir sur : Google Scholar
  98. M. Pesenson et I. Pesenson, « Segmentation d'images, apprentissage multiple non supervisé et visualisation de l'information : une approche unifiée basée sur la dynamique non linéaire », soumis. Voir sur : Google Scholar
  99. Y. Kuramoto, Oscillations chimiques, ondes et turbulences, Springer, Berlin, Allemagne, 1984.
  100. A. Pikovsky, M. Rosenblum et J. Kurths, Synchronisation, Cambridge University Press, Cambridge, Royaume-Uni, 2001.
  101. C. Ware et R. Bobrow, « Prise en charge des requêtes visuelles sur les diagrammes nœud-lien de taille moyenne », Transactions ACM sur la perception appliquée, vol. 1, pp. 3-18, 2004. Voir sur : Google Scholar
  102. E. Bertin et S. Arnouts, « SExtractor : logiciel d'extraction de sources », Astronomie et astrophysique, vol. 117, non. 2, pp. 393–404, 1996. Voir sur : Site de l'éditeur | Google Scholar
  103. J. Goodman et J. O'Rourke, éd., Manuel de géométrie discrète et computationnelle, Mathématiques discrètes et ses applications, Chapman & Hall/CRC, 2004.
  104. E. Feigelson et J. Babu, Défis statistiques en astronomie, Springer, Berlin, Allemagne, 2003.
  105. J. Silk, « Un astronome's perspective on SCMA III », dans Défis statistiques en astronomie, III, E.D. Feigelson et G.J. Babu, Eds., p. 387, Springer, New York, NY, USA, 2003. Voir sur : Google Scholar
  106. M. Gorski, E. Hivon, A. J. Banday et al., « HEALPix : un cadre pour la discrétisation à haute résolution et l'analyse rapide des données distribuées sur la sphère » Journal d'astrophysique, vol. 622, non. 2, pp. 759-771, 2005. Voir sur : Site de l'éditeur | Google Scholar
  107. D. Pietrobon, A. Balbi et D. Marinucci, « Integrated Sachs-Wolfe effect from the cross corrélation of WMAP 3 year and the NRAO VLA sky survey data: New results and contraintes on dark energy » Examen physique D - Particules, champs, gravitation et cosmologie, vol. 74, non. 4, numéro d'article 043524, 2006. Afficher sur : Site de l'éditeur | Google Scholar
  108. P. Baldi, G. Kerkyacharian, D. Marinucci et D. Picard, « Asymptotique à haute fréquence pour les tests basés sur les ondelettes pour la gaussianité et l'isotropie sur le tore » Journal d'analyse multivariée, vol. 99, non. 4, pp. 606–636, 2008. Voir sur : Site de l'éditeur | Google Scholar
  109. D. Marinucci, D. Pietrobon, A. Balbi et al., « Aiguilles sphériques pour l'analyse des données de fond de micro-ondes cosmiques », Avis mensuels de la Royal Astronomical Society, vol. 383, non. 2, pp. 539–545, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  110. G. Faÿ, F. Guilloux, M. Betoule, J.-F. Cardoso, J. Delabrouille et M.Le Jeune, « Estimation du spectre de puissance du CMB par ondelettes », Examen physique D, vol. 78, non. 8, numéro d'article 083013, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  111. D. Pietrobon, A. Amblard, A. Balbi, P. Cabella, A. Cooray et D. Marinucci, « Détection par aiguille de caractéristiques dans le ciel WMAP CMB et impact sur les anisotropies et les asymétries hémisphériques » Examen physique D, vol. 78, non. 10, numéro d'article 103504, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  112. D. Geller et D. Marinucci, « Spin wavelets on the sphere », http://arxiv.org/abs/0811.2935. Voir sur : Google Scholar
  113. D. Geller, F. K. Hansen, D. Marinucci, G. Kerkyacharian et D. Picard, "Spin Needlets for cosmic micro-ondes fond polarisation analyse des données," Examen physique D, vol. 78, non. 12, 2008. Voir sur : Site de l'éditeur | Google Scholar
  114. D. Geller et A. Mayeli, « Ondelettes continues sur des variétés compactes », Mathematische Zeitschrift, vol. 262, non. 4, pp. 895-927, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  115. I. Pesenson, « Splines lagrangiennes, fonctions spectrales entières et théorème de Shannon-Whittaker sur les variétés », Rapport de recherche de l'Université Temple 95/87, 1995. Voir sur : Google Scholar
  116. I. Pesenson, « Un théorème d'échantillonnage sur les variétés homogènes », Transactions de l'American Mathematical Society, vol. 352, n. 9, pp. 4257-4269, 2000. Voir sur : Google Scholar
  117. D. Geller et I. Pesenson, « Band-limited localised Parseval frames and Besov spaces on compact homogène manifolds », à paraître dans Journal d'analyse géométrique. Voir sur : Google Scholar
  118. J.-L. Starck, F. Murtagh et A. Bijaoui, Traitement d'images et analyse de données : l'approche multi-échelle, Cambridge University Press, Cambridge, Royaume-Uni, 1998.
  119. J.-L. Starck et F. Murtagh, Analyse d'images et de données astronomiques, Springer, Berlin, Allemagne, 2002.
  120. M. Belkin et P. Niyogi, « Vers un fondement théorique des méthodes de variétés à base de Laplaciens », dans Théorie de l'apprentissage, vol. 3559 de Notes de cours en informatique, pp. 486–500, Springer, Berlin, Allemagne, 2005. Voir sur : Site de l'éditeur | Google Scholar
  121. R. R. Coifman et S. Lafon, « Cartes de diffusion », Analyse harmonique appliquée et computationnelle, vol. 21, non. 1, pp. 5-30, 2006. Voir sur : Site de l'éditeur | Google Scholar
  122. S. Lafon et A. B. Lee, « Cartes de diffusion et granularité grossière : un cadre unifié pour la réduction de la dimensionnalité, le partitionnement de graphes et la paramétrisation d'ensembles de données », Transactions IEEE sur l'analyse des modèles et l'intelligence machine, vol. 28, non. 9, pp. 1393-1403, 2006. Voir sur : Site de l'éditeur | Google Scholar
  123. J. Richards, P. Freeman, A. Lee et C. Schafer, « Exploiting low-dimensional structure in astronomique spectres », Journal d'astrophysique, vol. 691, pp. 32-42, 2009. Voir sur : Google Scholar
  124. J. B. Tenenbaum, V. de Silva et J. C. Langford, « Un cadre géométrique global pour la réduction de la dimensionnalité non linéaire » La science, vol. 290, non. 5500, pp. 2319–2323, 2000. Voir sur : Site de l'éditeur | Google Scholar
  125. S. T. Roweis et L. K. Saul, « Réduction de dimensionnalité non linéaire par plongement localement linéaire », La science, vol. 290, non. 5500, pp. 2323–2326, 2000. Voir sur : Site de l'éditeur | Google Scholar
  126. R. D'Abrusco, A. Staiano, G. Longo et al., « Exploitation des archives SDSS. I. Décalages vers le rouge photométriques dans l'univers proche », Journal d'astrophysique, vol. 663, non. 2, pp. 752-764, 2007. Afficher sur : Site de l'éditeur | Google Scholar
  127. R. D'Abrusco, G. Longo et N. A. Walton, « Sélection des candidats Quasar à l'ère de l'observatoire virtuel », Avis mensuels de la Royal Astronomical Society, vol. 396, non. 1, pp. 223-262, 2009. Afficher sur : Site de l'éditeur | Google Scholar
  128. F. Pasian, U. Becciani et S. Cassisi, « VObs.it–the Italian Virtual Observatory » Faits saillants de l'astronomie, vol. 14, p. 631, 2007. Voir sur : Google Scholar
  129. M. Comparato, U. Becciani, A. Costa et al., « Visualisation, exploration et analyse de données de données astrophysiques complexes », Publications de la Société d'astronomie du Pacifique, vol. 119, non. 858, pp. 898-913, 2007. Afficher sur : Site de l'éditeur | Google Scholar
  130. P. Draper, M. Currie, T. Jenness et al., « GAIA 3D visualizing data cubes », dans Actes de la 16e conférence annuelle sur les logiciels et systèmes d'analyse de données astronomiques (ADASS '07), R. Shaw, F. Hill et D. Bell, Eds., vol. 376 de Série de conférences de l'ASP, pp. 695-698, Tucson, Ariz, USA, 2007. Voir sur : Google Scholar
  131. M. Borkin, A. Goodman et M. Halle, « Application du logiciel d'imagerie médicale à la visualisation 3D de données astronomiques », dans Actes de la 16e conférence annuelle sur les logiciels et systèmes d'analyse de données astronomiques (ADASS '07), R. Shaw, F. Hill et D. Bell, Eds., vol. 376 de Série de conférences de l'ASP, pp. 621–624, Tucson, Ariz, USA, 2007. Voir sur : Google Scholar
  132. W. L. Chan, K. Charan, D. Takhar, K. F. Kelly, R. G. Baraniuk et D. M. Mittleman, « Un système d'imagerie térahertz à un seul pixel basé sur la détection compressée » Lettres de physique appliquée, vol. 93, non. 12, numéro d'article 121105, 2008. Afficher sur : Site de l'éditeur | Google Scholar
  133. J. Bobin, J.-L. Starck et R. Ottensamer, "Compressed sensing in astronomy," Journal IEEE sur des sujets sélectionnés dans le traitement du signal, vol. 2, non. 5, pp. 718-726, 2008. Voir sur : Site de l'éditeur | Google Scholar
  134. E. J. Candes et M. B. Wakin, « An introduction to compressive sampling », Magazine IEEE sur le traitement du signal, vol. 25, non. 2, pp. 21-30, 2008. Voir sur : Site de l'éditeur | Google Scholar
  135. J. Romberg, « Imagerie par échantillonnage compressif », Magazine IEEE sur le traitement du signal, vol. 25, non. 2, pp. 14-20, 2008. Voir sur : Site de l'éditeur | Google Scholar
  136. Y. Wiaux, L. Jacques, G. Puy, A. M. M. Scaife et P. Vandergheynst, « Techniques d'imagerie par détection comprimée pour l'interférométrie radio » Avis mensuels de la Royal Astronomical Society, vol. 395, non. 3, pp. 1733-1742, 2009. Afficher sur : Site de l'éditeur | Google Scholar

Droits d'auteur

Copyright © 2010 Meyer Z. Pesenson et al. Il s'agit d'un article en libre accès distribué sous la licence Creative Commons Attribution, qui permet une utilisation, une distribution et une reproduction sans restriction sur tout support, à condition que l'œuvre originale soit correctement citée.


Contenu

La taille de l'univers entier est inconnue, et son étendue pourrait être infinie. [19] Certaines parties de l'univers sont trop éloignées pour que la lumière émise depuis le Big Bang ait eu suffisamment de temps pour atteindre la Terre ou les instruments spatiaux, et se trouvent donc en dehors de l'univers observable. À l'avenir, la lumière des galaxies lointaines aura eu plus de temps pour voyager, donc des régions supplémentaires deviendront observables. Cependant, en raison de la loi de Hubble, les régions suffisamment éloignées de la Terre s'en éloignent plus rapidement que la vitesse de la lumière (la relativité restreinte empêche les objets proches dans la même région locale de se déplacer plus vite que la vitesse de la lumière les uns par rapport aux autres, mais il n'y a pas de telle contrainte pour les objets distants lorsque l'espace entre eux s'agrandit (voir utilisations de la distance appropriée pour une discussion) et en outre, le taux d'expansion semble s'accélérer en raison de l'énergie noire.

En supposant que l'énergie noire reste constante (une constante cosmologique immuable), de sorte que le taux d'expansion de l'univers continue de s'accélérer, il existe une "limite de visibilité future" au-delà de laquelle les objets jamais entrer dans notre univers observable à tout moment dans un futur infini, car la lumière émise par des objets en dehors de cette limite ne pourrait jamais atteindre la Terre. (Une subtilité est que, parce que le paramètre de Hubble diminue avec le temps, il peut y avoir des cas où une galaxie qui s'éloigne de la Terre juste un peu plus vite que la lumière émet un signal qui atteint finalement la Terre. [13] [20] ) Cette limite de visibilité future est calculée à une distance mobile de 19 milliards de parsecs (62 milliards d'années-lumière), en supposant que l'univers continuera à s'étendre pour toujours, ce qui implique le nombre de galaxies que nous pourrons théoriquement observer dans un futur infini (en laissant de côté le problème que certains peuvent être impossibles à observer dans la pratique en raison du décalage vers le rouge, comme discuté dans le paragraphe suivant) est seulement plus grand que le nombre actuellement observable par un facteur de 2,36. [note 2]

Bien qu'en principe, davantage de galaxies deviendront observables à l'avenir, en pratique, un nombre croissant de galaxies deviendront extrêmement décalées vers le rouge en raison de l'expansion continue, à tel point qu'elles sembleront disparaître de la vue et devenir invisibles. [21] [22] [23] Une subtilité supplémentaire est qu'une galaxie à une distance de comoving donnée est définie comme se trouvant dans "l'univers observable" si nous pouvons recevoir des signaux émis par la galaxie à n'importe quel âge de son histoire passée (disons, un signal envoyé depuis la galaxie seulement 500 millions d'années après le Big Bang), mais en raison de l'expansion de l'univers, il peut y avoir un âge plus avancé auquel un signal envoyé depuis la même galaxie ne pourra jamais atteindre la Terre à aucun moment dans un futur infini (ainsi, par exemple, nous pourrions ne jamais voir à quoi ressemblait la galaxie 10 milliards d'années après le Big Bang), [24] même si elle reste à la même distance de déplacement (la distance de déplacement est définie pour être constante avec le temps, contrairement à la distance appropriée , qui est utilisé pour définir la vitesse de récession due à l'expansion de l'espace), qui est inférieure au rayon de déplacement de l'univers observable. [ éclaircissements nécessaires ] Ce fait peut être utilisé pour définir un type d'horizon des événements cosmiques dont la distance à la Terre change avec le temps. Par exemple, la distance actuelle à cet horizon est d'environ 16 milliards d'années-lumière, ce qui signifie qu'un signal d'un événement qui se produit actuellement peut éventuellement atteindre la Terre dans le futur si l'événement est à moins de 16 milliards d'années-lumière, mais le le signal n'atteindra jamais la Terre si l'événement se situe à plus de 16 milliards d'années-lumière. [13]

Les articles de recherche populaires et professionnels en cosmologie utilisent souvent le terme « univers » pour signifier « univers observable ». [ citation requise ] Cela peut être justifié par le fait que nous ne pouvons jamais rien savoir par expérimentation directe sur une partie de l'univers qui est causalement déconnectée de la Terre, bien que de nombreuses théories crédibles exigent un univers total beaucoup plus grand que l'univers observable. [ citation requise ] Aucune preuve n'existe pour suggérer que la frontière de l'univers observable constitue une frontière sur l'univers dans son ensemble, et aucun des modèles cosmologiques traditionnels ne propose que l'univers ait une frontière physique en premier lieu, bien que certains modèles proposent qu'il pourrait être fini mais non borné, [note 3] comme un analogue de dimension supérieure de la surface 2D d'une sphère dont l'aire est finie mais qui n'a pas d'arête.

Il est plausible que les galaxies de notre univers observable ne représentent qu'une infime fraction des galaxies de l'univers. Selon la théorie de l'inflation cosmique initialement introduite par ses fondateurs, Alan Guth et D. Kazanas, [25] si l'on suppose que l'inflation a commencé environ 10 −37 secondes après le Big Bang, alors avec l'hypothèse plausible que la taille du l'univers avant l'inflation était approximativement égal à la vitesse de la lumière multipliée par son âge, ce qui suggère qu'à l'heure actuelle la taille de l'univers entier est d'au moins 3 × 10 23 (1,5 × 10 34 années-lumière) fois le rayon de l'univers observable . [26]

Si l'univers est fini mais illimité, il est également possible que l'univers soit plus petit que l'univers observable. Dans ce cas, ce que nous considérons comme des galaxies très éloignées peut en fait être des images en double de galaxies proches, formées par la lumière qui a fait le tour de l'univers. Il est difficile de tester cette hypothèse expérimentalement car différentes images d'une galaxie montreraient différentes époques de son histoire, et par conséquent pourraient apparaître très différentes. Bielewicz et al. [27] prétendent établir une borne inférieure de 27,9 gigaparsecs (91 milliards d'années-lumière) sur le diamètre de la dernière surface de diffusion (puisque ce n'est qu'une borne inférieure, puisque l'univers entier est peut-être beaucoup plus grand, voire infini). Cette valeur est basée sur l'analyse du cercle d'appariement des données WMAP sur 7 ans. Cette approche a été contestée. [28]

La distance de déplacement de la Terre au bord de l'univers observable est d'environ 14,26 gigaparsecs (46,5 milliards d'années-lumière ou 4,40 × 10 26 m) dans n'importe quelle direction. L'univers observable est donc une sphère d'un diamètre d'environ 28,5 gigaparsecs [29] (93 milliards d'années-lumière ou 8,8 × 10 26 m). [30] En supposant que l'espace soit à peu près plat (au sens d'être un espace euclidien), cette taille correspond à un volume comoving d'environ 1,22 × 10 4 Gpc 3 ( 4,22 × 10 5 Gly 3 ou 3,57 × 10 80 m 3 ) . [31]

Les chiffres cités ci-dessus sont des distances maintenant (en temps cosmologique), pas des distances au moment où la lumière a été émise. Par exemple, le rayonnement de fond de micro-ondes cosmique que nous voyons actuellement a été émis au moment du découplage des photons, estimé à environ 380 000 ans après le Big Bang [32] [33] qui s'est produit il y a environ 13,8 milliards d'années. Ce rayonnement a été émis par de la matière qui s'est, dans l'intervalle, principalement condensée en galaxies, et ces galaxies sont maintenant calculées à environ 46 milliards d'années-lumière de nous. [11] [13] Pour estimer la distance à cette matière au moment où la lumière a été émise, on peut d'abord noter que selon la métrique de Friedmann-Lemaître-Robertson-Walker, qui est utilisée pour modéliser l'univers en expansion, si à la l'heure actuelle, nous recevons de la lumière avec un décalage vers le rouge de z, alors le facteur d'échelle au moment où la lumière a été émise à l'origine est donné par [34] [35]

Les résultats WMAP sur neuf ans combinés à d'autres mesures donnent le décalage vers le rouge du découplage des photons comme z = 1 091,64 ± 0,47 , [36] ce qui implique que le facteur d'échelle au moment du découplage des photons serait de 1 1092,64 . Donc, si la matière qui a émis à l'origine les plus anciens photons du fond diffus cosmologique (CMBR) a une distance actuelle de 46 milliards d'années-lumière, alors au moment du découplage lorsque les photons ont été initialement émis, la distance n'aurait été que d'environ 42 millions de lumière. -années.

La distance parcourue par la lumière jusqu'au bord de l'univers observable est l'âge de l'Univers divisé par la vitesse de la lumière, 13,8 milliards d'années-lumière. C'est la distance qu'un photon émis peu de temps après le Big Bang, comme celui du fond diffus cosmologique, a parcouru pour atteindre les observateurs sur Terre. Parce que l'espace-temps est courbé, correspondant à l'expansion de l'espace, cette distance ne correspond à aucun moment à la vraie distance. [37]


Portion de l'univers visible si collecte d'images de l'époque inflationniste - Astronomie

Ma question implique que l'Univers est une théorie plate. S'il y avait un big bang, pourquoi l'Univers serait-il plat ? Je penserais que le Big Bang entraînerait une masse d'énergie, de lumière, de matière, de chaleur, de rayonnement, etc. en forme de sphère et tout ce qui se développerait vers l'extérieur tout en maintenant la forme de la sphère.

La signification du Big Bang a été très souvent mal comprise. On pense que quelque chose a explosé quelque part, puis la partie explosée s'est étendue à l'endroit où nous sommes actuellement. Ce n'est pas correct. Avant le Big Bang, il n'y avait ni espace ni temps. Donc, il n'y a rien "en dehors" du Big Bang. L'Univers s'est simplement étendu d'un très petit volume à un énorme volume, et cette expansion se produit encore aujourd'hui. Ainsi, l'endroit où nous nous trouvons actuellement correspond à un endroit dans un très petit volume du tout premier Univers. Par conséquent, le Big Bang s'est produit PARTOUT dans l'Univers. Cela s'est produit à tous les endroits, y compris l'endroit où nous sommes en ce moment.

Pourquoi l'Univers a-t-il l'air plat ? Ce fut l'une des questions embarrassantes de la cosmologie pendant longtemps. Aujourd'hui, la plupart des astronomes croient en la théorie de l'inflation (et il existe des preuves à l'appui). Selon cette théorie, l'Univers a connu une expansion exponentielle environ 10 à 30 secondes après le Big Bang. Le résultat fut que quelque chose de la taille d'un atome atteignit la taille du système solaire à la fin de l'époque inflationniste.

Si tel était le cas, quelle que soit la géométrie originelle de l'Univers, il nous apparaîtrait plat. L'analogie sera de prendre un ballon on peut facilement le voir arrondir maintenant souffler le ballon à un très grand volume et ensuite mettre une petite fourmi sur sa surface. La fourmi pensera qu'elle est sur une feuille dont elle ne peut pas détecter la courbure. Pour le dire autrement, les distances que nous sondons sont bien trop petites pour détecter une éventuelle courbure de l'Univers.

Si comme vous dites "les distances que nous sondons sont bien trop petites pour détecter une éventuelle courbure dans l'Univers". comment accepter les "preuves" récentes d'un univers plat ? Toutes les tentatives pour prouver la planéité ou non de l'univers sont-elles limitées aux données collectées à partir de l'univers observable ? Si c'est le cas, et nous supposons que notre point de vue est équivalent à celui d'une fourmi myope sur terre, il doit sûrement être impossible de trouver une telle preuve, à moins bien sûr que l'information puisse voyager plus vite que la lumière.

Tout d'abord, il faut faire la distinction entre « univers » et « univers observable ». Techniquement, "l'univers" constitue tout ce qui existe, tandis que "l'univers observable" constitue tout ce qui existe dans notre horizon (c'est-à-dire le volume de l'univers dans lequel la lumière a eu le temps de nous atteindre). Chaque observation que nous pouvons faire est confinée à l'univers observable, et nous n'avons aucun moyen de savoir avec certitude ce qui se passe au-delà de l'horizon. Mais beaucoup de gens utilisent "univers" comme raccourci pour "univers observable", ce qui peut créer une certaine confusion. Ainsi, lorsque nous disons "WMAP fournit des preuves solides que l'univers est plat", nous voulons vraiment dire "WMAP fournit des preuves solides que l'univers observable est plat".

Cependant, selon la théorie de l'inflation, même si l'univers a une certaine courbure, l'univers observable devrait être plat au niveau auquel nous sommes capables de le mesurer. Mais nous ne savons pas que la théorie inflationniste est correcte. Alors oui, il est important de faire des expériences comme celle réalisée par WMAP.Si nous devions détecter des écarts par rapport à la platitude dans l'univers observable, cela fournirait des preuves contre l'inflation.

Cette page a été mise à jour le 27 juin 2015.

A propos de l'auteur

Jagadheep D. Pandian

Jagadheep a construit un nouveau récepteur pour le radiotélescope d'Arecibo qui fonctionne entre 6 et 8 GHz. Il étudie les masers au méthanol à 6,7 GHz dans notre Galaxie. Ces masers se produisent sur des sites où naissent des étoiles massives. Il a obtenu son doctorat de Cornell en janvier 2007 et a été stagiaire postdoctoral à l'Institut Max Planck de radioastronomie en Allemagne. Après cela, il a travaillé à l'Institut d'astronomie de l'Université d'Hawaï en tant que boursier postdoctoral submillimétrique. Jagadheep est actuellement à l'Institut indien de science et de technologie spatiales.


Contenu

Époque Temps Redshift Température / Énergie La description
Epoque Planck <10 −43  s 10 32  K 10 19  GeV L'échelle de Planck est l'échelle au-delà de laquelle les théories physiques actuelles n'ont pas de valeur prédictive. L'époque de Planck est la période pendant laquelle la physique est supposée avoir été dominée par les effets quantiques de la gravité.
L'époque de la grande unification <10 −36  s 10 16  GeV Les trois forces du modèle standard sont unifiées.
Époque inflationniste, Époque électrofaible <10 −32  s 10 28  K–10 22  K L'inflation cosmique agrandit l'espace d'un facteur de l'ordre de 10 26 sur un temps de l'ordre de 10 -33 à 10 -32 secondes. L'univers est surfondu d'environ 10 27 à 10 22 kelvins. [6] La Force Nucléaire Forte se distingue de la Force Electrofaible.
L'époque des quarks >10 −12  s 10 12  K Les forces du modèle standard se sont séparées, mais les énergies sont trop élevées pour que les quarks fusionnent en hadrons, formant à la place un plasma quark-gluon. Ce sont les énergies les plus élevées directement observables en expérience dans le Grand collisionneur de hadrons.
Epoque Hadron 10 -6  s–1 s 10 10  K–10 9  K Les quarks sont liés aux hadrons. Au cours de l'époque hadronique, le processus de baryogenèse se traduit par une élimination des anti-hadrons (asymétrie baryonique).
L'époque de Lepton 1 s–10 s 10 9  K Leptons et anti-leptons restent en équilibre thermique Découplage des neutrinos
Époque du photon 10 s–10 13 s <380 ka 10 9  K–10 3  K L'univers est constitué d'un plasma de noyaux, les températures des électrons et des photons restent trop élevées pour la liaison des électrons aux noyaux.
La nucléosynthèse du Big Bang 10 s–10 3 s 10 MeV–100 keV 10 11  K–10 9  K Les protons et les neutrons sont liés dans les noyaux atomiques primordiaux.
Ère dominée par la matière 47 ka–10 Ga 3600–0.4 10 4  K–4 K Pendant ce temps, la densité d'énergie de la matière domine à la fois la densité de rayonnement et l'énergie noire, ce qui entraîne une expansion métrique ralentie de l'espace.
Recombinaison 380 ka 1100 4000 K Les électrons et les noyaux atomiques se lient d'abord pour former des atomes neutres. Les photons ne sont plus en équilibre thermique avec la matière et l'univers devient d'abord transparent. Les photons du rayonnement de fond cosmique micro-ondes naissent à ce moment-là.
Temps sombres 380 ka–150 Ma 1100–20 4000 K–60 K Le temps entre la recombinaison et la formation des premières étoiles. Pendant ce temps, le seul rayonnement émis était la raie d'hydrogène.
Ère stellifère 150 Ma–100 Ga 20– -0.99 60 K–0,03 K Le temps entre la première formation d'étoiles de la Population III jusqu'à la cessation de la formation d'étoiles, laissant toutes les étoiles sous la forme de restes dégénérés.
Réionisation 150 Ma–1 Ga 20–6 60 K–19 K Les objets astronomiques les plus éloignés observables avec des télescopes datent de cette période en 2016, la galaxie la plus éloignée observée est GN-z11, avec un décalage vers le rouge de 11,09. Les premières étoiles "modernes" de la population III se sont formées à cette période.
Formation et évolution des galaxies 1 Ga–10 Ga 6–0.4 19 K–4 K Les galaxies fusionnent en "proto-amas" à partir d'environ 1 Ga (z=6) et dans les amas de galaxies commençant à 3 Gy (z=2.1), et en superamas à partir d'environ 5 Gy (z=1.2), voir liste des groupes et amas de galaxies, liste des superamas.
Ère dominée par l'énergie noire >10 Ga <0.4 <4 K La densité de matière tombe en dessous de la densité d'énergie noire (énergie du vide) et l'expansion de l'espace commence à s'accélérer. Cette époque correspond à peu près à l'époque de la formation du système solaire et à l'histoire évolutive de la vie.
Temps présent 13.8 Ga 0 2.7 K
Avenir lointain >100 Ga <-0.99 <0.1 K L'ère stellifère se terminera lorsque les étoiles finiront par mourir et que moins seront nées pour les remplacer, conduisant à un univers qui s'assombrit. Diverses théories suggèrent un certain nombre de possibilités ultérieures. En supposant la désintégration du proton, la matière peut éventuellement s'évaporer dans une ère sombre (mort par la chaleur). Alternativement, l'univers peut s'effondrer dans un Big Crunch. Des suggestions alternatives incluent une fausse catastrophe du vide ou une grande déchirure comme fins possibles de l'univers.

D'où vient notre flèche du temps ?

L'histoire de l'Univers et la flèche du temps. Crédit image : NASA/GSFC.

Chaque instant qui passe nous fait voyager du passé au présent et dans le futur, le temps s'écoulant toujours dans la même direction. À aucun moment, il ne semble jamais s'arrêter ou s'inverser, la "flèche du temps" pointe toujours vers l'avant pour nous. Mais si nous regardons les lois de la physique - de Newton à Einstein, de Maxwell à Bohr, de Dirac à Feynman - elles semblent être à symétrie temporelle. En d'autres termes, les équations qui régissent la réalité n'ont pas de préférence pour la façon dont le temps s'écoule. Les solutions qui décrivent le comportement de tout système obéissant aux lois de la physique, telles que nous les comprenons, sont tout aussi valables pour le temps qui s'écoule dans le passé que pour le temps qui s'écoule dans le futur. Pourtant, nous savons par expérience que le temps ne s'écoule que dans un sens : en avant. Alors d'où vient la flèche du temps ?

Une balle en plein rebond a ses trajectoires passées et futures déterminées par les lois de la physique, mais . [+] le temps ne s'écoulera que dans le futur pour nous. Crédit image : utilisateurs de Wikimedia Commons MichaelMaggs et (édité par) Richard Bartz, sous licence c.c.a.-s.a.-3.0.

Beaucoup de gens pensent qu'il pourrait y avoir un lien entre la flèche du temps et une quantité appelée entropie. Alors que la plupart des gens assimilent normalement le "désordre" à l'entropie, c'est une description assez paresseuse qui n'est pas non plus particulièrement précise. Au lieu de cela, pensez à l'entropie comme une mesure de la quantité d'énergie thermique (chaleur) qui pourrait éventuellement être transformée en un travail mécanique utile. Si vous avez beaucoup de cette énergie capable de faire potentiellement du travail, vous avez un système à faible entropie, alors que si vous en avez très peu, vous avez un système à haute entropie. La deuxième loi de la thermodynamique est une relation très importante en physique, et elle stipule que l'entropie d'un système fermé (autonome) ne peut qu'augmenter ou rester la même au fil du temps, elle ne peut jamais baisser. En d'autres termes, avec le temps, l'entropie de l'Univers entier doit augmenter. C'est le seul loi de la physique qui semble avoir une direction privilégiée pour le temps.

Extrait d'une conférence sur l'entropie de Clarissa Sorensen-Unruh. Crédit image : C. Sorensen-Unruh de . [+] YouTube, via https://www.youtube.com/watch?v=Mz8IM7pWkok.

Alors, cela signifie-t-il que nous vivons uniquement le temps comme nous le faisons à cause de la deuxième loi de la thermodynamique ? Qu'il existe un lien fondamentalement profond entre la flèche du temps et l'entropie ? Certains physiciens le pensent, et c'est certainement une possibilité. Dans une collaboration intéressante entre la chaîne YouTube MinutePhysics et le physicien Sean Carroll, auteur de The Big Picture, From Eternity To Here et un fan d'entropie/flèche du temps, ils tentent de répondre à la question de savoir pourquoi le temps ne s'écoule pas en arrière. Sans surprise, ils pointent carrément du doigt l'entropie.

Il est vrai que l'entropie explique la flèche du temps pour un certain nombre de phénomènes, notamment pourquoi le café et le lait se mélangent mais ne se mélangent pas, pourquoi la glace fond dans une boisson chaude mais n'apparaît jamais spontanément avec une boisson chaude à partir d'une boisson fraîche, et pourquoi un œuf brouillé cuit ne se résout jamais en un albumen et un jaune non cuits et séparés. Dans tous ces cas, un état d'entropie initialement plus faible (avec plus d'énergie disponible et capable de travailler) est passé à un état d'entropie plus élevée (et d'énergie disponible plus faible) au fur et à mesure que le temps avance. Il existe de nombreux exemples de cela dans la nature, y compris une pièce remplie de molécules : un côté plein de molécules froides et lentes et l'autre pleine de molécules chaudes et rapides. Donnez-lui simplement du temps, et la pièce sera complètement mélangée avec des particules d'énergie intermédiaire, ce qui représente une forte augmentation de l'entropie et une réaction irréversible.

Un système mis en place dans les conditions initiales à gauche et laissé évoluer deviendra le système sur . [+] le droit spontanément, gagnant de l'entropie dans le processus. Crédit image : utilisateurs de Wikimedia Commons Htkym et Dhollm, sous licence c.c.-by-2.5.

Sauf qu'il n'est pas irréversible complètement. Vous voyez, il y a une mise en garde que la plupart des gens oublient quand il s'agit de la deuxième loi de la thermodynamique et de l'augmentation de l'entropie : elle se réfère uniquement à l'entropie d'un système fermé, ou un système dans lequel aucune énergie externe ou changement d'entropie n'est ajouté ou retiré. Un moyen d'inverser cette réaction a été imaginé pour la première fois par le grand physicien James Clerk Maxwell dans les années 1870 : il suffit d'avoir une entité externe qui ouvre une division entre les deux côtés de la pièce lorsqu'elle permet aux molécules « froides » de s'écouler sur d'un côté et les molécules "chaudes" s'écoulent de l'autre. Cette idée est devenue connue sous le nom de démon de Maxwell, et elle vous permet de diminuer l'énergie du système après tout !

Une représentation du démon de Maxwell, qui peut trier les particules en fonction de leur énergie sur l'un ou l'autre . [+] côté d'une boîte. Crédit image : utilisateur de Wikimedia Commons Htkym, sous licence c.c.a.-s.a.-3.0.

Vous ne pouvez pas violer la deuxième loi de la thermodynamique en faisant cela, bien sûr. Le hic, c'est que le démon doit dépenser une énorme quantité d'énergie pour séparer les particules comme celle-ci. Le système, sous l'influence du démon, est un ouvert système si vous incluez l'entropie du démon lui-même dans le système total de particules, vous constaterez que l'entropie totale augmente, en fait, globalement. Mais voici le kicker: même si vous viviez dans la boîte et ne parveniez pas à détecter l'existence du démon - en d'autres termes, si vous ne faisiez que vivre dans une poche de l'Univers qui voyait son entropie diminuer - le temps continuerait en avant pour vous. La flèche thermodynamique du temps ne détermine pas la direction dans laquelle nous percevons le passage du temps.

Peu importe comment nous modifions l'entropie de l'Univers qui nous entoure, le temps continue de passer pour tous. [+] observateurs à raison d'une seconde par seconde. Image du domaine public.

Alors d'où vient la flèche du temps qui correspond à notre perception ? Nous ne savons pas. Ce que nous savons, cependant, c'est que la flèche thermodynamique du temps n'est pas cela. Nos mesures de l'entropie dans l'Univers ne connaissent qu'une seule diminution énorme possible dans toute l'histoire cosmique : la fin de l'inflation cosmique et sa transition vers le Big Bang chaud. Nous savons que notre Univers se dirige vers un destin froid et vide après que toutes les étoiles se soient éteintes, après que tous les trous noirs se soient désintégrés, après que l'énergie noire ait séparé les galaxies non liées les unes des autres et que les interactions gravitationnelles expulsent les derniers vestiges planétaires et stellaires liés. . Cet état thermodynamique d'entropie maximale est connu sous le nom de "mort thermique" de l'Univers. Curieusement, l'état à partir duquel notre Univers est né - l'état d'inflation cosmique - a exactement les mêmes propriétés, mais avec un taux d'expansion beaucoup plus important pendant l'époque inflationniste que celui auquel notre époque actuelle dominée par l'énergie noire conduira.

La nature quantique de l'inflation signifie qu'elle se termine dans certaines "poches" de l'Univers et continue. [+] dans d'autres, mais nous ne comprenons pas encore quelle était la quantité d'entropie pendant l'inflation ni comment elle a donné naissance à l'état de faible entropie au début du Big Bang chaud. Crédit image : E. Siegel, du livre Beyond The Galaxy.

Comment l'inflation s'est-elle arrêtée ? Comment l'énergie du vide de l'Univers, l'énergie inhérente à l'espace vide lui-même, s'est-elle convertie en un bain thermiquement chaud de particules, d'antiparticules et de rayonnement ? Et l'Univers est-il passé d'un état d'entropie incroyablement élevée pendant l'inflation cosmique à un état d'entropie plus faible pendant le Big Bang chaud, ou était-ce l'entropie pendant l'inflation encore plus bas en raison de la capacité éventuelle de l'Univers à effectuer un travail mécanique ? À ce stade, nous n'avons que des théories pour nous guider, les signatures expérimentales ou observationnelles qui nous diraient que les réponses à ces questions n'ont pas été découvertes.

À partir de la fin de l'inflation et du début du Big Bang chaud, l'entropie augmente toujours jusqu'au . [+] aujourd'hui. Crédit image : E. Siegel, avec des images dérivées de l'ESA/Planck et du groupe de travail interagences DoE/NASA/NSF sur la recherche sur le CMB. Extrait de son livre Beyond The Galaxy.

Nous comprenons la flèche du temps d'un point de vue thermodynamique, et c'est une connaissance incroyablement précieuse et intéressante. Mais si vous voulez savoir pourquoi hier est dans le passé immuable, demain arrivera dans un jour et le présent est ce que vous vivez en ce moment, la thermodynamique ne vous donnera pas la réponse. Personne, en fait, ne comprend ce qui va.


Les références

  • Guth, Alain (1997). L'univers inflationniste : la quête d'une nouvelle théorie des origines cosmiques. Persée. ISBNـ-201-32840-2.  
  • Hawking, Stephen (1998). Une brève histoire du temps. Coq nain. ISBNـ-553-38016-8.  
  • Hawking, Stephen Gary Gibbons, S T C Siklos (1983). L'univers très ancien. La presse de l'Universite de Cambridge. ISBNـ-521-31677-4.  
  • Kolb, Edward Michael Turner (1988). L'univers primitif. Addison-Wesley. ISBNـ-201-11604-9.  
  • Linde, Andreï (1990). Physique des particules et cosmologie inflationniste. Coire, Suisse : Harwood. arXiv:hep-th/0503203. ISBNك-7186-0490-6.  
  • Linde, Andrei (2005) "Inflation et cosmologie des cordes," eConfC040802 (2004) L024 J. Phys. Conf. Sér.24 (2005) 151-60 arXiv:hep-th/0503195 v1 2005-03-24.
  • Liddle, Andrew David Lyth (2000). Inflation cosmologique et structure à grande échelle. Cambridge. ISBNـ-521-57598-2.  
  • Lyth, David H. Riotto, Antonio (1999). "Modèles de physique des particules de l'inflation et de la perturbation de la densité cosmologique". Phys. Rept.314 (1–2) : 1–146. arXiv:hep-ph/9807278. Bibcode1999PhR. 314. 1L. DOI : 10.1016/S0370-1573(98)00128-8. http://www.slac.stanford.edu/spires/find/hep/www?rawcmd=FIND+EPRINT+HEP-PH/9807278 .  
  • Moukhanov, Viatcheslav (2005). Fondements physiques de la cosmologie. La presse de l'Universite de Cambridge. ISBNـ-521-56398-4.  
  • Vilenkin, Alex (2006). Plusieurs mondes en un : la recherche d'autres univers. Hill et Wang. ISBNـ-8090-9523-8.  
  • Peebles, P.J.E. (1993). Principes de la cosmologie physique. Presse de l'Université de Princeton. ISBNـ-691-01933-9.  


Voir la vidéo: Marathon des Sciences - Lunivers a-t-il pu surgir du néant? - Étienne KLEIN (Septembre 2022).