Astronomie

Algorithme pour empiler des images astronomiques

Algorithme pour empiler des images astronomiques


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je recherche un algorithme simple pour comparer des images astronomiques (de la même région du ciel) les unes par rapport aux autres, calculer leur mouvement et leur rotation, pour enfin les empiler.

En ce moment, j'ai déjà un algorithme plus ou moins fonctionnel. J'extrait d'abord toutes les étoiles d'une image (y compris des informations telles que la luminosité et la FWHM), puis je parcoure tous les "points" résultants et crée des triangles à partir du point actuel et des deux autres étoiles qui ont la distance la plus courte jusqu'à cela Star.

Cette liste de triangles est créée pour chaque image. Après cela, je prends une image comme référence, puis je parcoure la liste des triangles de l'image de référence pour trouver un triangle dans l'autre image avec la même longueur de chaque côté du triangle (j'autorise également une certaine tolérance due au minimum différences relatives des positions des étoiles dans chaque image). Pour ce match, je calcule le mouvement et la rotation par rapport à l'image de référence. La dernière étape consiste à trouver les triangles appariés qui ont le même mouvement relatif et la même rotation que les autres allumettes. Cela se fait en calculant l'écart type, en triant les triangles qui ne sont pas à 1 ou 2 sigma et en répétant ce processus jusqu'à ce que j'aie un très petit écart type.

La dernière partie, trouver des triangles "valides" avec le même mouvement/rotation, fonctionne bien. Le problème est que parfois je n'ai que 2 ou 3 triangles "valides" sur 300 triangles initiaux. Tous les autres triangles ont des longueurs de côté différentes de celles de l'image de référence.

Je suppose donc que c'est la façon dont je génère mes triangles initiaux qui pose problème. Trier les étoiles par leur luminosité et utiliser ces données pour générer les triangles ne fonctionne pas non plus. Existe-t-il donc un meilleur moyen de créer les triangles initiaux dans toutes les images ?


Cette page sur un produit commercial détaille son algorithme. Il effectue la correspondance triangulaire que vous décrivez, avec quelque chose comme un recuit simulé pour obtenir une solution plus optimale.

La réponse acceptée à cette question étroitement liée recommande le logiciel de panorama Hugin ; c'est open source, vous devriez donc pouvoir glaner les algorithmes utilisés.


Jetez un œil à SCAMP pour l'astrométrie et SWarp pour l'empilement. Comme le logiciel mentionné dans l'autre réponse, les deux sont open source, vous pouvez donc vérifier quels algorithmes ils utilisent.

La documentation SCAMP est ici, avec une explication de l'algorithme au chapitre 6.7 (page 25). Il y a aussi un court document, mais le manuel semble plus complet.

Notez que le logiciel est écrit en pensant aux détecteurs de mosaïque multi-CCD à grand champ, donc ce qu'ils font peut être exagéré par rapport à ce que vous avez en tête.


Empiler des images d'astronomie avec Python

Je pensais que ça allait être plus facile mais après un moment, j'abandonne finalement, au moins pour quelques heures.

Je voulais reproduire cette image d'étoiles filantes à partir d'un ensemble d'images en accéléré. Inspiré de ceci :

L'auteur original a utilisé des images vidéo basse résolution prises avec VirtualDub et combinées avec imageJ. J'imaginais que je pouvais facilement reproduire ce processus mais avec une approche plus soucieuse de la mémoire avec Python, afin que je puisse utiliser les images haute résolution d'origine pour un meilleur résultat.

L'idée de mon algorithme est simple, fusionner deux images à la fois, puis itérer en fusionnant l'image résultante avec l'image suivante. Cela a été fait des centaines de fois et correctement pesé afin que chaque image ait la même contribution au résultat final.

Je suis assez nouveau sur python (et je ne suis pas un programmeur professionnel, ce sera évident), mais en regardant autour de moi, il me semble que la bibliothèque d'imagerie Python est très standard, alors j'ai décidé de l'utiliser (corrigez-moi si vous pensez autre chose serait mieux).

Cela fait ce qu'il est censé faire, mais l'image résultante est sombre, et si j'essaie simplement de l'améliorer, il est évident que des informations ont été perdues en raison du manque de profondeur dans les valeurs des pixels. (Je ne sais pas quel est le terme approprié ici, profondeur de couleur, précision de couleur, taille de pixel). Voici le résultat final en utilisant des images en basse résolution :

ou celui que j'essayais avec la résolution complète 4k par 2k (à partir d'un autre ensemble de photos):


Algorithme pour empiler des images astronomiques - Astronomie

L'empilement d'images améliore le rapport signal/bruit, mais toutes les méthodes d'empilement ne sont pas aussi efficaces. Cet article montre quelques différences et lesquelles sont les meilleures et le format de données à utiliser.

  • 001) ÉTHIQUE dans la photographie de nuit
  • 002) Début de l'astrophotographie : des sentiers d'étoiles à la photographie de paysage nocturne
  • 1a) Photographie de paysage nocturne avec des appareils photo numériques
  • 1b) Planification de la photographie de nuit
  • 1c) Caractéristiques des meilleurs appareils photo numériques et objectifs pour la photographie nocturne et astro
  • 1d) Appareils photo numériques et objectifs recommandés pour la photographie nocturne et astro
  • 1e) Photographie de paysage nocturne sur le terrain
  • 1f) Une configuration très portable pour l'astrophotographie, le paysage et la photographie animalière
  • 2a) La couleur du ciel nocturne
  • 2b) La couleur des étoiles
  • 2c) La couleur des nébuleuses et de la poussière interstellaire dans le ciel nocturne
  • 2d1) Vérification de la couleur naturelle des images du ciel nocturne et compréhension du bon et du mauvais post-traitement
  • 2d2) Astrophotographie couleur et critiques
  • 2e) Vérification du flux de travail de traitement d'images d'astrophotographie en couleurs naturelles avec pollution lumineuse
  • 2f) True Color of the Trapezium in M42, The Great Nebula in Orion
  • 2g) La vraie couleur de la nébulosité des Pléiades
  • 3a1) Flux de travail de base pour le traitement des images de nuit et d'astrophotographie
  • 3a2) Traitement d'image de photographie de nuit, meilleurs réglages et astuces
  • 3a3) Post-traitement d'astrophotographie avec RawTherapee
  • 3b) Traitement d'images d'astrophotographie
  • 3c) Traitement d'images d'astrophotographie avec pollution lumineuse
  • 3d) Traitement d'image : les zéros sont des données d'image valides
  • 3e) Traitement d'image : Comparaison des méthodes d'empilement (VOUS ÊTES ICI)
  • 3f1) Extension d'image avancée avec l'algorithme rnc-color-stretch
  • 3f2) Messier 8 et 20 Image Stretching avec l'algorithme rnc-color-stretch
  • 3f3) Messier 22 + Étirement d'image de poussière interstellaire avec l'algorithme rnc-color-stretch
  • 3f4) Étirement avancé de l'image avec une pollution lumineuse élevée et des dégradés avec l'algorithme rnc-color-stretch
  • 4a) Astrophotographie et distance focale
  • 4b1) Astrophotographie et exposition
  • 4b2) Temps d'exposition, rapport f/f, zone d'ouverture, taille du capteur, efficacité quantique : qu'est-ce qui contrôle la collection de lumière ? Et calibrer votre appareil photo
  • 4c) Photographie d'aurore
  • 4d) Photographie de météores
  • 4e) Avez-vous besoin d'un appareil photo modifié pour l'astrophotographie ?
  • 4f) Comment photographier le soleil : lever, coucher de soleil, éclipses
  • 5) Photographie de paysage nocturne avec un support de suivi de porte de grange
  • 6a) Éclairage et protection de votre vision nocturne
  • 6b) Vision des couleurs la nuit
  • 7a) Photographie de nuit et en basse lumière avec des appareils photo numériques (technique)
  • 7b) Technologie de suppression du courant d'obscurité sur capteur
  • 7c) Avancées technologiques pour l'imagerie à faible exposition longue durée
  • 8a) Logiciel pour paysage nocturne et astrophotographes

introduction
Les données de test
Résultats
Exemple d'image du monde réel
Échantillonnage dans la caméra
Conclusion
Références et lectures complémentaires
Questions et réponses

Si vous trouvez les informations sur ce site utiles, veuillez soutenir Clarkvision et faire un don (lien ci-dessous).

Introduction

L'empilement est un terme pour ajouter/faire la moyenne de plusieurs images ensemble pour réduire le bruit apparent (améliorer le rapport signal sur bruit) de l'image combinée. Le rapport signal sur bruit, ou S/B, augmente de la racine carrée du nombre d'images dans la pile s'il n'y a pas d'effets secondaires. Mais dans la pratique, il existe des effets secondaires, et ces effets secondaires peuvent entraîner des problèmes visibles dans les images empilées et limiter les informations pouvant être extraites. Quelle(s) méthode(s) fonctionne le mieux avec le moins d'artefacts ?

Il existe essentiellement 2 méthodes :

1) une forme d'addition/moyenne, y compris les moyennes notées, la moyenne écrêtée sigma, la moyenne exclue min/max, etc.

2) médiane incluant médiane écrêtée, exclusion min/max, etc.

L'efficacité de l'empilement dépend des données qui sont transmises au logiciel d'empilement. La sortie brute de la plupart des appareils photo numériques est de 14 bits par pixel. Un convertisseur brut peut créer les éléments suivants :

a) données linéaires 14 bits du DSLR, non échelonnées,
b) des données 16 bits linéaires mises à l'échelle par 4x à partir des données DSLR 14 bits, et
c) Données de courbe de tonalité 16 bits.

Pour étudier l'efficacité de deux méthodes d'empilement différentes, une moyenne écrêtée d'écart-type (appelée moyenne écrêtée Sigma) et le calcul de la médiane, l'empilement a été testé à l'aide de différents types de données : linéaire 14 bits, linéaire 16 bits et tonalité mappée 16 bits Les données.

Les données de test

Pour tester l'efficacité de l'empilement, j'ai construit une image avec des nombres intégrés (Figure 1). Ensuite, j'ai mis les nombres à l'échelle dans une séquence d'intensité (Figure 2). À l'aide d'un logiciel de traitement d'images scientifiques (Davinci de l'Arizona State University, http://davinci.asu.edu/), j'ai calculé des images de bruit gaussien aléatoire. À l'image de la figure 2, j'ai ajouté un décalage, typique des reflex numériques Canon, pour empêcher le signal et le bruit d'être écrêtés à zéro dans les fichiers image entiers. J'ai calculé le bruit aléatoire à un niveau qui fait que le S/N = 1,0 sur le numéro 10 de l'image. Cela signifie que le numéro 1 a un S/N = 0,1 et 25 a un S/N = 2,5 dans un seul fichier image. Un exemple d'image unique avec du bruit est illustré à la figure 3.

Cent images comme celle de la figure 3, chacune avec un bruit aléatoire différent, ont été calculées pour les tests d'empilement. Le premier ensemble de 100 images simule la sortie d'un reflex numérique avec 14 bits par pixel. Un deuxième ensemble de 100 a été calculé à partir d'un reflex numérique avec 14 bits linéaires par pixel, puis redimensionné par 4x pour redimensionner les 14 bits à 16 bits comme celui de certains convertisseurs bruts. Un troisième ensemble de 100 images a été calculé et mis à l'échelle comme s'il s'agissait d'une courbe de tons émise par un convertisseur brut. Comme le test porte sur les parties les plus faibles d'une image, la courbe des tons met les données à l'échelle d'un facteur 10 mais la réponse est toujours linéaire (voir la partie 3b pour plus d'informations sur la fonction de courbe des tons). Les données 16 bits et les données de courbe de tonalité sont toujours quantifiées à 14 bits, mais la mise à l'échelle ajoute potentiellement de la précision à la pile, et nous verrons les effets de la mise à l'échelle sur la sortie finale.

L'empilement a été effectué dans ImagesPlus en sélectionnant deux méthodes : la médiane et la moyenne écrêtée sigma. L'écrêtage a été fixé à 2,45 écarts-types. L'écrêtage d'une pile d'images réelles du ciel nocturne supprime la plupart des signatures des avions et des satellites qui passent. Dans le test de données ici, il n'y a essentiellement aucune différence entre une moyenne simple et une moyenne écrêtée.


Figure 1. L'image de la séquence de nombres.


Figure 2. L'image de la séquence de rampe.


Figure 3. Image unique avec bruit. Le profil de bruit a été conçu pour simuler la condition où le bruit de lecture du capteur + bruit de photon donne un S/N = 1 pour le nombre 10.

Résultats

Les résultats de la sortie linéaire 14 bits sont présentés pour une pile médiane sur la figure 4a et une pile moyenne écrêtée Sigma sur la figure 4b. L'écrêtage a été fixé à 2,45 écarts-types. Clairement, le Sigma Clipped Average produit un meilleur résultat. La médiane est postérisée à 14 bits et il serait impossible d'extraire des signaux faibles. Mais même les données linéaires à 14 bits sont postérisées et des informations limitées pourraient être extraites (les nombres inférieurs à 10).


Figure 4a. 100 images médianes combinées sur des données 14 bits.


Figure 4b. La moyenne de 100 images Sigma-Clipped se combine sur des données 14 bits.

Les résultats de la sortie linéaire 16 bits sont présentés pour une pile médiane sur la figure 5a et une pile moyenne écrêtée Sigma sur la figure 5b. L'écrêtage a été fixé à 2,45 écarts-types. Encore une fois, le Sigma Clipped Average produit un meilleur résultat. La médiane est quantifiée à 14 bits. La pile médiane montre les nombres inférieurs à 10, mais chaque nombre a un niveau d'intensité constant et l'arrière-plan a un autre niveau d'intensité constant. La moyenne écrêtée Sigma produit un résultat plus fluide avec des intensités décroissantes sur les nombres, comme prévu, et un bruit de fond plus faible. Le Sigma Clipped Average montre également une meilleure séparation des nombres de l'arrière-plan. Cela signifie que des étoiles, des nébuleuses et des galaxies plus faibles peuvent être détectées sur une astrophoto.


Figure 5a. La médiane de 100 images se combine sur des données 16 bits.


Figure 5b. La moyenne de 100 images Sigma-Clipped se combine sur des données 16 bits.

Les résultats de la sortie de la courbe des tons sont présentés pour une pile médiane sur la figure 6a et une pile moyenne écrêtée Sigma sur la figure 6b. L'écrêtage a été fixé à 2,45 écarts-types. Encore une fois, le Sigma Clipped Average produit un meilleur résultat. La médiane est quantifiée à 14 bits et apparaît similaire à celle de la figure 5a, mais légèrement moins bruitée. La pile médiane montre les nombres inférieurs à 10, mais chaque nombre a un niveau d'intensité constant et l'arrière-plan a un niveau d'intensité constant légèrement différent. La moyenne écrêtée Sigma produit un résultat plus fluide avec des intensités décroissantes sur les nombres et un bruit de fond plus faible. Le bruit dans le résultat Sigma Clipped Average (Figure 6b) est inférieur à celui de la pile linéaire de 16 bits (Figure 5b).


Figure 6a. La médiane de 100 images se combine sur des données mappées.


Figure 6b. La moyenne de 100 images Sigma-Clipped se combine sur des données mappées.

Dans la figure 7, je compare les trois méthodes pour la pile médiane. Parmi ces trois, les résultats de la courbe des tons sont les meilleurs, mais tous les résultats médians sont inférieurs aux résultats de la moyenne écrêtée Sigma.




Figure 7.
En haut : 100 images médianes combinées sur des données 14 bits.
Milieu : 100 images médianes combinées sur des données 16 bits.
En bas : 100 images médianes combinées sur des données mappées.

Dans la figure 8, je compare les trois méthodes de la pile Sigma Clipped Average avec une pile à virgule flottante 32 bits complète. Des trois premiers, les résultats de la courbe des tons sont les meilleurs et visuellement impossibles à distinguer des résultats à virgule flottante 32 bits.





Figure 8.
En haut : 100 images en moyenne Sigma-Clip se combinent sur des données linéaires de 14 bits (entrée et sortie).
Milieu supérieur : 100 images en moyenne Sigma-Clip se combinent sur des données linéaires de 16 bits.
Milieu inférieur : 100 images en moyenne Sigma-Clip se combinent sur des données mappées en tons.
En bas : 100 images Sigma-Clipped moyenne combinées sur des données de sortie à virgule flottante 32 bits (entrée linéaire 14 bits).

Exemple d'image du monde réel


Graphique 9.
a) Conversion brute en tif linéaire 14 bits non mis à l'échelle (mêmes niveaux que le fichier brut). Calibrage à l'aide de flatfields, de cadres sombres et de biais dans ImagesPlus. L'alignement des cadres et la médiane se combinent dans ImagesPlus, puis un fichier FITS à virgule flottante 32 bits écrit. Un étirement important sur le résultat à virgule flottante 32 bits dans ImagesPlus. Raffinement dans photoshop sur des données 16 bits. (Les données tiff 16 bits sont ici (recadrage de 1,4 Mo) : essayez de réduire le bruit sur le panneau c.
b) Conversion brute en tif linéaire 16 bits mis à l'échelle dans ImagesPlus. Calibrage à l'aide de flatfields, de cadres sombres et de biais dans ImagesPlus. L'alignement des images et la moyenne écrêtée sigma se combinent dans ImagesPlus, puis un fichier FITS à virgule flottante 32 bits écrit. L'écrêtage sigma a été fixé à 2,45 écarts-types. Un étirement important sur le résultat à virgule flottante 32 bits dans ImagesPlus. Raffinement dans photoshop sur des données 16 bits.
c) Conversion brute dans Photoshop ACR à l'aide des profils d'objectif décrits ici. L'alignement des images et la moyenne écrêtée sigma se combinent dans ImagesPlus, puis un fichier tif 16 bits écrit. Étirement avec des courbes dans Photoshop.
d) Identique à (c) avec un peu d'affûtage appliqué. Dans ce cas, déconvolution douce de Richardson-Lucy dans ImagesPlus, 7x7 gaussien, 5 itérations et appliquée aux régions les plus lumineuses. Le bruit plus faible de la méthode (c) permet une plus grande netteté et une extraction des détails plus faibles et plus subtils.
Notez que la différence de balance des couleurs représente de petites différences de traitement et doit être ignorée. Ce qui est important, c'est le bruit apparent, à la fois le bruit de luminance et de couleur, les détails apparents et les subtiles gradations de tons.

Échantillonnage dans la caméra

Pour détecter les plus petits signaux dans un ensemble d'exposition empilé, l'échantillonnage dans l'appareil photo doit être suffisamment élevé pour numériser ces minuscules signaux. La figure 10 montre les effets d'échantillonnage par la caméra A/D dans une situation de faible bruit (faible bruit de caméra).

Il montre que pour détecter les photons au sous-photon par taux d'exposition, il y a un avantage à aller plus haut que le gain unitaire (ISO plus élevé) (un gain plus élevé est plus petit e/DN). (DN = numéro de données dans le fichier image). Dans la photographie du ciel nocturne, à mesure que le bruit de la lueur du ciel augmente, les avantages sont réduits. On voit aussi sur le schéma qu'il n'y a pas beaucoup de gain en détection d'objet faible en passant de 0,3 à 0,2 e/DN (ce serait une augmentation de 50% en ISO), mais un bon saut dans les moindres détails numérisés en passant du gain unitaire à 1/3 e/DN. Les données d'image sont normalisées de sorte que le nombre 25 apparaisse avec la même luminosité.

Dans la pile de 100 images, en numérisant à 0,3 e/DN, 20 photons sont juste détectables, soit un taux de 1 photon pour 5 images en moyenne. Au gain unitaire, c'est environ 4 fois pire. Dans les caméras du monde réel avec des bandes présentes, les différences entre les gains seront plus importantes. Cela implique une différence de détection de magnitude stellaire en astrophotographie.


Figure 10. Dans l'échantillonnage de l'appareil photo dans une situation à faible bruit montre que pour détecter des signaux faibles, environ moins d'un photon par exposition, l'échantillonnage par le convertisseur A/N dans l'appareil photo doit être inférieur à 1 électron par unité de convertisseur analogique-numérique (Numéro de données, DN). Pour les appareils photo avec des pixels d'environ 5 à 6 microns, ce gain est généralement d'environ 1600 ISO.

Le modèle utilisé pour produire les données de la figure 10 a utilisé une distribution de Poisson pour le bruit des photons, une distribution gaussienne pour la lecture + bruit de courant d'obscurité et une erreur de +/- 1 DN dans la conversion A/N, puis a mis à l'échelle les images de sortie au même niveau pour comparaison. L'erreur A/D est importante. Par exemple, supposons que vous ayez 1 photon dans un pixel à chaque exposition, l'A/D en aura certains sans photons et d'autres avec 2, augmentant ainsi l'erreur. Bien sûr, les autres sources de bruit modulent cela, mais l'inclusion du bruit de conversion A/N est importante pour montrer la tendance. Au fur et à mesure que d'autres sources de bruit augmentent, l'effet A/N diminue et il est moins important de travailler à des ISO plus élevés, à moins qu'il ne faille également surmonter les problèmes de bande (ce qui est souvent le cas).

La clé de l'astrophotographie pour détecter les détails les plus infimes est :

1) Les cieux les plus sombres que vous puissiez atteindre.

2) Objectif/télescope de la plus grande qualité d'ouverture que vous puissiez vous permettre, avec le rapport f/rapport le plus rapide. Le rapport f/rapport rapide et la grande ouverture sont essentiels car vous recueillez le plus de lumière dans les plus brefs délais.

Fonctionnement de la caméra : ISO où a) ISO où la bande est suffisamment petite pour ne pas être un facteur, b) gain (ISO) d'environ 1/3 e/DN. Si le baguage est toujours un problème à ISO 1/3 e/DN, passez à une ISO plus élevée.

En choisissant un appareil photo numérique pour l'astrophotographie :

1) Les modèles récents des deux dernières années (ces modèles, tous fabricants) ont une meilleure suppression du courant d'obscurité et des bandes plus faibles ainsi qu'une bonne efficacité quantique.

3) Modèles sans compression brute avec perte ni filtrage brut d'alimentation en étoiles et filtrage brut minimal (au moins 2, peut-être que plus de fabricants sont géniaux dans ce domaine).

Si le bruit de lecture est de l'ordre d'environ 2 ou 3 électrons (ou moins) à un gain ISO de 1/3 e/DN et une bande faible à ce DN, un bruit de lecture plus faible ne montrera aucune différence dans l'astrophotographie à longue exposition où vous pouvez enregistrez une lueur du ciel à chaque exposition. Ce n'est que si vous essayez de faire de l'astrophotographie avec quelques secondes d'exposition avec des filtres à bande étroite ou des objectifs/télescopes très lents que le bruit de lecture deviendrait un problème.

L'endroit où un appareil photo devient "sans ISO" n'a pratiquement aucune importance en astrophotographie, car sans ISO concerne un faible bruit de lecture et le bruit de lecture est submergé par d'autres sources de bruit. Encore une fois, il est bon d'avoir un bruit de lecture raisonnablement faible (c'est-à-dire 2 à 3 environ) à un gain ISO d'environ 1/3 e/DN. Bien sûr, c'est bien d'avoir une baisse, mais cela fait peu de différence lorsque vous exposez le ciel à un histogramme de 1/4 à 1/3, puis ajoutez du bruit provenant du courant d'obscurité. Ces sources de bruit sont ce qui limite la plage dynamique et les détections de sujets les plus faibles, PAS le bruit de lecture et que vous soyez ou non à un niveau ISOless ou à un gain unitaire.

Conclusion

La précision du bit et la méthode sont importantes dans l'empilement. Les méthodes de calcul de moyenne sont supérieures à la moissonneuse-batteuse médiane. Au fur et à mesure que les appareils photo numériques s'améliorent, avec moins de bruit du système, y compris le bruit de lecture et le bruit du courant d'obscurité, et que davantage d'images sont empilées, la précision de sortie de la pile doit être capable de gérer l'augmentation du rapport signal/bruit. La précision simple de 14 bits est inadéquate, tout comme les 14 bits mis à l'échelle à 16 bits (seulement une amélioration de la précision 4 fois) lors de l'empilement de plus de 10 images environ. Lors de l'empilement d'un grand nombre d'images, l'augmentation de la précision ne peut être atteinte qu'en utilisant la moyenne en entier 32 bits, en virgule flottante 32 bits ou en mappage de tons si des fichiers image 16 bits sont utilisés.

Si vous travaillez avec un grand nombre d'images dans une pile et que vous souhaitez travailler dans une réponse d'intensité linéaire, il est préférable d'utiliser un éditeur d'images pouvant fonctionner en virgule flottante 32 bits, notamment en stockant l'image empilée dans un format 32 bits. bit entier ou format à virgule flottante.

Le mappage des tons améliore la précision d'intensité d'environ 40 fois pour les parties les plus faibles d'une image lorsque vous travaillez avec des fichiers 16 bits par rapport à la sortie brute d'un appareil photo numérique 14 bits linéaire. Ainsi, le mappage de tons permet d'extraire des détails plus faibles lorsque l'on travaille avec des éditeurs d'images 16 bits/canal et des fichiers image au format 16 bits/canal. Si nous supposons une précision de 1 bit, la mise à l'échelle 40x des données mappées les plus faibles serait bonne pour une amélioration 20x du S/B, ce qui signifie que l'empilement jusqu'à 20 images au carré ou 400 devrait toujours fonctionner avec une précision adéquate.

Bien entendu, la rencontre de ces effets dépend également des niveaux de bruit dans votre situation d'imagerie, y compris le bruit du système de caméra et le bruit de la lueur d'air et de la pollution lumineuse. À mesure que le bruit augmente, ces effets secondaires deviennent cachés (littéralement perdus dans le bruit).

Si les images empilées sont réalisées en sortie linéaire 14 ou 16 bits, vous pouvez rencontrer une postérisation, ce qui se traduit par des "taches" et ce que j'appelle un aspect pâteux dans les images lorsqu'elles sont étirées. Je vois beaucoup de ces artefacts dans les astrophotos publiées en ligne, ce qui m'indique que la postérisation dans l'empilement se produit probablement.

Le moment où un flotteur est nécessaire dépend du niveau de bruit (y compris le bruit de lecture plus le bruit du courant d'obscurité et le bruit de la lueur d'air et de la pollution lumineuse). Une façon de vérifier cela est de faire des statistiques sur une seule exposition dans une zone sombre sans étoiles ni nébuleuses. Supposons que vous fassiez cela et trouviez un écart type de 6,5. Si vous empilez ensuite plus de 6,5 * 6,5 = 42 images, le résultat sera quantifié en nombre entier et l'extraction du détail le plus faible sera limitée par le calcul des nombres entiers. Il serait alors préférable d'enregistrer le résultat de la pile au format flottant 32 bits et d'étirer les résultats à partir des données flottantes 32 bits. Dans ImagesPlus, vous pouvez conserver le format par défaut à 16 bits, puis à la fin de la pile, enregistrer une copie de l'image, sélectionner les ajustements, puis sélectionner le format flottant 32 bits.

Questions et réponses

Pourquoi l'image de la pile médiane de la figure 4a est-elle plate avec une seule valeur pour l'arrière-plan ?

Répondre. Lorsque les données d'entrée sont quantifiées, la combinaison médiane est également quantifiée. Même si les données d'entrée sont mises à l'échelle en valeurs à virgule flottante, elles sont toujours quantifiées (par exemple, multipliées par 1,23 et portées en virgule flottante, il existe encore des valeurs discrètes séparées par 1,23). La moissonneuse-batteuse médiane choisit l'une de ces valeurs quantifiées comme médiane. En empilant de nombreuses images, lorsque le bruit dans la pile est réduit à une fraction du pas de quantification, la médiane est quantifiée à une seule valeur. Techniquement, cela se produit lorsque l'écart type de la médiane est inférieur à l'intervalle de quantification, et devient significativement postérisé lorsque l'écart type de la médiane est d'environ 1/4 de l'intervalle de quantification. Le nombre d'images à combiner pour que cela se produise avec des données réelles dépend de l'intervalle de quantification et du bruit du système. Mais une fois la postérisation commencée, l'ajout d'images supplémentaires accélère l'effondrement (figure 11) et on ne peut pas extraire un signal plus faible des données. Encore une fois, cela illustre qu'une combinaison médiane doit être évitée lors de l'empilement de données d'image.


Figure 11. Exemple d'effets de quantification lorsque plus de trames sont combinées en médianes. L'écart type de la médiane est de 0,21 après 10 images montrant une postérisation significative. À 20 images, la quantification a réduit l'écart type de la médiane à 0,02, ce qui donne un arrière-plan presque uniforme. La séquence procède à la réduction de toutes les valeurs avec un rapport signal/bruit inférieur à 1 dans une image à une seule valeur de sortie dans la pile médiane.

La question suivante est la suivante : le bruit généré est-il vraiment gaussien ? La figure 12 montre des tracés linéaires et logarithmiques du profil de bruit (croix) et du profil gaussien (ligne). Les données sont gaussiennes dans les statistiques de comptage (+/- 1). Les publications en ligne ont chargé les données ne sont pas gaussiennes, mais confondent le profil gaussien avec l'intervalle d'échantillonnage.

Figure 12. Statistiques du bruit utilisé dans les modèles (croix), comparé au profil mathématique gaussien (lignes). En haut : tracé linéaire. En bas : log plot. Le point haut à x=1006 est l'arrondi des statistiques de comptage fini : la valeur haute est 2 +/- 1.

Pourquoi la moissonneuse-batteuse médiane de la figure 9a est plus bruyante :
"De plus, spécifiquement pour la lumière, les photons ont tendance à arriver en faisceaux ou en ondes, provoquant parfois une perturbation de la distribution de Poisson attendue. Et c'est quelque chose qui ne doit pas être ignoré. Le résultat de ces amas de photons supplémentaires ou de périodes sans photons est un perturbation possible de la valeur médiane, en la déplaçant plus haut ou plus bas qu'elle n'aurait dû l'être.Je pense que cela conduit non seulement à un résultat plus bruyant qu'une moyenne, mais aussi moins de quantification exactement *parce que* il y a *plus* de bruit. Encore une fois, votre Figure 9 la médiane combinée avec des données réelles le montre. Il y a une médiane plus bruyante que la moyenne, comme on peut s'y attendre des mathématiques statistiques. »

Répondre. Tout d'abord, les données d'entrée (fichiers bruts) sont exactement les mêmes pour toutes les méthodes de la figure 9. Si le bruit provenant de l'agglutination des photons était un facteur, nous verrions que les mêmes pixels dans les images réalisées avec d'autres méthodes semblent également plus bruyants. Nous ne faisons pas. Deuxièmement, voir The Present Status of the Quantum Theory of Light édité par Jeffers, Roy, Vigier et Hunter, Springer Science, 1997, page 25, où l'agglutination est décrite comme étant observée à partir d'objets astronomiques à une échelle de quelques mètres. A la vitesse de la lumière, cela s'applique à une échelle de quelques nanosecondes, comparé au temps d'exposition de 4260 secondes de l'image Horsehead en question. L'idée d'agglutination de photons est erronée d'environ 12 ordres de grandeur. Les données de la figure 9a sont purement une conséquence de la quantification médiane.

Sur les raisons pour lesquelles le bruit est différent entre les images "Le bruit est pire que 25 % parce que vous avez effectué plusieurs opérations, chacune ajoutant sa propre erreur. L'application de sombres et de plats ajoute également du bruit. Le rapport S/B de 80 % est juste pour 1 simple médiane. Honnêtement, si vous ne vous rendez pas compte qu'il devrait y avoir une erreur supplémentaire, alors je ne sais pas quoi dire."

Répondre. Toutes les piles de combinaison d'images ont été effectuées dans ImagesPlus qui utilisait une virgule flottante 32 bits. Les données d'entrée d'un reflex numérique sont bien sûr quantifiées et le restent après conversion en virgule flottante 32 bits. Les calculs à virgule flottante 32 bits garantissent qu'il n'y a pas d'erreur significative ajoutée par les opérations d'empilement. En outre, les mêmes images maîtresses sombres, à champ plat et à biais ont été utilisées à la fois pour la médiane et la moyenne, donc si les erreurs étaient dues à ces données, elles apparaîtraient à la fois dans les piles médianes et moyennes. Evidemment non.

Si vous trouvez les informations sur ce site utiles, veuillez soutenir Clarkvision et faire un don (lien ci-dessous).

Références et lectures complémentaires

La communauté open source est assez active dans le domaine du profil d'objectif. Voir:

Profils de lentilles Lensfun : http://lensfun.sourceforge.net/ Tous les utilisateurs peuvent fournir des données.

Note technique : combinaison d'images à l'aide de pixels entiers et de type réel. Ce site montre également que la combinaison médiane ne produit pas de résultats aussi bons que les méthodes moyennes : http://www.mirametrics.com/tech_note_intreal_combining.htm.

Le DN est « Numéro de données ». C'est le nombre dans le fichier pour chaque pixel. Il s'agit d'un nombre de 0 à 255 dans un fichier image 8 bits, de 0 à 65535 dans un fichier tif entier non signé de 16 bits.

Entier signé 16 bits : -32768 à +32767

Entier non signé 16 bits : 0 à 65535

Photoshop utilise des entiers signés, mais le tiff 16 bits est un entier non signé (correctement lu par ImagesPlus).


Empilement d'images d'astrophotographie – Empilement d'astro

J'espère que vous avez pris des photos et appliqué ce que vous avez appris sur l'astrophotographie. Pour la plupart, il y a une assez grande courbe d'apprentissage avec l'astrophotographie. J'ai toujours été assez bon avec l'ordinateur, l'électronique et le matériel mécanique, mais apprendre à traiter les images était un énorme défi. J'espère pouvoir partager ce que j'ai appris pour accélérer votre processus d'apprentissage.

Il y a beaucoup à apprendre lorsqu'il s'agit de prendre les images de l'appareil photo pour créer une image finale à afficher. Vous constaterez que 99% des images du ciel profond que vous prenez nécessiteront une forme de post-traitement. Mais avant même de discuter de tout traitement, discutons de la meilleure façon de filmer la scène.

Dans les blogs précédents, j'ai fait allusion à une technique qui vous permettra de tirer le meilleur parti de vos images astro. Tirer sur des cibles mobiles très faibles peut être assez difficile. Il faut un équipement assez décent pour obtenir les trucs vraiment faibles, mais au-delà de cela, il est important de bien photographier les sujets. Il existe une technique précieuse qui vous aidera énormément à traiter et à tirer le meilleur parti de vos données. Cette technique est l'empilage.

Jetons un coup d'œil à l'empilement en termes très basiques. La prise de vue sur des cibles faibles donne des images généralement bruyantes. Cela est vrai pour l'astrophotographie ainsi que pour la photographie ordinaire. Cela signifie que les photos ont un aspect granuleux et manquent de transition soyeuse. Dans les astrophotos, le bruit perturbera la transition de l'objet cible vers les régions sombres. Mais si vous prenez plusieurs photos du même sujet et que vous les empilez, le résultat est bien meilleur que celui d'une seule image. Le bruit et le grain sont remplis et l'image apparaîtra beaucoup plus lisse et complète. Lorsque je cherchais des images de la meilleure qualité, je prenais généralement entre 10 et 20 heures de temps d'obturation ouvert. Mais encore une fois, il s'agissait de mes meilleures images du ciel profond sur un équipement de niveau professionnel. Pour moi, cela signifiait filmer plusieurs nuits et empiler toutes les données dans l'image finale. Je faisais des expositions d'une demi-heure, j'avais donc besoin de moins d'images. Mais le résultat final était beaucoup de données, qui, une fois assemblées, ont donné de très bons ensembles de données.

Si vous débutez, il n'est pas nécessaire que vous tiriez autant. Mais généralement, plus vous tirez, mieux c'est. Il y a une grande différence qui peut être vue immédiatement dans l'image finale. Il y a un point de rendements décroissants, mais la plupart des astrophotographes ne s'approcheront jamais de cette limite. Donc, si vous pouvez commencer par filmer quelques heures, vous obtiendrez des données assez décentes. Mais même prendre et empiler 10 images vaudra mieux qu'une seule image. Plus les données sont bonnes, plus il est facile de les traiter dans l'image finale.

Comment commençons-nous…? Une fois que vous avez aligné votre monture (voir mes blogs précédents), la cible cadrée et l'objectif ou le télescope mis au point, vous pouvez commencer à prendre vos images. Photographiez le même sujet, encore et encore. J'utilise généralement un ordinateur ou un intervallomètre pour faire le travail. Cela me permet de m'éloigner et de laisser la caméra filmer jusqu'à ce que ce soit fait. Sachez simplement que vous aurez peut-être besoin de plusieurs piles ou d'un adaptateur secteur pour votre appareil photo. Cela est particulièrement vrai par temps froid. Pour votre première sortie, essayez de filmer pendant au moins une heure de temps d'obturation ouvert. Cela signifie que si vous prenez des photos de 5 minutes, vous voudrez que 12 d'entre elles fassent une heure. Il est généralement préférable de photographier avec une exposition aussi longue que possible, mais pas assez longtemps pour que l'image soit saturée de léger brouillard ou que vous commenciez à avoir des traînées d'étoiles. J'ai généralement essayé de prendre des photos jusqu'à ce que j'atteigne environ 25-75% sur l'histogramme de l'appareil photo. Mais cela dépend de la cible et d'où je tire (et de la quantité de pollution lumineuse présente). Gardez juste à l'esprit que 1 heure n'est pas un nombre magique. Tirez plus, si vous avez le temps et la patience. Cela rendra le post-traitement après la pile plus facile et l'image finale encore plus lisse.

Une fois que vous avez la pile, quelle est la prochaine étape ? Vous devez traiter toutes ces images en une seule image. C'est possible dans Photoshop et il y a de très bonnes vidéos et informations sur le sujet. Je laisserai donc ce processus d'apprentissage à ceux qui sont intéressés à faire l'empilement de cette manière.

Le véritable avantage est de faire l'empilement dans un programme destiné au traitement des astrophotos. Il existe de nombreux programmes disponibles pour ce faire, certains sont même disponibles gratuitement. J'ai utilisé un programme appelé MaximDL qui est un logiciel de traitement d'astrophotographie professionnel haut de gamme. En plus d'effectuer certains traitements, il gère également le contrôle de la caméra, le contrôle de la roue à filtres, la mise au point, le guidage et de nombreux autres aspects de la prise de vue d'images du ciel profond. Dans une configuration complexe, il est très avantageux de tout contrôler dans un seul logiciel. Cependant, pour ceux qui débutent, envisagez d'obtenir Deep Sky Stacker (DSS). C'est un excellent programme d'empilage et il est disponible sans frais. Cela vous permet de vous entraîner à prendre des photos et à traiter des images sans investir beaucoup d'argent supplémentaire dans un logiciel.

N'oubliez pas de consulter les excellentes instructions sur le site Web du DSS et en ligne. Il est assez puissant et capable de produire de belles images. Cela permettra également l'ajout d'images d'étalonnage (discutées ci-dessous), qui est une autre fonctionnalité très puissante pour le contrôle du bruit. J'ai généralement trouvé que j'aimais faire l'empilement dans DSS, puis faire le reste du traitement dans Photoshop ou un programme de traitement d'image similaire. Mais c'est totalement ma préférence. Chaque photographe doit rechercher le meilleur flux de travail et la meilleure combinaison de programmes à utiliser pour produire l'image finale.

Une fonctionnalité vraiment intéressante de DSS est la routine d'empilement des comètes. Le traitement des comètes est encore plus compliqué car la comète se trouve généralement à un emplacement différent dans chaque image. Certains se déplacent assez lentement pour ne pas avoir à s'en soucier. Mais d'autres peuvent déplacer des montants importants dans chaque image. Cela nécessite généralement un traitement astucieux pour obtenir une image décente. DSS en retire une grande partie du travail. Cette image a été traitée dans DSS et Photoshop.

Cintre Asterism (CR399) et Comet Garradd

Au début du processus d'empilement, les images doivent d'abord être triées par qualité, puis alignées (ou enregistrées) en premier. Le tri de qualité peut être effectué automatiquement dans DSS, mais j'ai généralement aimé parcourir les images et choisir celles qui étaient floues à cause du mouvement, ou qui avaient des nuages ​​ou des avions. L'enregistrement ou l'alignement ajustera les images de haut en bas et également en rotation afin d'aligner parfaitement toutes les images, puis de les empiler selon l'une des différentes méthodes d'empilement. Je préfère généralement l'une des méthodes d'empilement médian.

Beaucoup de mes astrophotos, y compris la photo de la comète ci-dessus, ont été prises avec un équipement de niveau professionnel. Cet équipement a coûté environ la moitié de ce que ma première maison a coûté. Pour être juste, je voulais montrer ce qui peut être fait avec un DSR et un objectif (ou un petit télescope), alors j'ai retraité certaines de mes premières images dans DSS, sachant ce que je sais maintenant. Ceux-ci ont été tournés avec un Canon 300D (Digital Rebel) 6,3MP modifié par Astro. C'est l'un des premiers reflex numériques. Il était bruyant et ne produisait généralement pas d'images astro très nettes. Mais même avec ce vieil appareil photo, les données étaient très exploitables et produisaient des images assez correctes. Nous en examinerons quelques-uns ci-dessous :

Mon premier reflex numérique modifié pour l'astrophotographie

Exemples d'empilement

Voici quelques exemples d'images dès la sortie de l'appareil photo ainsi que quelques images traitées. La première est une image unique qui montre la nébuleuse Heart & Soul (IC1805, IC1871, NGC 869 et NGC 884) ainsi que le double amas. Le haut est hors de l'appareil photo, le suivant est après empilement et traitement.

Non traité, dès la sortie de l'appareil photo

Empilé et post-traité

La différence entre ceux-ci est drastique. En toute justice, l'image à cadre unique était brouillée par une forte pollution lumineuse. Mais c'est un problème qui va affliger la majorité des astrophotographes. La seule façon de lutter contre cela est de tirer depuis des sites sombres loin des lumières de la ville.

Cet exemple suivant n'est pas aussi drastique. Le haut est hors de la caméra, le bas est empilé et traité. Sont également inclus les recadrages d'une seule image et les images empilées et traitées.

Cadre unique et recadrage de la nébuleuse de la Rosette (NGC 2237)

Remarquez les détails manquants dans le recadrage de cette image.

Image empilée/post-traitée et recadrage de la nébuleuse de la Rosette

L'image empilée est beaucoup plus nette et une grande partie des données manquantes ont été remplies. Notez également le meilleur détail visible dans le recadrage de la rosette. C'est le véritable avantage de la méthode d'empilement. Une chose que vous devez garder à l'esprit avec le traitement des astrophotos est qu'il s'agit d'un processus incrémentiel. Aucune étape ne va créer une image magique à partir de déchets. Chaque étape ajoutera une petite amélioration, et avec suffisamment de petites étapes, vous obtiendrez une image très agréable. Si vous empilez de nombreuses photos, la plupart des logiciels d'empilage prendront un certain temps si votre ordinateur n'est pas à la hauteur (comme le mien). Soyez donc patient et laissez-le fonctionner jusqu'à ce qu'il ait terminé les processus d'enregistrement et d'empilement.

Voici un autre exemple d'une seule image par rapport à une pile. Celui-ci est celui de la Nébuleuse de la Tête de Cheval (B33) dans Orion.

Cadre unique et recadrage

Empiler/post-traiter l'image et recadrer

Il est assez facile de voir l'avantage de l'empilement lors de la prise de photos astro. Une autre technique avancée qui aidera à réduire le bruit dans vos piles s'appelle le tramage. Fondamentalement, cela déplace la caméra de quelques pixels dans une direction aléatoire après chaque image. Lors de l'utilisation d'une méthode d'empilement médian, les objets situés à un emplacement différent sur chaque image seront éliminés.Ainsi en utilisant les étoiles comme référence d'alignement, les galaxies, nébuleuses ou autres sujets resteront au même endroit. Mais les pixels chauds, les satellites, les avions, le bruit et d'autres effets aléatoires se trouveront dans un emplacement différent par rapport aux étoiles, de sorte qu'ils sont éliminés lorsqu'ils sont empilés. Il existe de nombreux programmes de guidage ou de suivi qui effectueront automatiquement le tramage. Mais même avec un déclencheur manuel, il peut être extrêmement utile de déplacer manuellement la monture entre les expositions. Cela semble être un problème, mais le tramage ajoutera un niveau d'amélioration assez important. Aucune des images ci-dessus (à l'exception de l'image de la comète) n'a utilisé de tramage.

Un autre ajout utile est d'ajouter des cadres d'étalonnage. Ceux-ci serviront à éliminer le bruit supplémentaire et d'autres artefacts des images. Les cadres sombres aideront à éliminer les pixels chauds, les cadres Bias réduisent le bruit de lecture et les cadres plats aideront à éliminer les taches de poussière ou autres caractéristiques causées par le fait de regarder à travers l'objectif ou le télescope. Il y a une superbe description de ceci dans la section FAQ ici. Les caméras les plus récentes et les plus modernes ont tendance à offrir un meilleur contrôle du bruit et des pixels chauds, de sorte que l'étalonnage peut ne pas être nécessaire. Mais à tout le moins, des montures plates doivent être utilisées pour assurer l'élimination des artefacts causés par un objectif ou un capteur sale. Cela aidera également à réduire tout vignettage qui se produit dans les images. N'oubliez pas : améliorations progressives.

Dans le dernier volet de cette série d'astrophotographie, nous discuterons de certains détails pour passer d'une image empilée grossière à l'image finale. C'est là qu'une grande partie de la magie se produit, alors j'espère que vous resterez à l'écoute. En attendant, sortez et tirez. À bientôt.


Traitement d'image avec CCDStack 2

Par : Les rédacteurs de Sky & Telescope 31 août 2015 0

Recevez des articles comme celui-ci dans votre boîte de réception

Améliorez vos images du ciel profond avec ce programme innovant.
Par Bob Fera dans le numéro de juin 2013 de Sky & Télescope

Parmi la myriade de programmes disponibles aujourd'hui pour le traitement des images CCD, Pile CCD 2 est le choix de nombreux imageurs chevronnés en raison de son interface utilisateur intuitive et de diverses fonctionnalités « live » innovantes. L'astrophotographe vétéran Bob Fera démontre son flux de travail de routine en utilisant le logiciel pour calibrer, aligner, empiler et étirer ses images afin de produire des portraits colorés de cibles célestes telles que la photo profonde au-dessus de la nébuleuse du cône.

Comme tout astrophotographe expérimenté, il ou elle vous dira que transformer un tas de sous-expositions bruyantes en une œuvre d'art colorée n'est pas une mince affaire. Le processus implique de nombreuses étapes utilisant une variété de progiciels, chacun avec sa propre courbe d'apprentissage. Pour de nombreux imageurs, « l'art » se passe dans Adobe Photoshop. Mais avant de pouvoir utiliser un outil tel que Photoshop Pour appliquer votre touche personnelle à une image, vos données doivent d'abord passer par une série d'étapes décidément moins sexy : l'étalonnage, l'alignement et la combinaison. Et bien que ces étapes impliquent une contribution créative limitée, elles sont néanmoins essentielles à l'aspect final de votre image.

Parmi les nombreux programmes de traitement des données CCD, je préfère celui de CCDWare Pile CCD 2 (www.ccdware.com) pour PC pour calibrer, aligner, empiler et étirer mes images en fichiers TIFF 16 bits qui sont prêts pour les réglages finaux dans Photoshop. La force du programme réside dans son interface utilisateur intuitive, ainsi que dans certaines fonctionnalités d'étirement « en direct ». Pile CCD 2 a bien fonctionné pour moi au fil des ans et devrait vous fournir une base solide pour développer vos propres méthodes.

Calibrage de l'image

Commençons par préparer nos fichiers d'étalonnage. J'enregistre toujours plusieurs images sombres, biaisées et à champ plat et les combine dans des cadres d'étalonnage « maîtres » pour m'assurer que mon résultat final est aussi net que possible. Cela réduit tous les artefacts parasites dans mes images d'étalonnage dus aux coups de rayons cosmiques ou à d'autres signaux indésirables.

Commencez par ouvrir le programme et sélectionnez Process/Create Calibration Master/make master Bias. Le programme ouvrira immédiatement le dernier dossier que vous avez utilisé dans Pile CCD 2, vous devrez peut-être accéder à votre dossier de fichiers d'étalonnage. Une fois là-bas, sélectionnez toutes les images de polarisation qui correspondent à la température que vous avez prise de vos images lumineuses. La fenêtre Combiner les paramètres s'ouvre alors et vous permet de différentes manières de combiner vos biais dans un cadre de biais « maître ». Je préfère utiliser la méthode de la moyenne de rejet sigma et changer le multiplicateur sigma à 2 et une limite d'itérations de 2.

Au bout de quelques instants, votre cadre de polarisation maître s'affiche. Enregistrez simplement le résultat sous forme de fichier FITS 16 bits et répétez le même processus pour combiner vos images sombres en sélectionnant Traiter/Créer un maître d'étalonnage/faire un maître sombre.

Pile CCD 2 est le seul programme de traitement d'image pour les amateurs qui affiche exactement quels pixels dans chaque image il détermine qu'ils seront ignorés lors de la combinaison de sous-expositions à l'aide d'algorithmes de rejet de données basés sur sigma. Les points rouges sur l'image ci-dessus sont signalés pour être rejetés dans une pile de 10 images.
Bob Fera

La génération de votre image flat-field principale est également similaire, bien que le programme vous demande d'abord si vous souhaitez soustraire chaque image plate. Si c'est le cas, choisissez le cadre de biais principal que vous venez de créer, ainsi que le cadre sombre qui correspond à votre image à plat. Lorsque vous atteignez la boîte de dialogue Combiner la méthode, choisissez à nouveau la moyenne de rejet sigma avec un multiplicateur de 2 et une valeur d'itération de 2. Assurez-vous de répéter cette routine pour tous vos appartements pris à travers les différents filtres que vous avez traversés. Maintenant que nos cadres d'étalonnage sont prêts, attaquons-nous à nos données brutes.

Ouvrez toutes vos expositions individuelles prises à travers l'un de vos filtres (si vous utilisez un appareil photo monochrome avec des filtres de couleur). Ensuite, sélectionnez le menu déroulant Traiter/Calibrer. La fenêtre Calibration Manager s'ouvre, qui trouvera automatiquement vos images maîtresses sombres, biaisées et plates si elles ont été enregistrées dans le même dossier dans lequel vous travailliez précédemment. Sinon, cliquez sur le bouton « Dark Manager » et accédez à vos images principales. Une fois toutes vos images maîtresses sélectionnées, cliquez simplement sur le bouton « Appliquer à tous » en bas à gauche et dans une minute environ, toutes vos images de ce groupe seront calibrées. Enregistrez chacune de ces images calibrées en sélectionnant Fichier/Enregistrer les données/Inclus dans le menu déroulant. Une nouvelle fenêtre s'ouvrira qui vous permettra d'ajouter un suffixe au titre de votre fichier, pour éviter d'écraser vos données brutes. Sélectionnez l'option de fichier flottant FIT 32 bits. Vous pouvez maintenant répéter les mêmes étapes pour chacun de vos autres groupes d'images filtrées.

Maintenant que toutes nos images sont calibrées, alignons chaque image. Si vous avez beaucoup de RAM sur votre ordinateur et un processeur rapide, vous pouvez ouvrir toutes vos expositions calibrées et les aligner toutes en même temps. Si vous avez une mémoire limitée, vous pouvez effectuer votre alignement en groupes, mais n'oubliez pas de sélectionner une image pour être l'image "de base" sur laquelle toutes les autres seront alignées. Assurez-vous que votre cadre d'alignement est l'image visible, puis sélectionnez le menu déroulant Empiler/Enregistrer et la fenêtre d'enregistrement s'ouvre. Pile CCD 2 détecte automatiquement plusieurs étoiles dans vos images, ou vous permet de sélectionner vos propres points à enregistrer si vous le souhaitez. Une fois que vous avez sélectionné les points d'alignement, cliquez sur le bouton « aligner tout » en bas à gauche, et dans quelques instants, chacune de vos sous-expositions devrait être correctement alignée. Avant d'appliquer l'alignement de manière permanente, effectuez un panoramique sur chacune de vos images pour vous assurer que chacune fonctionne correctement. Si tel est le cas, cliquez sur l'onglet Appliquer en haut à droite. Le programme propose quelques options de rééchantillonnage pour compenser le décalage sous-pixel de chaque image. Je préfère Bicubic B-spline, mais vous pouvez expérimenter pour voir ce qui fonctionne le mieux pour vos images. Une fois l'alignement appliqué, enregistrez les résultats avec un nouveau suffixe.

Après l'étalonnage, l'alignement de vos sous-expositions est facile à Pile CCD 2. Ouvrez simplement toutes les images à aligner, sélectionnez Empiler/Enregistrer, et le programme sélectionne automatiquement plusieurs étoiles à utiliser comme points d'enregistrement. Il affiche également un type de « différence » entre la photo de base et chaque image suivante, ce qui permet de voir facilement lorsque deux images sont hors de registre (à gauche) et alignées (à droite).
Bob Fera

Rejet des données

À ce stade, toutes nos images sont calibrées, alignées et prêtes à être empilées. La combinaison correcte de vos sous-images augmentera considérablement le rapport signal/bruit de votre image finale, tout en éliminant les traces indésirables d'avions et de satellites et autres artefacts aléatoires. Dans Pile CCD 2 cela implique trois étapes : Normaliser, Rejeter les données et Combiner.

La normalisation de vos données compense mathématiquement les variations du fond du ciel et de la transparence, en redimensionnant toutes vos sous-expositions ouvertes à des valeurs de luminosité similaires pour les pixels correspondants. Cette étape est nécessaire pour produire le meilleur résultat empilé.

Ouvrez d'abord toutes les images prises avec un seul filtre et sélectionnez Empiler/Normaliser/Contrôler/Les deux. Une petite fenêtre s'ouvre et vous demande d'identifier la zone du ciel en arrière-plan. Cliquez simplement sur votre souris et tracez une petite sélection rectangulaire autour d'une zone qui sera un fond de ciel «neutre» sans nébulosité lumineuse, galaxies ou étoiles dans votre sélection. Pour les images où la nébulosité imprègne toute l'image, essayez de trouver une région avec la nébulosité la plus faible, ou une nébuleuse sombre, comme sélection d'arrière-plan. Après avoir fait votre sélection et cliqué sur OK, le programme vous demandera alors de sélectionner une zone de surbrillance. Ce sera probablement votre sujet principal, qu'il s'agisse d'une galaxie, d'une nébuleuse, d'un amas d'étoiles ou d'une comète. Faites une sélection autour de la zone la plus lumineuse et cliquez sur OK. La fenêtre d'informations apparaît et affiche le décalage calculé pour chacune de vos images ouvertes.

Ensuite, nous devons choisir la méthode de rejet de données à utiliser. Le rejet des données identifie et supprime les artefacts indésirables dans chacune de vos images individuelles, remplaçant les zones incriminées dans votre résultat empilé final par la région correspondante de plusieurs sous-images non affectées.

Choisissez Pile/Rejet de données/Procédures et une autre nouvelle fenêtre de commande s'ouvre. Ici, nous allons sélectionner l'algorithme de rejet des données dans la liste déroulante. Je préfère utiliser le rejet sigma STD, mais vous pouvez expérimenter à nouveau pour trouver ce qui fonctionne le mieux pour vos images. Cochez la case « % d'image supérieure » ​​et définissez la valeur sur 2, puis cliquez sur le bouton « Appliquer à tous ». Cela peut prendre quelques instants, mais une fois terminé, le programme affichera tous les pixels rejetés dans chacune de vos sous-expositions en rouge vif. Fermez simplement la fenêtre et passez à l'étape suivante.

Nous sommes maintenant prêts à combiner nos images dans les piles finales. Encore une fois, le programme offre un certain nombre de façons de le faire. Reportez-vous au fichier d'aide interne pour déterminer ce qui convient le mieux à vos images. Je préfère combiner moyenne, donc je vais sélectionner Empiler/Combiner/Moyenne dans le menu déroulant du haut. Le logiciel calculera alors la valeur moyenne pour chaque pixel de la pile de sous-expositions, en excluant les pixels rejetés. Cela vous donnera le rapport signal/bruit maximum dans votre image finale. Une fois terminé, enregistrez l'image résultante (Fichier/Enregistrer les données/Ceci) et choisissez à nouveau les fichiers entiers FITS 32 bits. Fermez tous les fichiers (Fichier/Supprimer toutes les images) et répétez les mêmes étapes pour tous les fichiers filtrés similaires.

Bob Fera

Nous avons maintenant des fichiers maîtres FITS prêts à être combinés en une image couleur. Je préfère traiter les images de luminance séparément, puis les ajouter au résultat de couleur dans Photoshop. Avant de combiner l'une des piles, vérifiez-les attentivement et corrigez les gradients susceptibles d'affecter les piles individuelles. Pile CCD 2 dispose d'un algorithme de suppression de dégradé qui se trouve dans le menu déroulant Traiter/Aplatir l'arrière-plan, qui vous oblige à cliquer sur les zones de votre image jusqu'à ce qu'elles apparaissent uniformément éclairées.

Étirement et déconvolution

Étendons maintenant notre fichier de luminance à l'aide de la fonction Digital Development Process (DDP). L'une des fonctionnalités les plus importantes du logiciel est sa capacité à faire un DDP « live » sur la version affichée de votre fichier. Ouvrez d'abord votre image de luminance principale et sélectionnez Fenêtre/Ajuster l'affichage, ouvrant une fenêtre qui affiche des curseurs pour ajuster les niveaux d'arrière-plan, maximum, gamma et DDP de l'image affichée. Vous pouvez maintenant simplement ajuster chacun des curseurs jusqu'à ce que vous soyez satisfait du résultat affiché. Plus la valeur DDP est faible (lorsque vous déplacez le curseur vers la gauche), plus l'image devient lumineuse. Je suggère de garder l'image légèrement plus sombre que ce à quoi vous aimeriez qu'elle ressemble finalement. Cela effectue la majeure partie de l'étirement requis, mais laisse encore de la place pour les derniers ajustements dans Photoshop. Une fois que vous obtenez l'image que vous souhaitez, réduisez la valeur d'arrière-plan d'environ 50 points pour éviter d'écrêter le niveau de noir dans votre image finale. Appliquez les paramètres d'affichage à votre image avec l'option déroulante Fichier/Enregistrer les données mises à l'échelle/Ceci, et sélectionnez TIFF 16 bits.

L'une des fonctionnalités les plus innovantes du programme est sa capacité à afficher un retour « en direct » lors de l'étirement d'une image pour afficher simultanément les zones les plus faibles et les régions les plus lumineuses. Dans la fenêtre de contrôle Ajuster l'affichage, déplacez simplement le curseur DDP vers la gauche et la droite pour ajuster votre image, ou modifiez l'arrière-plan et l'affichage du niveau maximum. Aucune de ces actions n'est appliquée de façon permanente jusqu'à ce que votre image soit enregistrée.
Bob Fera

Vous pouvez également affiner votre image en utilisant la déconvolution pour resserrer les étoiles et affiner les caractéristiques à petite échelle. Pile CCD 2 possède une excellente routine de déconvolution appelée Contrainte positive qui, lorsqu'elle est appliquée modérément, fait un excellent travail sans introduire d'artefacts indésirables tels que des halos sombres autour des étoiles. Sélectionnez Traiter/Déconvoluer. Une nouvelle fenêtre s'ouvre et un certain nombre d'étoiles apparaîtront avec des symboles jaunes + dessus. Ce sont des étoiles que le programme a sélectionnées pour mesurer leur fonction d'étalement des points (PSF) afin de déterminer la force de l'algorithme de déconvolution. Vous pouvez également double-cliquer sur les étoiles que vous souhaitez que le programme inclue dans ses calculs. Choisissez des étoiles non saturées et bien définies (c'est-à-dire non incrustées dans la nébulosité ou dans une galaxie visible). Ensuite, sélectionnez Contrainte positive en bas de la fenêtre et définissez le nombre d'itérations que j'utilise souvent de 30 à 50. Cliquez maintenant sur le bouton "Déconvoluer" et en quelques minutes, le processus est terminé, enregistrez le fichier FITS résultant. Vous pouvez appliquer les mêmes paramètres DDP à l'image déconvoluée qu'à l'original en passant à la version non traitée et en cliquant sur « Appliquer à tous » dans la fenêtre du gestionnaire d'affichage. Enregistrez la version déconvoluée au format TIFF 16 bits mis à l'échelle à combiner avec l'image couleur plus tard dans Photoshop.

Combiner les couleurs

Enfin, combinons nos fichiers rouge, vert et bleu dans une image RVB. Afin d'accomplir cela au mieux, vous devez d'abord connaître les rapports RVB corrects pour votre caméra CCD, vos filtres et les conditions du ciel lorsque les images ont été enregistrées. Bien qu'il existe plusieurs façons de mesurer ces valeurs une fois pour votre système, chaque ensemble de données nécessite également des ajustements pour l'extinction atmosphérique causée par l'altitude de la cible lorsque chaque série de sous-expositions de couleur a été prise. je préfère le logiciel gratuit eXcalibrateur (http://bf-astro.com/excalibrator/excalibrator.htm) pour déterminer une balance des couleurs précise (voir www.skypub.com/excalibrator). Cependant, une méthode simple pour vous aider à démarrer avec la balance des couleurs approximative dans Pile CCD 2 consiste à normaliser vos fichiers rouges, verts et bleus les uns par rapport aux autres, puis à combiner les images à un rapport 1::1:1. Comme décrit précédemment, sélectionnez une zone d'arrière-plan neutre, puis les hautes lumières. Après la normalisation, sélectionnez Couleur/Créer dans le menu déroulant. La fenêtre Créer une image couleur s'ouvre, dans laquelle vous pouvez affecter vos images filtrées à leurs canaux respectifs. Vous pouvez également incorporer votre image de luminance principale ici si vous le souhaitez, mais assurez-vous de ne pas inclure l'image de luminance étirée. Cliquez sur le bouton « Créer » et dans un instant, votre image couleur combinée apparaîtra.

Immédiatement, une petite fenêtre appelée Définir l'arrière-plan apparaît avec votre fichier couleur. Si votre image nécessite un ajustement des couleurs supplémentaire, faites simplement glisser un cadre autour d'une zone d'arrière-plan neutre et cliquez sur « OK ». Vous pouvez effectuer des corrections supplémentaires d'arrière-plan et de surbrillance à l'aide de la commande Couleur/Ajuster dans le menu déroulant.

Les variations de couleur subtiles et les détails vaporeux dans les cibles telles que les nébuleuses à réflexion/émission NGC 1973, 1976 et 1977 sont faciles à préserver et à améliorer à l'aide des outils trouvés dans Pile CCD 2.
Bob Fera

Lorsque vous êtes satisfait de l'image couleur globale, vous pouvez étirer le résultat à l'aide du curseur DDP et enregistrer le résultat pour d'autres ajustements dans Photoshop, et inclure l'image de luminance étirée.

L'exécution correcte de ces étapes fournit une base solide sur laquelle vous pouvez construire et modifier une fois que vous vous êtes familiarisé avec tous les outils disponibles dans Pile CCD 2. L'utilisation des algorithmes de rejet de données basés sur sigma du logiciel, le DDP en direct et une application légère de déconvolution de contrainte positive vous donneront une longueur d'avance sur la manière de produire des images qui pourraient un jour apparaître dans Sky & Télescope.

Bob Fera photographie le ciel nocturne depuis son observatoire de jardin sous le ciel sombre du nord de la Californie.


Comment fonctionne l'empilement d'images

L'empilement d'images est une méthode populaire de traitement d'images parmi les astrophotographes, bien que la même technique puisse être appliquée à n'importe quelle situation où des images identiques peuvent être capturées sur une période de temps, en d'autres termes dans des situations où la scène ne change pas en raison du mouvement. ou varier la lumière et l'ombre. L'astrophotographie s'avère parfaitement adaptée de cette manière, dans la mesure où les objets astronomiques sont effectivement statiques pendant des durées raisonnables. Dans le cas des objets du ciel profond, les objets sont pratiquement permanents. Dans le cas des images planétaires, elles changent suffisamment lentement pour qu'une série d'images couvrant au moins quelques minutes puisse être acquise sans mouvement observable.

La première fois que j'ai été témoin des effets de l'empilement d'images, j'ai été complètement époustouflé par le résultat. Il semble presque magique que tant d'informations réelles puissent être glanées à partir d'images originales aussi horribles. Mais bien sûr, la véritable explication est assez simple à comprendre.

L'empilement d'images fait deux choses très différentes à la fois. Il augmente le rapport signal sur bruit et augmente la plage dynamique. Je vais discuter de chacun d'eux séparément.

Un point de confusion qui devrait être résolu dès le début est de savoir s'il existe une différence entre la moyenne et la sommation. Puisque cela reste un sujet de discorde, je ne peux qu'affirmer que mon explication a du sens. Si on ne suit pas mon explication, alors on peut être en désaccord avec moi. La réponse courte est qu'ils sont identiques. Peu importe que vous empiliez dans une somme ou une moyenne. Cette affirmation suppose toutefois qu'une moyenne est représentée à l'aide de valeurs à virgule flottante. Si vous calculez la moyenne en valeurs entières, vous avez gaspillé beaucoup d'informations détaillées. Plus précisément, je maintiens qu'il existe une gamme continue de représentations d'un empilement variant entre une somme et une moyenne, qui consistent simplement à diviser la somme par un nombre quelconque entre un et le nombre d'images empilées.De cette manière, il est évident que la sommation et la moyenne sont identiques et contiennent les mêmes informations fondamentales.

Maintenant, afin de visualiser réellement une pile, les valeurs doivent en quelque sorte être transformées en composants entiers de la luminosité d'une image à chaque pixel. Ce n'est ni plus facile ni plus difficile à accomplir avec une somme ou une pile, car ni l'un ni l'autre ne correspond correctement aux exigences nécessaires des représentations d'images standard. La somme contient des valeurs qui sont loin du sommet de la valeur maximale possible qui peut être représentée, et la moyenne contient des valeurs à virgule flottante qui ne peuvent pas être immédiatement interprétées comme des pixels d'image sans conversion en nombres entiers d'abord. La solution dans les deux cas est exactement la même opération mathématique. Trouvez simplement le diviseur nécessaire pour représenter le pixel le plus brillant de la pile sans saturer, puis divisez tous les pixels de l'image par ce diviseur et convertissez les valeurs divisées en nombres entiers. Encore une fois, puisque la transformation est identique dans les deux cas, il est clair que les deux formulaires contiennent les mêmes informations.

La seule raison pour laquelle j'insiste autant sur ce point, c'est qu'il doit être correctement compris avant de pouvoir vraiment comprendre ce que fait l'empilement, ce qui est en fait extrêmement simple une fois que vous y êtes allé.

L'application classique de l'empilement d'images est d'augmenter le rapport signal sur bruit (snr). Cela semble technique et déroutant au début, mais c'est vraiment simple à comprendre. Regardons-le en partie, puis voyons comment l'ensemble fonctionne.

La première chose que vous devez comprendre est qu'il s'agit d'une opération pixel par pixel. Chaque pixel est exploité de manière totalement indépendante de tous les autres pixels. Pour cette raison, la façon la plus simple de comprendre ce qui se passe est d'imaginer que votre image ne mesure qu'un seul pixel de large et de haut. Je me rends compte que c'est étrange, mais supportez-moi. Votre image est donc un seul pixel. Quel est ce pixel dans chacune de vos images brutes ? C'est le "signal", de vrais photons qui sont entrés dans le télescope et se sont accumulés dans le capteur CCD de la caméra, plus le bruit thermique du CCD et le biais ainsi que les effets de champ plat. plus un peu de bruit aléatoire pour faire bonne mesure. C'est ce dernier élément de bruit qui nous intéresse. Les autres facteurs peuvent être mieux gérés par des opérations telles que la soustraction de darkframe et la division flatfield. Cependant, il est évident qu'après avoir effectué de telles opérations sur un brut, on n'a toujours pas une belle image, du moins par rapport à ce que l'on peut produire par empilement. Pourquoi est-ce?

Le problème est ce dernier élément de bruit aléatoire. Imaginez l'expérience suivante : choisissez des nombres aléatoires (positifs et négatifs) dans une distribution gaussienne centrée sur zéro. Comme la distribution est gaussienne, la valeur la plus probable est exactement zéro, mais à chaque essai (un nombre choisi), vous n'obtiendrez pratiquement jamais de zéro réel. Cependant, que se passe-t-il si vous prenez un grand nombre de nombres aléatoires et que vous en faites la moyenne. De toute évidence, la moyenne de vos nombres se rapproche de plus en plus de zéro, plus vous choisissez de nombres, n'est-ce pas ? Cela se produit pour deux raisons. Premièrement, puisque la gaussienne est symétrique et centrée à zéro, vous avez un changement sur deux en choisissant un nombre positif ou négatif à chaque essai. En plus de cela, vous avez plus de chances de choisir des nombres avec une valeur absolue faible en raison de la forme de la gaussienne. Lorsqu'elles sont combinées, ces deux raisons démontrent clairement que la moyenne d'une série de nombres choisis au hasard (à partir de cette distribution) convergera asymptotiquement vers zéro (sans vraiment atteindre zéro bien sûr).

Imaginez maintenant que cette distribution gaussienne de nombres aléatoires représente du bruit dans votre échantillon de pixels. Si vous collectez également de la vraie lumière en même temps que le bruit, alors le centre de la gaussienne ne sera pas nul. Ce sera la vraie valeur de l'objet que vous imaginez. En d'autres termes, la valeur que vous enregistrez avec le CCD dans une seule image est égale à la vraie valeur souhaitée plus une valeur aléatoire choisie par Gauss, ce qui peut rendre la valeur enregistrée inférieure à la vraie valeur ou supérieure à cette valeur.

. mais nous venons d'établir que des échantillons répétés du bruit approchent de zéro. Donc, ce que fait vraiment l'empilement, c'est échantillonner à plusieurs reprises la valeur en question. La vraie valeur réelle ne change jamais réellement, dans la mesure où le nombre de photons provenant de l'objet est relativement constant d'une image à l'autre. Pendant ce temps, la composante de bruit converge vers zéro, ce qui permet à la valeur empilée de s'approcher de la vraie valeur sur une série d'échantillons empilés.

C'est tout en ce qui concerne la question snr. C'est assez simple n'est-ce pas.

Une autre tâche accomplie par l'empilement, qui n'est pas trop décrite dans la littérature mais qui est d'une grande importance pour les astrophotographes du ciel profond, est d'augmenter la plage dynamique de l'image. Bien sûr, cela ne peut être compris que si vous comprenez déjà ce qu'est la plage dynamique en premier lieu. En termes simples, la plage dynamique représente la différence entre la valeur enregistrable la plus lumineuse possible et la valeur enregistrée la plus faible possible. Les valeurs supérieures à la valeur la plus lumineuse possible saturent (et sont donc plafonnées en tant que valeur enregistrable la plus lumineuse possible au lieu de leur valeur réelle), tandis que les valeurs plus faibles que la valeur la plus faible possible tombent simplement en bas et sont enregistrées comme 0.

Commencez par comprendre comment cela fonctionne dans une seule image brute capturée avec un capteur CCD. Les CCD ont une sensibilité inhérente. Une lumière trop faible pour leur sensibilité n'est tout simplement pas enregistrée. C'est la limite inférieure, la valeur la plus faible possible qui peut être enregistrée. La solution la plus simple à ce problème consiste à exposer pendant une période plus longue, pour obtenir la valeur de la lumière au-dessus de la valeur enregistrable la plus faible afin qu'elle soit en fait enregistrée.

Cependant, à mesure que le temps d'exposition augmente, la valeur des parties les plus lumineuses d'une image augmente avec la valeur des parties les plus sombres de l'image. Au point où des parties de l'image saturent et sont enregistrées comme la valeur la plus lumineuse possible au lieu de leur vraie valeur (plus lumineuse), l'enregistrement est surchargé et des informations cruciales sont perdues.

Vous pouvez maintenant comprendre ce que signifie la plage dynamique dans un capteur CCD et une seule image. Certains objets auront une plage de luminosité qui dépasse la plage de luminosité pouvant être enregistrée par le CCD. La plage de luminosité de l'objet est sa plage dynamique réelle, tandis que la plage de luminosité enregistrable dans le CCD est la plage dynamique enregistrable du CCD.

L'illustration suivante montre les concepts décrits ci-dessus. Notez qu'il n'y a pas de temps d'exposition parfait pour un objet. Cela dépend si vous êtes prêt à perdre les parties sombres pour éviter la saturation des parties lumineuses ou si vous êtes prêt à saturer les parties lumineuses pour obtenir les parties sombres. L'empilement ne résout ce problème que dans une mesure limitée, comme décrit ci-dessous. Une fois que les limites de l'empilement ont été atteintes à cet égard, des approches plus complexes doivent être utilisées, comme le mosaïquage, dans lequel une pile d'exposition courte est mélangée à une pile d'exposition longue, de sorte que chaque pile ne contribue que les zones de l'image dans lesquelles elle contient des informations utiles.

Les CCD sont des dispositifs analogiques (ou numériques à l'échelle des photons dans les puits du CCD et des électrons dans les fils envoyant des signaux électriques du CCD à l'ordinateur). Cependant, les appareils analogiques envoient leurs signaux via des convertisseurs analogiques/numériques (convertisseurs A/N) avant d'envoyer les informations numériques à l'ordinateur. C'est pratique pour les ordinateurs, mais cela introduit un point arbitraire de contrainte de plage dynamique dans le dispositif d'imagerie qui n'a théoriquement pas besoin d'être là. Un appareil analogique aurait théoriquement une grande plage dynamique, mais souffre de graves problèmes de bruit (c'est pourquoi les téléphones longue distance numériques et les téléphones portables sonnent mieux que les téléphones analogiques). La question est de savoir comment le convertisseur A/N affecte la plage dynamique, ou en d'autres termes, puisque tout ce qui nous intéresse est le produit final, quelle est exactement la plage dynamique de l'image sortant du convertisseur A/N. La réponse est que différentes caméras produisent différents nombres de bits numériques. Les webcams produisent généralement 8 bits tandis que les caméras professionnelles produisent généralement douze à seize bits.

Cela signifie que les caméras professionnelles ont seize à 256 fois plus de valeurs numérisées pour représenter les luminosités par rapport à une webcam, ce qui signifie que lorsque vous augmentez le temps d'exposition pour obtenir les parties sombres d'un objet dans la plage enregistrable, vous avez plus de place laissé en haut de votre gamme pour accueillir les parties les plus lumineuses de l'objet avant qu'elles ne saturent.

Alors, à quoi sert l'empilement ? La réponse courte est qu'il augmente le nombre de valeurs numérisées possibles linéairement avec le nombre d'images empilées. Vous prenez donc un tas d'images qui sont soigneusement exposées pour ne pas saturer les parties les plus lumineuses. Cela signifie que vous risquez honnêtement de perdre les parties les plus sombres. Cependant, lorsque vous effectuez la pile, les parties les plus sombres s'accumulent dans des valeurs plus élevées qui échappent au plancher de la plage dynamique, tout en augmentant simultanément la plage dynamique à mesure que les parties les plus lumineuses deviennent de plus en plus lumineuses à mesure que davantage d'images sont ajoutées à la pile. C'est comme si la valeur maximale la plus lumineuse possible continuait d'augmenter juste assez pour rester en avance sur la luminosité croissante des valeurs empilées des pixels les plus lumineux, si cela a du sens.

De cette façon, l'image empilée contient à la fois des parties sombres et claires d'une image sans perdre les parties sombres du bas ou les parties claires du haut.

Maintenant, il devrait être immédiatement évident qu'il y a quelque chose qui ne va pas ici. Si les cadres bruts étaient exposés avec une période de temps suffisamment courte pour ne pas du tout rassembler les parties sombres, parce que les parties sombres étaient nivelées à zéro, alors comment se sont-elles accumulées dans la pile ? En vérité, si la valeur d'un raw particulier tombe à zéro, cela ne contribuera en rien à la pile. Cependant, imaginez que la vraie valeur d'un pixel faible se situe quelque part entre zéro et un. La numérisation du convertisseur A/N transformera cette valeur en zéro, n'est-ce pas ? Pas nécessairement. N'oubliez pas qu'il y a du bruit à gérer. Le bruit est utile ici, dans la mesure où la valeur enregistrée d'un tel pixel sera parfois de zéro et parfois de un, et parfois même de deux ou trois. C'est vrai pour un pixel vraiment noir sans vraie lumière bien sûr, mais dans le cas d'un pixel faible, la moyenne de la gaussienne sera comprise entre zéro et un, pas réellement zéro. Lorsque vous empilez une série d'échantillons de ce pixel, un certain signal s'accumulera en fait et la valeur augmentera au-dessus de la valeur plancher de l'image empilée, qui en est bien sûr une.

Fait intéressant, il est facile de dire quelles parties d'une image ont une valeur réelle inférieure à un dans chaque image brute. Si la valeur additionnée d'un pixel est inférieure au nombre d'images dans la pile, ou si la valeur moyenne du pixel est une valeur à virgule flottante inférieure à un, alors la vraie valeur doit clairement être inférieure à un dans les images brutes car certaines des les images brutes doivent avoir contribué à un zéro à la pile pour que la valeur empilée soit inférieure au nombre d'images empilées après qu'une somme est produite. (Cela ne tient pas compte du fait qu'il y a bien sûr du bruit en jeu ici aussi, ce qui signifie qu'un pixel avec une vraie valeur de 1,5 peut obtenir un zéro à partir de certaines images brutes, mais la valeur empilée devrait, en théorie, être supérieure qu'un dans la pile moyenne bien sûr).

Il y a un autre facteur en jeu ici aussi. La distribution gaussienne a à peu près la même forme (variance ou écart type) quelle que soit la luminosité du pixel réel, ce qui signifie que la composante de bruit d'un pixel est beaucoup plus sévère pour les pixels sombres que pour les pixels brillants. Par conséquent, l'empilement vous permet d'éclaircir la valeur des pixels faibles dans une plage où ils ne seront pas noyés par le bruit. tout en diminuant le bruit de toute façon, conformément à la description dans la première moitié de cet article. C'est un autre aspect crucial de la façon dont l'empilement permet aux parties sombres d'une image de devenir apparentes. C'est pour cette même raison que, dans chaque trame brute, les parties lumineuses, bien que bruyantes, sont bien discernables dans leur structure de base, tandis que les parties sombres peuvent paraître pratiquement incompréhensibles.


Programmes Deep Sky Stacking pour appareils photo reflex numériques

Une approche courante de l'astrophotographie est devenue l'utilisation d'appareils photo reflex numériques (DSLR). Ceux-ci sont relativement bon marché, peuvent être utilisés pour l'astronomie et la photographie terrestre ordinaire, et produisent des images d'astronomie étonnamment bonnes et sont donc devenus très populaires.

Il y a quelques étapes de base requises pour démarrer dans l'astrophotographie DSLR. Je les résumerais ainsi :
1. Achetez un appareil photo
2. Achetez un trépied, un télescope ou une autre plate-forme de suivi
3. Acquérir un logiciel pour vous aider à prendre des photos à longue exposition
4. Acquérir un logiciel pour traiter (y compris empiler) les photographies que vous prenez.

La question se pose souvent de ce qui précède de savoir quel logiciel utiliser pour empiler et traiter les images résultantes que vous prenez à l'aide de votre appareil photo. Ou, aussi souvent le cas, les gens ne se rendent pas compte qu'il existe des logiciels disponibles pour rendre cela facile. Je vais donc énumérer ici quelques options, ce qui, espérons-le, facilitera la tâche à tous ceux qui trouveront cette page.

Si vous connaissez des programmes adaptés au traitement d'images d'astrophotographie DSLR qui ne figurent pas sur cette liste, faites-le moi savoir, faites-moi également savoir si les informations ici doivent être mises à jour. Merci.

Logiciel adapté à l'empilement et/ou au traitement d'images DSLR d'astrophotographie :

Empileur de ciel profond

Il s'agit d'un logiciel gratuit et très performant pour aligner, combiner et effectuer un post-traitement d'astrophotographies à partir d'appareils photo reflex numériques. La meilleure chose à propos de ce logiciel est qu'il est gratuit et incroyablement capable de quelque chose de gratuit.

Ce logiciel lit une grande variété de formats de fichiers, y compris le format Canon RAW, et les traite. J'ai eu quelques problèmes avec le traitement des fichiers RAW canon en ce qui concerne l'obtention d'un bon équilibre des couleurs après l'empilement, je choisis donc souvent de convertir d'abord les fichiers RAW en TIF avant le traitement. C'est peut-être simplement un manque d'expérience de ma part, car je n'utilise pas souvent ce logiciel.

Les capacités d'enregistrement de Deep Sky Stacker sont très bonnes mais ne correspondent pas aux capacités de RegiStar ou de PixInsight lorsqu'il s'agit d'obtenir un bon alignement des images. Il y a souvent des cas où je trouve que DSS n'alignera pas correctement les images alors que RegiStar et PixInsight le feront.

Je n'ai pas tendance à aimer les capacités de post-traitement de Deep Sky Stacker, j'ai donc tendance à terminer mon utilisation de DSS au moment où il a empilé le fichier “Autosave.tif” et à transférer ce fichier dans PhotoShop à partir de là pour effectuer la publication. -En traitement.

Le plus grand avantage de Deep Sky Stacker est probablement sa facilité d'utilisation (interface très intuitive et facile à utiliser) et sa flexibilité avec la prise en charge de tous les principaux formats de fichiers et la gestion de divers scénarios couvrant la plupart des besoins en astrophotographie.

Empileur de paysage étoilé

C'est un programme Apple/Mac et une excellente option pour ceux qui n'utilisent pas Windows. C'est effectivement une bonne alternative à Deep Sky Stacker pour ceux qui utilisent des PC Apple.

PixInsight est un logiciel avancé de traitement d'images d'astrophotographie. J'ai maintenant une certaine expérience de l'utilisation de PixInsight pour le traitement d'images CCD à partir d'un appareil photo SBIG ST8-XME et de fichiers RAW CR2 à partir d'un reflex numérique Canon 6D et je peux certainement voir le potentiel du logiciel.

Si vous avez un guichet unique pour le traitement d'images d'astrophotographie et que vous êtes heureux de dépenser les 250 $ sur PixInsight, il y a de fortes chances que vous n'ayez besoin d'aucun des autres logiciels répertoriés sur cette page. Cela dit, vous serez prêt pour une courbe d'apprentissage abrupte.

PixInsight fonctionne d'une manière très différente des autres logiciels. Ils semblent même mettre des boutons sur les boîtes de dialogue dans le sens inverse de ce qui est le plus courant juste pour embrouiller l'utilisateur. La différence dans la façon dont le traitement est effectué et l'interface utilisateur dans PixInsight rend la courbe d'apprentissage très raide et troublante au début. Il existe des didacticiels vidéo en ligne qui sont presque essentiels pour comprendre comment utiliser le logiciel avant de perdre vos cheveux en essayant, mais une fois concernés, ils s'avèrent très puissants. Il m'a fallu quelques tentatives pour revenir à PixInsight pendant quelques mois avant de m'y familiariser suffisamment et d'arrêter de frapper les murs de briques pour pouvoir traiter les images FIT et DSLR avec une certaine confiance.

Des fonctions telles que l'application d'un LinearFit sur des images LRGB et la fonction d'extraction d'arrière-plan dynamique sur n'importe quelle image pour aplatir les arrière-plans d'image sont particulièrement utiles et relativement faciles à utiliser une fois que vous avez compris les bases de l'interface utilisateur PixInsight.

Là où d'autres logiciels de traitement n'ont pas réussi à produire un bon résultat d'images DSLR (des logiciels tels que DSS, RegiStar et Photoshop), PixInsight a excellé et a fait ressortir plus de détails dans les images que je ne le pensais dans les données brutes.

Il ne fait aucun doute à ma connaissance que PixInsight est le logiciel le plus avancé pour empiler des images d'astrophotographie du ciel profond. Son ensemble de processus et de plugins est à la fois vaste et puissant. Le problème réside uniquement dans sa facilité d'utilisation et dans la patience dont vous devez faire preuve pour surmonter sa courbe d'apprentissage abrupte afin d'obtenir de bons résultats.

Je suggère que si vous envisagez d'utiliser PixInsight, commencez par DSS et comprenez les bases du traitement d'image astrophotographique avant de commencer le processus intimidant de comprendre comment utiliser PixInsight. De plus, si vous disposez d'images de bonne qualité faciles à aligner, vous obtiendrez probablement un très bon résultat de DSS dans un délai beaucoup plus rapide que PixInsight, ce qui vous obligera à effectuer plus d'étapes.

Si vous souhaitez traiter des images DSLR avec PixInsight, vous aurez besoin d'une machine robuste pour l'exécuter. Il consommera facilement tous mes 16 gigaoctets de RAM sur ma machine Windows Core i7 64 bits lors du traitement d'une pile de 20 images DSLR. Des programmes tels que RegiStar fonctionnent dans une empreinte nettement plus petite.

PixInsight est disponible en essai gratuit de 45 jours.

StarStaX est un logiciel d'empilage d'images multi-plateformes. De leur site Web : https://www.markus-enzweiler.de/StarStaX/StarStaX.html

StarStaX est un logiciel rapide d'empilement et de fusion d'images multi-plateformes, qui permet de fusionner une série de photos en une seule image en utilisant différents modes de fusion. Il est développé principalement pour

Photographie de traînée d'étoiles où le mouvement relatif des étoiles dans des images consécutives crée des structures ressemblant à des traînées d'étoiles. Outre les traînées d'étoiles, il peut être d'une grande utilité dans des tâches de fusion d'images plus générales, telles que la réduction du bruit ou l'agrandissement de l'exposition synthétique.

StarStaX possède des fonctionnalités avancées telles que le remplissage interactif des espaces et peut créer une séquence d'images du processus de fusion qui peut facilement être convertie en superbes vidéos en accéléré.

StarStaX est actuellement en cours de développement. La version actuelle 0.70 est sortie le 16 décembre 2014. StarStaX est disponible en téléchargement gratuit pour Mac OS X, Windows et Linux.

Trouvez StarStaX ici : https://www.markus-enzweiler.de/StarStaX/StarStaX.html

CCDStack fait partie d'une série de produits fabriqués par CCDWare alignés sur l'utilisation avancée des télescopes.

J'ai maintenant utilisé une quantité raisonnable de CCDStack pour traiter les images de ma caméra d'astronomie ST8-XME et je la trouve très utilisable et relativement puissante. J'aime des fonctionnalités telles que la possibilité de voir quelles données sont rejetées par une fonction sigma sur des images lumineuses et de le faire très rapidement et facilement par rapport à PixInsight qui ne vous montre aucun aperçu avant de traiter la pile complète. Cela permet de modifier très facilement les paramètres d'empilement pour obtenir un bon résultat et d'appliquer un filtrage différent aux images individuelles (par exemple, lorsqu'un satellite traverse une image, en appliquant une exclusion plus stricte à cette image).

CCDStack enregistrera facilement vos images en quelques étapes seulement, normalisera (appliquera une pondération aux) images, appliquera le rejet de données aux images et combinera les images dans une pile en utilisant la pondération déterminée par la normalisation.

J'ai trouvé que CCDStack était une bonne étape logique par rapport à CCDSoft. Il est utilisable et possède des fonctionnalités intuitives et utiles. Le programme semble également relativement léger, fonctionnant efficacement avec un grand nombre de fichiers.

Je n'ai pas essayé CCDStack pour les images DSLR. Il ouvre apparemment les fichiers CR2 RAW (parmi d'autres formats), mais dans ma tentative rapide, il n'a pas ouvert les fichiers CR2 de mon Canon 6D (je ne sais pas pourquoi).

Processeur Astro Pixel

Astro Pixel Processor est un progiciel complet de traitement d'images : https://www.astropixelprocessor.com/

À confirmer sur les détails – je teste toujours celui-ci !

J'utilise principalement MaximDL pour la réduction d'image, car le processus de réduction d'image est très indolore. Fournissez-lui un répertoire de tous vos fichiers de réduction .FIT et il les triera bien dans une base de données de groupes de réduction à appliquer à toute image que vous ouvrez. Ouvrez le .FIT devant être calibré/réduit et il appliquera les cadres de réduction appropriés sans que vous choisissiez les fichiers de réduction de la température correcte, du binning, etc. C'est beaucoup plus facile que n'importe lequel des autres packages qui vous obligent tous à faire plus de manuel travailler avec des cadres de réduction. Les avantages de la gestion des images de réduction MaximDL pour les fichiers .FIT peuvent ou non être transférés à l'utilisation de fichiers bruts DSLR. Je n'ai pas essayé de réduire les images DSLR dans Maxim.

L'empilement MaximDL’ semble juste, mais je n'ai pas eu besoin de l'utiliser pour l'alignement et l'empilement. Je n'ai pas non plus essayé MaximDL pour les grandes images telles que les reflex numériques, les plus grandes que j'utilise généralement dans Maxim étant celles de mon SBIG ST8-XME.

Il s'agit d'un logiciel fantastique pour aligner et combiner des astrophotographies individuelles à partir d'appareils photo reflex numériques. Il fonctionne très efficacement avec des fichiers volumineux, est étonnamment capable d'aligner des photographies et dispose d'excellents algorithmes d'empilement intégrés en prime.

Ce logiciel est principalement destiné à simplement enregistrer (aligner) des trames afin qu'elles puissent être combinées. Ce logiciel est si bon que vous pouvez combiner d'anciennes images de films avec de nouvelles images numériques, ou des images numériques de différents appareils photo avec différentes distances focales et de toutes sortes. Il gérera également facilement la rotation du champ (les prises de vue sur trépied fixes sont acceptables) et à peu près toute autre distorsion.

Les problèmes que j'ai avec ce logiciel est qu'il ne lit pas les fichiers Canon RAW, donc la conversion vers un autre format tel que TIF est d'abord requise, qu'il ne gère pas la réduction des images, ce qui vous oblige à avoir besoin d'un autre logiciel (comme PhotoShop ) pour le faire manuellement en premier, et que lors de la combinaison de trames dans une pile, il ne fournit aucune pondération des trames ou exclusion sigma du bruit dans les trames, ce qui laisse ce logiciel principalement utile pour enregistrer les trames et enregistrer ces trames enregistrées, sans les empiler .

L'excellence de RegiStar dans l'enregistrement des cadres a un prix, et dans ce cas, il s'élève à environ 159 $ US.

La version de RegiStar que je connais est la 1.0, et elle n'a pas été mise à jour depuis un certain temps (2004). Cela signifie qu'il n'est pas à jour avec les types de fichiers actuels (RAW) mais n'enlève rien à son excellente capacité à aligner les images TIF. De plus en plus, à mesure que le temps passe et qu'aucune autre mise à jour n'est publiée, il serait sage d'envisager un autre logiciel mis à jour plus régulièrement, tel que PixInsight.

Je ne peux pas en dire beaucoup sur ImagePlus car je ne l'ai pas utilisé pour le traitement d'images DSLR. Cependant, beaucoup de gens le font et cela est fortement recommandé. Vous pouvez trouver de nombreuses informations à ce sujet sur le Web.


Qu'est-ce que l'empilement en astrophotographie ?

Le bruit indésirable dans une image typique a tendance à être aléatoire sur différentes expositions alors que le signal souhaité est cohérent.

Lorsqu'un ensemble d'images est empilé, les valeurs des images individuelles sont moyennées, ce qui signifie que le bruit aléatoire diminue globalement mais que le signal reste constant.

Cela signifie que le rapport signal/bruit augmente, ce qui donne une image beaucoup plus nette et détaillée avec un arrière-plan plus lisse.

Qu'est-ce que la plage dynamique ?

En plus de s'efforcer d'augmenter le SNR de leurs images, les imageurs astro visent également une large plage dynamique.

La plage dynamique est la répartition des niveaux de luminosité depuis la valeur de lumière enregistrée la plus faible pouvant être capturée jusqu'à juste avant que les pixels ne deviennent saturés.

Les objets avec une large gamme dynamique incluent la galaxie d'Andromède et la nébuleuse d'Orion, avec leurs noyaux intensément brillants et leurs régions extérieures beaucoup plus faibles.

Une seule image de ceux-ci pourrait facilement atteindre la saturation sur les zones les plus lumineuses avant que les détails du gradateur ne soient enregistrés.

Mais lorsque vous empilez plusieurs images non saturées, les valeurs de gradation s'accumulent dans des valeurs plus élevées, amenant les objets plus faibles au-dessus de la limite inférieure de la plage dynamique (en d'autres termes, vous pouvez commencer à les voir), tandis que les valeurs les plus lumineuses augmentent. ainsi que.

Les images empilées affichent donc une plage dynamique plus large.

Pour tirer parti de ce processus apparemment gagnant-gagnant, quelques étapes supplémentaires doivent être effectuées.

Le bruit ne se limite pas à la qualité du signal reçu par le capteur.

Il y a des signaux indésirables générés par le capteur de l'appareil photo lui-même du bruit thermique lorsque le capteur se réchauffe pendant de longues expositions.

Cette dégradation supplémentaire de l'image est traitée par un processus appelé étalonnage, qui consiste à capturer des images uniques supplémentaires qui sont incluses dans le processus d'empilement pour « soustraire » le bruit.

Un élément de jargon utile à savoir à ce stade est que toutes les prises de vue individuelles de votre image cible sont appelées cadres lumineux lorsqu'il s'agit du processus d'étalonnage.

Une fois les images calibrées, elles doivent être alignées les unes avec les autres avant l'empilement.

Les processus d'étalonnage, d'alignement et d'empilement final peuvent être facilement effectués à l'aide d'un logiciel de traitement d'images spécialisé basé sur l'astronomie.

DeepSkyStacker est un excellent programme gratuit, mais d'autres processeurs d'images commerciaux comme Astroart, Astro Pixel Processor, MaxIm DL, Nebulosity et PixInsight méritent d'être considérés.

Comme toujours, votre meilleur pari est de commencer petit, d'expérimenter quelques images sur des objets faciles, et de progresser à partir de là. Parce que maîtriser l'empilement est une compétence clé lorsqu'il s'agit d'images du ciel profond vraiment impressionnantes.


Maintenant que vous avez une idée globale de ce qu'implique le processus de visualisation, vous apprendrez les détails techniques de chaque étape de ce processus.

Étapes de visualisation - Notes techniques

Étape 1 : L'étirement :

Logiciel commentaires
IDL Cela coûte de l'argent et vous devez faire votre propre codage.
RGBSUN dans l'IRAF Nécessite des essais et des erreurs pour les seuils et vous ne pouvez combiner que 3 filtres.
kvis Gratuit dans la suite Karma. http://www.atnf.csiro.au/computing/software/karma/. Cela vous permet de sélectionner des seuils en temps réel via des histogrammes. En plus de la mise à l'échelle linéaire et logarithmique, la racine carrée est bonne pour les nébuleuses. Il a des algorithmes supplémentaires dans son option de pseudo-couleur (le mieux est l'échelle de gris3). Il exporte également votre image mise à l'échelle au format Portable Pixel Map qui est accepté par tous les nombreux packages.

Dans Karma, en utilisant kvis, vous pouvez réduire une image en chargeant un fichier d'ajustements avec l'option de filtre activée. Sélectionnez le nombre de pixels à « ignorer » (qui est en fait « additionner »). Ajustez votre image, puis exportez-la vers une nouvelle image ppm. Si vous utilisez un autre package pour étirer les intensités, alors un bon format pour enregistrer le fichier au format tiff, s'il est disponible.

Image originale Image étirée

Étape 2 : superposition et attribution des couleurs :

  • Les calques permettent d'attribuer n'importe quelle couleur, pas seulement une couleur primaire, à une image. (Voir un exemple à http://www.ras.ucalgary.ca/CGPS/press/shell/)
  • Afin de voir toutes les images de votre pile de calques, "screen" est un bon algorithme. Ce mode est défini, à l'aide d'un menu dans la boîte de dialogue des calques, pour chaque calque individuel. Un calque avec ce mode est comme une transparence ou une diapositive positive, permettant à la lumière de l'image en dessous de briller à travers elle.
  • Chaque couche est ajustée individuellement afin qu'une image bruitée, par exemple à partir du jeu de données d'un filtre, puisse être supprimée sans affecter les autres images. Pour supprimer le bruit, vous pouvez appliquer un filtre gaussien aux pixels, en les lissant.
  • Cliquez sur le bouton droit de votre souris dans la fenêtre d'image afin d'accéder aux menus des tâches.
  1. Dans Gimp, ouvrez une image.
  2. Ensuite, ouvrez une nouvelle image avec l'arrière-plan défini sur noir en sélectionnant le premier plan ou l'arrière-plan selon le cas. Assurez-vous que la boîte de dialogue Couches, canaux, chemins est ouverte.
  3. Sur votre image d'origine, faites un clic droit pour obtenir les options du menu, recherchez Édition -> Copier visible. Sur la nouvelle image, Modifier -> Coller. Cela mettra l'image N&B dans un calque.
  4. Dans la boîte de dialogue Calques, cliquez sur les mots « section flottante » et donnez un nom au calque. Cela changera également le calque en quelque chose que vous pouvez modifier.
  5. Définissez l'algorithme de mode dans la boîte de dialogue Couches, canaux, chemins. IMPORTANT: afin de voir chacune des couches, pas seulement celle du haut, vous devez sélectionner un mode pertinent. "screen" est un bon algorithme pour combiner les images sur lesquelles il est défini chaque des calques (ou vous ne verrez pas celui en dessous).
  6. Répétez l'opération pour les autres images.
  7. Enregistrez cette image en couches en tant que fichier au format ".xcf".
  1. Cliquez sur le nom d'un calque dans la boîte de dialogue Calques, canaux, chemins pour qu'il soit bleu, ce qui signifie actif.
  2. Allez chercher l'outil de niveaux. [Image --> Couleurs --> Outil Niveaux]
  3. Modifiez le menu supérieur dans l'outil de niveaux de valeur à une couleur et ajustez les niveaux de SORTIE pour obtenir la couleur demandée. (Par exemple, si vous voulez que votre calque soit vert, changez le menu en rouge et faites glisser le curseur de droite dans les niveaux de sortie vers zéro. répétez cette opération pour le bleu. votre calque devrait maintenant être vert).
  4. Répétez pour chaque couche.
  5. Enregistrez-le en tant que fichier au format .xcf.
  6. Ajustez les valeurs et les couleurs jusqu'à ce que vous soyez satisfait des résultats. Par exemple, si une image de filtre est particulièrement bruitée (texturée), cela peut être réduit en appliquant à cette couche un filtre gaussien avec la largeur du bruit (par exemple quelques pixels).
  7. Enregistrez les modifications dans un fichier au format .xcf.

Quelques conseils : faites des copies de vos calques N&B et travaillez dessus pour ne pas avoir à insérer à nouveau des images. Désactivez parfois les autres calques (en cliquant sur l'icône de l'œil) pour vérifier vos couleurs.

C'est très itératif. Prendre plaisir!

Autres options : Certains créateurs d'images travaillent sur une seule image RVB (c'est-à-dire 3 filtres), puis superposent d'autres filtres à ce stade. Par exemple, sur http://heritage.stsci.edu/public/apr1/h301filt.html se trouve une image RVB de 3 filtres avec d'autres filtres superposés.

Filtre Image étirée en noir et blanc Couleur attribuée à l'image
Ultra-violet
Bleu
Visuel
Infrarouge

Étape 3 : Combinez les calques

Une fois que vous êtes globalement satisfait de votre sélection de couleurs et que vous l'avez enregistrée en tant que fichier .xcf, vous aplatissez l'image, à l'aide des options de la boîte de dialogue Calques, en un seul fichier tiff avec un nom différent au format tif.

Mieux encore, ouvrez une nouvelle image (avec un fond noir), Edition -> Copier Visible l'affichage de votre fichier .xcf puis Edition -> Coller dans la nouvelle image. Réglez le mode pour filtrer et aplatir la nouvelle image et l'enregistrer en un seul fichier tiff. Pour aplatir, vous utilisez les sous-menus sous Calques. Calques --> Fusionner le visible puis Calques --> Aplatir.

Étape 4: Supprimez les défauts cosmétiques.

Utilisez les options de l'outil de manipulation d'image (comme les niveaux) pour les réglages finaux de couleur et de contraste. Utilisez l'outil de clonage pour supprimer les coutures de copeaux et les rayons cosmiques. Choisissez votre orientation.

Enregistrez ce fichier au format tiff (pas de compression) ou, à la rigueur, au format jpeg 100% qualité.


Etude de cas 2 - Traitement d'images M63 dans MIPAV

M63 également connue sous le nom de Galaxie du Tournesol a été découverte par Pierre Méchain le 14 juin 1779. La galaxie (appelée à l'époque nébuleuse) a ensuite été répertoriée par Charles Messier comme objet 63 dans son catalogue. Plus tard au 19ème siècle, William Parsons, 3e comte de Rosse a identifié des structures spirales au sein de la galaxie, faisant ainsi de la galaxie Tournesol l'une des premières galaxies à structure spirale identifiée. En 1971, une supernova d'une magnitude de 11,8 est apparue dans l'un des bras de M63.

Journal de traitement d'image pour M63

Pour la réduction des données M63, j'ai utilisé le même ensemble de 11 étapes que j'ai utilisé pour M51.

Réduction de bruit

Pour un jeu de données donné, j'ai appliqué les algorithmes de réduction de bruit suivants : 1. J'ai d'abord appliqué le masque Unsharp avec les paramètres suivants à toutes les images scientifiques M63 R, V et B : échelle de Gauss - x dim - 0,5, y-dim - 0,5, poids de l'image floue = 0,75. 2. Ensuite, j'ai utilisé le filtre de réduction du bruit non linéaire et je l'ai appliqué à toutes les images scientifiques issues de l'étape précédente en utilisant les paramètres suivants :

  • Pour les images R - bright_threshold inférieur à 0,172237074375152 (image min) et Gaussian_std_dev float 0,5
  • Pour les images V - bright_threshold double moins de 0,4902107357978821 (image min) et Gaussian_std_dev float 0,5
  • Pour les images B - bright_threshold double moins de 0,13539797365665437 (image min) et Gaussian_std_dev float 0,5.

J'ai utilisé la réduction du bruit non linéaire car cet algorithme utilise un filtrage non linéaire pour réduire le bruit dans une image tout en préservant à la fois la structure sous-jacente et les bords et les coins. J'ai trouvé que cela fonctionnait très bien pour préserver la belle structure en spirale de M63. Lire la suite .