天体写真画像処理について(参考まで)

星雲や銀河などの淡い光を撮影した天体写真で,私が現在行っている画像処理の手順について,紹介します。ただ,今のところ,これが自分にとってベスト,と思っているだけで,他の方法と比較したレビューや,理論的な解説があるわけではありませんので,初めにお断りしておきます。とはいえ,初心者の方には,いったい何でそうしているのか分からないことも多い気がするので,私の過去の経験も含めて変遷を振り返っています。それで少しは,参考にしていただけるかと思います。

星雲などの天体写真の基本は,いかに弱い光を多く蓄積して,その情報を増幅させて示すか,にあると言えます。フィルム(銀塩)時代には,できるだけ露出時間をのばし,高感度フィルムを増感現像する,という手段(できるだけ光学系は明るいもので)でした。何枚もの画像を重ねるコンポジットは惑星写真などで,粒状性をよくするために行われていました。デジタル時代の現在では,数分程度の露出で撮影枚数を増やし,このコンポジットによって,情報(長時間露光と同じように,センサーがとらえたまさに光子の量)を増やしていく路線をとっています。1枚で長時間露出を行うと,電子機器なので,ノイズも蓄積されてしまうからだと理解しています(ノイズはランダムに現れるので,枚数を増やせばノイズが増幅されるのをキャンセルできます)。また,カラーセンサーの場合には,画素(ピクセル)ごとにRGBを分担しているデータから,カラー合成するディベイヤーという過程も含め,前処理の段階からすべてコンピューター(パソコンまたはカメラ)によって現像が行われます。これらを1から自分で構築するのは無理で,ソフト任せになりますが,これらの処理を行うソフト(アプリ)として,何を使うかという話になります。初期のころ(約10年前)には,PhotoshopElementで,位置合わせやコンポジットを手作業でやったこともありましたが,フリーソフトのDSS(DeepSkyStacker)が登場して数十枚を一気にスタック(コンポジット)するのが普通になりました。ただし,追尾して位置を固定した同じ撮影画像を何十枚も重ねると,日周運動の影響もあって(?)モアレ模様のようなノイズが生じることがあり,それを避けるために,撮影ごとに位置を少しずらすディザリングガイドが行われるようになっています(ガイド撮影でカメラ制御する最近のソフトにはディザリングが組み込まれていて,自動的にやってくれます)。

国内で開発されているステライメージ(アストロアーツ)も一度購入しましたが,カメラに冷却CMOSを使うようになったときに,欧州で開発されたPixinsightを導入(購入)して使うようになりました(以下PIとします)。PIは今,世界の天体写真愛好家に最も広く使用されているツールと言って過言ではないでしょう。ライセンスを得るのに250ユーロという相当な額が必要ですが,天文台でも使用されるような汎用性,常に進化する柔軟な拡張性を備えたものです。インターフェースは英語で表示され日本語版はないのですが,Youtubeで蒼月城さんのチュートリアルや,丹羽雅彦さんのブログや書籍で処理の意味や使い方を習得することは可能です。私が使い始めたのは3年ほど前でしたが,処理のプロセスやスクリプトがどんどん進化していっているので,これから始めて見ようという人には難しく感じられるかもしれませんが,つまづかないでほしいと思います。蒼月さんのPixinsightのシリーズをご覧になって,自分の撮影画像で試してみれば,少しづつ必要なことが分かってくると思います。

 PIでは,カブリ(光害)除去や強調処理(ストレッチという)に移る前に,まず前処理として,位置合わせやスタック(コンポジットとも,PIではキャリブレーション~レジストレーション→インテグレーションと呼ぶリニア処理)に,WBPP(Weighted Batch Preprocessing)というスクリプトが用意されています。これを開いて撮影画像と,カメラのバイアス,ダーク,フラット画像を用意して指定し,起動すれば,撮影画像の質によって重みづけ(Weighted)まで行った合成画像が生成されます。ガイドが不良で星が完全に流れた画像でない限りスタックしてくれるので,少し流れているような画像でも外すようにしています。バイアスやダーク(バイアスがあればダークはいらないとも言われていますが)は一度作ってしまえばいいですが,ニュートン反射のフラットは斜鏡のせいだと思いますが,非対称ですので撮影後明るくなる前にB4サイズのLEDトレース台を使って毎回作っています。フラットについてもいろいろやり方があって,試行錯誤して自分なりにフラットを習得することは,天体写真撮影+画像処理のイロハのイと言ってもいいでしょう(家に居て昼間できることですし)。言い忘れましたが,撮影画像は冷却CMOSで出力されるFITS(fit)形式です。このような生データは,それまでのjpeg画像のような写真画像とまったく違う(現像前のデータである)ことを,PIを使い始めて初めて知りました。デジカメのセンサーも元データはそうなのですが,その場で現像(画像処理して)出力されているわけです。ですので,デジカメの場合にはFITSに近いRAW画像で撮影画像,バイアス,ダーク,フラットを用意します。マスターフラット(マスターバイアス,マスターダークと同様に1枚にする)の作り方はいつも覚えられなくて,蒼月さんのPre processing 後編をいつも見返しています。できた画像はPIの.xisf形式のファイルとして保存しています。WBPPが何をやっているのかは,ダークやフラットを作るときの処理(ImageCalibrationとImageInteglation)で大体わかると思いますし,星の位置合わせだけをするならStarArignmentというプロセスで,キャリブレーションした画像ファイルから,レジストレーションすることができます。これらの過程で,出力を指定したフォルダ内には,debayerd,calibrated,registeratede,masterというフォルダーが出来,その中にそれぞれの画像ごとのファイルが記録されます(メモリーが一気に増えます)。WBPP処理が終わったら,一旦GUIを閉じて,masterに保存されたマスターファイル画像を開いて,ノンリニア(後処理)に移ります。

Pixinsight画面→様々なプロセスの数々

 PIのノンリニア過程では,まずプロセスにあるSTF(ScreenTransferFunction)を開きます。現像したとはいえ真っ暗なマスター画像がどんなものかを見るには,STFの放射能アイコンをクリックして,オートストレッチで画像を明るくして確認することができます(クロス×ボタンで元に戻せます)。PIは進化が著しくて,WBPPは以前BPPでしたし,光害除去をするプロセスのDBE(DynamicBackgroundExtraction)も自動でやってくれるABE(AutomaticBackgroundExtraction)が追加されたりします。赤外改造やナローバンドの光害カット,星雲のコントラストを上げるフィルターなどでホワイトバランスが崩れている場合には,PCC(PhotometricColorCalibration)が有効です。がこれも現在SPCC(SpectrophotometricColorCalibration )になり,なんとGAIAのデータベースをあらかじめダウンロードし,撮影画像にある恒星とGAIAデータの色味とを照合してホワイトバランスを調整補正してくれるのです(※1)。さらに昨年の11月には,PIのプラグインとして作動する,BXT,BlueXTerminater(ラッセル・クローマン氏による)というAIを使ったデコンボリューション(数学的手法)が登場しました。どういう方法でこのような画像処理が可能なのかは,ほとんど理解できないのですが,いままで撮ってきたどの画像も,この処理を行うと星雲も星も一発で(コンピューターの能力を最大限に発揮して)シャープで鮮明な画像にすることができます。というわけで,ノンリニア過程では,まずSPCCで色合わせを行い,BXTでシャープ化し,ABEで光害除去(必要ない場合もあり)を行っています。考えてみると,ここまではすべて自動的にソフトにお任せで,多少パラメーターを変えることもできますが,誰がやってもほぼ同じ結果になるといえます。画像処理というと,各々が見えない天体に勝手に色を付けているような印象もありますが,現在では科学的な手法で公平性が確立されて来たといえます。

この後は画像の強調処理(ストレッチ)です。まさに,淡い天体の姿をあぶりだす,という作業ですが,これにもいくつかの方法があります。私はずばりPIのプロセスにあるArcsinhStretch(ハイパボリックアークサインストレッチ)を使っています。これも私には理解できない数学的手法(双曲線関数ハイパボリックサイン)で処理されているわけですが,輝度だけでなく色(彩度)がとてもよく強調してくれのです。やり方は蒼月さんのPre Proscessing前編の後半を参考にして覚えました。ここまでで,PIの処理を終え,いわば現像処理を終えた画像は,天体の名称を頭に付けた名前のファイルとしてPIで使うxisf形式とPhotoshopなどで開けるtiff形式でmasterフォルダーに保存しています。CMOSで得られた画像は諧調が豊かでストレッチのし甲斐があるというか,星が白飛びすることもなくまだまだという状態になります。そこで,このtiff形式ファイルをさらに,Photoshop で処理しています。Adobeには毎月1500円くらい払っています。言い忘れましたが,BXTもライセンスに98ドルだったかかかっています。そして,6年前ぐらいフリーだったNikcollectionというPhotoshop のプラグインソフトが現在は有償ですが,これを使って,星雲の微細構造をSilverEfexで強調しています。PIでも,構造の強調は行えるのですが,フリーだったころの使い勝手の良さが忘れられず,出費して続けている感じです。さらに数年前に話題になったAIを使ったプラグインのフィルターTopazのDenoseAI(もちろん有償)をつかってノイズをほぼ無くしてから,最後にPhotoshopのレベル補正でベースのバックグラウンドの明るさなどを調整して仕上げています。この段階での色味の調整には,PhotoshopのCameraRawフィルターを使ったりします。我ながら,画像処理にだいぶ投資しているといえます。言い忘れましたが,最近新調したインテル Core i9-13900 プロセッサー搭載のパソコンでも,BXTの処理にはAPS-Cサイズで5分ぐらいかかります。撮影枚数にもよりますが,これらの処理全体で15~20分ぐらいかかります。パソコンのスペックも含め,画像処理には金がかかるものだなーと思いますが,最近ではPixinsightに準じた処理をおこなうフリーソフトでSiriLという画像処理ソフトも普及し始めているようです。

以上,私の画像処理といっても,ほとんどネット上の先達の方々を頼りにして出来ているだけで,上に引用させていただいた方々には,ここでお礼申し上げたいと思います。あまたの天体写真マニアの方々それぞれに苦労されていると思います。これはあくまで安直な(私でもうまくできた)やり方にすぎませんが,参考までに書き記しました。何かのお役に立てば幸いです。

※1)画像の星空の位置をコンピューターが判定して星図と照合する「プレートソルビング」が使われます。FITS画像ファイルには様々な撮影データがヘッダーに記録できますが,WBPPではこれを自動で行っています。古い画像ではSPCCを行うのに,別途プレートソルビングにかける必要があります。デジカメのRAWデータでは試していないのでわかりません。