LA MASSIMA ENTROPIA DI DECONVOLUZIONE

(Max Entropy Deconvolution)

 

Giulio Scarfi

 

Questa nuova procedura matematica di restaurazione ed elaborazioni di immagini digitali aprirà nuovi orizzonti agli astrofili muniti di sensori C.C.D..

 

 Spesso nella nostra vita ci siamo imbattuti nel detto "necessità fa virtù". Proprio su questa base probabilmente l'uomo si è evoluto in tutti i campi fino a raggiungere le attuali tecnologie che gli permettono una vita forse "più facile".

Questo naturalmente è valido anche per per l'evoluzione del software riguardante l'elaborazione delle immagini C.C.D.

 

La storia

 

Quando arrivarono a terra le prime immagini del Telescopio Spaziale Hubble (H.S.T.) una profonda delusione colpì la comunità scientifica in quanto gli errori commessi nella costruzuione delle  ottiche provocavano un degrado dell'immagine tale da vanificare in buona parte gli sforzi sino ad allora compiuti per poter fare osservazioni astronomiche fuori dai disturbi provocati dell'atmosfera terrestre.

Per risparmiare tempo e denaro infatti erano stati saltati alcuni costosi ma imortanti test ottici. Poichè un intervento immediato sulle ottiche non era possibile in tempi relativamente brevi, per cercare di recuperare buona parte della perdita di risoluzione provocata dal coma prodotto sulle immagini  in arrivo, fu necessario inventare un algoritmo applicabile su immagini C.C.D. che permettesse di recuperare la perdita di risoluzione.

Questo algoritmo divenuto ormai una rivoluzione nel campo delle elaborazioni di immagini digitali, è conosciuto con il nome di "Massima Entropia di Deconvoluzione". Tale denominazione contiene due termini fondamentali: uno usato per capirne l'effetto sulle immagini, massima entropia, e uno per indicarne sinteticamente il funzionamento, deconvoluzione.

Il termine entropia è stato in pratica importato dalla teoria fisica della termodinamica e riguarda l'incremento del disordine e la conseguente perdita di energia dell'universo. Anche nel nostro caso questo termine ben si adatta allo scopo poichè questo algoritmo in pratica ha la capacità di ridurre la perdita di informazione nell'immagine provocata dai tre nemici principali delle riprese con il telescopio: la turbolenza, gli eventuali difetti delle ottiche e gli errori di inseguimento. Naturalnente se noi partiremo da un'immagine già quasi perfetta i risultati saranno ancora migliori.

La prima applicazione di questo algoritmo risale all'ottobre del 1988 su un'immagine di 10 minuti in luce rossa della regione di formazione stellare denominata L43 in Ophicuo ripresa più di un'anno prima dal 61 cm dell'osservatorio Whipple in Arizona. I risultati furono davvero esaltanti.

Subito quindi ci si accorse che questo potente algoritmo poteva trovare applicazione su tutte le immagini  C.C.D. e on solo su quelle provenienti dal Telescopio Spaziale Hubble.

Si è potuto calcolare infatti che vi è un'aumento di risuluzione nelle immagini di circa tre volte superando quindi il limite strumentale teorico. Naturalmente questo può essere possibile solo se il campionamento delle immagine prodotta dal sensore C.C.D. è sufficiente. Normalmente infatti per avere un'immagine sufficientemente campionata è necessario che almeno due pixel coprano un'angolo pari al potere risolutivo teorico o ancor più realisticamente al seeing migliore ottenibile da quel sito.

E' stato calcolato infatti che applicando questa elaborazione ad immagini digitali di un telescopio da 40 cm di  diametro si otterrà la stessa risoluzione di  un immagine ottenuta su pellicola con un telescopio da 120 cm di  diametro. Inoltre nei casi in cui si sia ottenuta un immagine leggermente sfuocata la si potra correggere così bene che nessuno potrà accorgersi dell'errore originale. Per tutti questi motivi viene infatti considerata un'invenzione rivoluzionaria.

Nonostante queste incredibili potenzialità, in campo amatoriale, lo sviluppo di questa tecnica fu rallentato dal fatto che sino a 6-7 anni fa anche i più veloci computer a prezzo accessibile alla maggior parte degli astrofili, non permetteva di portare a termine in tempi raginevoli questo tipo di procedura. Da quando però sono apparsi sul mercato anche i processori tipo 486 e Pentium  i programmi di elaborazione più evoluti hanno incluso questo algoritmo.

 

L'applicazione pratica sul programma M.I.P.S.

 

Il termine deconvoluzione serve per indicare il modo con il quale viene elaborata l'immagine. L'uso di questa funzione però non è così immediato come per gli altri tipi di elaborazione delle immagini. Naturalmente i passagi descritti qui possono variare a seconda dell' evoluzione del programma usato. In questo caso viene descritta la procedura da applicare al programma M.I.P.S. 2.0 che sembra lunga e complessa ma che in realtà attraverso la costruzione di macro di lavoro ho notevolmente semplificato .

Generalmente quando elaboriamo un'immagine digitale siamo abituati a dare l'ordine al computer e aspettare di vedere apparire sul monitor il risultato diretto di tale elaborazione. Nel nostro caso invece e necessario passare da alcune fasi prima di vedere l'immagine finale.

1° FASE : preparazione dell'immagine:si utilizza l'immagine già calibrata (sottratta della media dei  dark-frame e del bias e divisa per il master flat-field) e si esegue una piccola elaborazione iniziale che consiste nella correzzione di exventuali difetti "estetici" dell'immagine come pixel caldi e freddi, eventuali righe o colonne difettose, raggi cosmici e riduzione del rumore di fondo cielo. Sconsigliamo di procedere ad un'elaborazione maggiore in quanto sarà praticamente ininfluente sul risultato finale.

2° FASE : ridimensionamento :è necessario tagliare l'immagine in modo tale da renderla perfettamente quadrata e inoltre che i suoi lati contengano un numero di pixel che sia una potenza di  due ; esempio l'immagine risultante sarà di 64x64 pixel o 128x128 , 256x256, 512x512 ecc. Vedremo più avanti il perchè di tutto questo.

  FASE : preparazione dell'immagine di P.S.F.: bisogna costruire una seconda immagine denominata di P.S.F. ( Point Spread Function, funzione che descrive lo "spargimento" della luce di un oggetto puntiforme) nella quale sia contenuta una sola stella dell'immagine originale. La scelta della stella deve essere molto accurata poichè è proprio da come viene scelta e inserita nell'immagine di P.S.F. che dipenderà molto del risultato finale. Tale scelta dovrà cadere su di una stella di media grandezza e che secondo noi dia le maggiori informazioni riguardo agli erori di guida, alla turbolenza e ai vari difetti dell'immagine. Proprio sulla base di questa stella infatti verrà corretta l'immagine originale. Quest'immagine dovrà anch'essa avere come l'originale i lati qudrati con un numero di pixel uguale alla potenza di  due e dovrà contenere nel suo centro il baricentro fotometrico della stella prescelta.

4° FASE : applicazione : siamo ora in grado di avviare l'algoritmo. Il miglior risultando non si otterrà solamente con una sola applicazione ma con più iterazioni. Generalmente bastano dalle 5 alle 20 iterazioni (in media una decina) per ottenare il miglior risultato in funzione della qualità dell'immagine di partenza. Se ad esempio avessimo un'immagine di partenza sfuocata possono essere necessarie più iterazioni; anche più di  50! In teoria come per tutti i tipi di elaborazioni potremmo portare avanti il lavoro all'infinito ma questo non corrisponderà più al miglioramento dell'immagine anzi ne inizierà il deterioramento a causa dell’amplificazione eccessiva del rumore eper la presenza dei primi artefatti.

Starà a noi scegliere, in base alla nostra esperienza, quando si è raggiunto il massimo della risuluzione ed a tal punto avremmo concluso il nostro lavoro.

E' infatti tipico di quasi tutte le procedure di restaurazione delle immagini accentuare progressivamente un'aspetto granuloso dell'immagine ed un'alone scuro intorno alle stelle più luminose che, oltre un certo limite, vanifica il risultato finale e l'estetica dell'immagine.

Molto probabilmente ora non potremmo più apportare alcun miglioramento a quest' immagine, infatti la Massima Entropia anche se dispendiosa come tempo avrà raggiunto uno dei possibili miglior risultati riguardanti la risoluzione e la magnitudine limite nell'elaborazione di tale immagine.

Il mio consiglio rimane comunque quello di sperimentare questa procedura su molti tipi di immagini e cercare di stabilire quando sia veramente conveniente e vantaggioso applicare questo algoritmo, poichè ognuno di noi ha generalmente un suo "metro"  personale di come giudicare le immagini. In taluni casi, anche più semplici e veloci algoritmi di elaborazione potrebbero restituire  risultati sinili.

Indicativamente per dare un'idea sui tempi di elaborazione si può prendere come esempio un computer dotato di un processore tipo 486 Dx2 da 66 Mhz. Con tale processore saranno necessari poco meno di 8 minuti per un'iterazione di un immagine di 512x512 pixel, circa 2 minuti per un'immagine di 256x256 pixel ed infine circa 30 secondi per un'iterazione da 128x128 pixel. Si vede chiaramente che la velocità è direttamente proporzionale al numero di pixel contenuti nell'immagine. Quindi nel caso che noi volessime elaborare con 15 iterazioni un'immagine da 256x256 pixel sarà necessaria circa mezz'ora di tempo prima di vedere il risultato finale. Sulla velocità risultante sarà determinante inoltre la presenza di un veloce coprocessore matematico, la quantità e velocità di accesso della memoria R.A.M e non ultima il modo con il quale il programmatore del software ha sviluppato il programma.

Ultimamente poi stanno nascendo addirittura programmi specializzati che eseguono quasi esclusivamente questo tipo di elaborazione.

Vediamo ora più in dettaglio il funzionamento di questo algoritmo ed il perchè richiede tempi così lunghi .

Un iterazione completa si divide in quattro tappe fondamentali:

1° tappa : all'immagine originale viene applicata una trasformazione diretta di Fourirer passandola da rappresentazione spaziale a quella fraquenziale. Tale trasformazione è molto più veloce se applicata ad immagini i cui lati in pixel, sono espressi in potenze di due. Se cosi non fosse i tempi di elaborazione sarebbero esageratamente più lunghi anche se comunque la trasformazione rimarrebbe possibile.

2° tappa : stessa procedura della 1° tappa viene operata all'immagine di P.S.F. Anche in questo caso valgono le stesse regole della precedente.

3° tappa : viene effettuata la deconvoluzione o filtro inverso, dell'immagine originale con l'immagine di P.S.F. producendo una terza immagine ancora però visualizzata nel dominio delle frequenze.

4° tappa : all'immagine risultante viene operata una trasformazione inversa di Fourier in modo da poterla rivisualizzare nel modo abituale in cui siamo soliti visualizzarle, detta modalità spaziale.

 

Applicazioni astronomiche

 

Bisogna innanzitutto premettere che questo algoritmo non trova applicazione in nessun tipo di misurazione sia fotometrica, astrometrica o spettrografica in quanto queste misurazioni possono essere effettuate solo su immagini calibrate ma non assolutamente elaborate.

Questo potente strumento di elaborazione è applicabile a qualsiasi immagine astronomica poichè la possibilità di aumentare la risoluzione e utile in tutte le immagini. 

Può addirirttura capitare,  dopo avere elaborato un'immagine, che alcune stelle che apparivano singole nell'originale appaiano ora doppie. Anche la visualizzazione di stelle doppie particolarmente strette e quindi al limite della risoluzione strumentale può essere un campo di applicazione molto interessante. Per lo studio quantitativo e qualitativo delle stelle doppie rimane comunque più valido e ritenuto scientificamente corretto il metodo dell'autocorrelazione, anch'esso applicato ad immagini rappresentate nel dominio delle fraquenze.

Ma gli oggetti che più beneficiano dei vantaggi della Massima Entropia di Deconvoluzione sono sicuramente i pianeti come Giove,  Marte e Saturno gli oggetti di profondo cielo come galassie e nebulose ed anche nei casi più spettacolari nelle immagini di comete.

Nell'elaborazione di oggetti di profondo cielo c'è da evidenziare inoltre un'altro notevole vantaggio, quello dell'aumento della magnitudine limite registrata ed un lieve abbattimento del rumore di fondo cielo. Questi fenomeni, solo parzialmente collegabili, rendono questa elaborazione sicuramente tra le più valide esistenti oggi per le applicazioni ad oggetti di profondo cielo. L'aumento della magnitudine limite si aggira intorno a 0.5/1 magnitudini con punte sino a 1.5.

Bisogna a questo punto precisare che nel caso si voglia applicare questo algoritmo a immagini planetarie, non essendo presenti nel campo stelle, la costruzione dell'immagine di P.S.F. avviene attraverso due modi principali:

-il primo, più preciso e quindi il più consigliato, usa come soggetto di P.S.F. un satellite del pianeta che rientri nell'immagine originale, possibilmente di forma più puntiforme possibile, ottimi in questo caso quelli di Marte, Giove e Saturno;

- il secondo meno preciso ma presente in alcuni dei più sofisticati software in distribuzione, usa una "stella sintetica" prodotta dal programma stesso.

Si sconsiglia nel modo più assoluto la ripresa di una stella subito prima o subito dopo quella dell'immagine planetaria in quanto affetta da diversa turbolenza

 

La nostra esperienza

 

Ho potuto fare esperienza applicando questo nuovo algoritmo sulle immagini realizzate presso l'Osservatorio Astronomico di M. te Visseggi della Associazione Astrofili Spezzini. Presso tale Osservatorio è presente un Ritchey-Cretien da 40 cm f/8 al quale vengono applicati alternativamente a seconda della ricerca che si sta svolgendo un C.C.D. tipo ST6 o una camera HI-SIS 22.. Il seeing del sito è molto variabile, infatti si passa dai 3-3.5 secondi nelle serate peggiori che vengono sfruttate solo per fare ricerca di S.N. con C.C.D., a seeing di 2.5-2.7 secondi (valore ancora relativamente elevato) che ci permette di ottenere ottimi risultati in immagini di fondo cielo. Naturalmente in queste condizioni i risultati ottenuti variano molto da sera a sera e la cura del fuoco soprattutto in strumenti affetti da astigmatismo deve essere particolarmente curata .

Le immagini qui presentate si commentano da sole. A sinstra troviamo l'immagine originale, a destra quella processata con l'algotìritmo della Massima Entropia di Deconvoluzioe, visualizzate naturalmente con le stesse soglie. Sotto l'immagine elaborata viene inoltre indicato il numero di iterazioni che l'immagine ha subito. Subito ci colpisce l'aumento del contrasto, della risoluzione e dopo una più attenta valutazione anche della magnitudine limite. Inoltre sia che si sia partiti da immagini già discrete come nel caso di M51 o peggiori come in alcune galassie affette da seeing pessimo i risultati sono sicuramente paragonabili ai migliori ottenibili da telescopi di uguale diametro .

Il caso di M57 è veramente notevole . Nonostante l'enorme differenza, sopratutto in termini di risoluzione, le 20 iterazioni subite potevano probabilmente essere spinte oltre le 30-35.

 

Conclusioni

La Massima Entropia si pone oggi come tra i più avanzati algoritmi per la restaurazione delle immagini insieme a quello di Van Cittert,  Lucy Richardson Wiener ed altri  poco conosciti ma in alcuni casi altrettanto efficenti.

Volendo sintetizzare i vantaggi ottenibili possono essere schematizzati i seguenti  quattro punti:

1) Incremento della risoluzione (sino a tre volte)

2) Maggiore puntiformità delle stelle

3) Aumento della magnitudine limite (0.5-1.5 mg)

4) Aumento del contrasto

5) Miglioramento del rapporto segnale/rumore

L'avvento di questi sistemi di restaurazione delle immagini inoltre porterà sempre un maggior numero di appassionati di astronomia a sciegliere i sistemi C.C:D. anziche la fotografia tradizionale.