LA MASSIMA ENTROPIA DI DECONVOLUZIONE
(Max
Entropy Deconvolution)
Questa
nuova procedura matematica di restaurazione ed elaborazioni di immagini digitali
aprirà nuovi orizzonti agli astrofili muniti di sensori C.C.D..
Spesso
nella nostra vita ci siamo imbattuti nel detto "necessità fa virtù".
Proprio su questa base probabilmente l'uomo si è evoluto in tutti i campi fino
a raggiungere le attuali tecnologie che gli permettono una vita forse "più
facile".
Questo
naturalmente è valido anche per per l'evoluzione del software riguardante
l'elaborazione delle immagini C.C.D.
Quando
arrivarono a terra le prime immagini del Telescopio Spaziale Hubble (H.S.T.) una
profonda delusione colpì la comunità scientifica in quanto gli errori commessi
nella costruzuione delle ottiche
provocavano un degrado dell'immagine tale da vanificare in buona parte gli
sforzi sino ad allora compiuti per poter fare osservazioni astronomiche fuori
dai disturbi provocati dell'atmosfera terrestre.
Per
risparmiare tempo e denaro infatti erano stati saltati alcuni costosi ma
imortanti test ottici. Poichè un intervento immediato sulle ottiche non era
possibile in tempi relativamente brevi, per cercare di recuperare buona parte
della perdita di risoluzione provocata dal coma prodotto sulle immagini
in arrivo, fu necessario inventare un algoritmo applicabile su immagini
C.C.D. che permettesse di recuperare la perdita di risoluzione.
Questo
algoritmo divenuto ormai una rivoluzione nel campo delle elaborazioni di
immagini digitali, è conosciuto con il nome di "Massima Entropia di
Deconvoluzione". Tale denominazione contiene due termini fondamentali: uno
usato per capirne l'effetto sulle immagini, massima
entropia, e uno per indicarne sinteticamente il funzionamento,
deconvoluzione.
Il
termine entropia è stato in pratica importato dalla teoria fisica della
termodinamica e riguarda l'incremento del disordine e la conseguente perdita di
energia dell'universo. Anche nel nostro caso questo termine ben si adatta allo
scopo poichè questo algoritmo in pratica ha la capacità di ridurre la perdita
di informazione nell'immagine provocata dai tre nemici principali delle riprese
con il telescopio: la turbolenza, gli eventuali difetti delle ottiche e gli
errori di inseguimento. Naturalnente se noi partiremo da un'immagine già quasi
perfetta i risultati saranno ancora migliori.
La
prima applicazione di questo algoritmo risale all'ottobre del 1988 su
un'immagine di 10 minuti in luce rossa della regione di formazione stellare
denominata L43 in Ophicuo ripresa più di un'anno prima dal 61 cm
dell'osservatorio Whipple in Arizona. I risultati furono davvero esaltanti.
Subito
quindi ci si accorse che questo potente algoritmo poteva trovare applicazione su
tutte le immagini C.C.D. e on solo
su quelle provenienti dal Telescopio Spaziale Hubble.
Si
è potuto calcolare infatti che vi è un'aumento di risuluzione nelle immagini
di circa tre volte superando quindi il limite strumentale teorico. Naturalmente
questo può essere possibile solo se il campionamento delle immagine prodotta
dal sensore C.C.D. è sufficiente. Normalmente infatti per avere un'immagine
sufficientemente campionata è necessario che almeno due pixel coprano un'angolo
pari al potere risolutivo teorico o ancor più realisticamente al seeing
migliore ottenibile da quel sito.
E'
stato calcolato infatti che applicando questa elaborazione ad immagini digitali
di un telescopio da 40 cm di diametro
si otterrà la stessa risoluzione di un
immagine ottenuta su pellicola con un telescopio da 120 cm di
diametro. Inoltre nei casi in cui si sia ottenuta un immagine leggermente
sfuocata la si potra correggere così bene che nessuno potrà accorgersi
dell'errore originale. Per tutti questi motivi viene infatti considerata
un'invenzione rivoluzionaria.
Nonostante
queste incredibili potenzialità, in campo amatoriale, lo sviluppo di questa
tecnica fu rallentato dal fatto che sino a 6-7 anni fa anche i più veloci
computer a prezzo accessibile alla maggior parte degli astrofili, non permetteva
di portare a termine in tempi raginevoli questo tipo di procedura. Da quando però
sono apparsi sul mercato anche i processori tipo 486 e Pentium
i programmi di elaborazione più evoluti hanno incluso questo algoritmo.
Il
termine deconvoluzione serve per indicare il modo con il quale viene elaborata
l'immagine. L'uso di questa funzione però non è così immediato come per gli
altri tipi di elaborazione delle immagini. Naturalmente i passagi descritti qui
possono variare a seconda dell' evoluzione del programma usato. In questo caso
viene descritta la procedura da applicare al programma M.I.P.S. 2.0 che sembra
lunga e complessa ma che in realtà attraverso la costruzione di macro di lavoro
ho notevolmente semplificato .
Generalmente
quando elaboriamo un'immagine digitale siamo abituati a dare l'ordine al
computer e aspettare di vedere apparire sul monitor il risultato diretto di tale
elaborazione. Nel nostro caso invece e necessario passare da alcune fasi prima
di vedere l'immagine finale.
1° FASE
: preparazione dell'immagine:si
utilizza l'immagine già calibrata (sottratta della media dei
dark-frame e del bias e divisa per il master flat-field) e si esegue una
piccola elaborazione iniziale che consiste nella correzzione di exventuali
difetti "estetici" dell'immagine come pixel caldi e freddi, eventuali
righe o colonne difettose, raggi cosmici e riduzione del rumore di fondo cielo.
Sconsigliamo di procedere ad un'elaborazione maggiore in quanto sarà
praticamente ininfluente sul risultato finale.
2° FASE : ridimensionamento :è
necessario tagliare l'immagine in modo tale da renderla perfettamente quadrata e
inoltre che i suoi lati contengano un numero di pixel che sia una potenza di
due ; esempio l'immagine risultante sarà di 64x64 pixel o 128x128 ,
256x256, 512x512 ecc. Vedremo più avanti il perchè di tutto questo.
3°
FASE : preparazione dell'immagine
di P.S.F.: bisogna costruire una seconda immagine denominata di P.S.F. (
Point Spread Function, funzione che descrive lo "spargimento" della
luce di un oggetto puntiforme) nella quale sia contenuta una sola stella
dell'immagine originale. La scelta della stella deve essere molto accurata poichè
è proprio da come viene scelta e inserita nell'immagine di P.S.F. che dipenderà
molto del risultato finale. Tale scelta dovrà cadere su di una stella di media
grandezza e che secondo noi dia le maggiori informazioni riguardo agli erori di
guida, alla turbolenza e ai vari difetti dell'immagine. Proprio sulla base di
questa stella infatti verrà corretta l'immagine originale. Quest'immagine dovrà
anch'essa avere come l'originale i lati qudrati con un numero di pixel uguale
alla potenza di due e dovrà
contenere nel suo centro il baricentro fotometrico della stella prescelta.
4°
FASE : applicazione : siamo ora in
grado di avviare l'algoritmo. Il miglior risultando non si otterrà solamente
con una sola applicazione ma con più iterazioni. Generalmente bastano dalle 5
alle 20 iterazioni (in media una decina) per ottenare il miglior risultato in
funzione della qualità dell'immagine di partenza. Se ad esempio avessimo
un'immagine di partenza sfuocata possono essere necessarie più iterazioni;
anche più di 50! In teoria come
per tutti i tipi di elaborazioni potremmo portare avanti il lavoro all'infinito
ma questo non corrisponderà più al miglioramento dell'immagine anzi ne inizierà
il deterioramento a causa dell’amplificazione eccessiva del rumore eper la
presenza dei primi artefatti.
Starà
a noi scegliere, in base alla nostra esperienza, quando si è raggiunto il
massimo della risuluzione ed a tal punto avremmo concluso il nostro lavoro.
E'
infatti tipico di quasi tutte le procedure di restaurazione delle immagini
accentuare progressivamente un'aspetto granuloso dell'immagine ed un'alone scuro
intorno alle stelle più luminose che, oltre un certo limite, vanifica il
risultato finale e l'estetica dell'immagine.
Molto
probabilmente ora non potremmo più apportare alcun miglioramento a quest'
immagine, infatti la Massima Entropia anche se dispendiosa come tempo avrà
raggiunto uno dei possibili miglior risultati riguardanti la risoluzione e la
magnitudine limite nell'elaborazione di tale immagine.
Il
mio consiglio rimane comunque quello di sperimentare questa procedura su molti
tipi di immagini e cercare di stabilire quando sia veramente conveniente e
vantaggioso applicare questo algoritmo, poichè ognuno di noi ha generalmente un
suo "metro" personale di
come giudicare le immagini. In taluni casi, anche più semplici e veloci
algoritmi di elaborazione potrebbero restituire
risultati sinili.
Indicativamente
per dare un'idea sui tempi di elaborazione si può prendere come esempio un
computer dotato di un processore tipo 486 Dx2 da 66 Mhz. Con tale processore
saranno necessari poco meno di 8 minuti per un'iterazione di un immagine di
512x512 pixel, circa 2 minuti per un'immagine di 256x256 pixel ed infine circa
30 secondi per un'iterazione da 128x128 pixel. Si vede chiaramente che la
velocità è direttamente proporzionale al numero di pixel contenuti
nell'immagine. Quindi nel caso che noi volessime elaborare con 15 iterazioni
un'immagine da 256x256 pixel sarà necessaria circa mezz'ora di tempo prima di
vedere il risultato finale. Sulla velocità risultante sarà determinante
inoltre la presenza di un veloce coprocessore matematico, la quantità e velocità
di accesso della memoria R.A.M e non ultima il modo con il quale il
programmatore del software ha sviluppato il programma.
Ultimamente
poi stanno nascendo addirittura programmi specializzati che eseguono quasi
esclusivamente questo tipo di elaborazione.
Vediamo
ora più in dettaglio il funzionamento di questo algoritmo ed il perchè
richiede tempi così lunghi .
Un
iterazione completa si divide in quattro tappe fondamentali:
1° tappa
: all'immagine originale viene applicata una trasformazione diretta di Fourirer
passandola da rappresentazione spaziale a quella fraquenziale. Tale
trasformazione è molto più veloce se applicata ad immagini i cui lati in
pixel, sono espressi in potenze di due. Se cosi non fosse i tempi di
elaborazione sarebbero esageratamente più lunghi anche se comunque la
trasformazione rimarrebbe possibile.
2° tappa
: stessa procedura della 1° tappa viene operata all'immagine di P.S.F. Anche in
questo caso valgono le stesse regole della precedente.
3° tappa
: viene effettuata la deconvoluzione o filtro inverso, dell'immagine originale
con l'immagine di P.S.F. producendo una terza immagine ancora però visualizzata
nel dominio delle frequenze.
4° tappa
: all'immagine risultante viene operata una trasformazione inversa di Fourier in
modo da poterla rivisualizzare nel modo abituale in cui siamo soliti
visualizzarle, detta modalità spaziale.
Bisogna
innanzitutto premettere che questo algoritmo non trova applicazione in nessun
tipo di misurazione sia fotometrica, astrometrica o spettrografica in quanto
queste misurazioni possono essere effettuate solo su immagini calibrate ma non
assolutamente elaborate.
Questo
potente strumento di elaborazione è applicabile a qualsiasi immagine
astronomica poichè la possibilità di aumentare la risoluzione e utile in tutte
le immagini.
Può
addirirttura capitare, dopo avere
elaborato un'immagine, che alcune stelle che apparivano singole nell'originale
appaiano ora doppie. Anche la visualizzazione di stelle doppie particolarmente
strette e quindi al limite della risoluzione strumentale può essere un campo di
applicazione molto interessante. Per lo studio quantitativo e qualitativo delle
stelle doppie rimane comunque più valido e ritenuto scientificamente corretto
il metodo dell'autocorrelazione, anch'esso applicato ad immagini rappresentate
nel dominio delle fraquenze.
Ma
gli oggetti che più beneficiano dei vantaggi della Massima Entropia di
Deconvoluzione sono sicuramente i pianeti come Giove, Marte e Saturno gli oggetti di profondo cielo come galassie e
nebulose ed anche nei casi più spettacolari nelle immagini di comete.
Nell'elaborazione
di oggetti di profondo cielo c'è da evidenziare inoltre un'altro notevole
vantaggio, quello dell'aumento della magnitudine limite registrata ed un lieve
abbattimento del rumore di fondo cielo. Questi fenomeni, solo parzialmente
collegabili, rendono questa elaborazione sicuramente tra le più valide
esistenti oggi per le applicazioni ad oggetti di profondo cielo. L'aumento della
magnitudine limite si aggira intorno a 0.5/1 magnitudini con punte sino a 1.5.
Bisogna
a questo punto precisare che nel caso si voglia applicare questo algoritmo a
immagini planetarie, non essendo presenti nel campo stelle, la costruzione
dell'immagine di P.S.F. avviene attraverso due modi principali:
-il
primo, più preciso e quindi il più consigliato, usa come soggetto di P.S.F. un
satellite del pianeta che rientri nell'immagine originale, possibilmente di
forma più puntiforme possibile, ottimi in questo caso quelli di Marte, Giove e
Saturno;
-
il secondo meno preciso ma presente in alcuni dei più sofisticati software in
distribuzione, usa una "stella sintetica" prodotta dal programma
stesso.
Si
sconsiglia nel modo più assoluto la ripresa di una stella subito prima o subito
dopo quella dell'immagine planetaria
in quanto affetta da diversa turbolenza
Ho
potuto fare esperienza applicando questo nuovo algoritmo sulle immagini
realizzate presso l'Osservatorio Astronomico di M. te Visseggi della
Associazione Astrofili Spezzini. Presso tale Osservatorio è presente un
Ritchey-Cretien da 40 cm f/8 al quale vengono applicati alternativamente a
seconda della ricerca che si sta svolgendo un C.C.D. tipo ST6 o una camera
HI-SIS 22.. Il seeing del sito è molto variabile, infatti si passa dai 3-3.5
secondi nelle serate peggiori che vengono sfruttate solo per fare ricerca di S.N.
con C.C.D., a seeing di 2.5-2.7 secondi (valore ancora relativamente elevato)
che ci permette di ottenere ottimi risultati in immagini di fondo cielo.
Naturalmente in queste condizioni i risultati ottenuti variano molto da sera a
sera e la cura del fuoco soprattutto in strumenti affetti da astigmatismo deve
essere particolarmente curata .
Le
immagini qui presentate si commentano da sole. A sinstra troviamo l'immagine
originale, a destra quella processata con l'algotìritmo della Massima Entropia
di Deconvoluzioe, visualizzate naturalmente con le stesse soglie. Sotto
l'immagine elaborata viene inoltre indicato il numero di iterazioni che
l'immagine ha subito. Subito ci colpisce l'aumento del contrasto, della
risoluzione e dopo una più attenta valutazione anche della magnitudine limite.
Inoltre sia che si sia partiti da immagini già discrete come nel caso di M51 o
peggiori come in alcune galassie affette da seeing pessimo i risultati sono
sicuramente paragonabili ai migliori ottenibili da telescopi di uguale diametro
.
Il
caso di M57 è veramente notevole . Nonostante l'enorme differenza, sopratutto
in termini di risoluzione, le 20 iterazioni subite potevano probabilmente essere
spinte oltre le 30-35.
Conclusioni
La
Massima Entropia si pone oggi come tra i più avanzati algoritmi per la
restaurazione delle immagini insieme a quello di Van Cittert,
Lucy Richardson Wiener ed altri poco
conosciti ma in alcuni casi altrettanto efficenti.
Volendo
sintetizzare i vantaggi ottenibili possono essere schematizzati i seguenti
quattro punti:
1)
Incremento della risoluzione (sino a tre volte)
2)
Maggiore puntiformità delle stelle
3)
Aumento della magnitudine limite (0.5-1.5 mg)
4)
Aumento del contrasto
5)
Miglioramento del rapporto segnale/rumore
L'avvento
di questi sistemi di restaurazione delle immagini inoltre porterà sempre un
maggior numero di appassionati di astronomia a sciegliere i sistemi C.C:D.
anziche la fotografia tradizionale.