Era il 1993 quando, allora giovane da poco laureato, entrai a far parte del gruppo di ricercatori guidati dal Prof. Giorgio Gullini, in quegli anni ordinario di storia di Archeologia e Storia dell’Arte Greca e Romana presso l’Ateneo torinese.

Oltre all’attività accademica, Giorgio Gullini profondeva grandi energie (nonostante la non più giovane età …. classe 1923!) nella presidenza e guida attiva del “Centro Ricerche Archeologiche e Scavi di Torino (per l’Asia e il Medio Oriente)”.

Nei primi anni Novanta il Gullini decide di formare una nuova unità di ricerca denominata L.A.TER. (“Laboratorio Analisi Territoriali”, un’entità comunque mantenuta all’interno del “Centro Scavi”) per definire, attraverso la sperimentazione diretta, i moderni criteri di studio del Territorio inteso come “contenitore” e “testimone” delle vicende che accompagnano la storia dell’Umanità. Lo affiancarono nella fase di avvio del laboratorio i compianti Proff. Carmelo Sena (Politecnico di Torino, per la parte di topografia/rilevamento) e Paolo Baggio (Università di Padova, per gli studi geologici e di telerilevamento).

Cardine fondamentale è l’approccio che potrebbe essere definito come “top-down” per quanto riguarda la distanza di osservazione, ma “low-high” con scala delle informazioni crescente : l’indagine parte dall’analisi delle immagini satellitari multispettrali proseguendo, con l’abbassarsi dell’altezza di volo, alla fotogrammetria aerea realizzata per finalità fotogrammetriche. Dopo aver individuato l’area o le aree di interesse, lo studio prosegue con l’acquisizione di immagini a bassa quota che forniscono ulteriori dati. Restringendo ancora il campo di ricerca alle zone più significative, si avvia la fase ricognitiva sul terreno e, dove necessario, si eseguono prospezioni geofisiche per completare il quadro.

Questa sequenza di operazioni sembra, oggi, quasi scontata … ma stiamo parlando di una metodologia che si voleva sviluppare quasi quarant’anni fa utilizzando, com’è ovvio, la tecnologia disponibile in quel tempo!
Qualche considerazione per meglio rappresentare i limiti tecnici con i quali ci siamo confrontati allora:

– immagini satellitari: l’inquadramento dell’area di studio avveniva con dati acquisiti da SPOT Image (Francia) che metteva a disposizione immagini pancromatiche con pixel a terra di 10 metri e multispettrali con risoluzione di 20 metri. Utilizzavamo sia i dati SPOT 2 che SPOT4. Nei primi anni 2000 avevamo utilizzato anche immagini IKONOS nelle quali il pixel pancromatico aveva dimensioni submetriche (mi sembra intorno ai 70 cm) e il dato multispettrale arrivava ad una risoluzione a terra di 4 metri. Era d’obbligo provvedere ad un merging delle bande per poter avere un dato da classificare con sufficiente risoluzione … Pur con queste limitazioni, il dato satellitare metteva a disposizione quella visione di sintesi che le sole aerofoto da media quota faticavano a offrire. Per contro, le stesse consentivano di attuare lo studio “multitemporale” in quanto materiale di archivio risalente, in alcuni casi, a prima degli anni Trenta. Questa tecnica di studio “storico” del territorio era già in essere, ma la disponibilità dei software di trattamento immagini multilayer e multibanda potenziava le attività del Laboratorio e poneva le basi di quella “sistematicità” che il Prof. Gullini andava contrapponendo alla “soggettività” delle interpretazioni dei risultati.

– calcolo: le prime macchine utilizzate erano Pentium 120-133 MHz e qualche manciata di MB di RAM! Per il trattamento delle immagini satellitari il laboratorio disponeva di una workstation Sun con processore SPARC e 6 dischi SCSI in cascata per complessivi 5 GB (!!!!) di capacità. In questo host si esprimeva al meglio il noto Erdas Imagine, software di elaborazione già allora molto apprezzato. Per la gestione dei dati di archivio sono state utilizzate a lungo le unità nastro da 8 mm (accesso sequenziale … estrarre un file dall’archivio poteva richiedere qualche decina di minuti). Poi, dopo il 1995, arrivò il masterizzatore di CD-ROM (non privo di problemi, anzi …).

 

– posizionamento di precisione: nei primi anni Novanta cominciavano ad essere proposti i primi ricevitori per topografia/geodesia in grado di lavorare con i segnali emessi dalla costellazione Navstar-GPS (GLONASS era già attivo, ma i ricevitori non performavano o non supportavano questa costellazione). Ci trovammo a studiare una configurazione che permettesse al pilota di poter seguire la rotta progettata e avere una sufficiente localizzazione del dato termico basandoci, per quest’ultimo, sul codice del tempo. Cose non troppo difficili muovendosi nel dominio digitale di oggi, ma allora il dato termico lo memorizzavo su un nastro VHS!!

 

Potrei continuare con l’elenco degli “intoppi tecnici” e limitazioni con le quali ci misuravamo quotidianamente: georadar che non dialogavano con i ricevitori satellitari in RTK, dato fotogrammetrico su pellicola che dovevo restituire con un restitutore analitico 4 controlli, standardizzazione nello scambio dei dati che era a livello poco più che embrionale, Internet che stava arrivando ma trasferire dati con FTP era tutt’altro che scontato (a meno di non dover passare un file non più grande di 10 MB, impiegandoci qualche mezz’ora!).

A dispetto di queste difficoltà, riuscivamo a produrre materiale di qualità che rappresentava il frutto di progetti scientifici in ambito nazionale (CNR) e internazionale (UNESCO, Unione Europea). Gestivamo progetti basati su GIS (piattaforme Oracle-Intergraph), ricostruzioni metricamente rigorose di siti e monumenti direttamente in 3D solid, applicazioni DBRMS per la catalogazione. Tutto questo quando una gran parte degli studiosi del settore lavorava su carta da lucido e, nei casi migliori, tabelle Lotus 1-2-3!

Come purtroppo accade a volte, essere partiti in anticipo sui tempi non ha ripagato il nostro impegno come ci si sarebbe aspettato. L’evoluzione tecnolgica e la dinamica delle risorse economiche richieste per le attrezzature acquisite ha giocato un ruolo fondamentale. Da un lato, gli acquisiti tempestivi per poter sperimentare le subito nuove tecnologie disponibili hanno richiesto un fortissimo impegno economico: da lì a poco, però, hardware e software più evoluto avrebbero richiesto sforzi finanziari ben più ridotti. E così, nel tempo, il Laboratorio per le Analisi Territoriali si trovò ad essere popolato di computer, software e strumenti diventati obsoleti prima del previsto.

Il prof. Gullini salì alla dimora celeste nel 2004. Alcuni mesi dopo decisi spostare l’attività di A.R.T. verso altri ambiti ridimensionando il supporto agli studiosi archeologi.

Perchè ho scritto questo post? Mah … per due motivi principali:

1 – non ho ancora trovato sulla Rete nessuno scritto che ricordi (anche solo in forma sintetica, come ho cercato di fare qui …) la visione di Giorgio Gullini nei confronti dello studio sistematico del territorio e quanto egli ha fatto per diffondere quelle idee. Avrei potuto anche parlare dei singoli progetti ai quali ho partecipato … magari lo farò in seguito ….

2 – quelli che, oltre trent’anni fa, erano concetti innovativi attualmente sono alla base della raccolta dati e dello studio “storico” del territorio delle nuove generazioni di archeologi: ciò significa che già allora eravamo sulla strada giusta, e che oggi non si sta inventando poi nulla di così nuovo nel settore. Non avevamo droni con LiDAR e SLAM a semplificarci il lavoro che faticosamente si portava a casa con le modalità che ho descritto in precedenza: chi oggi li utilizza, rivolga un pensiero affettuoso a Giorgio Gullini. Dall’alto, vi ricambierà!