Meta IA addestrata con dati di utenti UE | Cosa significa?

Meta inizia a utilizzare dati pubblici per addestrare la sua intelligenza artificiale, suscitando preoccupazioni su privacy e qualità dei dati.

Meta ha annunciato l’inizio dell’addestramento della propria intelligenza artificiale, Meta IA, utilizzando dati pubblici degli utenti delle sue piattaforme social nell’Unione Europea, ma cosa significa e quali implicazioni ha questa decisione per il futuro dell’IA e per la nostra Privacy?

Cerchiamo di capire che differenza c’è tra dati pubblici e privati, e cosa può effettivamente usare Meta senza violare le leggi UE.

Cosa sono i dati pubblici di Meta?

Partiamo dai dati pubblici, ovvero i dati che teoricamente Meta può utilizzare per l’addestramento delle proprie IA.

L’Unione Europea, a differenza degli USA, è molto restrittiva in merito all’utilizzo che si può fare dei dati degli utenti, soprattutto per quanto riguarda i dati privati. In teoria l’addestramento dell’IA tramite i dati pubblici, è possibile proprio perché quei dati sono “pubblici” e quindi possono essere utilizzati da chiunque, ma quali sono i dati pubblici?

Per quanto riguarda Facebook i dati pubblici sono sostanzialmente quei dati visibili da chiunque, quindi alcuni dati del profilo (indipendentemente dal fatto che il profilo sia pubblico o privato) ed i post contrassegnati come “visibili a tutti”. Questi post sotto il nome dell’utente, mostrano un mappamondo.

Su facebook esistono tre tipologie di post, ovvero post pubblici, come quello mostrato sopra, post non pubblici, ma comunque visibili ai propri amici, e post privati.

I post non pubblici, sono contrassegnati dall’icona di due omini, mentre i post privati sono contrassegnati da un lucchetto. I post privati sono visibili solo ed esclusivamente all’utente che li ha pubblicati.

Facebook, mette a disposizione altre modalità di pubblicazione, come ad esempio la possibilità di creare delle liste di contatti specifici (persone che si hanno tra gli amici), che sostanzialmente vanno a limitare ulteriormente le persone che possono vedere quei post, in un numero compreso tra tutti gli amici e solo il creatore del post.

Questo discorso tuttavia, vale solo per i post degli utente, non si applica invece alle pagine facebook.

A differenza dei profili utente, i post delle pagine sono sempre “visibili a tutti” e non è possibile limitare la visibilità dei post.

Oltre ai post delle pagine, anche i commenti ai post di una pagina, sono sempre pubblici, mentre la condivisione di un post di una pagina, è sostanzialmente un post sul proprio profilo utente, e può non essere pubblico.

Per Instagram il discorso è più semplice, un profilo Instagram può essere “pubblico” o “privato”, se è pubblico, tutti i suoi post saranno pubblici, a meno che non si scelga di condividerli solo con la lista di “amici stretti” in quel caso, saranno condivisi solo con una lista ristretta di contatti e non saranno pubblici. Se il profilo è provato, tutti i suoi post saranno privati, e lo stesso vale per Threads.

La visibilità di un post, ovvero se questi è pubblico o privato, può essere modificata dall’utente, in qualsiasi momento, ogni volta che lo desidera.

I post pubblici, come abbiamo visto sono visibili a tutti, e per tutti si intende proprio tutti, sono infatti post che possono essere visti anche da chi non è iscritto al social.

Non c’è alcuna differenza tra post testuali, immagini o video, qualunque tipo di post può infatti essere pubblico, non pubblico o privato. Questo stesso discorso vale anche per le Stories di Facebook e Instagram

Per quanto riguarda Whatsapp?

A differenza di Facebook, Instagram e Threads, che sono veri e propri social network, Whatsapp è in realtà un app di messaggistica, con elementi social, motivo per cui ho preferito separare Whatsapp (e in realtà anche Messenger) da Facebook, Instagram e Threads.

Come sappiamo anche Whatsapp permette di pubblicare stories come aggiornamento di status e, come possiamo vedere, possiamo scegliere di condividerle con i propri contatti, con alcuni contatti o escludendo alcuni contatti.

Tecnicamente non ci sono “post pubblici” su Instagram, e requisito fondamentale per poter vedere una “stories” di un utente, è avere il suo numero di telefono. Lo stesso vale per i canali whatsapp o Broadcast, si tratta di “canali” uno a molti, in cui solo chi lo gestisce può inviare messaggi, mentre gli altri utenti possono solo leggerli. Tecnicamente anche i canali Broadcast non sono pubblici.

All’atto pratico su Whatsapp non ci sono dati pubblici che Meta può utilizzare per l’addestramento di MetaIA.

Perché a Meta servono i dati degli utenti per addestrare Meta IA?

L’addestramento delle IA al momento, è una combinazione di due fattori, dati e potenza di calcolo, la potenza di calcolo è data dall’uso massivo di GPU, mentre i dati sono forniti da importanti datacenter, tuttavia, secondo quanto riportato da diversi sviluppatori di IA tra cui OpenAI, Xai e lo stesso Meta, sostanzialmente le proprie IA hanno già acquisito tutti i dati presenti nei grandi dataset, in pratica quindi, non hanno altri dati da fornire ai modelli IA per l’addestramento.

La carenza di dati è un enorme problema che i diversi sviluppatori hanno cercato e stanno cercando di superare in diversi modi, e una delle vie per acquisire nuovi dati è sfruttare quelle risorse che producono la maggior quantità di dati digitali, ovvero gli utenti dei social media.

Non sorprende quindi se Bytedance usa i dati dei video di TikTok per addestrare le proprie IA, xAI usa i dati degli utenti di X, e Meta usa i dati dei propri social, per addestrare i propri modelli linguistici di grandi dimensioni.

Questa strada potrebbe in effetti fornire un vantaggio competitivo nel futuro delle IA a chi possiede tali piattaforme (la vendita di X ad xAI da parte di Elon Musk, in quest’ottica acquista un altro significato), tuttavia, è anche vero che questi dati per quanto possano essere in costante aumento, non è detto che siano dati utili o di qualità.

Si pensi al contenuto medio di Facebook, fortemente influenzato da ideologie politiche, teorie cospirazioniste e generalmente non formulato correttamente. Questi dati, nel lungo periodo, potrebbero infatti compromettere il background di conoscenze di una IA. Del resto si sa, la quantità non è detto che significhi qualità.

Il futuro delle IA

Potremmo essere giunti ad un momento cruciale nello sviluppo di IA, e la decisione di Meta di acquisire i dati pubblici dei propri utenti, per l’addestramento delle proprie IA ci fornisce un segnale importante.

Il futuro della competizione in campo di IA passa anche, ma non solo, dalla disponibilità di dati, ma quei dati sono sia una risorsa che una minaccia al futuro delle IA.

Le future generazioni di IA dovranno affinare la propria capacità di analisi e di elaborazione, sarà necessaria una sempre maggiore compressione dei modelli linguistici, in modo da avere IA sempre più compatte, leggere e performanti, anche senza internet. Bisognerà rivedere il modo in cui si archiviano i dati, e il modo in cui quei dati vengono elaborati, e non è detto che la maggiore potenza di calcolo data dall’utilizzo di tante GPU sarà una risorsa fondamentale per l’addestramento nel lungo periodo (non fraintendetemi, la potenza e velocità di calcolo sarà sempre una risorsa essenziale).

Leggi anche Chat GPT e LLama hanno superato il Test di Turing? No, ancora nessuna IA ha superato il Test di Turing (Aggiornato ad aprile 2025)

Chat GPT e LLama hanno superato il Test di Turing? No, ancora nessuna IA ha superato il Test di Turing (Aggiornato ad aprile 2025)

Secondo uno studio pubblicato su arXiv, ChatGPT e Llama3.1-405B avrebbero superato il test di Turing. Ma è davvero così? LA risposta semplice è no, anche perché, contrariamente a quanto riferito dai ricercatori, quello eseguito non è il test di Turing e non ci vengono forniti dati a sufficienza per capire se effettivamente il test è stato superato o meno.

Per i più volenterosi, l’articolo è stato pubblicato da Cameron R.Jones e Benjamin K.Bergen, entrambi ricercatori al dipartimento di scienze cognitive dell’università di San Diego, e per chi volesse recuperare l’articolo integrale, vi lascio qui il link (è pubblico)

Visto che da circa 15 anni, periodicamente inizia a circolare la notizia che una IA ha superato il test di Turing, ma poi, andando a vedere, non è proprio così, e semplicemente qualcuno ha male interpretato alcuni dati, autoconvincendosi che l’IA di turno avrebbe potuto superarlo, senza però mai fornire alcun dato sul test, e senza spiegare chi, come, dove, quando, ecc ha eseguito il test, (tra l’altro fornendo dei punteggi e percentuale di successo che non hanno alcun senso), ho deciso di scrivere un articolo che aggiornerò periodicamente, in cui andrò a spiegare cos’è il test di Turing, come funziona, e perché quello che ci viene spacciato per “test di Turing” in realtà non è il test di Turing.

Alan Turing e il suo esperimento teorico

Alan Turing è stato un matematico britannico, da molti considerato uno dei padri dell’informatica modera, mosso da alcune idee radicali, molto all’avanguardia per il suo tempo, è grazie al suo genio, è riuscito negli anni 40, grazie ad una macchina e ad alcune intuizioni, a bucare i codici Nazisti e superare Enigma. Ma questa è un altra storia.

Ciò che importa è che, dopo la guerra, gran parte del lavoro di Turing e del team di Bletchley Park venne “insabbiato” e messo sottochiave almeno fino ai primi anni 2000, inoltre Turing, per via della sua omosessualità, che nell’Regno Unito dell’epoca era illegale, venne sottoposto a castrazione chimica, cosa che ebbe diversi effetti collaterali sulla sua salute e gli causò una forte depressione.

Negli anni 50 sostanzialmente Turing era un autentico eroe di guerra, completamente sconosciuto al popolo britannico, abbandonato dallo stato e per lo più perseguitato per il suo orientamento sessuale e le sue idee, e quando dico perseguitato, intendo dire che era tenuto sotto strettissima osservazione perché sostanzialmente era un civile in possesso di segreti militai, di grandissimo valore.

In questo contesto Turing, nel 1950, cinque anni dopo la fine della guerra e quattro anni prima che si togliesse la vita, pubblica un articolo sulla rivista Mind, intitolato “Computing Machinery and Intelligence” in cui esponeva un esperimento teorico chiamato “The imitation game” con cui cerca di capire quanto una macchina riesce ad imitare il pensiero.

Col tempo il gioco dell’imitazione, è stato ribattezzato in Turing Test/Test di Turing, e si è diffusa l’idea che tale test cercasse di rispondere alla domanda “le macchine possono pensare?” In realtà, basta aprire l’articolo e nel primo paragrafo scopriamo che Turing non si chiede se “le macchine possono pensare” ma propone una domanda più precisa e meno ambigua.

A questo punto Turing propone una nuova formulazione spiegando qual è l’obbiettivo del suo test. Si tratta in sostanza di un indagine statistica che prevede la ripetizione di un gioco di deduzione per 2*X volte, durante il primo ciclo di gioco ci saranno tre giocatori umani, durante il secondo ciclo invece, uno dei giocatori, con un ruolo ben preciso, sarà sostituito da una macchina.

Cerchiamo allora di capire come funziona il Test di Turing, e quando possiamo dire che una “macchina” ha superato il test di Turing, e soprattutto, se possiamo effettivamente dire che una macchina ha superato il test di Turing.

Come funziona il Test di Turing

Abbiamo tre giocatori, un uomo A, una donna B e un interrogatore C che può essere di entrambi i sessi. L’obbiettivo di C sarà quello di determinare chi tra i due è l’uomo e chi la donna, l’obbiettivo di A sarà quello di far sbagliare C mentre l’obbiettivo di B sarà quello di aiutare C.

Per ridurre al minimo le interferenze e far sì che le deduzioni di C si basino esclusivamente sulle risposte ricevute, durante il gioco C non avrà contatti diretti con A e B, e riceverà le risposte alle sue domande in forma scritta.

C potrà porre domande sia ad A che a B e potrà ripetere le stesse domande tutte le volte che vorrà. A e B invece, potranno sia dire la verità che mentire.

A questo punto può iniziare l’imitation game.

L’interrogatore C ripeterà il gioco diverse volte, con vari A e B, ed i risultati ottenuti verranno registrati, in modo da avere una media delle volte che ha risolto correttamente il gioco, e le volte che è stato ingannato. Dopo un certo numero di tentativi tuttavia, A verrà sostituito da una macchina, e il gioco continuerà, l’interrogatore farà anche in questo caso diversi tentativi e verranno registrate le volte in ha risolto il gioco e le volte in cui è stato ingannato.

Nell’articolo Turing si chiede “Cosa accadrà quando una macchina prenderà la parte di A in questo gioco? Sostituendo all’Uomo una macchina, l’interrogatore, sarà tratto in inganno tante volte come quando al gioco partecipavano un uomo e una donna?

Come abbiamo già detto, test di Turing, altro non è che un indagine statistica, in cui compariamo i risultati dell’interrogatore ottenuti giocando contro un umano e contro una macchina, aiutato in entrambi i casi da una donna umana.

Come si supera il Test di Turing?

Molto spesso, quando leggiamo articolo in cui ci dicono che una data IA ha superato il test di Turing, in realtà, ci stanno dicendo che l’interrogatore non è riuscito a determinare chi fosse l’Uomo e chi la Donna. Ma questo dato, da solo, senza uno storico di tentativi, dei successi e fallimenti, registrati da quello stesso interrogatore, non vale assolutamente nulla. E anzi, ha la stessa rilevanza di una partita ad Akinator/20Questions, o Indovina chi, anche perché in effetti il gioco alla base dell’imitation game c’è proprio “20 questions”, letteralmente un gioco di deduzione per bambini riadattato e rielaborato.

Purtroppo però, spesso è sufficiente che l’IA riesca ad ingannare l’interrogatore, affinché ci venga detto che l’IA in questione ha “superato” il test di Turing.

ChatGPT ha superato il test di Turing?

Ora che sappiamo come funziona il test possiamo entrare nel merito dell’articolo di Cameron R.Jones e Benjamin K.Bergen, e capire se effettivamente ChatGPT e LLama hanno superato il test di Turing.

E già qui bisogna fare la prima distinzione. Secondo quanto riportato dai media, Chat GPT 4.5 è riuscito ad “ingannare” l’esaminatore, nel 73% dei casi, in sessioni da 5 minuti mentre Llama 3.1-405B ci è riuscita nel 56% dei casi.

Questi risultati sono sicuramente interessanti, ma non significano nulla, perché come abbiamo visto, non è importante quante volte l’IA riesce ad ingannare l’esaminatore, e quel dato ha senso solo se affiancato da altri dati, come ad esempio la percentuale di successo e fallimento, registrata da quegli stessi esaminatori nell’individuare l’Uomo e la Donna, e non solo l’IA.

I primi dati “utili” ci vengono forniti a pagina 5 dell’articolo e mostrano la percentuale di successo di diversi modelli IA e ci viene detto che una percentuale di successo nell’ingannare l’esaminatore, superiore al 50% porta sostanzialmente al superamento del test di turing.

Ma come abbiamo visto, non è così che funziona il test di Turing.

Nell’articolo ci vengono forniti molti altri dati, informazioni sulle domande, sui modelli linguistici esaminati, sui prompt utilizzati per la configurazione delle diverse IA affinché questa si comportassero come umani, e non fraintendetemi, sono tutti dati estremamente interessanti e sicuramente utilissimi per molte ragioni, ma che non ci dicono assolutamente nulla sul test di Turing. Di seguito un esempio di prompt utilizzato per “istruire” l’IA.

Come abbiamo visto, il test di Turing, si divide in due fasi, ma in questo articolo, non ci parlano della fase 1, e i ricercatori hanno eseguito solo la fase due. Il problema è che la fase 1 del test di Turing è fondamentale per la sua corretta esecuzione.

Nella prima fase, come abbiamo già visto, l’esaminatore “gioca” con degli umani, un uomo e una donna, l’uomo prova ad ingannarlo mentre la donna prova ad aiutarlo, e l’esaminatore deve individuare l’uomo. Questa fase serve per determinare un valore di riferimento che riguarda la percentuale di successo dell’esaminatore. Solo una volta ottenuto questo dato, è possibile sostituire l’uomo con l’IA mentre la donna che dovrà aiutarlo rimarrà un umana.

A questo punto, si esegue una nuova serie di test, tante partite quante ne sono state “giocate” contro umani, e si compareranno i dati finali.

Se la percentuale di successo contro l’IA, con un certo margine d’errore, vicina alla percentuale di successo registrata contro giocatori Umani, allora, e solo allora, il test può dirsi superato.

In questo articolo tuttavia, questa comparazione manca totalmente. Non vi è alcun riferimento a test comparazioni e test in cui sono stati coinvolti tre “giocatori” umani. L’unico dato effettivo che ci viene fornito da questo articolo è la percentuale di “successo” registrata dall’esaminatore contro l’IA. Un dato che, come abbiamo già detto innumerevoli volte, nell’ottica del test di Turing, non vuol dire assolutamente nulla.

Conclusione

L’articolo di Jones e Bergen è sicuramente molto interessante, ma a differenza di quanto riportato dai media, non ci dice che ChatGPT e LLama hanno superato il test di Turing, e con i dati che vengono forniti non è possibile determinarlo.

È un po’ come se un vostro amico vi invitasse a cena da lui dicendo che sa preparare uno dei piatti di Cannavacciuolo e che non riuscireste a sentire la differenza tra il suo piatto e quello di Cannavacciuolo, vi fa assaggiare la sua versione del piatto, ma voi non avete mai mangiato da Cannavacciuolo, non sapete che sapore ha il piatto originale.

Come fate a dire se il piatto del vostro amico è uguale o diverso da quello di Cannavacciuolo? Semplicemente non potete.

Fonti

Per chi fosse interessato vi lascio di seguito l’articolo originale di Alan Turing del 1950, sono solo 22 pagine, ma il funzionamento e gli obbiettivi del test sono sostanzialmente spiegati nelle prime 3 pagine. E l’articolo di Jones e Bergen

Computing machinery and intelliogence By A. M. Turing
ChatGPT-4 in the Turing Test: A Critical Analysis

Turing vs. Enigma: una battaglia che ha deciso la Seconda Guerra Mondiale

Ad oggi, sebbene la maggior parte degli storici convenga sul fatto che non ci fu un momento unico che segnò le sorti della seconda guerra mondiale, tuttavia, in molti, soprattutto tra i più politicizzati, sostengono varie teorie, i più orientati a sinistra vedono nell’ingresso dell’URSS nella seconda guerra mondiale, un momento cruciale che forzò la mano degli USA ad entrare nel conflitto assicurando così una coalizione URSS+USA abbastanza potente da poter sconfiggere l’asse. Secondo altri il solo ingresso degli USA fu determinante ed è quindi merito esclusivo degli USA se la guerra si è conclusa con la vittoria alleata. Altri ancora sostengono che, se l’Italia non avesse iniziato il conflitto con l’Asse, le forze Naziste non si sarebbero frammentate per sopperire ai disastri bellici dell’Italia, e questo avrebbe reso molto più ostica la vittoria alleata.

La verità è che probabilmente non ci fu un singolo momento o attore decisivo per la seconda guerra mondiale, ma una serie di momenti e attori determinanti, che permisero nel tempo, agli alleati, di ottenere un vantaggio strategico sull’asse, che fu decisivo solo come insieme di una serie di innumerevoli fattori.

E uno di questi fattori vede come protagonista un matematico, l’intelligence britannica, e una macchina che permise agli alleati di sconfiggere Enigma, l’arma segreta dei nazisti.

Siamo nel 1940, la seconda guerra mondiale è iniziata da qualche mese e le comunicazioni naziste sembrano inviolabili agli occhi dei servizi britannici. I nazisti usano infatti Enigma, una sofisticata macchina in grado di cifrare i documenti e solo conoscendo la chiave di decrittazione è possibile decifrare il messaggio, ma c’è un problema, la chiave, i codici nazisti cambiano ogni giorno…

L’Intelligence militare britannica, per contrastare Enigma, avvia il programma Ultra, che raccoglie matematici, ingegneri ed esperti di crittografia, per riuscire nell’epica impresa di decifrare, ogni giorno, i codici di Enigma.

Occasionalmente riescono in tarda serata o dopo la mezzanotte, quando ormai è troppo tardi ed i codici sono già cambiati.
Tra di loro c’è un giovane matematico, Alan Turing, di cui ho già parlato in un episodio del mio podcast, con una visione innovativa, una macchina in grado di eseguire migliaia di operazioni complesse e riuscire così ad individuare la chiave di Enigma in tempi rapidi. I suoi colleghi lo considerano un folle ma qualcuno nei servizi gli dà una possibilità.
Non sappiamo quando, ma tra il 1940 ed il 1942, Turing riesce, più o meno, nell’impresa, trova una vulnerabilità nelle comunicazioni Naziste, una vulnerabilità che permetterà alla sua macchina Bomba, di decifrare i codici di Enigma in pochi secondi.

Sappiamo che almeno dal 1942 i britannici decriptano migliaia di documenti al giorno, conoscono ogni mossa dei Nazisti, i dettagli delle operazioni prima ancora che queste abbiano inizio, e grazie a loro, grazie al lavoro di Turing, gli Alleati dispongono di informazioni chiave e determinanti per poter vincere la guerra. Decidono però di non usarle, non sempre, non vogliono che i Nazisti sappiano e possano correggere la vulnerabilità.

Finita la guerra Bomba viene distrutta e tutti i documenti relativi al programma insabbiati. Solo nei primi anni 2000 il governo britannico rivela al mondo la verità.

Turing aveva trovato una vulnerabilità nelle comunicazioni naziste, non in Enigma, per questo è stato nascosto tutto, perché fino a quel momento, nessuno era riuscito a violare realmente Enigma.

Alan Turing: Il Genio di Bletchley Park

La svolta che Turing diede alla guerra parte da un’intuizione, ovvero che una macchina come enigma poteva essere battuta solo da un altra macchina, ed è proprio sulla base di questa visione e delle altre teorie di Turing che oggi il matematico britannico è considerato uno dei padri dell’informatica moderna, e per certi versi l’uomo che compì il primo cyber attacco della storia, gettando le basi non solo dell’informatica moderna, ma anche di un nuovo modo di fare e concepire la guerra, cerchiamo allora di conoscere meglio Alan Turing.

Alan Mathison Turing nasce a Londra nel 1912 e stando alle sue biografie, mostrò fin da subito uno spiccato acume matematico, si dice che a soli sedici anni fosse già in grado di comprendere gli studi di Einstein. Nel 1939, quando inizia la seconda Guerra Mondiale Turing, all’epoca ventisettenne, venne reclutato dai servizi segreti britannici come crittografo e assegnato alla Stazione X, la base militare segreta di Bletchley Park a circa 75 km a nord ovest da Londra.

In poco tempo viene nominato alla guida di un team di ricercatori il cui obiettivo è quello di decifrare il sofisticato codice Enigma utilizzato dai nazisti nelle loro comunicazioni riservate.

I Britannici sono infatti in grado di intercettare diverse comunicazioni crittografate dell’aviazione tedesca, comunicazioni che però sono inutili se non decifrate e decifrarle significa conoscere i piani segreti ed i dettagli delle operazioni naziste in corso, in termini pratici sarebbe come avere accesso ai centri di comando dell’asse. 

Il team di Turing si compone di menti brillanti, matematici, linguisti, egittologi e si ipotizza anche giocatori di scacchi ed esperti di cruciverba, le cui competenze prese singolarmente non erano significative, ma combinate diventavano determinanti nella lotta contro Enigma.

In tutto questo però, Turing è mosso da un idea innovativa e controversa, è fermamente convinto che solo una macchina possa sconfiggere una macchina come Enigma, il dispositivo tedesco usato per cifrare i messaggi nazisti. 

Enigma: La Macchina “Impenetrabile”

Enigma era considerata all’epoca l’arma segreta del Reich, un dispositivo complesso, progettato negli anni 20 e perfezionato nel corso di due decenni, dall’aspetto e le dimensioni di una macchina da scrivere dotata di due tastiere: quella inferiore serviva per scrivere, mentre quella superiore componeva il testo cifrato.

Alla base di enigma, un ingegnoso meccanismo di cifratura basato su rotori mobili che, attraverso una complessa griglia elettrica e vari rotori permette di cifrare il messaggio. In sostanza, quando operatore digitava una lettera sulla tastiera inferiore, il meccanismo si attivava e producendo come risultato una lettera completamente diversa. Inoltre, i rotori si attivavano ad ogni input, così che la stessa lettera, se digitata più volte, venisse cifrata in modi differenti.

Dal 1932 prima il governo di Weimar e poi del Reich, autorizzarono l’utilizzo del dispositivo Enigma-I e durante la seconda guerra mondiale, i nazisati introdussero in enigma un sistema a cinque rotori di cui ne venivano utilizzati tre diversi ogni giorno, e la taratura dell’apparecchio (basata sulla scelta dei rotori, dei cavi da connettere e della loro posizione) cambiava ogni 24 ore, a mezzanotte, che aggiungeva un ulteriore livello di difficoltà, un limite tempo che rendeva la decifrazione di Enigma, qualcosa di virtualmente impossibile. Le forze armate naziste erano certe di disporre di un canale di comunicazione assolutamente sicuro motivo per cui non si preoccupavano troppo di possibili intercettazioni. Ed è qui che i nazisti commisero il primo errore.

La Bomba di Turing: Battere una Macchina con un’Altra Macchina

Turing era assolutamente certo che l’unico modo per sconfiggere una macchina come Enigma fosse attraverso l’utilizzo di un altra macchina, fortunatamente per lui, già altri matematici, ben prima dell’inizio della seconda guerra mondiale, avevano iniziato a lavorare ad una macchina per decifrare Enigma, ed è proprio da questa macchina già esistente, denominata The Bombe, progettata dal matematico polacco Marian Rejewsk dell’università di Poznan, che partirono gli studi di Turing.

The Bombe era sostanzialmente un clone di Enigma, reso “obsoleto” dai miglioramenti adottati dai nazisti negli ultimi anni e il lavoro di Turing consistette principalmente nel potenziare The Bombe, sfruttando complessi circuiti logici che permettevano alla macchina di elaborare una sofisticata catena di deduzioni logiche, attraverso una serie di condizioni “se-allora-altrimenti”, ancora oggi uno dei concetti di base di qualsiasi software informatico, dalla banale calcolatrice alle LLM.

In sostanza, sfruttando vari passaggi logici, la macchina di Turing eliminava velocemente le combinazioni impossibili, riducendo drasticamente il tempo necessario per trovare la configurazione corretta.

Secondo alcune fonti (non confermate), il 14 gennaio 1940 Turing riuscì per la prima volta nella propria impresa decifrando i codici di Enigma. Non sappiamo se questa data è reale perché per anni il governo britannico impose il segreto sull’operazione di intelligence che fornì agli Alleati un vantaggio strategico incalcolabile durante il conflitto. Oggi sappiamo che dal 1942 i britannici furono in grado di decifrare regolarmente e in maniera sistematica i codici nazisti, non abbiamo però informazioni certe sul periodo che va tra il 1940 e il 1942. 

La vulnerabilità dietro i codici nazisti

Che i britannici avessero decifrato i codici nazisti è noto fin dagli anni 50, ma il modo in cui i britannici hanno sconfitto enigma, è diventato di pubblico dominio solo nei primi anni 2000, quando il governo britannico ha declassificato le informazioni relative al programma Ultra.

Oggi sappiamo che, nonostante le teorie e gli sforzi tecnologici messi in campo da Turing, in realtà la teoria per cui solo una macchina poteva sconfiggere Enigma, si è rivelata errata. Perché Enigma non è stata sconfitta realmente da una macchina, ma i suoi codici sono stati violati da una vulnerabilità esterna alla macchina, sfruttando un errore umano.

I crittografi di Bletchley Park scoprirono che, nonostante il cambio quotidiano della taratura, esistevano una serie di pattern ricorrenti nei messaggi. Alcune comunicazioni seguivano formati standard, come ad esempio i rapporti meteorologici o i saluti militari formali. 

La presenza di questi elementi offriva ai crittografi quello che chiamavano “cribs” (indizi) – frammenti di testo che si supponeva essere presenti nei messaggi cifrati e che era facile decifrare.

Turing intuì che queste vulnerabilità potevano essere sfruttate sistematicamente attraverso un approccio meccanico e logico e di conseguenza calibrò la sua Bombe affinché cercasse all’interno dei messaggi specifici pattern.
Non bisognava più “decifrare” l’intero documento, era sufficiente individuare questi pattern, decifrarli e partendo da questi ricavare i codici con cui decifrare qualsiasi altro messaggio della giornata.

L’Arte dell’utilizzo selettivo

Secondo alcuni documenti resi pubblici, il 12 giugno 1940, venne decrittato un messaggio della Luftwaffe nel quale venivano rivelati importanti dettagli sul sistema di navigazione radio utilizzato dai bombardieri tedeschi. Si trattava di un’informazione cruciale, dal valore inestimabile, ma poneva gli Alleati di fronte a un dilemma strategico fondamentale.
Usare quelle informazioni significava rivelare ai tedeschi che erano riusciti a superare i codici di Enigma, e questo avrebbe comportato una contromossa da parte dei tedeschi, che potenzialmente avrebbe reso nulla la scoperta di Turing e il vantaggio acquisito dai britannici. 

I comandanti alleati si ritrovarono così nella complessa situazione di dover decidere come e quando utilizzare le informazioni acquisite, in modo che i tedeschi non sapessero che il loro sistema era compromesso.

Si rendeva quindi necessario utilizzare le informazioni in maniera selettiva, così da non allertare i nazisti, facendo in modo che questi continuassero a credere Enigma sicuro e inviolabile. Non tutte le informazioni decifrate venivano utilizzate, e quando lo erano, si cercava sempre di mascherarne l’origine, giustificando la loro acquisizione tramite ricognizioni aeree, informatori o intercettazioni radio convenzionali.

Questa cautela, e il sacrificio morale che ne conseguì, fu qualcosa di essenziale per per mantenere il vantaggio strategico per tutta la durata della guerra e non solo. In altri termini, il sacrificio di obiettivi secondari garantiva che il segreto di Ultra rimanesse tale, garantendo agli Alleati un vantaggio strategico nei momenti davvero decisivi del conflitto. 

Un po’ come un baro al tavolo che ha in mano un poker d’assi e scarta la mano, rinunciando ad una grossa vincita, per poi vincere una cifra molto minore alla mano successiva, in modo da non destare sospetti. Allo stesso modo gli alleati rinunciarono a molte “battaglie” assicurandosi la vittoria finale.

Conclusioni

Come abbiamo visto la decrittazione di Enigma fu determinante per l’esito della seconda guerra mondiale, forse persino più significativa dell’ingresso nel conflitto di URSS e USA, si stima infatti che il lavoro di Turing abbia contribuito a ridurre la durata della guerra in Europa di circa due anni, salvando così milioni di vite. Non a caso, Churchill ed Eisenhower, sostennero che Ultra rappresentò una vera e propria svolta nel conflitto, e non solo.

Oltre al suo indubbio valore militare, la macchina di Turing fu anche la prima dimostrazione concreta dell’efficacia di un “calcolatore elettronico”, aprendo la strada allo sviluppo dei moderni computer e l’informatica moderna. 

Nonostante ciò, per ragioni di sicurezza dovute al fatto che a Bletchley Park avevano sì sconfitto Enigma, ma per una vulnerabilità umana, Turing e gli altri membri del programma Ultra furono costretti a mantenere il segreto su tutto il suo lavoro a Bletchley Park e solo decenni dopo la fine della guerra, all’inizio degli anni 2000, il loro contributi è stato finalmente riconosciuto e celebrato.

Fonti:

  1. Alan Turing: Una Vita tra Trionfo e Tragedia Paul Bremond 
  2. https://www.giornidistoria.net/14-gennaio-1940-decifrati-i-codici-enigma/
  3. https://www.kaspersky.it/blog/ww2-enigma-hack/6027/
  4. https://www.rizzolieducation.it/news/dal-codice-enigma-allintelligenza-artificiale/
  5. https://www.storicang.it/a/alan-turing-larma-segreta-degli-alleati_15245
  6. https://www.scienzagiovane.unibo.it/intartificiale/odifreddi/turing.html
  7. http://www.archivio-pq.it/2015/03/08/bletchley-park-e-ultra-the-imagination-game-capitolo-2/index.html
  8. https://amslaurea.unibo.it/id/eprint/19137/1/Tecniche%20di%20decifrazione%20e%20modelli%20matematici%20della%20macchina%20Enigma.pdf
  9. https://lorisgiuriatti.it/top-secret/codice-enigma/
  10. https://maremosso.lafeltrinelli.it/approfondimenti/alan-turing-vita-libri

Storia e mito del Lago d’Averno

Negli ultimi anni il Lago d’Averno, in provincia di Napoli, è stato teatro di un raro fenomeno naturale, estremamente affascinante e suggestivo, che si verifica in poche altre parti del mondo. Le sue acque, sul finire dell’inverno e l’inizio della primavera, hanno iniziato a tingersi si rosa. Un fenomeno che interessa anche altri laghi in veri angoli del mondo, con elementi simili tra loro.

In questo articolo cercheremo di comprendere il fenomeno e l’importanza del lago d’averno, dal punto di vista storico e scientifico.

Origine del Lago d’Averno

Partiamo dal lago d’averno e le sue origini. Si tratta di un antico lago vulcanico, situato in Campania, nel cuore dei campi flegrei, un ampia area vulcanica attiva da migliaia di anni. La definizione corretta per il lago d’averno è lago di cratere, si tratta infatti di un lago che sorge all’interno del cratere di un vulcano, motivo per cui la sua forma è perfettamente circolare e d è circondato da ripide pareti in cui si aprono innumerevoli cavità sotterranee, caratteristiche tipiche di questa tipologia di laghi.

Il suo nome è molto antico, e si ipotizza gli sia stato attribuito tra i 2700 e i 2400 anni fa, quando nella regione si insediarono i primi coloni greci. Il nome Averno deriva infatti dal termine greco “Aornos” il cui significato letterale è “senza uccelli” e il motivo per cui gli venne dato questo nome è auto esplicativo, era un lago senza uccelli, e il motivo per cui in quel lago non c’erano uccelli è legato all’attività vulcanica della regione.

Nel primo millennio avanti cristo, e almeno fino al primo secolo avanti cristo, gran parte dell’area dei campi flegrei era ricca di fumarole, l’aria era impregnata di un odore acre e sulfureo, che la rendeva particolarmente pesante da respirare, e lo stesso valeva per le acque del lago, ricche di zolfo, dal sapore nauseabondo, e ostili alla vita, non vi erano quindi pesci e di conseguenza, non vi erano uccelli, da qui il nome “Aornos“, ad indicare un lago privo di uccelli.

Lago d’averno tra miti e legende

ll lago d’averno nel mondo antico era immerso in un paesaggio che oggi definiremmo infernale, e il motivo per cui oggi consideriamo infernale un ambiente inospitale, puzzolente, pieno di nebbia e fumi è legato proprio al lago d’Averno che, nel mondo greco venne associato alle antiche battaglie tra Zeus e i Titani, per poi divenire, nel mondo latino, la mitica porta di accesso all’Ade.

La natura suggestiva del lago, spinse i primi coloni grechi ad attribuire al lago un aura di mistero e sacralità, il lago era per gli antichi coloni greci, una prova tangibile della realtà della tangibilità dei propri miti, era un autentico punto d’incontro tra il mondo umano e quello divino, e questa percezione sopravvisse ai greci, radicandosi anche nella mitologia romana.

Se nella mitologia greca, il lago era un residuo delle antiche battaglie divine tra Zeus e i Titani, in epoca romana, il lago divenne la porta d’accesso al mondo sotterraneo e all’ade. A darci testimonianza di ciò, l’Eneide di Virgilio, dove il lago d’averno viene descritto come un luogo oscuro e inquietante, una “profonda grotta” che conduce al regno dei morti. Ma non solo, ci dice anche che la porta degli inferi collegava il regno dei morti a quello dei vivi con uno dei tanti fiumi infernali, l’Acheronte, un fiume spettrale, dalle cui acque rosse come il sangue si allungavano come tentacoli le braccia dei defunti che ribollivano e ed emettevano boati agghiaccianti. Una descrizione inquietante, suggestiva, e che trova perfettamente senso in un contesto ricco di fumarole, sorgenti termali e in cui in alcuni periodi dell’anno fioriscono alcune alghe dando all’acqua un colore rossastro.

Spiegazione del fenomeno delle acque rosa

Noi oggi sappiamo dare una spiegazione scientifica alla maggior parte dei fenomeni osservati dagli antichi e tramandati da Virgilio, e tra questi fenomeni, potrebbe esserci anche quello delle acque rosa che da qualche anno ha interessato il lago d’Averno.

Da qualche anno infatti il Lago d’Averno ha attirato l’attenzione dei locali, della scienza e dei turisti, per un fenomeno particolare: la sua periodica colorazione rosa o rossa. Dal 2022 questo fenomeno è stato osservato e in maniera più intensa, nello specifico, tra febbraio e marzo le acque del lago hanno assunto per qualche settimana una colorazione rossa molto intensa.

Dal punto di vista scientifico il fenomeno è noto da tempo e ampiamente documentato, il cambio di colore è infatti dovuto alla fioritura di alcune alghe e dal cianobatterio Planktothrix rubescens, un microrganismo che in determinate condizioni ambientali, può proliferare rapidamente e produrre pigmenti rossi, come la ficoeritrina, che conferiscono all’acqua una colorazione rossastra.

Le fioriture di cianobatteri sono spesso favorite da un aumento della disponibilità di nutrienti (eutrofizzazione), dalla stabilità della colonna d’acqua, dalla disponibilità di luce e da temperature elevate elevate. E se la maggior parte delle condizioni necessarie alla fioritura sono costanti negli anni, un elemento in particolare è invece variabile, ovvero la temperatura delle acque.

Eventuali riferimenti al fenomeno nell’antichità

Come abbiamo visto, nel mondo antico il Lago d’Averno ha giocato un ruolo centrale nella mitologia greco romana, e nei secoli medievali, l’intera area di Pozzuoli è stata molto frequentata e che vi erano nella regione diversi siti di interesse per i viaggiatori, tutti perfettamente descritti. Ne consegue che, se il fenomeno si fosse verificato nel corso dei secoli, qualche testimonianza autorevole dovremmo averla. Soprattutto nella mitologia greco-romana, dove un fenomeno simile, in un luogo così importante per la mitologia, avrebbe avuto certamente una spiegazione mitica. E se il fenomeno si fosse ripetuto nel tempo, ne avremmo certamente un qualche legame con la tradizione, come accade in altre parti del mondo dove si registrano fenomeni analoghi.

Ma nei campi flegrei, nonostante gli innumerevoli miti legati al Lago d’Averno, non abbiamo nulla di tutto ciò, le descrizioni antiche parlano di un lago d’averno lo descrivono con acque scure e non ci sono riferimenti o menzioni a possibili cambiamenti di colore. L’unico accenno di riferimento alle acque rosse che abbiamo è nella descrizione di alcuni fiumi infernali, che però, non sembrano una spiegazione molto forte.

L’assenza di testimonianze antiche potrebbe suggerire che tali fenomeni erano isolati e poco frequenti, e in effetti anche ad oggi lo sono. basti considerare che, dall’inizio degli anni duemila, il Lago d’Averno si è tinto di rosa soltanto nel 2022 per poche settimane.

Storia e funzionamento degli Hard Disk, dall’IBM 350 ai dischi da 3,5 pollici.

Vi siete mai chiesti come funziona un Hard Disk? Se non siete informatici o ingegneri, probabilmente no, e questo è un male, per questo ho voluto raccontarvi la storia e il funzionamento degli Hard Disk, una storia incredibile iniziata nel 1956 e che ha subito una serie di evoluzioni concatenate, spesso a poca distanza l’una dall’altra.

La storia degli Hard Disk è in parte la storia dell’informatica, poiché tra il 1956 ed il 2011 gli Hard disk, i dischi rigidi, sono stati il principale supporto di memoria nel mondo informatico che, a differenza di altri dispositivi di memoria, come i Floppy Disk, CD, DVD, e le più recenti chiavette USB, i dischi rigidi permettevano di immagazzinare quantità enormi di dati, e, al di la dell’evoluzione tecnologica che ha permesso nel tempo di ridurre le dimensioni di questi dispositivi, un tempo enormi, il loro funzionamento è rimasto pressoché invariato.

I principi che permettevano ai primi Hard Disk di funzionare, sono che regolano i più moderni Hard Disk ancora in commercio, nonostante sia passato più di mezzo secolo dalla loro prima introduzione, e questa è la loro storia.

IBM 350, il primo Hard Disk della storia

IBM 305 Storage Unit durante l'utilizzo
IBM 305 Storage Unit durante l’utilizzo
IBM 305 Storage Unit durante il trasporto

Il primo Hard Disk della storia è stato l’IBM 350 disk Storage Unit, ed è stato commercializzato da IBM a partire dal 1956, si trattava all’epoca di un dispositivo all’avanguardia, estremamente avanzato, che sfruttava tecnologie all’epoca innovative che permetteva di archiviare fino a 5 milioni di Bit, l’equivalente di 5 MegaByte. Uno spazio di memoria che oggi permetterebbe di conservare una canzone di 3 minuti e una fotografia in alta risoluzione, compressa nel formato jpg, ma che all’epoca, in un mondo in cui l’informazione era principalmente testuale, rappresentava una quantità di spazio enorme.

I primi Hard Disk, erano unità di memoria mastodontiche, grandi come un moderno frigorifero e pesavano circa 1 tonnellata, formato da 50 dischi magnetici di 61 cm, su cui venivano registrati i dati. Per quelli che erano i limiti tecnologici dell’epoca, era opinione diffusa che, analogamente alla potenza di calcolo, le loro dimensioni sarebbero cresciute esponenzialmente. Ma intorno alla metà degli anni 50, il concetto di circuito integrato, non era ancora stato esplorato.

Solo nel 1958, quando il fisico delle Texas Instruments, Jack St. Clair Kilby, e parallelamente Robert Noyce, della Fairchild Semiconductor, realizzarono i primissimi circuiti integrati della storia, si iniziò a pensare concretamente che le dimensioni dei calcolatori e dei dispositivi di allocazione della memoria, potessero essere rimpiccioliti.

La struttura di un Hard Disk

La struttura interna di un Hard Disk
La struttura interna di un Hard Disk

Devi sapere che tra il 1956 al 2011, anche se le dimensioni degli Hard disk sono cambiate, riducendosi per volume e crescendo esponenzialmente per capacità di archiviazione, tutti gli Hard disk, hanno funzionato è rimasto praticamente invariato, e i dischi rigidi hanno continuato a funzionare seguendo gli stessi principi fondamentali.

Ma allora, come funziona un Hard Disk?

I Circuiti integrati hanno permesso di ridurre le dimensioni fisiche dei dischi di memoria e allo stesso tempo di aumentare la loro capacità di archiviazione, passando da dispositivi grandi come un frigorifero, a dispositivi sempre più piccoli che avrebbero raggiunto, negli anni ottanta, le dimensioni di un libro.

Tutti gli Hard Disk, dall’IBM 350 agli Hard disk da 3,5 pollici sono costituiti da quattro diverse sezioni, ovvero, una scheda di controllo, delle testate per la lettura e scrittura dei dati sui dischi, un rotore elettromagnetico e dei dischi metallici su cui venivano effettivamente registrati i dati.

Nei primi Hard Disk la scheda di controllo era costituita da un enorme scheda elettronica composta da valvole, transistor, resistenze, condensatori, e altre componenti elettroniche, mentre negli Hard Disk più moderni, dagli anni 80 in poi, le schede sono state sostituite da circuiti stampati, comprensivi di diversi circuiti integrati.

I circuiti integrati sono la chiave di volta, che hanno permesso la riduzione delle dimensioni dei dispositivi di memoria e dei calcolatori.

Le schede di controllo sono il ponte che collega l’unità di memoria al calcolatore, ed ha il compito di comandare un braccio meccanico su cui sono collocate due testate indipendenti per la lettura e la scrittura dei dati.

Il principio è lo stesso che permetteva ai giradischi di tradurre in musica le informazioni registrate sui vecchi dischi in vinile, ma con qualche leggera differenza tecnologica. Mentre nei dischi in vinile la punta era a contatto diretto con il disco, negli Hard Disk, le testate non entrano mai in contatto con il disco e sono sospesi, oltre che da staffe metalliche, anche da una sottilissima camera d’aria e da un precario e delicatissimo equilibrio di forze elettromagnetiche e l’alta velocità di rotazione dei dischi.

La lettura e scrittura è la parte più importante del funzionamento di un Hard Disk, è la sua funzione primaria, e avviene, come dicevamo, non per contatto, come sui dischi in vinile, ma, tramite una sorta di raggio laser che incide magneticamente il disco, registrando su ogni sezione, un informazione binaria, ovvero assegna una carica positiva o negativa, se la carica è positiva, il disco registra quello che è comunemente chiamato 1, mentre se la carica è negativa, il disco registra uno 0. Ogni 0 ed 1 registrati sul disco costituiscono 1 bit, e ogni stringa o sequenza di otto bit costituisce un byte, e ogni byte è un informazione completa.

I primi Hard disk nella seconda metà degli anni 50, avevano una capacità di memoria limitata, perché, con quelli che erano i supporti tecnologici e le conoscenze fisiche dell’epoca, ogni disco del dispositivo di memoria poteva registrare al massimo 1 Milione di bit, possono sembrare tanti, ma non è così. 1 milione di bit infatti equivale a circa 125 Kbyte, che, oltiplicato per i 50 dischi del dispositivo di memoria, permettevano di immagazzinare complessivamente circa 5 MB, una quantità di memoria oggi sufficiente appena per una canzone o un immagine di discreta qualità. Nei dischi moderni le “celle di memoria” sono molto più piccole, ed ogni singolo cm quadrato di ogni singolo disco dell’Hard Disk, può contenere circa 30 miliardi di bit, permettendo così al disco, nel suo insieme di archiviare diverse decine o addirittura centinaia di GigaByte, e nei dischi più moderni, anche diversi TeraByte.

Per essere più precisi, 8 bit formano un Byte, 1000 byte formano 1 Kilobyte (KB), 1000 KB formano un MegaByte(MB), 1000 MB formano un GigaByte(GB) e 1000 GB formano 1 TeraByte (TB), ed al momento il TB è la quantità massima di memoria che è possibile archiviare su un singolo disco, ma, un insieme di dischi, possono arrivare ad archiviare anche migliaia di TB.

Le informazioni sul disco sono ordinate in strisce concentriche, chiamate tracce, e prendono il nome dalle tracce dei vecchi dischi in vinile, anch’esse ordinate in modo concentrico.

La differenza tra le tracce dei dischi in vinile e le tracce magnetiche degli Hard Disk, è dovuta al modo in cui le informazioni sono registrate sulle tracce, se nei dischi in vinile infatti le informazioni sono registrate linearmente, negli Hard Disk non è così, un Informazione completa può essere divisa in varie sezioni del disco, o su più dischi, e può essere richiamata dal calcolatore, attraverso una mappa completa delle sezioni e tracce del disco, che indica alla testate dove andare a recuperare i dati, o quali sezioni sono libere e quindi sovrascrivibili.

Un effetto collaterale di questo modo di gestire i dati si ha nel lungo periodo, se infatti da un disco vengono scritti e cancellati molti dati, nel lungo periodo questo inizierà a rallentare, ovvero, le testate impiegheranno più tempo per recuperare tutti i dati di un file, proprio perché alcune parti di quel file potrebbero essere conservate sul cerchio più interno di un disco, ed altre sul cerchio più esterno di un altro disco. Per questo motivo, i sistemi informatici danno la possibilità di “deframmentare” il disco, la deframmentazione è sostanzialmente un operazione di rimappatura del disco che comprime i dati, eliminando gli spazi vuoti tra una sequenza di bit e l’altra, in modo tale da avere i bit di uno stesso file più vicini tra loro e quindi velocizzare la lettura di quei file.

Le testate che leggono e scrivono i dati, come anticipavo, non entrano mai in contatto con il disco, avviene perché la velocità di rotazione dei dischi è estremamente elevata, e il minimo contatto tra disco e testata, distruggerebbe completamente il disco. Sarebbe come se un aereo pieno di piombo, volasse a pochi centimetri dal suolo, la sua velocità e la sua massa, distruggerebbero qualsiasi cosa al suolo entrasse in contatto con l’aereo.

Negli Hard Disk moderni da 3,5 pollici, gli hard disk realizzati dal 1986 in poi la velocità di rotazione del disco è di circa 15000 RPM, circa 250 giri al secondo, mentre nei dispositivi di memoria degli anni 50, la velocità di rotazione era molto più ridotta, IBM 350 Storage Unit aveva una velocità di rotazione di circa 1200 RPM, circa 250 rotazioni al secondo.

Hard Disk da 5,25 pollici.

All’inizio degli anni 80, tra il 1980 e il 1986, l’anno di uscita degli Hard Disk da 3,5 pollici, siamo agli albori dell’era dei Personal Computer, dei calcolatori domestici, grandi come una televisione, che avrebbero fatto la fortuna di aziende come Apple e Microsoft. I primi PC, come Altair 8800 e Apple I, erano basati su microprocessori di ultima generazione, ma la loro capacità di memorizzare dati era molto limitata, Apple I aveva una memoria di soli 4KB. Nel 1980 però, vista la grande popolarità dei Personal Computer, iniziarono a commercializzare Hard Disk compatti, destinati ai PC.

I primi Hard Disk domestici avevano le dimensioni di una radio o un tostapane, e permettevano di memorizzare fino a 5MB, la stessa quantità di memoria dell’IBM 350 storage Unit, ma con dimensioni decisamente più contenute e un costo enormemente più basso. Questo disco rigido funzionava esattamente come un Hard Disk Moderno, ma aveva dei dischi di memoria da 5,25 pollici di raggio.

Questi Hard Disk domestici sembravano proiettati verso il futuro, almeno fino al 1986 quando vennero commercializzati i primi Hard Disk da 3,5 pollici, dei dispositivi dalle dimensioni di un libro che integravano le più moderne tecnologie, permettendo a dischi più piccoli, di archiviare centinaia di MB. I primi Hard Disk commerciali avevano una capienza di qualche centinaia di MB, pochi GB al massimo, che negli anni sarebbero diventati decine, centinaia, addirittura migliaia di GB.

Pomodori secchi, storia e tradizione italiana

I pomodori secchi oggi sono uno degli alimenti tipici della tradizione culinaria dell’italia contadina e rurale, e questa è la loro storia

Se oggi i pomodori sono il simbolo della cucina italiana, è perché per secoli gli italiani hanno letteralmente mangiato pomodori secchi.

I pomodori sono oggi una parte importante della storia e della tradizione italiana, il loro utilizzo è quasi illimitato e onnipresente nella cucina italiana, sono infatti pochissimi i piatti tradizionali che richiedono l’uso di pomodori, e pure, questo alimento, questo frutto, fa parte della tradizione italiana da poco più di quattro secoli. Ho fatto qualche ricerca e sono riuscito a trovare alcuni dei passaggi che hanno fatto la storia dei pomodori, e non ci crederete mai, ma se oggi i pomodori sono così importanti nella cucina italiana, è perché, per oltre tre secoli, gli italiani hanno seccato pomodori.

I pomodori secchi sono il vero punto di partenza della storia del pomodoro in italia, sono in un certo senso, il senso stesso del pomodoro nella tradizione, e in questo post, voglio raccontarti la storia dei pomodori, e soprattutto dei pomodori secchi.

Pomodori, dalle americhe all’Italia

Con la scoperta delle Americhe, il mondo è profondamente cambiato, la scoperta segna letteralmente l’inizio di un mondo nuovo, e a fare da spartiacque, non è tanto la scoperta geografica in se, ma tutto quello che da quella scoperta ne sarebbe scaturito.

Con la scoperta delle Americhe, il mondo, e per mondo si intende l’europa, si ritrova a dover fare i conti con una nuova realtà storica e culturale, che rimette in discussione il concetto stesso di umanità, con tutte le conseguenze sociali, politiche e culturali che questo comporta. Ma non solo, le Americhe sono un mondo pieno di risorse e opportunità, e questo significa nuove rotte commerciali, nuovi equilibri sociali nella stessa europa, significa nuove economie, nuovi mercati, significa nuove risorse per i mercati europei, e per nuove risorse si intende soprattutto nuovi alimenti.

Una delle grandi e più importanti rivoluzioni che consegue alla scoperta delle Americhe, riguarda soprattutto il piano alimentare, poiché grazie a nuovi frutti, piante, erbe, radici, tuberi, e chi più ne ha più ne metta, il mondo europeo cambia lentamente il proprio modo di mangiare, e cambiando le abitudini alimentari cambia un po’ tutto il mondo.

Qualche anno fa, nel 2006, Marcy Norton ha pubblicato un articolo sul numero 111 dell’American Historical Review, intitolato Tasting Empire: Chocolate and the European Internalization of Mesoamerican Aesthetics in cui osservava che il gusto degli europei per il cioccolato era stato il motore scatenante della crescente domanda di zucchero, da cui era scaturita la domanda sempre maggiore di schiavi, ho già parlato in diverse occasioni di questo articolo di Marcy Norton, se volete approfondire vi rimando al mio articolo “Schiavi del Cioccolato”.

Studi successivi hanno evidenziato che il cioccolato, motore scatenante di una vera e propria rivoluzione economica, era solo la punta dell’iceberg, e altri alimenti, in particolare patate e pomodori, avevano avuto un enorme impatto sul sistema economico europeo.

Gli effetti delle patate sono particolarmente visibili nell’europa nord orientale, mentre i pomodori trovarono nel bacino del mediterraneo un habitat perfetto in cui proliferare e mutare.

Il pomodoro in Italia

L'Italia è stata il teatro privilegiato della nuova era dei pomodori.

Inizialmente noto come Tomatillo dalla parola Azteca xi-tomatl, che stava ad indicare un frutto piccolo, rotondo e rigonfio, da cui deriva il termine britannico Tomato, il Tomatillo giunge in Italia presumibilmente intorno al 1532, attraverso la corona Spagnola, che dal 1504 circa aveva assunto il controllo dell’italia meridionale, diventata un vice regno di Spagna.

Giunto in italia il pomodoro entra rapidamente a far parte della cultura popolare per tanti motivi tra cui, l’enorme semplicità della sua produzione, e la semplicità con cui può essere essiccato e conservato sul lungo periodo.

Nel XVI secolo l’essiccazione era lo strumento principale per la conservazione degli alimenti, altri metodi di essiccazione consistevano nella messa sott’olio o sotto sale, ma, sale e soprattutto olio, nel XVI secolo, erano ancora abbastanza costosi, diversamente, fuoco, acqua di mare e sole, erano abbondanti, soprattutto lungo le coste dell’italia meridionale.

I pomodori secchi

Il viaggio alla scoperta dei pomodori secchi comincia proprio dalle coste meridionali, qui la popolazione rurale cercava di sopravvivere sfruttando al meglio quello che il mare e la terra avevano da offrire, e il pomodoro aveva la particolarità di maturare in uno dei momenti migliori dell’anno, se si voleva usare il sole per essiccare qualcosa.

Pomodori seccati al Sole

Giungendo a maturazione in piena estate, i pomodori potevano essere essiccati al sole, senza troppe difficoltà, era sufficiente raccoglierli, tagliarli in modo da esporre alla luce diretta del sole la polpa acquosa, e lasciarli riposare, con non poche attenzioni, così, da Maggio a Settembre i cortili dell’italia meridionale si riempivano di teli in canapa, con sopra distese sterminate di pomodori, di piccole dimensioni, tagliati in due o quattro parti, e lasciati al sole per diversi giorni.

I pomodori non sono l’unico frutto essiccato in questo modo, volendo essere precisi questo sistema era utilizzato per essiccare qualsiasi cosa, dalle foglie di tabacco ai peperoni, dai legumi alle albicocche, dalle patate alle cipolle.

Il sole era un alleato importante per le popolazioni rurali prima dell’arrivo, nel XIX secolo, di sale e zucchero a buon mercato.

Una variante di questo sistema di essiccazione, praticata in alcune zone costiere, consisteva nel fare un bagno in acqua di mare, a ciò che si intendeva essiccare, prima di disporlo asciutto, al sole. Il bagno in acqua salata alterava leggermente il sapore finale del pomodoro essiccato, ma allo stesso tempo garantiva un essiccazione migliore.

In seguito questo processo è stato raffinato, e con l’arrivo del sale a buon mercato, il bagno in acqua di mare è stato sostituito dall’aggiunta di cristalli di sale sui pomodori, durante il processo di essiccazione.

Pomodori seccati a carbone

L’essiccazione al sole era un procedimento molto lungo, richiedeva diversi giorni ed enormi attenzioni, ed aveva come grandi nemici topi e volatili vari, che non mancavano mai.

Un alternativa all’essiccazione al sole era rappresentata dall’essiccazione a carbone, da non confondere con l’affumicatura, che si dimostrava particolarmente utile quando c’era da essiccare piccole quantità di pomodori.

Questo procedimento di essiccazione era già ampiamente utilizzato, soprattutto nell’Italia centro settentrionale, da diversi secoli, per l’essiccazione delle carni, in particolare della carne equina, e per le essiccazioni invernali, e consisteva nel deporre i pomodori da essiccare, opportunamente tagliati e svuotati dei semi che venivano raccolti per poi essere utilizzati, su una rete metallica posta ad una certa distanza da un braciere acceso.

Il calore del braciere opportunamente regolato aumentando o diminuendo la distanza della griglia dal fuoco, permetteva di essiccare praticamente qualsiasi cosa (questo procedimento è ancora oggi utilizzato per l’essiccazione dei fiori di zafferano), e il qualsiasi cosa in questione erano i pomodori.

Il grande vantaggio di questo procedimento è che permetteva di essiccare rapidamente, in meno di 24 ore, i pomodori, di contro, era un sistema difficile da gestire per grandi quantità, per le quali si utilizzava il più lento, ma eterno, calore del sole.

Altre forme di conservazione dei pomodori

Una volta essiccati, i pomodori andavano conservati, e le opzioni in possesso delle popolazioni dell’italia Rurale del XVI secolo, non erano molte. O i pomodori secchi venivano conservati in un cesto di vimini, o venivano conservati in un cesto di vimini.

Pomodori Pelati

Bisognerà aspettare il XVIII secolo per avere altre forme di conservazione, più precisamente, bisognerà aspettare che nel 1796 il cuoco empirista francese Nicolas Apper, faccia il proprio esperimento, scoprendo che il cibo poteva essere conservato, per un lungo periodo, se contenuto in un contenitore sterile, in vetro, fatto bollire, permettendo così, tra le altre cose, di conservare i pomodori pelati, e salsa di pomodoro, per lungo tempo.

Confettura di pomodoro

Tra XVIII e XIX secolo, con l’arrivo a di zucchero a buon mercato, i contadini europei sperimentarono il fantastico mondo delle confetture e delle marmellate, un tempo troppo costose per essere realizzate, come osserva Marc Bloch in una lettera a Lucien Febvre.

Così, ai primi anni del XIX secolo, tra le varie confetture, viene prodotta anche la confettura di pomodori, che con l’aggiunta di aceto, avrebbe portato all’invenzione del Ketchup.

Pomodori sott’olio

L’olio nel XVI secolo, non era propriamente un bene a buon mercato, ma neanche un qualcosa di troppo raro e difficile da trovare. In realtà, nell’Italia dell’età moderna, così come anche nell’Italia medievale e ancora prima nell’Italia romana, si utilizzava tanto olio, burro e lardo, e si faceva un grande ricorso alla frittura, ma questa è un altra storia.

Per quanto riguarda l’olio, quelli più comuni e, in un certo senso, a buon mercato, erano soprattutto gli oli di semi vari, mentre l’olio d’oliva rappresentava un prodotto di lusso e raffinato, non alla portata di tutti, che veniva utilizzato con parsimonia. Dovremmo invece aspettare la fine del XIX secolo, per avere oli di mais, per essere più precisi, il 1898, quando Theodore HudnutBenjamin Hudnut, estrassero per la prima volta dell’olio di mais.

L’olio in età moderna aveva diverse funzioni, e gli oli vecchi erano spesso utilizzati per conserve alimentari di vario tipo.

Non sappiamo esattamente quando è iniziata la pratica del conservare pomodori sott’olio, quel che sappiamo è che nelle campagne italiane del XIX secolo, i pomodori venivano già conservati anche sott’olio, e molto probabilmente la pratica è iniziata sul finire del XVIII secolo, un periodo in cui, grazie alle nuove tecnologie, era possibile estrarre una maggiore quantità di olio, dalle olive, e dai suoi semi, e questi oli più “raffinati” e meno pregiati, di seconda o terza lavorazione, che risultavano molto diluiti, e dal sapore meno intenso, erano ottimi per la conservazione alimentare.

Conclusioni

La storia dei pomodori, in italia è iniziata nel XVI secolo, con l’arrivo dei pomodori dalle americhe, ma la vera storia del pomodoro in italia, non è iniziata con il suo arrivo, la vera storia del pomodoro è iniziata quando, con l’essiccazione, il pomodoro è diventato uno dei cibi di uso comune nella cucina italiana, ingrediente principe di innumerevoli ricette, che, a partire dal XVIII avrebbe visto la sua piena affermazione come simbolo stesso della cucina italiana.

Il pomodoro, se bene non faccia parte della più antica tradizione italica, da diversi secoli è entrato a far parte della storia e della cultura italiana, definendo la cucina degli italiani, e con essa, la loro tradizione.

Tutto questo probabilmente non sarebbe successo, se, i pomodori secchi, non avessero giocato un ruolo così importante nella tradizione italica dell’età moderna. Se oggi i pomodori sono il simbolo della cucina italiana, è perché per secoli gli italiani hanno letteralmente mangiato pomodori secchi.

TGR Leonardo, il servizio è vero, ma non parla del CoViD19

Il Servizio del TGR Leonardo del 2015 in cui si parla di un virus creato in laboratorio è autentico, ma il virus di cui parla non ha nulla a che vedere con il SARS-CoViD19

In questi giorni sta circolando sui social un vecchio servizio del TGR Leonardo, del 2015, in cui si parla di un misterioso virus killer, che attacca i polmoni, creato in laboratorio dalla Cina, e per molti, quel virus è il SARS-CoViD19.

In realtà si tratta di due virus totalmente diversi, il primo è un virus artificiale, creato in laboratorio per motivi di ricerca, il secondo, il CoViD19, è invece frutto della naturale evoluzione e selezione naturale di un ceppo virale che muta abitualmente. Citando Roberto Burioni, il Coronavirus è un virus naturale al 100%, purtroppo. Purtroppo perché se fosse un virus artificiale avremmo già tutti gli strumenti necessari per renderlo inoffensivo, ma purtroppo non è così, e abbiamo a che fare con un virus totalmente nuovo, di cui conosciamo pochissimo.

Premettendo che non sono un medico, non sono un biologo, ne un virologo o un epidemiologo o qualsiasi altra cosa finisca in ologo, sono semplicemente una persona che sa fare una ricerca su Google e soprattutto che sa leggere.

Voglio quindi provare a spiegarvi in modo semplice e facile, la differenza tra un virus artificiale come quello di cui si parla nel servizio di Leonardo del 2015, e un virus naturale, 100% bio, come direbbe Burioni, come il SARS-CoViD19, e se avessi dei mattoncini Lego userei quelli per la spiegazione, come solito fare il buon Dario Bressanini.

Il Modello di un Virus

Immaginate i virus, tutti i virus, come blocchi di mattoncini Lego, che si possono montare insieme, ogni virus si compone di una un certo numero di mattoncini Lego.

Mattoncini Lego o presunti tali
Mattoncini Lego o presunti tali

Nel 2015 i cinesi, hanno preso parte dei mattoncini di un virus comune tra i pipistrelli, parte dei mattoncini di un virus dei topi, ed hanno unito i mattoncini, creando un terzo virus, che un era po’ l’uno e un po’ l’altro e nel complesso era un virus totalmente nuovo che era in grado di attaccare e infettare i polmoni umani, e per evitare che quel virus potesse casualmente infettare qualcuno e diffondersi fuori dal laboratorio, il virus sintetizzato è stato privato della capacità di riprodursi, cosa che lo rendeva inoffensivo.

Un qualsiasi biologo, chimico, medico, persino io, con un microscopio e i tre virus a portata di mano, sarebbe in grado di dire, guardando il virus artificiale e i suoi genitori, che quel virus è stato costruito partendo dai virus precedenti. Più o meno, non è proprio semplicissimo in realtà, diciamo che in realtà io con un microscopio neanche vedrei il virus, ma gli “scienziati” che per lavoro studiano virus e micro organismi, si, loro sono perfettamente in grado di farlo.

Quello che è apparso nel 2019, è un altro virus.

Il Virus creato in laboratorio nel 2015 ha precise caratteristiche, e queste caratteristiche sono diverse dalle caratteristiche del SARS-CoViD19,, sono de facto due virus diversi.

Se guardiamo al microscopio il CoViD19 e il virus del 2015, possiamo osservare che il CoViD19 non ha nessun elemento in comune con il virus del 2015, ne con i suoi genitori.

È come se qualcuno, che chiameremo madre natura, avesse preso una manciata di mattoncini dal tavolino, di quelli ancora non utilizzati da nessuno, e li avesse aggiunti ad un virus comune, creando un virus totalmente nuovo, ma allo stesso tempo naturale e 100% bio.

Per intenderci, se i virus fossero fatti di lego e il virus del 2015 fosse fatto di mattoncini gialli e rossi, il CoViD19, sarebbe composto da mattoncini verdi e azzurri.

Un po’ di esempi surreali

Se l’esempio dei virus non fosse abbastanza chiaro, proviamo con qualche esempio alternativo.

Se invece di virus, stessimo parlando di esseri viventi più complessi, come cani, gatti, scimmie, ippopotami, il virus del 2015 potremmo immaginarlo come la fusione tra un cane e un gatto, nel senso che, la parte di posteriore della creatura creata in laboratorio sarebbe quella di un gatto, quindi coda di gatto, zampe di gatto ecc, mentre la parte anteriore, sarebbe quella di un cane, quindi zampe anteriori e testa di cane. Sarebbe una creatura nuova, metà gatto e metà cane, ma senza genitali, così non potrebbe riprodursi.

Diversamente da questa simpatica creatura, il covid-19 si presenta come qualcosa di anomalo, come un animale ha una forma tutta strana, che non è metà di un animale e metà di un altro, anche se ha la struttura di un quadrupede. Possiamo immaginarlo come un bizzarro essere un braccio con mano al posto della coda, con enormi occhi simili a quelli delle mosche, le zampe anteriori con lunghi artigli e quelle posteriori palmate, e anche un corno, così, per gradire.

Sarebbe una creatura che a vederla, non saremmo in grado di ricondurre a nessun essere già esistente

Visto che mi piacciono gli esempi strani, faccio ancora un ultimo esempio, questa volta con il cibo, sono infatti convinto che la riduzione a cibo sia il modo perfetto per veicolare qualsiasi messaggio.

Se il Virus fosse una pizza

Immaginate il virus del 2015 come una un nuovo cibo, i cui genitori, sono una pizza e del sushi. E quindi il “virus” si presenta come una sorta di pizza con sopra dei pezzi di sushi.

Guardandola i suoi “genitori” ci appaiono evidenti, è una pizza con sopra del sushi, non c’è molto altro da dire.

Il CoViD19 invece, è qualcosa di diverso. È come se fosse una sfoglia pizza, fatta con farina di riso con dei semi di papavero nell’impasto, su cui è spalmata, a mo’di salsa della crema di avocado su cui poggiano dei pezzetti di salmone e salame piccante alternati in modo casuale, il tutto viene poi arrotolato e fritto.

Al primo sguardo, diversamente dalla pizza sushi, ci è impossibile capire di cosa si tratta, non è una pizza, non è sushi, anche se gli ingredienti sono gli stessi della pizza e del sushi, ma usati in modo diverso, e de facto, ciò che è venuto fuori non è una pizza con il sushi, ma è un qualcosa di totalmente nuovo, creato da uno chef stravagante, diversamente dalla pizza sushi che al massimo possiamo trovare in qualche video dei ragazzi di space valley.

Conclusione

Spero che questi esempi possano essere d’aiuto, io purtroppo non sono un biologo, quindi perdonatemi se la mia spiegazione non è tecnicamente perfetta e contiene qualche precisazione.

Il punto è che il virus del 2015 è un virus diverso dal CoViD19, il primo è stato prodotto artificialmente in laboratorio, per una ricerca che è stata poi pubblicata sulla rivista nature, il secondo è evoluto naturalmente, come dimostrato da un altra ricerca, pubblicata anch’essa sulla medesima rivista.

Epidemie Virali su Facebook, ma mancano molti (troppi) nomi all’appello

Negli ultimi quattro secoli, il mondo ha conosciuto innumerevoli epidemie virali, più o meno ampie e pericolose, alcune hanno provocato poche migliaia di vittime, altre, diversi milioni, ma per il popolo di facebook e dei social network, solo 4 di queste epidemie che hanno colpito l’europa tra il 1720 ed il 2020, meritano di essere citate.

 Nel 1720 la peste. Nel 1820 il colera. Nel 1920 l’influenza spagnola. Nel 2020 il coronavirus.

Peste, Colera, Influenza Spagnola, SARS-CoViD19… ma mancano all’appello Influenza asiatica, Influenza di Londra, Influenza di Hong Kong, Tifo, Vaiolo, Peste persiana, Peste russa, Peste balcanica, HIV/AIDS, Ebola,

Negli ultimi quattro secoli, il mondo ha conosciuto innumerevoli epidemie virali, più o meno ampie e pericolose, alcune hanno provocato poche migliaia di vittime, altre, diversi milioni, ma per il popolo di facebook e dei social network, solo 4 di queste epidemie che hanno colpito l’europa tra il 1720 ed il 2020, meritano di essere citate.

Su Facebook sta circolando questa serie di “date” che in qualche modo vorrebbero richiamare ad una natura ciclica di epidemie, di varia natura, che si sono susseguite a intervalli regolari, negli ultimi quattro secoli, c’è però in questa informazione un terribile errore di valutazione, che, se nel caso “migliore” presenta un errore di pochi anni, nel caso peggiore presenta un errore pluridecennale, insomma, ci da delle date che non sempre sono veritiere, ma andiamo con ordine.

Nel 1720, in europa, era effettivamente in corso una grande pestilenza, una delle ultime grandi pestilenze della storia europea, de facto, l’ultima pestilenza registrata nel regno di Francia, o meglio, nel regno di Francia e Navarra. Ma, a scanso di equivoci, anche se estremamente importante e con numeri apocalittici, non fu una pestilenza che si diffuse su scala globale, ne su scala europea.

La Peste di Marsiglia

Nel 1720 la peste c’era, ma era circoscritta a Marsiglia, e alle zone limitrofe, dove sembrerebbe essere era arrivata, a bordo della Grand-Saint-Antoine, un mercantile proveniente dalla Siria, il cui carico di tessile sembrerebbe essere stato infettato dai bacilli di Yersinia pestis, un batterio zoonotico che quindi può passare di specie, in particolare, questo batterio passa dalla pelle del ratto all’uomo, attraverso parassiti e altri vettori, causando malattie quali peste bubbonica, peste setticemica e peste polmonare. Ed è proprio la peste setticemica quella che colpì Marsiglia nel 1720. Secondo i più recenti studi microbiologici, è la “variante (passatemi il termine) della peste, riesce facilmente a diffondersi in periodi come primavera, estate e autunno, diversamente dalla peste polmonare e quella bubbonica, che invece, si diffondono più facilmente nei mesi più freddi dell’anno. Questi studi sono coerenti con la teoria per cui i bacilli di Yersin siano arrivati in Provenza dalla Siria o comunque dal medio oriente, luogo in cui hanno più facilità di sopravvivere rispetto all’Europa settentrionale, spiegherebbero inoltre perché la peste sia esplosa proprio nel mese di Maggio.

Clima e ambiente sono un fattore determinante estremamente importante nella diffusione e nel contrasto di malattie come la peste, soprattutto in età moderna e medievale.

Se bene la Peste di Marsiglia sia ormai nota come la peste del 1720, in realtà, nel 1720, la malattia, per quanto ampiamente diffusa, rimase limitata alla sola città di Marsiglia, e solo nella primavera del 1721 l’epidemia si diffuse in gran parte della Provenza, infettando tra il 1720 e il 1722, circa un quinto della popolazione e causando la morte di quasi il 25% della popolazione, parliamo di numeri enormi, sono infatti circa 160.000 le vittime totali della peste di Marsiglia su circa 400.000 abitanti nell’intera Provenza, di cui 40.000 vittime e circa 90.000 infetti, vennero registrati nella sola città di Marsiglia.

Marsiglia è inequivocabilmente la città più colpita, almeno secondo la relazione Jean-Baptiste Bertrand sulla peste di Marsiglia.

J.B. Bertrand, 1779. Relazione storica della peste a Marsiglia del 1720
J.B. Bertrand, 1779. Relazione storica della peste a Marsiglia del 1720

La prima delle quattro date dei post che circolano su facebook, 1720 si trova ad essere sia esatta che inesatta, è un po’ come la data di Shrodingher, finché non si fanno le dovute verifiche è sia vera che falsa. è vera perché la peste di Marsiglia iniziò effettivamente nel 1720, ma è anche falsa perché la pestilenza si diffuse soprattutto nel 1721, anno in cui si attesta il maggior numero di vittime e di infetti dell’intera pestilenza, e si concluse nel 1722.

L’epidemia di Colera del 1820

Nel 1820, in Europa, c’era effettivamente il colera, ma l’epidemia era ampiamente diffusa già nel 1816 e non terminò prima del 1826. L’epidemia di Colera in europa durò ininterrottamente per oltre 10 anni, ma in realtà, la sua portata fu molto più ampia, infatti un nuovo focolaio di colera esplose, sempre in Europa, nel 1829 e questa seconda pandemia perdurò almeno fino al 1851.

Dire che nel 1820 in Europa c’era il colera non è errato, ma lo stesso lo si può dire per quasi ogni anno compreso tra la fine dell’età napoleonica e la seconda rivoluzione francese, va inoltre detto che, il 1820 non fu un anno particolarmente significativo per l’epidemia di colera, in quanto, per quel che sappiamo, in quell’anno non è registrato un picco di mortalità o di contagi, e nel computo generale, sono de facto poche migliaia le vittime di colera avvenute nel 1820, un numero sicuramente importante ma in realtà esiguo e quasi trascurabile se consideriamo che complessivamente il colera, nel XIX secolo, costò la vita ad oltre 200.000 persone in tutto il mondo.

Altre epidemie

Va inoltre detto che, tra la fine della Peste di Marsiglia e l’epidemia di Colera, l’europa e l’america settentrionale, furono attraversate da numerose epidemie, di vaiolo, morbilo, febbre gialla, influenza, tifo, colera e peste, molte delle quali furono circoscritte a singole città o regioni, come nel caso dell’epidemia di Febbre Gialla del 1730 che colpì soprattutto la città spagnola di Cadice o la Peste dei Balcani (peste bubbonica in questo caso) che tra il 1738 ed il 1740 causò più di 100.000 vittime, di cui circa la metà nella sola area balcanica, da cui il nome di “peste Balcanica”.

Particolarmente significativa la Peste Russa (anche in questo caso peste bubbonica) del 1770-1772, che nella sola città di Mosca costò la vita ad un numero non meglio definito di persone compreso tra 50.000 e 100.000, vale a dire circa un terzo o un sesto della popolazione della “terza roma“.

A tal proposito, una testimonianza del Comandante Generale Christopher von Stoffeln su circa 1500 pazienti registrati dalle truppe al suo comando, soltanto 300 sopravvissero alla malattia.

Nello stesso periodo esplose anche un enorme pestilenza in Persia (Peste setticemica), che si stima provocò la morte di circa 100.000 infetti. Vi sono poi altre pestilenze di portata analoga che coinvolsero principalmente l’Impero Ottomano tra il 1812-1813.

Nel 1816- 1819 è di nuovo la volta dell’Europa, questa volta con un epidemia di Tifo, circoscritta all’Irlanda, mentre nel 1821 in Spagna, a Barcellona, esplode un epidemia di Febbre Gialla mentre il paese era attraversato da fermenti rivoluzionari (moti del 20-21).

Tra il 1820 e il 1920, le cose vanno meglio rispetto al secolo precedente, ma non troppo.

Tra il 1832 e il 1834 Stati Uniti e Canada assistono all’esplosione di diversi focolai di Colera, che coinvolgeranno principalmente le città di New York, Montreal e Clumbus, ma di diffonderanno anche in altre comunità negli stati di New York e Ohio, e nel 1837 la città di Philadelfia viene colpita da un epidemia di Tifo.

Nel 1840 la Dalmazia fu il focolaio di una nuova epidemia di Peste, che si sarebbe estesa in gran parte dell’impero Asburgico, la cui cattiva gestione dell’epidemia sarebbe stata uno dei fattori scatenanti della crisi imperiale e la divisione dell’impero in Impero d’Austria e Regno di Ungheria (ma questa è un altra storia).

Nel 1847 il Tifo colpisce nuovamente l’america settentrionale, questa volta in un epidemia su larga scala che andò dal Canada al Golfo del Messico, cui fece seguito, nel 1848 un epidemia di Colera che sarebbe perdurata almeno fino al 1852, anno in cui si registra la massima diffusione della malattia su scala globale, causando in tutto il mondo oltre 1 milione di vittime.

Una nuova pandemia di Colera sarebbe esplosa, questa volta partendo dal medio oriente, tra il 1863 e sarebbe perdurata almeno fino al 1896.

Arriviamo quindi al 1920 e l’Influenza spagnola. Quest’ultima pandemia in realtà, nel 1920 era già stata debellata, l’influenza si diffuse a partire dal 1917 e raggiunse il proprio apice, per numero di vittime e nuovi contagiati, nel 1918, per poi sparire quasi completamente nel 1919. Nel 1920 l’influenza spagnola è ancora diffusa, soprattutto negli imperi coloniali, ma in misura molto ridotta, registrando poche centinaia di vittime nel 1920, numero sicuramente importante, ma poco significativo per una malattia che complessivamente ha infettato più di mezzo miliardo di persone in tutto il mondo ed ha causato oltre 100 milioni di vittime tra il 1918 e il 1919.

Tra il 1920 e il 2020 quattro grandi pandemie, rispettivamente tra il 1957 e il 1958, con l’influenza asiatica che causò oltre 2 milioni di vittime. Tra il 1961 e il 1975, con l’ultima grande pandemia di Colera, che registrò vittime per oltre 2 milioni di vittime in tutto il mondo. Tra il 1968 ed il 1969, con l’influenza di Hong Kong, che provocò vittime per oltre 1 milione in tutto il mondo. Tra il 1972 e il 1973 fu la volta invece dell’influenza di Londra, anche questa volta, con oltre 1 milione di vittime in tutto il mondo.

Vi sono poi innumerevoli altre epidemie di portata più o meno ampia, e di malattie più o meno letali, che non citerò perché altrimenti non ne usciamo più. Servirebbe un intero articolo solo per parlare delle innumerevoli epidemie di Vaiolo ed Ebola, che, nel solo 2016 ha infettato circa 30.000 persone e causato più di 3000 decessi in poche settimane.

Va però menzionata quella che è ad oggi la più grande pandemia, per numero di vittime ed estensione temporale, mai registrata nella storia.

Si tratta dell’epidemia di HIV/AIDS iniziata nel bacino del Congo nel 1960, poi diffusasi in tutto il mondo a partire dal 1981, causando la morte di oltre 32 milioni di persone. Dare un numero “totale” di vittime e infetti dall’inizio della pandemia ad oggi è impossibile, 32 milioni sono solo le vittime note, ma innumerevoli sono le vittime di cui ignoriamo l’esistenza e si stima che il numero reale delle vittime totali possa aggirarsi attorno al mezzo miliardo, se non di più. Ciò che invece sappiamo è che, ad oggi, il numero di nuovi infetti su base annua è stato fortemente contenuto ed oggi i nuovi sieropositivo all’HIV ogni anno sono circa 3 milioni mentre le vittime annue del virus sono circa 2 milioni.

Conclusioni

Come abbiamo potuto vedere, soprattutto nei secoli scorsi, le grandi epidemie erano molto frequenti, e il più delle volte passavano di anno in anno da una città o regione all’altra, e dire che nel 1720, 1820, 1920, e 2020 ci sono state delle epidemie, non significa assolutamente nulla.

Una cosa certamente interessante da notare è che, soprattutto negli ultimi due secoli, ma in realtà anche nei secoli precedenti, le grandi epidemie hanno accompagnato momenti di grande tensione politica all’interno delle nazioni e nei rapporti tra le nazioni, oltre ad aver segnato in modo estremamente profondo la dimensione sociale delle nazioni, facendo da sfondo o innescato conflitti e rivoluzioni, come nel caso della grande guerra o delle campagne napoleoniche, e allo stesso tempo, hanno messo in crisi l’integrità di entità internazionali e sovranazionali, come gli Stati Uniti d’Amarica, l’Impero Asburgico, l’Impero Ottomano, l’Impero Zarista, e tutti gli imperi coloniali, ed è molto probabile che una crisi di questo tipo, in seguito all’epidemia di SARS-CoViD19 possa in qualche modo, nell’immediato futuro, minare anche l’integrità e la struttura interna dell’Unione Europea.

Vi lascio di seguito un elenco completo di tutte le epidemie e malattie infettive che che si sono susseguite nella nostra storia, dalla peste di Atene (458 a.c.) che si stima produsse circa 100.000 vittime, fino alle epidemia tutt’ora in corso in tutto il pianeta.

L’Influenza Spagnola (1918-1920) è arrivata dagli USA ?

Secondo uno studio del 2014 l’Influenza spagnola, che tra il 1918 ed il 1920 ha mietuto più di 100 milioni di vittime, sembrerebbe essere arrivata in europa per poi diffondersi in tutto il mondo, attraverso lavoratori cinesi impegnati nelle retrovie francesi e britanniche, tuttavia, più accurati studi del 2016, sembrano andare in tutt’altra direzione, e confermare quello che già era emerso in uno studio storico del 1999.

Secondo uno studio del 2014 l'Influenza spagnola, che tra il 1918 ed il 1920 ha mietuto più di 100 milioni di vittime, sembrerebbe essere arrivata in europa per poi diffondersi in tutto il mondo, attraverso lavoratori cinesi impegnati nelle retrovie francesi e britanniche, tuttavia, più accurati studi del 2016, sembrano andare in tutt'altra direzione, e confermare quello che già era emerso in uno studio storico del 1999, ma andiamo con ordine.

Tra il gennaio del 1918 e il dicembre del 1920, la Grande Influenza, Influenza Spagnola o epidemia Spagnola, o chiamatela come vi pare, provocò tra i 50 ed i 100 milioni di vittime, e registrò oltre 500 milioni di contagiati. con un tasso di mortalità stimato del 15% circa.
La Grande epidemia è stata letta da molti “contemporanei” come una delle più grandi calamità del ‘900, visto anche il numero di vittime, che superò quello della peste nera del XV secolo, tuttavia, una più corretta analisi storica, ci ha permesso, in tempi più recenti, di fare chiarezza su quel drammatico episodio.

Va fatta una doverosa premessa. In moti credono che, l’influenza spagnola sia arrivata in Europa dagli USA, dove, secondo una teoria che a ottenuto un discreto successo in seguito ai fatti del 2009, quando il virus H1N1, già responsabile dell’influenza spagnola del 1918, ha fatto sentire nuovamente la propria presenza, su scala globale.

Secondo questa teoria, il virus H1N1, si sarebbe diffuso nel mondo, partendo da alcuni allevamenti di maiale in Kansas, negli USA. Tuttavia, questa teoria è stata abbandonata quando, studiando i casi clinici, è stato scoperto che in Europa, più precisamente in Francia, già nel 1917, erano stati registrati diversi casi di quella che in seguito sarebbe stata identificata come l’influenza spagnola.

Questo dato apparentemente banale, anticipa la manifestazione dell’influenza spagnola in Europa al 1917 e quindi prima dell’apparizione dei primi casi, datati 1918, in Kansas(USA).

Cominciamo con il dire che, la maggior parte delle vittime furono soldati tornati dal fronte, anziani, e che, la malattia si diffuse rapidamente tra i militari nel 1918 e gli inizi del 1919, mentre, nella seconda metà del 1919 e il 1920, furono infettati soprattutto anziani, operai e contadini, ovvero i membri più poveri della società, sia in Europa che nel resto del mondo.
La diffusione dell’influenza spagnola tra questi individui, è molto significativa, perché ci dice che ad essere colpiti, in modo letale, dall’influenza, furono soprattutto quegli individui in condizioni sanitarie precarie. Questo è particolarmente evidente nei soldati tornati dal fronte malati, mutilati e deperiti, ma anche negli “anziani”, soprattutto se si considera che all’epoca, la speranza di vita media, era di circa 10/15 anni più bassa rispetto ad oggi.
Fu inoltre, relativamente alto, anche il numero delle vittime molto giovani, tra i 0 ed i 10 anni, ma parliamo di numeri che oscillano intorno al 3% delle vittime totali dell’influenza, contro un +60% di reduci di guerra.

Nel 1999 uno studio sull’influenza spagnola, condotto dal St Bartholomew’s Hospital e dal Royal London Hospital, guidato dal virologo virologo John Oxford, ha identificato nel campo militare di Étaples, in Francia, quello che è stato classificato come il centro della pandemia influenzale del 1918.
Da questo campo militare, situato a pochi chilometri dal fronte orientale francese, nella Francia settentrionale, era direttamente rifornito via mare dagli alleati Britannici e Statunitensi, in quanto centro nevralgico della rete logistica dell’Intesa sul suolo francese. La maggior parte dei medicinali, armamenti, rifornimenti, scorte alimentari ecc, che arrivavano in Francia, passavano per Étaples, così come passavano per Étaples i soldati britannici e statunitensi feriti in azione e pronti al rimpatrio.

L’importanza strategica e la centralità logistica di Étaples è stata, per il team di Oxford, uno dei motivi che hanno permesso all’influenza di diffondersi in tutto il mondo.
L’epidemia, ha osservato lo studio, ha colpito inizialmente i campi militari e per poi trasferirsi alle città portuali e industriali britanniche e degli USA, in cui transitavano i militari di rientro e gli equipaggi delle navi mercantili che trasportavano i rifornimenti per l’intesa.
Secondo lo studio di Oxford, una volta raggiunte le città, i primi ad essere contagiati sono stati gli operatori portuali, addetti al carico e scarico delle merci, seguiti poi dagli operai degli stabilimenti industriali e dalle loro famiglie, e a quel punto l’epidemia era impossibile da contenere, ed iniziò a mietere vittime anche tra la popolazione civile.
Oxford ed il suo team, osserva nello studio che dai campi ospedale in cui vennero ricoverati la maggior parte degli infetti civili, a differenza di quello che si è pensato per decenni, non contribuirono troppo al diffondersi della malattia in quanto medici ed infermiere nei campi, vivevano in un regime di quasi isolamento dal resto del mondo ed avevano per lo più contatti con i militari impegnati nel trasporto di malati e rifornimenti verso i campi.

Un più recente studio, datato 2014, condotto dallo storico canadese Mark Humphries del Memorial University of Newfoundland, incentrato sullo studio di documenti clinici che, fino a quel momento erano rimasti ignorati, e capirete a breve perché.
Ad ogni modo, l’originale studio di Humphries ha sottolineato il forte legame tra l’influenza Spagnola e la Prima Guerra Mondiale.
Detto molto brevemente, non è un caso, per Humphries, che la pandemia sia esplosa nel 1918, e questo perché, oltre all’importante canale di diffusione individuato da Oxford, durante la guerra furono impiegati tantissimi lavoratori, impegnati principalmente a scavare trincee dietro le linee Francesi e Britanniche, e tra questi uomini che lavorarono in condizioni igieniche pressoché inesistenti, sottolinea Humphries, erano presenti anche circa 96000 lavoratori cinesi, e sarebbero proprio questi lavoratori cinesi, per Humphries, il punto di origine dell’influenza Spagnola.

I documenti clinici studiati da Humphries non riguardano infatti la popolazione europea, ne quella statunitense, durante la prima guerra mondiale, ma riguardano invece una malattia che, nel 1917, copi la Cina settentrionale.
Per Humphries questa sconosciuta malattia cinese, giunta in qualche modo in Europa durante la guerra attraverso i lavoratori cinesi impiegati nelle retrovie, sarebbe da considerarsi il vero fattore scatenante dell’Influenza spagnola.

Per quanto interessante la teoria di Humphries, va precisato che si basa esclusivamente sulla comparazione di cartelle cliniche di pazienti cinesi ed europei, vicini nel tempo e con sintomi simili, che però, non presenta molte informazioni effettive sul virus. De facto Humphries non era in grado da solo di stabilire se il fantomatico virus cinese del 1917 avesse qualche legame ereditario con il virus dell’influenza spagnolo.
Partendo dalla teoria di Humphries, nel 2016 è apparso sul Journal of the Chinese Medical Association un articolo in cui si osservava che non erano state ritrovate prove sufficienti per dimostrare che il virus cinese del 1917 ed il virus del 1918 fossero legati tra loro, più semplicemente, secondo questo articolo, si tratta di due virus diversi e non è possibile dimostrare che la trasmesso in Europa sia avvenuta attraverso soldati e operai cinesi provenienti dalla Cina.
Invece, vennero evidenziate prove che il virus circolasse negli eserciti europei già da mesi, e forse da anni, prima dello scoppio della pandemia del 1918, confermando quindi indirettamente, le teorie esposte da Oxford e dal suo team di ricerca, con lo studio del 1999.

Connor, Steve, "Flu epidemic traced to Great War transit camp", The Guardian (UK), Saturday, 8 January 2000. Accessed 2009-05-09. Archived 11 May 2009.
J.S. Oxford, R. Lambkin, A. Sefton, R. Daniels, A. Elliot, R. Brown e D. Gill, A hypothesis: the conjunction of soldiers, gas, pigs, ducks, geese and horses in Northern France during the Great War provided the conditions for the emergence of the "Spanish" influenza pandemic of 1918–1919, in Vaccine, vol. 23, nº 7, 2005, pp. 940–945, DOI:10.1016/j.vaccine.2004.06.035.
Hannoun, Claude, "La Grippe", Ed Techniques EMC (Encyclopédie Médico-Chirurgicale), Maladies infectieuses, 8-069-A-10, 1993. Documents de la Conférence de l'Institut Pasteur : La Grippe Espagnole de 1918.
G. Dennis Shanks, No evidence of 1918 influenza pandemic origin in Chinese laborers/soldiers in France, in Journal of the Chinese Medical Association, vol. 79, nº 1, 2016, pp. 46–8, DOI:10.1016/j.jcma.2015.08.009PMID 26542935.

Il segreto delle macchine anatomiche

Le macchine anatomiche, di cui vi ho raccontato la storia in un video sul mio canale youtube, sono dei modelli anatomici del XVIII secolo, realizzati da Giuseppe Salerno, un medico e alchimista palermitano, in cui, oltre allo scheletro umano, è perfettamente visibile l’intero apparato arterio venoso, comprensivo di occhi e cuore, e con un livello di dettaglio impressionante che permette all’osservatore di vedere anche i più sottili capillari.

Questi modelli sono stati successivamente acquistati da Raimondo di Sangro, principe di Sansevero, nel napoletano e appassionato di anatomia e alchimia.

Per la storia delle macchine anatomiche, vi rimando al mio video su youtube che trovate di seguito, qui invece voglio raccontarvi, in modo più approfondito, il processo, o almeno quello che si ipotizza essere il processo di realizzazione eseguito da Giuseppe Salerno.

Studiano i modelli anatomici di Sansevero, è emerso che, l’intero apparato arterio venoso visibile, non è autentico, si tratta infatti di una riproduzione o ricostruzione post mortem, eseguita manualmente dal medico siciliano.

Per secoli si è creduto che vene e arterie fossero le vere vene e le vere arterie dell’uomo e la donna raffigurati nei modelli, in realtà, molto recentemente, abbiamo scoperto che il sistema cardio circolatorio è costituito da una lega di materiali vari e coloranti, a base di cera d’api.

Viene allora da chiedersi, e me lo chiedo anche io nel video, come è possibile che un medico e alchimista del XVIII secolo conoscesse così bene l’anatomia umana, al punto da riuscire a ricostruire alla perfezione anche i più sottili vasi capillari?

Ancora oggi non è possibile dare una risposta netta a questa domanda, ma, sulla base delle informazioni che abbiamo a proposito della chimica e dell’alchimia del XVIII secolo, possiamo fare delle ipotesi.

Oggi gli studiosi credono che Giuseppe Salerno abbia compiuto degli esperimenti per via iniettiva su alcuni cadaveri presenti nelle botteghe dell’epoca, sezionare e studiare corpi umani nel XVIII secolo va detto, non era una prassi anomala, anzi, era una pratica molto diffusa tra artisti e studiosi di anatomia.

Questi esperimenti, si ipotizza, abbiano provocato una qualche reazione nel corpo calcificando o plastificando l’intero apparato arterio venoso, che poi, successivamente, il medico ha ripulito, analizzato e ricostruito.

Questa ipotesi abbastanza inquietante, lo ammetto, porta con se una domanda, ovvero, è possibile fare qualcosa del genere? e soprattutto, è possibile che un alchimista del XVIII secolo sia riuscito a farlo per almeno due volte?

Andiamo con ordine e la risposta alla prima domanda è, si.

Escludendo eventuali cause naturali, c’è effettivamente uno, anzi, molti modi cui ottenere un risultato di questo tipo.

Il più elementare dei metodi è attraverso l’uso della formalina, una molecola molto semplice da sintetizzare, il cui processo di sintetizzazione è stato formulato per la prima volta nel 1867 dal chimico tedesco August Wilhelm von Hofmann , tuttavia, va precisato che, nel XVIII e in larga parte nel XIX secolo, era molto sperimentale ed è molto probabile che, prima del 1867, anche altri chimici e alchimisti, siano riusciti a sintetizzare la molecola della formalina, senza però tramandarla ai posteri.

Tornando alla formalina, questa, se iniettata, interrompe il processo di decomposizione attraverso le arterie, uccidendo i batteri e arrestando il decadimento tissutale. Permettendo quindi al medico o all’imbalsamatore, di rimuovere la pelle, il tessuto connettivo e il tessuto adiposo e conservare soltanto vene, arterie e organi.

L’uso della Formalina nel processo di imbalsamazione, per la preservazione degli organi , è stato teorizzato e successivamente brevettat dall’anatomopatologo tedesco Gunther von Hagens nel 1978, all’interno di un più ampio procedimento che porta alla Plastinazione di vene, arterie e organi interni, che, una volta preservati dalla decomposizione, vengono “plastificati” operando una sostituzione dei liquidi con dei polimeri di silicone.

Nel XVIII secolo è improbabile che giuseppe Salerno abbia fatto ricorso ai polimeri di silicone, tuttavia, i suoi modelli, potrebbero essere stati realizzati proprio in questo modo, con una leggera variazione al processo di plastinazione di Hagens.

Una volta iniettata la formalina, o più probabilmente una sua versione più grezza e primitiva, nel corpo delle proprie cavie, ed aver interrotto la decomposizione delle vene e arterie, Giuseppe Salerno potrebbe aver introdotto, con successive iniezioni, il suo composto colorato a base di cera d’api che, con il tempo si sarebbe solidificato permettendo così, al medico e alchimista palermitano, di poter godere a pieno di un modello anatomico completo dell’intero apparato arterio venoso.

Questa ipotesi sembra oggi la più plausibile, se bene non vi sia alcuna certezza.

Ho chiesto quindi Giuseppe Alonci, chimico, del canale youtube “la chimica per tutti” e autore del libro “Tutta questione di chimica. Sette brevi lezioni sul mondo che ci circonda” qualche informazione a riguardo e, mi ha anche spiegato quanto è semplice sintetizzare la formalina aggiungendo che per lui non è difficile immaginare che un alchimista del XVIII secolo, sia riuscito a sintetizzare la formalina e anticipare di due secoli la plastinazione di Hagens.

A Livermore c’è una lampadina accesa dal 1901

La lampadina centenaria di Livermore, è accesa (quasi) ininterrottamente dal 1901. Ma perché questa lampadina, estremamente longeva, del secolo scorso è così importante? La risposta è in una parola, anzi due, obsolescenza programmata, e questa lampadina è un residuo del mondo precedente la sua introduzione.

Non le fanno più come una volta… ed è vero, non le fanno più come una volta.
Ma, l’obsolescenza programmata è un bene o un male ?

è sicuramente un bene per le imprese e per i lavoratori, che possono continuare a produrre.
è un bene per l’economia e la finanza, che grazie ad essa più alimentarsi e produrre ricchezza.
è un forse per la società che da un lato vede aumentare i propri benefici, ma dall’altra è soggetta a spese cicliche.
è un male minore per i consumatori, che sono costretti a rinnovare i propri beni riacquistando più volte lo stesso oggetto (tipo la lampadina), ma allo stesso tempo è un bene minore, perché permette di migliorare l’efficenza con oggetti nuovi, più performanti (tipo, lampadine che consumano di meno)
è un male, decisamente un male, per il pianeta, perché alimenta la produzione di rifiuti, il fabisogno enegetico dovuto alla produzione dei beni e l’estrazione di risorse necessarie per produrre quei beni, ed è un male perché impoverisce il pianeta, svuotandolo dall’interno (passatemi la metafora).

Dunque… l’obsolescenza programmata, è un bene o un male? voi da che parte state?

“State dalla parte di chi ruba nei supermercati, o di chi li ha costruiti… rubando” ? [cit de Gregori, chi ruba nei supermercati]

Con questo articolo voglio parlarvi di Obsolescenza programmata, e voglio farlo in un modo diverso dal solito, senza polemiche, senza costrutti filosofici o dati statistici ed economici. Voglio farlo, raccotandovi una storia, ed è una storia davvero molto bella, a tratti avvincente e commovente, ed è la storia di una lampadina accesa da oltre un secolo.

Quando si parla di obsolescenza programmata, spesso lo si fa in modo critico e in termini estremamente negativi, ignorando la storia di questa pratica, dalla dubbia moralità, che determinato le sorti della nostra civiltà, al pari della prima e della seconda rivoluzione industriale, e qualcuno, azzarda, con un po’ di imprudenza, che l’obsolescenza programmata, rappresenti de facto, la terza rivoluzione industriale.

La sua storia inizia ufficialmente nel 1924, negli stati uniti d’america, quando alcune aziende produttrici di lampadine decisero di unirsi insieme e stabilirono un tempo predeterminato per la vita delle lampadine di loro produzione, costituendo, de facto, il primo caso certo (e ampiamente documentato) di obsolescenza programmata della storia.

Nel 1924 diverse società attive nella produzione di lampadine (tra le principali General Electric Company, Tungsram, Compagnie di Lampes, OSRAM, Philips), fondarono il cartello Phoebus, per la produzione e vendita delle lampadine, e le società che si adeguarono al cartello iniziarono a “programmare” il tempo di vita delle lampadine, così che dopo un certo numero di ore di utilizzo, fosse necessario sostituirle.

Ad oggi molte lampadine indicano una durata che va mediamente dalle 1000 alle 30000 ore (mediamente 15000).

Trentamila ore sono tante direte voi, beh, in realtà anche centomila ore di utilizzo probabilmente sarebbero sono poche se rapportate alla longevità di alcune delle lampadine (alogene) prodotte prima del 1924, ed ho un esempio che sono sicuro, vi lascerà letteralmente senza parole.

Negli USA, in una caserma dei pompieri di Livermore, è presente una lampadina che è accesa ininterrottamente dal 1901. In realtà non è proprio accesa dal 1901, la sua storia è divisa in due step, questa lampadina è stata accesa per la prima volta nel 1901 ed è rimasta accesa fino al 1976, quando venne spenta per circa 23 minuti, a causa di un trasferimento della caserma in un nuovo edificio, poi venne riaccesa, e attualmente è ancora lì, ancora accesa.

Secondo alcune leggende metropolitane, durante lo spostamento della lampadina la popolazione di Livermore rimase letteralmente con il fiato sospeso in quei 23 minuti, perché temevano che la lampadina, ormai divenuta simbolo intramontabile della cittadina, potesse non riaccendersi.

Il caso della vecchia Centennial Light, è ovviamente un caso estremo, non tutte le lampadine prodotte all’inizio del XX secolo erano così longeve, ma erano comunque molto longeve, abbiamo lampadine accese agli inizi del XIX secolo e sostituite per la prima volta dopo la seconda guerra mondiale, e questa longevità forse eccessiva è il motivo per cui i produttori di lampadine associati al cartello (ma in realtà tutti i produttori di lampadine) hanno deciso di limitare il tempo di vita delle proprie lampadine.

Senza girarci troppo attorno, se vendi lampadine e produci una lampadina che dopo oltre un secolo di illuminazione costante, continua a fare luce, beh, ne hai sicuramente un grande ritorno a livello di immagine, e questo è innegabile, ma poi, in termini di economia reale, ne ricevi un danno, perché quando tutti avranno acquistato le tue lampadine “eterne“, a quel punto non ci sarà più mercato e la tua azienda, che produce e vende lampadine, non avrà nuovi clienti per almeno un secolo, e sarà quindi destinata a fallire o comunque a limitare o sospendere la produzione.

Da questo punto di vista, il cartello Phoebus, che rimase attivo tra il 1924 ed il 1939, ideando l’obsolescenza programmata segnò un passo importantissimo nella storia economica dell’età contemporanea e non solo, giocò anche un ruolo centrale, soprattutto negli anni successivi alla seconda guerra mondiale, nel definite il carattere e le abitudini della società dei consumi, di fatto diventando il punto d’origine del consumismo reale.

Oggi l’obsolescenza programmata è di diversa natura ed è praticata, più o meno direttamente, da qualsiasi produttore di qualsiasi cosa sul pianeta, dalle scarpe ai pc alle automobili. Oggi, qualsiasi cosa è soggetta, inevitabilmente all’obsolescenza programmata, un obsolescenza che spinge il consumatore, dopo qualche anno di utilizzo a sostituire un prodotto con un analogo più recente, e molto spesso non a causa di un guasto o di un malfunzionamento, ma semplicemente perché il proprio prodotto è banalmente troppo vecchio.

Oggi i consumatori sono spinti a riacquistare periodicamente un qualcosa che fondamentalmente ha la stessa funzione di qualcosa di cui già disponeva, perché sul mercato è stata rilasciata una nuova versione più potente, più efficiente, con più funzioni, più aggiornata, che consuma meno, che produce meno rifiuti, o che banalmente, ha un design più moderno.

Al giorno d’oggi l’obsolescenza programmata è tacitamente accettata dai consumatori, nonostante in alcuni casi si muova in una zona grigia ai limiti della legalità che, in alcuni casi ha portato a vere e proprie condanne ad alcune multinazionali un po’ troppo spregiudicate nel mettere in atto questa pratica dalla doppia faccia.

Da un lato l’obsolescenza programmata rappresenta il cuore pulsante dell’economia di mercato, e di fatto tiene in vita l’attuale sistema economico, e ci aiuta a consumare col tempo meno energie o inquinare meno, facendoci magari acquistare, una lampadina prodotta con materiali riciclabili invece che tossici e che consuma meno energia, ma dall’altra parte, la necessità di alimentare i mercati, produce parallelamente una quantità crescente rifiuti e la produzione costante richiede un consumo continuo di energie.

L’impatto dell’obsolescenza programmata sulle nostre vite, sulla nostra economia, e in termini più ampi, sul nostro stesso pianeta, è qualcosa di enorme, se una lampadina durasse mediamente cento e non due anni, da un lato cambieremmo lampadine in casa probabilmente una sola volta nella nostra vita, di conseguenza producendo meno rifiuti, dovendo gettare meno lampadine guaste e non avendo confezioni di nuove lampadina da smaltire e allo stesso tempo richiederemmo al pianeta un minore consumo di risorse, perché l’industria produrrebbe meno lampadine, ma, allo stesso tempo, proprio la minor produzione di lampadine impiegherebbe meno operai sia in fase di produzione che di estrazione delle materie prime che in fase di commercio, ci sarebbe di fatto meno lavoro e questo significherebbe meno denaro in circolazione, con tutte le ovvie conseguenze del caso, sia per le aziende, che per i lavoratori, che per gli stati.

L’obsolescenza programmata, al di la di tutto, ha cambiato il nostro mondo e rivoluzionato la nostra economia e la nostra società, la sua introduzione forse un giorno verrà considerata come l’alba della terza rivoluzione industriale, più silenziosa e sotterranea delle precedenti, o forse, verrà riconosciuta come la causa principale degli enormi danni ambientali provocati dall’uomo proprio a partire dalla sua introduzione, poiché l’obsolescenza programmata ha attivato un meccanismo di produzione costante che ha moltiplicato esponenzialmente il nostro fabbisogno energetico quotidiano.

Se l’obsolescenza programmata è un bene o un male, lo lascio decidere a voi, fatemi sapere cosa ne pensate nei commenti.

Io sono Antonio e vi do appuntamento al prossimo episodio del podcast, L’osservatorio.

Chi era Galileo Galilei?

L’uomo che Inventò la scienza moderna.

Galileo Galilei, l’uomo che inventò il metodo scientifico e il telescopio, intuì l’esistenza della forza di gravità e della costante di accelerazione gravitazionale (pur non riuscendo a calcolarla), mettendo così in discussione la teoria geocentrica e per questo fu perseguitato dalla santa inquisizione. Un accademico, un matematico, un ingegnere militare, un uomo che oggi definiremmo un visionario e un luminare, la cui intelligenza, come spesso accade, fu spesso vissuta come un peso, un genio di quelli che nascono raramente.

Galilei vine spesso preso a modello, come esempio da chi sostiene teorie stravaganti che non incontrano il consenso generale, ma ridurre Galilei ed il suo genio a questo, è estremamente riduttivo, oltre che falso.

Galileo Galilei non era un provocatore, non era un uomo che seguiva teorie stravaganti per il proprio gusto, ne era un ricercatore indipendente che lavorava a chissà quale misteriosa invenzione, in penombra nella propria cantina. al contrario, no, Galilei non era nulla di tutto questo. Era invece un rinomato accademico del proprio tempo, un uomo che godeva di grande rispetto e ammirazione nei salotti aristocratici e nei circolo colti, un uomo che lavorò a stretto contatto con importanti realtà politiche dell’epoca.

Lavorò a lungo all’Università di Pisa e all’Università di Padova, occupando la cattedra di matematica, lavorò a lungo e continuativamente (tra il 1592 ed 1610) per il Doge di Venezia, anzi, con i Dogi, Pasquale Cicogna (1585–1595), Marino Grimani (1595–1605) e Leonardo Donà(1536-1612). Il Doge non era un’uomo qualsiasi, era l’uomo più potente di quella che sul finire del XIV secolo e i primissimi anni del XV secolo, era forse la più potente e influente delle repubbliche marinare, e delle più grandi e influenti potenze marittime del mediterraneo, il Doge era un uomo la cui posizione di comando gli permetteva di muovere guerra a realtà potenti come l’Impero Ottomano e Roma, la sede del papato.

Questi uomini, (Cicogna, Grimani, Donà) affidarono a Galilei le sorti, ed il futuro, della propria città, incaricando il matematico pisano di sviluppare cannoni più efficaci, con una maggiore potenza e gittata, rispetto a quelli all’epoca in circolazione, elementi (potenza e gittata) che, in uno scontro navale, avrebbero fatto la differenza tra vittoria e sconfitta, ed essendo la serenissima un’importante realtà marittima, una delle maggiori potenze navali del mediterraneo, questo significava consolidare la posizione di potere di Venezia.

Questo incarico impegnò Galilei per quasi due decenni, nel corso dei quali frequentò assiduamente l’arsenale militare di Venezia, facendo test, esperimenti ed in quel contesto di ricerca applicata rifinì quello sarebbe stato consacrato come metodo scientifico.

Galilei studiò diverse miscele di polvere da pirica, nel tentativo di sviluppare l’esplosione più veloce, quindi più potenti, confrontò cannoni di diverso calibro e lunghezza, nel tentativo di individuare la combinazione più efficace, confrontò le diverse angolazioni dei cannoni, al fine di determinare l’angolo ideale per la migliore gittata.

Contestualmente a questi esperimenti e alla propria posizione accademica, strinse numerose amicizie nei salotti veneziani e padovani, il tutto consentito dal positivo e florido clima di tolleranza che attraversava la Serenissima. Tra queste amicizie vi erano filosofi, astronomi e matematici, ma anche nobili ed uomini di cultura, dediti al sapere e alla ricerca, e nelle lunghe giornate trascorse a confrontare idee e teorie con uomini come Paolo Sarpi, Andrea Morosini, Cesare Cremonini e Giovanfrancesco Sagredo (futuro protagonista del Dialogo sopra i massimi sistemi), Galilei ottenne alcune delle sue più importanti scoperte e conquiste in campo scientifico.

Già prima di raggiungere Venezia Galilei aveva dimostrato il proprio valore, come dimostra la docenza di Matematica, svolta per conto dell’università di Pisa, tra il 1589 ed il 1592, e le ricerche che svolse in quegli anni, ricerche che, secondo la leggenda, lo avrebbero portato a compiere il famoso esperimento di caduta dei gravi dalla Torre di Pisa stabili, esperimento che volto a dimostrare che oggetti di peso differente cadono alla stessa velocità, in obiezione alle teorie Aristoteliche, e proprio grazie a queste dimostrazioni, Galilei venne convocato a Venezia.

L’intuizione della forza di gravità, questa misteriosa forza d’attrazione che ci tiene incollati al terreno e ci impedisce di librarci nel cielo,
la cui costante di accelerazione venne calcolata non molto tempo dopo da Isaac Newton, aveva importanti applicazioni militari, una su tutte, la possibilità concreta di migliorare la gittata dei cannoni delle navi. Questa possibile applicazione militare fu sufficiente a convincere il Doge Pasquale Cicogna ad invitare Galilei a Venezia, dando inizio ad un sodalizio che sarebbe durato quasi un ventennio.

Studiare la gittata dei cannoni, e soprattutto aumentarne la gittata, significava compiere numerose misurazioni tra un colpo esploso ed il successivo, era infatti necessario sapere esattamente quanta distanza aveva percorso ogni singola palla di cannone esplosa, e questo significava numerosi assistenti ed aiutanti che correvano avanti e in dietro tra il cannone e il punto di impatto delle palla di cannone.

Questo procedimento era molto lento e rallentava tantissimo la raccolta dei dati, che spesso si limitava ad una dozzina di colpi al giorni. Per ovviare a questo problema, Galilei cercò un modo più rapido per avere informazioni, il più possibile accurate, e nel minor tempo possibile, sulla distanza percorsa dalle palle di cannone. Ideò quindi un sistema di griglie che contrassegnavano il campo durante i test balistici, dopo di che, si procurò uno strumento che gli permettesse di guardare più lontano di quanto i suoi occhi non riuscissero a vedere, posizionò delle lenti levigate alle estremità di un cilindro creando la prima versione di quello che sarebbe diventato il suo famoso cannocchiale.

Il cannocchiale, da cui sarebbe poi scaturito il telescopio, strumento con cui Galilei avrebbe scrutato i cieli notturni della sua Pisa, osservando stelle e pianeti e raccolto i primi dati sul moto astrale, dati che avrebbero successivamente portato allo sviluppo della teoria eliocentrica e messo in discussione la teoria geocentrica, portando così Galileo Galilei a scontrarsi, sul piano intellettuale, con i dogmi della chiesa romana e conseguentemente, dovette affrontare i tribunali della santa inquisizione.

Quella che è forse la più grande conquista scientifica di Galileo Galilei non fu ottenuta per la vocazione di un visionario, ma per l’ostinatezza e la determinazione di un uomo a cui era stato affidato un incarico ben preciso. Fu la necessità di migliorare la gittata dei cannoni veneziani che permise a Galilei di creare quello strumento di osservazione che gli avrebbe portato gloria postuma ed enormi problemi in vita.

Va però detto che Galilei fu molto fortunato nella propria sfortuna, perché un qualsiasi altro uomo, con quelle teorie, in quel momento storico, non sarebbe sopravvissuto alle torture dell’inquisizione. Ma Galilei non era un uomo comune, non era un mugnaio friulano come Domenico Scandella, detto Menocchio, che credeva la vita sulla terra fosse scaturita come dei vermi sul formaggio, Galilei aveva frequentato e frequentava salotti importanti, godeva dell’amicizia, della stima e del rispetto di uomini potenti e molto influenti, certo, non così potenti da impedire i processi, ma abbastanza da impedire che Galilei venisse condannato a morte per eresia, permettendogli di continuare a vivere, compiere le proprie proprie ricerche e sviluppare le proprie teorie per molti anni.

Letture consigliate per approfondire

B.Brecht, Vita di Galilei, https://amzn.to/2V1fODv
M.Camerota, Galileo Galilei. Antologia di testi, https://amzn.to/2GuFt4o
A.Zorzi, La repubblica del leone, Storia di Venezia, https://amzn.to/2EeoEIp
G.Minchella, Frontiere aperte. Musulmani, ebrei e cristiani nella Repubblica di Venezia, https://amzn.to/2GuObzI
M.Sangalli, Cultura, politica e religione nella Repubblica di Venezia tra Cinque e Seicento. Gesuiti e somaschi a Venezia, https://amzn.to/2EdX0LG