Fentanyl, la droga letale in rapidissima diffusione


È un oppioide sintetico nato come farmaco antidolorifico e anestetico. Potentissimo, sta facendo migliaia di vittime nel Nord America. Ma è arrivato anche sulle piazze dello spaccio italiane ed europee. L’allarme è grande e giustificato.

Ascoltando la splendida Purple rain, il pensiero corre subito a Prince, il genio di Minneapolis, che venne ucciso il 21 aprile 2016 da un’overdose di fentanyl. Questo è un oppioide sintetico che il cantante statunitense aveva assunto in seguito all’intervento a un’anca. Lo stesso fentanyl sarebbe la causa della morte nel 2018 di Dolores O’Riordan, la cantante dei Cranberries e di Tom Petty (morto nel 2017), un cantautore e chitarrista statunitense che lavorò anche con Bob Dylan. Questi sono alcuni dei casi più famosi di morti legate all’abuso di fentanyl, sostanza che sta uccidendo centinaia di migliaia di persone ogni anno negli Usa e in Canada e che, da qualche tempo, ha fatto il suo ingresso anche in Europa, dove si teme possa verificarsi un’analoga situazione, benché, per il momento, il numero dei decessi sia ancora basso.

La potenza del fentanyl spiega le sempre più frequenti morti per overdose di coloro che se lo procurano per strada o via dark web oppure lo consumano inconsapevolmente, perché, da qualche anno, viene utilizzato come sostanza da taglio per eroina, cocaina, allucinogeni ed ecstasy. In totale, nel 2023 i decessi per overdose negli Usa hanno superato le 112mila unità e per oltre l’80% di loro il responsabile è stato il fentanyl.

Le cause della diffusione

La quantità di fentanyl sufficiente per provocare conseguenze letali. Foto DEA – United States.

Per capire come questo farmaco sia diventato una delle droghe più diffuse e sia aumentato enormemente il numero di coloro che ne sono diventati dipendenti è necessario risalire ai primi anni Novanta.

All’epoca i medici negli Usa iniziarono a prescrivere il fentanyl come antidolorifico, con una certa disinvoltura legata ad una vera e propria campagna di disinformazione mirata a farne aumentare le prescrizioni, campagna messa in atto da diverse case farmaceutiche. Contro di esse, nel corso degli anni, si sono accumulate oltre duemila azioni legali che hanno portato, tra l’altro, al fallimento della Purdue Pharma. Nella sua campagna promozionale veniva infatti asserito che il fentanyl non crea dipendenza, mentre invece è provato che il suo abuso porta a una gravissima forma di dipendenza e al rischio di overdose.

Un’altra causa della diffusione del fentanyl illegale negli Usa è insita nella mancanza in questo Paese di un sistema di assistenza sanitaria universale, sostituita dal sistema assicurativo. Questo ha portato i meno abbienti a rivolgersi al mercato clandestino dei narcotrafficanti che su queste droghe hanno creato un impero, soprattutto quando il legislatore ha tentato di arginare la situazione rendendo più controllate la prescrizione e la distribuzione del fentanyl.

Protagonisti sono i cartelli messicani che, da anni, immettono negli Usa e in Canada grosse partite di fentanyl. Si sospetta che stiano tentando di orientare tutto il consumo di droghe verso questa sostanza che, come detto, viene utilizzata anche come adulterante di altre droghe. Questa situazione è fonte di enormi guadagni per i cartelli della droga per più di un motivo: il fentanyl crea forte dipendenza, è facile da produrre e costa poco perché, come tutti gli oppioidi sintetici, non necessita di piantagioni (che infatti in Messico stanno diminuendo), non è soggetto all’aggressione dei parassiti o alle variazioni climatiche.

Inoltre, dato che il fentanyl è molto potente, circa 50 volte l’eroina, è molto più facile da trafficare: basta pensare che 100 grammi di fentanyl equivalgono a 5 kg di eroina.

La geopolitica del fentanyl: Cina, Messico, Usa

I narcotrafficanti messicani hanno organizzato nel loro territorio dei laboratori clandestini, nei quali specialisti di chimica assoldati allo scopo sintetizzano questa e altre sostanze a partire dai loro precursori provenienti dall’Asia. Tuttavia, essi acquistano anche grandi quantitativi di fentanyl a basso prezzo direttamente dalla Cina, che da anni ne è il più grande produttore mondiale. E ciò nonostante il governo di Pechino abbia dichiarato l’illegalità della sua produzione e si sia impegnato a perseguire chi lo sintetizza. E ciò su pressione degli Stati Uniti, con cui la Cina ha ratificato un accordo in occasione di un incontro – tenutosi a San Francisco lo scorso novembre – tra il presidente americano Joe Biden e il presidente cinese Xi Jinping.

Per capire la portata di questo giro d’affari, basta considerare quanto afferma un rapporto della Dea (Drug enforcement administration), l’agenzia federale antidroga degli Usa, secondo cui un chilo di fentanyl a elevato grado di purezza acquistato in Cina costa tra i 3.300 e i 5.000 dollari.

Una volta mescolato ad altre sostanze, si possono ottenere da 16 a 24 kg di prodotto e il profitto può arrivare fino a 1,9 milioni di dollari.

Se invece il fentanyl viene smerciato tal quale, essendo molto potente, con soli 10 grammi si arriva a produrne più di 300 dosi, che hanno di solito un prezzo compreso tra i 10 e i 60 dollari, a seconda della zona di spaccio. Dato il prezzo abbordabile, anch’esso causa dell’aumento delle overdosi da fentanyl, questa sostanza è consuma-

ta soprattutto tra le fasce più deboli della popolazione americana, in primis gli afroamericani seguiti dai latinoamericani.

Sperimentazioni

Le principali conseguenze del fentanyl sul corpo umano.. Immagine American Addiction Centers.

Mentre negli Usa si tiene il conto delle morti da overdose, in Messico nessuno se ne cura, per cui i narcotrafficanti possono sperimentare liberamente le nuove combinazioni del fentanyl con altre droghe.

Il problema è quello di riuscire a rendere i clienti dipendenti, senza ucciderli con dosi letali, ma per questo occorre sperimentare su esseri umani.

Le cavie vengono reclutate solitamente nei quartieri marginali di alcune città, tra cui Tijuana, Mexicali e Ciudad Juárez con distribuzioni gratuite o a bassissimo prezzo.

A seguito di queste sperimentazioni, molti giovani sono morti e moltissimi sono diventati dipendenti. Si stima che nel 2018 solo a Tijuana e Mexicali vi fossero almeno mezzo milione di dipendenti da sostanze. I centri di disintossicazione presenti solo in queste due città sono 76.

Negli Stati Uniti si sono susseguite tre ondate di crescente consumo di oppiacei (morfina e sostanze similari) e di oppiodi (sostanze con attività morfino-simile), con conseguente aumento delle morti per overdose. Secondo i dati del Cdc (Center for disease control and prevention), agenzia federale del Dipartimento della salute statunitense, la prima ondata si è verificata come conseguenza dell’aumento delle prescrizioni di oppioidi negli anni Novanta, a cui ha fatto seguito un aumento dei decessi da overdose a partire dal 1999.

Si sospetta che, in qualche caso, possano avere fatto uso degli oppioidi anche i familiari dei pazienti, avendo spesso a disposizione le rimanenze del farmaco, per eccesso di prescrizione.

La seconda ondata ha avuto inizio nel 2010, quando è aumentato notevolmente il numero dei decessi per overdose da eroina, cercata da chi non necessitava più di controllare il dolore, ma era ormai diventato dipendente da oppiacei ed era quindi portato a cercarli nel mercato illegale.

La terza ondata è cominciata nel 2013 con un significativo aumento dei decessi da overdose dovuta agli oppioidi sintetici, soprattutto il fentanyl prodotto illegalmente e spesso mescolato ad altre sostanze.

Attualmente gli oppioidi sintetici sono la prima causa di morte sotto i cinquant’anni negli Usa, dove si registrano circa 200 morti al giorno. Nella sola New York ci sono stati tremila decessi per overdose nel 2023. Tuttavia il primato delle morti per overdose spetta a Filadelfia (dove sta emergendo anche il problema del fentanyl tagliato con xilazina, un potente sedativo, analgesico e miorilassante per uso animale, altrimenti conosciuta come tranq), seguita da San Francisco.

Tra il 2013 e il 2021 negli Usa è stato rilevato un aumento di 30 volte dei decessi correlati al fentanyl in età pediatrica e tra gli adolescenti. Mentre per questi ultimi è ipotizzabile il consumo di stupefacenti a scopo ricreativo, per i bambini non si può fare a meno di pensare alla carenza delle cure parentali e soprattutto di attenzione da parte dei familiari consumatori di oppioidi, che molto probabilmente lasciano le sostanze incustodite e a portata di mano dei piccoli.

Le droghe su misura

Come fanno i narcotrafficanti a eludere i controlli e a immettere sul mercato grandi quantitativi di sostanze stupefacenti? La risposta sta nelle designer drug o «droghe su misura», cioè molecole sintetizzate da chimici clandestini che cambiano qualche parte della molecola originale in modo che la nuova sostanza imiti l’effetto del model-

lo di partenza senza essere riconosciuta dai sistemi di controllo. La categoria di designer drug in più rapida espansione è proprio quella degli oppioidi sintetici. Basta pensare che nel 2009 l’Unodc (United nations office on drugs and crime) registrava un solo oppioide costruito «su misura», mentre nel 2023 erano già 132. Le designer drugs riescono a circolare liberamente e legalmente finché non vengono riconosciute, cosa che necessita di test sempre nuovi e più sofisticati. Gran parte delle droghe su misura attualmente in circolo appartengono a quattro categorie: i cannabinoidi sintetici, i catinoni, le fenetilammine e gli oppioidi sintetici. Ciascuna di queste categorie comprende centinaia di molecole molto diverse per natura chimica ed effetti. Queste sostanze sono prodotte principalmente in Cina e India, ma dal 2015 sono stati scoperti almeno 52 laboratori di sintesi clandestina anche in Europa.

Tossicodipendenti sotto un ponte. Foto Rizvi Rahman – Unsplash.

Il ruolo del web

Il mercato di queste sostanze è spesso su internet, sia nel deep web che su normali siti dediti alla vendita di prodotti apparentemente «innocenti»: i cannabinoidi sintetici spruzzati su mix di piante secche da fumare sono venduti come incensi; i catinoni, che si presentano come polveri cristalline e si confondono facilmente con sali da bagno o fertilizzanti, e come tali vengono smerciati. Qualche volta vengono venduti come composti chimici per laboratori di ricerca.

Nei primi anni Novanta, grazie all’avvento di internet, non solo è stato creato un mercato di sostanze stupefacenti sul web, ma per molti chimici clandestini è stato possibile scambiarsi informazioni e, soprattutto, accedere liberamente alla letteratura scientifica, quindi alle procedure di sintesi. In pratica, le ricette sono sul web e i chimici-cuochi producono e vendono dai laboratori clandestini.

Ad esempio, uno studio risalente al 1974 della Janssen Pharmaceutica ha permesso ai chimici clandestini di sintetizzare i derivati del fentanyl, altrimenti detti fentenili. È chiaro quindi che molte designer drugs derivano da molecole di ricerca biomedica e potrebbero pertanto tornare utili nella pratica medica per il loro potenziale terapeutico. Per non parlare del possibile utilizzo in questo campo dell’Intelligenza artificiale (Ia).

Nel 2021 un gruppo di ricerca diretto da David Wishart dell’Università dell’Alberta in Canada ha messo a punto una Ia chiamata DarkNps (New psychoactive substances), la quale ha assimilato le strutture di 1.753 sostanze psicoattive note e ha generato circa 9 milioni di varianti con una capacità di prevedere circa il 90% delle nuove droghe prodotte dai chimici clandestini, rivelandosi utilissima nella lotta al narcotraffico. Tuttavia, le Ia di questo tipo potrebbero presto diventare delle ottime assistenti anche per i chimici clandestini. Nel contempo potrebbero ideare e realizzare la sintesi di nuove molecole utili a scopo terapeutico. Come sempre la scienza è neutra e sta a noi usarla bene o male.

Rosanna Novara Topino

 

 




Dai gabbiani ai maiali


L’influenza colpisce anche gli animali, in particolare con il virus di tipo «A». Le più diffuse sono l’influenza aviaria e quella suina. In queste pagine, cerchiamo di capire le modalità di trasmissione del virus e le conseguenze sull’uomo.

Da oltre un anno si è avuta in tutto il mondo una recrudescenza dell’influenza aviaria, una malattia degli uccelli causata da un virus dell’influenza di tipo A (vedi sotto: H1N1 versus H5N1). Può essere a bassa (Lpai) o ad alta patogenicità (Hpai).

L’influenza aviaria può contagiare praticamente tutte le specie di uccelli, ma le manife-

stazioni possono essere molto diverse: dalle forme leggere a quelle altamente patogene e contagiose, capaci di causare rapidamente epidemie acute. Se la malattia è causata da una forma virale altamente patogena, può insorgere in modo improvviso e portare rapidamente a morte quasi il 100% degli animali colpiti.

Nel pollame

Tra l’estate e l’autunno 2022 in Italia si è osservato il prolungamento dell’epidemia iniziata nell’autunno 2021, che ha coinvolto diverse colonie di uccelli selvatici marini appartenenti all’ordine dei suliformi (uccelli acquatici). Il 22 settembre 2022, il Centro di referenza nazionale (Crn) per l’influenza aviaria e la malattia di Newcastle ha confermato la prima positività del secondo semestre per virus dell’influenza aviaria ad alta patogenicità (Hpai, sottotipo H5N1) nel pollame e questo ha portato a un’aumento delle misure di controllo generali e specifiche.

In tutta Europa sono stati confermati nuovi casi di influenza aviaria ad alta patogenicità tra dicembre 2022 e marzo 2023, per un totale di 522 casi nei domestici e 1.138 nei selvatici.

Particolarmente rilevante è stata l’epidemia di influenza aviaria che ha colpito il gabbiano comune nel Nordest dell’Italia, in Belgio, Francia e Olanda.

Il virus responsabile di questi casi è sempre stato il sottotipo H5N1 e le analisi genetiche virali effettuate in Italia su uccelli selvatici hanno dimostrato che esso sta circolando anche nelle nostre specie stanziali. Da settembre 2022 ad aprile 2023, in Italia sono stati confermati quaranta focolai di influenza aviaria ad alta patogenicità nei domestici, riguardanti in parte gli allevamenti rurali di piccole dimensioni.

Il virus H5N1, attualmente circolante tra i volatili selvatici e domestici, si è dimostrato capace di attaccare anche i mammiferi.

Tra gennaio e febbraio 2022 si sono verificati numerosi episodi di mortalità nelle colonie di leoni marini in Perù. Un focolaio è stato confermato nell’ottobre 2022 in un allevamento di visoni in Spagna, mentre in Italia, nell’aprile 2023, sono stati confermati due casi nelle volpi, dovuti probabilmente all’ingestione di volatili morti per influenza aviaria e, inoltre, cinque cani e un gatto sono stati contagiati all’interno di un allevamento avicolo rurale.

Sorveglianza aumentata

Per tale motivo, il ministero della Salute quest’anno, oltre il mantenimento della sorveglianza sugli uccelli selvatici, ha disposto la sorveglianza anche sui carnivori selvatici.

Il dispositivo del ministero prevede il rafforzamento della biosicurezza negli allevamenti avicoli nazionali, con rilevamento precoce dei casi sospetti di Hpai, che necessitano approfondimenti rapidi in laboratori ufficiali, per effettuare diagnosi differenziali nei confronti di virus influenzali. Inoltre, in caso di accertata circolazione di virus Hpai nell’avifauna, le regioni devono mettere in atto piani di sorveglianza attiva riguardanti gli uccelli acquatici presenti in aree di particolare rilevanza epidemiologica, come i siti di raduno dei volatili lungo le principali rotte migratorie.

La sorveglianza attiva prevede l’effettuazione di controlli sanitari regolari, mediante tamponi tracheali e cloacali su campioni significativi dell’avifauna acquatica per gli esami virologici o, in alternativa, mediante il prelievo di campioni di feci (dal momento che questo virus si annida nell’intestino dei volatili, ad esempio in quello delle oche).

Zoonosi e mutazioni

Perché l’influenza aviaria, che finora ha colpito prevalentemente gli uccelli e sporadicamente gli umani, è fonte di grande preoccupazione?

Perché un virus influenzale A originatosi in un volatile potrebbe trasformarsi in un agente infettivo capace di passare da una persona all’altra, dopo un eventuale passaggio in una terza specie, il maiale.

I suini, infatti, possono funzionare da serbatoio per una ricombinazione tra i virus propri, quelli aviari e quelli umani, creando dei virus ibridi capaci di passare da persona a persona. Se poi nell’essere umano, tali ibridi dovessero subire ulteriori e casuali modifiche potrebbe sempre originarsi un nuovo ceppo virale, potenzialmente potente e letale.

L’attuale influenza aviaria, data dal virus A H5N1, si è originata nel 2003 nel Sudest asiatico. Successivamente ha invaso tutta l’Asia da cui si è propagata al resto del mondo. Finora ha colpito oltre 150 milioni di volatili e si sono contate decine di vittime umane, per lo più tra gli addetti agli allevamenti e al commercio di pollame. Sebbene attualmente l’influenza aviaria sia diffusa soprattutto tra gli uccelli e solo poche decine di persone ne siano state colpite per passaggio diretto, senza una trasmissione da persona a persona, tuttavia la circolazione continua di alcuni virus dell’influenza A (H5) e A(H7) nel pollame è preoccupante per la sanità pubblica. Questi virus non solo causano forme gravi di malattia, ma hanno il potenziale di mutare e di aumentare la trasmissibilità tra le persone.

Le mutazioni del virus

La capacità di mutare è una caratteristica peculiare di tutti i virus influenzali e in particolare degli A. Essa è strettamente legata alle caratteristiche del loro genoma, costituito da Rna segmentato e suddiviso in otto frammenti. Ciò comporta la possibilità che si verifichi, in due virus che abbiano infettato contemporaneamente la stessa cellula, il fenomeno noto come riassortimento antigenico (antigenic shift), dovuto all’associazione in nuove combinazioni dei segmenti genomici di Rna appartenenti a due ceppi virali geneticamente distinti. Da questi processi di riassorbimento prendono origine i «virioni» che presentano un corredo proteico di superficie significativamente diverso da quello di entrambi i virus parentali.

Anticorpi (sistema immunitario e vaccinazione)

Gli anticorpi sono grandi proteine (a forma di Y) che aiutano a difendere le cellule dell’organismo dall’intromissione di corpi estranei come batteri e virus.

Le proteine di superficie virali sono il principale bersaglio degli anticorpi prodotti dal sistema immunitario durante un’infezione naturale o a seguito di un’immunizzazione artificiale (cioè di una vaccinazione). Gli anticorpi preesistenti nell’organismo nulla possono contro le nuove forme virali.

Oltre al riassortimento antigenico, i virus dell’influenza sono caratterizzati anche dalla deriva genetica (antigenic drift) dovuta alle frequenti mutazioni nei geni che codificano per emoagglutinina (HA) e neuroaminidasi (NA). Le alterazioni delle proprietà di superficie dei virus influenzali rendono, pertanto, necessaria la produzione di nuovi anticorpi ad hoc. Questo spiega la necessità di produrre nuovi vaccini antinfluenzali ogni anno.

Nel caso dell’influenza aviaria, attualmente non esiste un vaccino specifico per uso umano. La raccomandazione è di effettuare la vaccinazione contro l’influenza stagionale, in modo da non correre il rischio di stressare oltremodo l’organismo a seguito di una coinfezione da parte di entrambi i virus. Inoltre, la riduzione delle coinfezioni riduce la probabilità che i virus possano acquisire la capacità di diffondersi da persona a persona.

Per quanto riguarda i farmaci attualmente a disposizione per il trattamento dell’influenza aviaria, alcuni farmaci antivirali (come gli inibitori della neuroaminidasi) si sono dimostrati efficaci nel ridurre la durata della replicazione virale, con miglioramento delle prospettive di sopravvivenza. Purtroppo è stata segnalata l’insorgenza di resistenza da parte dei virus ad alcuni di essi.

Carne e uova

Nell’Ue, i focolai di influenza aviaria ad alta patogenicità nel pollame, causati dai sottotipi H5 e H7, prevedono l’attuazione di strette misure di controllo che comportano l’abbattimento e la distruzione dei volatili negli allevamenti colpiti, nonché l’istituzione di zone di controllo intorno ai focolai, dove la movimentazione è consentita solo a seguito di rigidi controlli sanitari che abbiano dato esito favorevole.

Come regola generale, inoltre, i volatili inviati al macello sono sottoposti a visita prima e dopo la macellazione, in modo da assicurare l’eliminazione dalla catena alimentare dei casi sospetti.

Tanti potrebbero chiedersi se è sicuro consumare carne e uova provenienti da aree con focolai di influenza aviaria.

Innanzitutto, va precisato che il virus dell’influenza aviaria viene inattivato dal calore. Quindi, dopo adeguata cottura, i prodotti a base di carne e le uova possono essere consumati. Del resto, il consumo di carne e uova crude o non completamente cotte dovrebbe essere sempre evitato, per potere escludere contaminazioni di qualsiasi genere.

Rosanna Novara Topino


H1N1 versus H5N1:

Le conseguenze sull’uomo

Le malattie causate da virus dell’influenza suina (H1N1) e aviaria (H5N1)  possono essere di lieve entità, con interessamento delle vie respiratorie superiori (febbre, tosse) oppure presentare una rapida progressione fino alla polmonite grave, alla sindrome da distress respiratorio acuto, allo shock e alla morte. Possono essere presenti sindromi intestinali come nausea, vomito e diarrea, soprattutto durante le infezioni da influenza A H5N1, così come congiuntivite. Le caratteristiche della malattia come il periodo d’incubazione, la gravità dei sintomi e il quadro clinico variano a seconda del virus, che ha causato l’infezione, con una netta prevalenza dei sintomi respiratori. Si è visto che i pazienti con virus dell’influenza A (H5) o A (H7N9) presentano un decorso clinico più aggressivo. Inizialmente essi presentano febbre alta (>38°C) e tosse, a cui fa seguito l’interessamento da dispnea delle basse vie respiratorie. Mal di gola o raffreddore, in questi casi sono meno comuni. In alcuni pazienti sono stati riportati anche altri sintomi come quelli intestinali, sanguinamento dal naso o dalle gengive, encefalite e dolore toracico.

RNT


I virus influenzali A, B, C e D

Le quattro tipologie

  • I virus influenzali A – alla cui categoria appartiene quello dell’aviaria – infettano l’uomo e diversi animali. La comparsa di un nuovo virus influenzale di tipo A capace d’infettare le persone e con trasmissione da persona a persona può causare una pandemia influenzale.
  • I virus influenzali B sono suddivisi in due linee, cioè il B/Yamagata e il B/Victoria; essi sono presenti solo nell’uomo, sono meno temibili degli A e sono responsabili delle epidemie stagionali.
  • I virus influenzali C possono infettare sia le persone che i suini e solitamente danno un’infezione asintomatica o una forma lieve di malattia simile a un comune raffreddore.
  • I virus influenzali D sono di recente identificazione e sono stati isolati solo nei bovini e nei suini. Al momento non è chiaro se possano infettare anche l’essere umano.

I virus influenzali di tipo A sono particolarmente importanti per la sanità pubblica per via del loro potenziale zoonosico, cioè la trasmissione dagli animali all’uomo. Data l’elevata trasmissibilità che li caratterizza, se fossero in grado di trasmettersi da uomo a uomo, essi potrebbero scatenare una pandemia influenzale (spillover o salto di specie). Questi virus sono classificati in sottotipi in base alle diverse combinazioni di due glicoproteine di superficie del virus, cioè l’emoagglutinina (HA) e la neuroaminidasi (NA). Allo stato attuale, solo i virus influenzali che presentano in superficie le molecole H1, H2, o H3 e N1 o N2 possono passare da persona a persona. Soltanto alcune combinazioni possono passare da persona a persona. Tutte le altre possono contagiare le persone, ma non trasmettersi da una all’altra.

I virus influenzali responsabili delle grandi pandemie o epidemie del passato sono stati quello della «spagnola», quello dell’«asiatica» e di «Hong Kong». Il primo, l’H1N1, l’agente eziologico della «spagnola», nel 1918-19 causò da 20 a 50 milioni di morti in tutto il mondo, con un’elevata mortalità tra i giovani adulti sani (quasi la metà dei deceduti) e con il decesso che sopraggiungeva nei primi giorni dall’inizio della sintomatologia o per complicanze. Il secondo, l’H2N2, virus responsabile dell’«asiatica», fu inizialmente identificato in Cina nel febbraio 1957 e si diffuse in tutto il mondo tra il 1957-58. In Italia provocò 70mila decessi. Questo ceppo subì una serie di modifiche genetiche a partire dal 1960 che lo portarono a produrre le epidemie periodiche fino alla sua scomparsa dopo una decina di anni. Fu sostituito con l’H3N2, che, nel 1968, diede origine alla pandemia influenzale «Hong Kong», che lì si originò per raggiungere gli Stati Uniti nell’arco di un anno. Quest’ultimo virus è tuttora presente e provoca epidemie stagionali, ma attualmente è possibile prevenirlo con il vaccino antinfluenzale. Peraltro la mortalità sia dell’«asiatica» che della «Hong Kong» è stata inferiore rispetto a quella della «spagnola» non solo grazie alla produzione di vaccini, ma anche grazie all’avvento degli antibiotici (la penicillina fu scoperta da Fleming nel 1928).

Nel 2009 comparve un nuovo sottotipo del virus A H1N1 (quello della «spagnola»), che diede origine, a partire dal Messico e poi in diversi paesi del mondo, all’influenza «suina» che causò tra i 100mila e i 400mila morti solo nel primo anno, soprattutto tra bambini e giovani. Del resto, una caratteristica dei virus pandemici è quella di colpire soprattutto persone giovani, o comunque al di sotto dei 65 anni, risparmiando gli anziani, che sono più facilmente colpiti dai virus stagionali.

RNT

Accortezze in cucina

Anche in cucina vanno adottati alcuni accorgimenti. Innanzitutto bisogna sapere che il congelamento lento intorno a -18/-20°C dei congelatori domestici non è in grado di debellare il virus dell’influenza aviaria eventualmente presente nei prodotti alimentari.

Per evitare contaminazioni, bisogna sempre separare la carne cruda e le uova dai cibi cotti o pronti da consumare.

Non si devono mai utilizzare lo stesso tagliere e lo stesso coltello usati per la carne cruda anche per altri alimenti, e la carne, una volta cotta, non va messa nello stesso piatto dove era stata posta prima della cottura.

È buona norma lavarsi sempre accuratamente le mani con acqua e sapone, sia prima che dopo avere maneggiato la carne cruda.

Lavare accuratamente tutte le superfici e gli utensili che sono stati a contatto con carne cruda.

RNT

 




I prodotti contenenti Pfas, gli inquinanti eterni


È un dato di fatto che siamo circondati da prodotti d’uso quotidiano contenenti Pfas. Si tratta di sostanze chimiche che apportano ai materiali caratteristiche uniche: impermeabilità, resistenza, antiaderenza. Con una sola controindicazione: sono pericolose.

Ovunque e per sempre. Questi avverbi descrivono due delle caratteristiche principali di un nutrito gruppo di inquinanti chimici, i Pfas (acronimo per PerFluoroAlkyl substances), o sostanze perfluoroalchiliche e polifluoroalchiliche, che sono ormai ovunque nell’ambiente, nonché nel nostro sangue e nei nostri tessuti, oltre che in quelli degli altri esseri viventi.
In meno di un secolo i Pfas ci sono sfuggiti di mano e oggi sono diffusi dappertutto.

Dove si trovano

Queste sostanze sono da anni utilizzate dall’industria per costruire di tutto, perché con esse si ricavano materiali dalle proprietà eccezionali come l’impermeabilità (sia all’acqua che ai grassi), la resistenza alle alte temperature e l’antiaderenza. Basta pensare al Teflon delle padelle antiaderenti o al Goretex, la membrana presente negli indumenti e nelle calzature impermeabili e antivento.

I Pfas sono presenti anche in strumenti sanitari, saponi, scioline, automobili, schiume antincendio, refrigeranti per frigoriferi, cosmetici, telefoni, elettrodomestici, vernici, batterie, biciclette, intelaiature delle finestre. Inoltre, sono utilizzati come rivestimento per i cartoni della pizza, i bicchieri di carta e gli involucri alimentari, nella concia delle pelli e nel trattamento dei tappeti. Possiamo dire che i Pfas fanno parte della nostra quotidianità e ci facilitano la vita. Ma a che prezzo? Sebbene già da molti anni le aziende costruttrici fossero a conoscenza della nocività di queste sostanze, solo alla fine del secolo scorso e nella prima decade degli anni Duemila la loro pericolosità è divenuta di dominio pubblico in diverse parti del mondo. Nella seconda metà degli anni Novanta, un allevatore residente in West Virginia (Usa) vicino a uno stabilimento della multinazionale DuPont vide morire all’improvviso le sue vacche al pascolo, senza motivo apparente. Da questo episodio prese il via il lavoro pionieristico di un avvocato, Robert Billott, che portò ai processi che resero pubblici i problemi legati a una delle sostanze Pfas capostipiti, cioè il Pfoa o acido perfluorottanoico.

Nel 2006 l’indagine europea Perforce sulla diffusione delle sostanze perfluorate nei fiumi europei, coordinata dall’Università di Stoccolma, portò alla scoperta della presenza in grandi quantità di queste sostanze in diversi corsi d’acqua. Negli anni sono emersi, uno dopo l’altro, diversi episodi di inquinamento, in numerose aree geografiche.

Migliaia di siti contaminati

Negli Stati Uniti il caso più noto di contaminazione «accidentale» è quello verificatosi sulle sponde del fiume Ohio a opera della DuPont, che aveva taciuto per anni sulla pericolosità dei Pfas1. La mancata notifica della tossicità del Pfoa alle autorità governative Usa, costò alla DuPont una class action che portò a una multa di 300 milioni di dollari, più il pagamento di altri 630 milioni per compensare collettivamente più di 3.800 persone, che risultarono affette da una o più patologie Pfas-associate, tra cui: cancro del rene, cancro del testicolo, malattie della tiroide, ipercolesterolemia, colite ulcerosa, ipertensione gravidica (preeclampsia o gestosi).

Sempre negli Stati Uniti, la multinazionale 3M fu ritenuta responsabile di gravi episodi d’inquinamento dell’aria e dei corsi d’acqua attorno ai suoi siti produttivi in Alabama e nel Minnesota.

In Europa, i più gravi episodi d’inquinamento da Pfas si sono verificati in Germania, Regno Unito, Olanda e in Italia.

In Germania, furono sparse migliaia di tonnellate di fanghi contaminati provenienti da cartiere su oltre mille siti agricoli. Con il passare del tempo, queste sostanze si accumularono nelle piante e si dispersero nelle acque di falda utilizzate da almeno cinque milioni di tedeschi. Anni dopo, il monitoraggio della popolazione dimostrò la presenza nel sangue di Pfas (con prevalenza di Pfoa) 4-8 volte superiore nelle persone esposte.

Nel Regno Unito, intorno alla metà degli anni Novanta, si verificò un grave inquinamento da Pfas presenti nelle schiume antincendio utilizzate per l’addestramento dei vigili del fuoco dell’aeroporto dell’isola di Jersey. I terreni e i pozzi attorno alla struttura continuarono ad avere concentrazioni di Pfos (acido perfluorottanoico solfato) superiori a 10mila nanogrammi per litro (ng/litro) ancora dopo oltre vent’anni, dimostrando la persistenza ambientale di queste sostanze.

In Olanda, per decenni i fumi di un grande impianto di produzione di Pfas dell’azienda Chemours (controllata dalla DuPont) di Dordrecht furono liberamente scaricati in atmosfera, ricadendo poi sul suolo. La popolazione ne risultò contaminata sia per via aerea, che attraverso gli alimenti e l’acqua.

A marzo 2023, sono stati pubblicati i risultati di un’inchiesta europea denominata Forever pollution project, condotta da un gruppo internazionale di giornalisti investigativi coordinati dal quotidiano francese Le Monde. Da questa inchiesta è emerso che attualmente sono più di 17mila i siti europei contaminati da Pfas, Italia compresa (riquadro alla pagina seguente).

I danni alle persone

Il meccanismo d’azione dei Pfas nel nostro organismo non è del tutto noto. Tuttavia, si è capito che queste sostanze sono capaci di interagire con i recettori nucleari (Peroxisome proliferator activated receptor, Ppar) che svolgono un ruolo essenziale nel metabolismo lipidico e glucidico, partecipano al controllo dei processi infiammatori associati con l’aterosclerosi e la sua progressione e intervengono nello sviluppo e nel controllo della risposta immunitaria. Nelle sperimentazioni sui ratti Sprague-Dawley nutriti con Pfoa è stata osservata la variazione dell’espressione genetica di 800 geni. I Pfas riescono a legarsi all’albumina del sangue, una delle principali proteine con funzione di carrier di ormoni.

Negli esseri umani, i Pfas si comportano come interferenti endocrini e possono agire sull’apparato riproduttivo maschile (come dimostrato negli adolescenti e giovani adulti residenti nelle zone a maggiore contaminazione nel Veneto, vedere riquadro) e anche su quello  femminile durante il periodo prenatale e dello sviluppo evolutivo.

Una recente ricerca condotta sul sangue di 252 donne brasiliane gravide per rilevare la presenza di 13 diversi composti fluorurati, ha evidenziato una forte associazione tra la presenza di Pfas nel sangue materno e ridotto sviluppo fetale. Quest’ultimo rappresenta un notevole problema, essendo una significativa causa di mortalità e di morbilità perinatale. La prematurità, inoltre, è associata a un aumento della mortalità e della morbilità a lungo termine.

L’esposizione ai Pfas è stata associata, inoltre, alla gestosi e al diabete gestazionale, alle alterazioni del metabolismo lipidico e tiroideo, alle risposte post vaccinazione del sistema immunitario, allo sviluppo ormonale e all’età del pubarca/menarca, nonché all’epoca della comparsa della menopausa.

Bisognerebbe riflettere su questi dati quando si cercano le cause dell’«inverno demografico». Possono anche essere rimosse le cause socioeconomiche che portano alla denatalità, ma se non vengono rimosse quelle che colpiscono l’apparato riproduttore delle persone, il problema non potrà che aggravarsi.

Nel marzo 2017, l’Efsa (Azienda europea per la sicurezza alimentare) ha proposto valori di Tdi (Tolerable daily intake, «dose giornaliera tollerabile», ovvero la dose di una sostanza che può essere ingerita senza apprezzabili rischi per la salute) di 13 ng/kg per settimana (1,8 ng/kg/die) per il Pfoa e 6 ng/kg/settimana (0,8 ng/kg/die) per il Pfos. È necessario che le autorità nazionali ed europee provvedano al più presto ad adottare tali valori senza farsi influenzare dalle lobbies industriali e commerciali che possono vedere minati i loro interessi.

Un futuro senza Pfas

Nel febbraio 2023, l’Echa (Agenzia europea per le sostanze chimiche) ha pubblicato una proposta di divieto per tutti i Pfas. È evidente che bisogna imparare a farne a meno, almeno per tutti quegli usi per cui essi possono essere sostituiti, come negli abiti, negli imballaggi e nei cosmetici.

Rosanna Novara Topino

 Nota

(1) Il dipartimento di tossicologia dell’azienda rilevò già nel 1961 la tossicità dei Pfas a 8 atomi di carbonio sui ratti e sui conigli. Peraltro, il primo studio che dimostrò l’interazione tra lo Pfoa e l’albumina nel sangue risale al 1956 e fu questo a portare la DuPont a interessarsi degli effetti tossici di questa sostanza sulla salute umana.


Dal Teflon al Goretex
COSA SONO I PFAS E I LORO DERIVATI

U na prima definizione di Pfas risale al 2011 a opera di un gruppo di ricerca guidato da Robert Buck, un chimico impiegato alla DuPont di Nemours, secondo cui i Pfas sono composti alifatici, cioè a catena aperta lineare o ramificata, altamente fluorurati con uno o più atomi di carbonio (C) nei quali tutti i sostituenti sono rappresentati da atomi di fluoro (F) e contenenti il gruppo perfluoroalchilico CnF2n+1.

Recentemente, un gruppo di ricerca del Politecnico federale di Zurigo, ha dato una nuova definizione di Pfas intesi come sostanze fluorurate che contengono almeno un atomo di carbonio metilico o metilenico completamente fluorurato (cioè senza alcun atomo di idrogeno, cloro, bromo o iodio). Questo significa che qualsiasi sostanza con almeno un gruppo metilico perfluorurato o un gruppo metilenico perfluorurato deve essere considerata uno Pfas. Chiaramente, con questa nuova definizione, il numero di Pfas in circolazione aumenta molto e, di conseguenza, anche la necessità di conoscerne le caratteristiche, l’eventuale pericolosità e come regolamentarle.

Il primo Pfas, il politetrafluoroetilene (Ptee), fu ottenuto quasi per caso dal chimico della DuPont Roy Plunkett nel 1938, mentre stava lavorando alla realizzazione di un nuovo refrigerante per frigoriferi. Il composto ottenuto mostrava delle proprietà notevolmente interessanti, era scivoloso e insolubile e pochi anni più tardi venne commercializzato con il nome di «Teflon». Nel giro di pochi anni furono realizzati molti nuovi composti Pfas e, dalla metà degli anni Cinquanta del secolo scorso, il loro numero aumentò enormemente. Di alcuni di essi conosciamo le caratteristiche e la tossicità più o meno elevata a seconda del tipo di molecole, ma di altri non si sa nulla. I Pfas più diffusi sono il Pfoa (acido perfluorottanoico), che è stato ampiamente usato come rivestimento per carta e capi d’abbigliamento (il «Goretex») e il Pfos (acido perfluorottansolfonico) usato nelle schiume antincendio, nelle vernici, negli impregnanti per arredi e nei polimeri fluorurati. In entrambi i casi si tratta di molecole a lunga catena di atomi di C, quelle ritenute più tossiche per la salute. Successivamente alcuni di questi, tra cui il Pfoa furono sostituiti da Pfas a catena corta come il cC604 (6 atomi di C), poiché questi vengono eliminati più rapidamente dall’organismo. Il problema è che essi rientrano tra le cosiddette «regrettable substitutions», cioè sostituzioni deplorevoli, perché permangono nell’ambiente indefinitamente, li assumiamo tramite l’acqua e gli alimenti e hanno capacità di bioaccumulo.

I Pfas sono sostanze molto mobili e capaci di diffondersi ovunque. Anche nel caso in cui una di queste molecole non sia considerata altamente tossica, è comunque molto preoccupante pensare ai possibili effetti di un’esposizione continua e per lunghi periodi a essa. Di fatto attualmente non sappiamo quanti siano i Pfas. Le loro proprietà variano a seconda del tipo di catena (corta, lunga, lineare, ramificata) e dei sostituenti presenti, tuttavia sono tutti caratterizzati da elevata stabilità termica, chimica e fisica, dovute al legame tra C ed F, uno dei più forti in chimica organica.

R.N.T.

Italia / Dalla Miteni alla Solvay
QUANDO PRODURRE SIGNIFICA INQUINARE

In Italia, i due principali casi di inquinamento da Pfas si sono verificati a Spinetta Marengo, in provincia di Alessandria, dove ci sono i vecchi stabilimenti Montedison, ora di proprietà della multinazionale belga Solvay, e a Trissino, in provincia di Vicenza, dove la Miteni (foto di questa pagina), azienda nata negli anni Sessanta (con il nome Rimar, produttrice di sostanze chimiche per i tessuti e appartenuta in passato alla famiglia Marzotto), produceva Pfoa sotto il controllo della società giapponese Mitsubishi. Entrambe le aziende sono finite sotto processo e ritenute responsabili civili di avvelenamento delle acque e di disastro ambientale.

Emergenza sanitaria nel Veneto

Nel 2012 l’Arpa ha individuato un picco di 120mila ng/litro (nanogrammi per litro) di acido perfluorottanoico (Pfoa) nelle acque di scarico della Solvay di Spinetta Marengo riversate nel fiume Bormida, affluente del Po. A Trissino, la Miteni è stata costruita sopra la ricarica di una falda acquifera, poiché la produzione di sostanze chimiche necessita di acqua per la lavorazione e per il raffreddamento degli impianti. Oltre alla falda, la Miteni ha utilizzato il torrente Poscola, per sversare le acque di raffreddamento, trattate come pulite. In tal modo, i prodotti di sintesi dell’azienda hanno contaminato aria, terreni e acqua di tre province, Padova, Vicenza e Verona per 593 chilometri quadrati. I risultati dello studio Perforce hanno individuato il fiume Po come il più contaminato d’Europa da Pfas (200 ng/l contro una media di 20 ng/l negli altri fiumi europei).

In Germania, dopo che Perforce aveva rivelato una forte contaminazione da Pfas dei terreni, dovuta all’uso dei fanghi industriali inquinati come concimi, sono stati immediatamente posti dei limiti alle acque potabili e di scarico industriale nella misura di 100 ng/l. In Italia, tuttora, mancano limiti nazionali agli scarichi industriali.

Nel 2013 sono stati fissati dei limiti ma solo per il Veneto e nella misura di 500 ng/l (ora ridotta a 330). A ottobre dello stesso anno sono stati presentati i risultati di un’analisi delle acque venete durata cinque anni a opera del Cnr, da cui è emerso che, nelle tre province colpite, c’è la contaminazione da Pfas più estesa d’Europa sia per il quantitativo di queste sostanze, sia perché sono stati contaminati tutti i ricettori cioè la falda, i fiumi e l’acquedotto, che porta l’acqua nelle case di oltre 350mila persone. La regione Veneto ha chiesto aiuto al ministero dell’Ambiente e a quello della Sanità. Per potere continuare a utilizzare i pozzi delle tre province, questi hanno dovuto essere dotati di filtri a carboni attivi. Tuttavia, manca un censimento completo del numero dei pozzi, anche perché i proprietari dovrebbero dotarli di filtri a spese proprie, per cui spesso non li segnalano.

Nel 2015 la Regione Veneto ha disposto la raccolta di campioni di sangue per l’analisi della presenza di Pfas su parte della popolazione, soprattutto agricoltori e allevatori che esportano i loro prodotti, dopo avere suddiviso la zona contaminata in tre colori (rossa A e B, arancione e gialla). I risultati di tale indagine, condotta dall’Istituto superiore di sanità (Iss), hanno rivelato la presenza di 750 ng/l di Pfoa nel sangue degli agricoltori e di oltre 8 ng/l nel sangue di tutte le altre persone testate. Si tratta di una vera e propria emergenza sanitaria, aggravata dal fatto che l’accesso a questo tipo di analisi è limitata dalla Regione Veneto alle sole persone residenti nella zona rossa e nate in determinati anni. Se ne sta discutendo per quanto riguarda gli abitanti della zona arancione.

Nel 2018, la Miteni è fallita, ma i suoi impianti sono ancora lì e la bonifica non è ancora iniziata. Le indagini congiunte dell’Arpav e del Noe (Nucleo operativo ecologico dei carabinieri) hanno dimostrato la presenza di ingenti quantità di scarti di produzione seppelliti nei terreni attorno all’impianto.

Nel sangue

Va, infine, ricordato che, in Italia, sono ancora molto limitati gli strumenti e le metodologie per trovare i Pfas nel sangue. A dicembre 2021, il Policlinico di Milano ha validato un metodo per la misurazione della presenza di trenta diversi Pfas (ma la platea è di 5mila e forse molti di più).

R.N.T.




Cinghiali (e lupi) alle porte di casa

In Italia, si stima la presenza di 2,3 milioni di cinghiali. I danni che producono sono enormi, ma la caccia libera non è la soluzione. Nel frattempo, anche sui lupi (pur presenti in poche migliaia ) si è aperta la discussione.

È un fatto che i centri abitati siano diventati molto attraenti per la fauna selvatica. Sempre più spesso, infatti, le nostre città si trovano a ospitare svariate specie di animali selvatici, diventati – per ragioni opportunistiche – tolleranti alla presenza umana. I motivi di questo fenomeno sono molteplici. Ad esempio, l’abbondanza di cibo scartato e di rifiuti organici dentro e fuori i cassonetti; la presenza di prede di piccola taglia, come topi o ratti, presenti in gran numero in strade e discariche, a loro volta presidiate dai gabbiani. Ci sono poi le condizioni climatiche cittadine più favorevoli rispetto a quelle che si trovano fuori dai centri abitati: in questi, solitamente, ci sono 1-2 gradi in più e, inoltre, ci sono meno vento e umidità. Anche l’acqua è più disponibile. Infine, qui si trovano tanti siti utilizzabili per la riproduzione. La tendenza all’inurbamento è tipica delle specie opportuniste o onnivore, che sono quelle più facilmente adattabili.

Tutto ciò può creare seri problemi di convivenza tra animali e umani, nonché il rischio di zoonosi, cioè di patologie causate da agenti patogeni trasmessi da animali, come nel caso della rabbia silvestre, trasmessa soprattutto dalle volpi (ma non solo da esse) e quello della peste suina, trasmessa dai cinghiali. Ecco, quindi, la necessità di controllare la presenza delle specie selvatiche vicino alle nostre abitazioni.

L’invasione dei cinghiali

Negli ultimi trent’anni, in Europa si è verificato un notevole incremento – sia numerico, che per distribuzione geografica – dei cinghiali. Originatosi in Eurasia e Nord Africa, si sta diffondendo in tutto il mondo. In Italia, sono ormai presenti ovunque, comprese le isole. Dal 1500 questa specie aveva subito una vera e propria persecuzione da parte umana, tanto per le trasformazioni ambientali, che per l’avvento delle armi da fuoco. Ne era derivata una sua progressiva diminuzione tanto che, all’inizio del XX secolo, i cinghiali erano presenti solo in nuclei isolati nelle regioni tirreniche del Centro e del Sud Italia, sul Gargano e in Sardegna. Nel 1919, la specie è però tornata sull’arco alpino, con la comparsa di alcuni esemplari giunti dalla Francia in Liguria e in Piemonte. Negli anni Cinquanta si sono verificate numerose immissioni di cinghiali provenienti dalla Slovenia in Friuli, a scopo venatorio e, sempre per lo stesso motivo della caccia, negli anni successivi tali immissioni sono proseguite con animali provenienti da allevamenti nazionali. Non è possibile conoscere il numero dei cinghiali attualmente presenti in Italia, a causa delle difficoltà e dei costi che comporterebbe un conteggio dei singoli capi. Tuttavia, secondo i dati più recenti dell’Ispra (Istituto superiore per la protezione e la ricerca ambientale), nel 2020 i cinghiali sarebbero stati circa un milione, raddoppiati rispetto al 2010, mentre, secondo Coldiretti, il sindacato dei piccoli imprenditori agricoli, nel 2022 il totale stimato sarebbe di 2,3 milioni.

I motivi di una così grande espansione del cinghiale in Italia sono dovuti sia alle immissioni a scopo venatorio, attualmente proibite (anche se ancora effettuate illegalmente in qualche regione del Sud), sia al progressivo spopolamento di vaste aree montane e rurali. Quest’ultimo fenomeno comporta sia una netta diminuzione del prelievo venatorio operato dall’uomo, sia una notevole sostituzione di terreni prima impiegati per l’agricoltura e la pastorizia con i boschi di vegetazione spontanea. Qui i cinghiali, che sono animali plastici e adattabili, possono trovare casa, benché il loro ambiente prediletto sia quello della macchia mediterranea, caratterizzato da vegetazione bassa e fitta, in cui possono nascondersi, come nel caso della smilacea, una pianta spinosa, tra i cui arbusti essi creano i loro viottoli. Peraltro, i cinghiali sono animali elusivi e intelligenti, capaci di sopravvivere in territori molto diversi tra loro e di cibarsi di un po’ di tutto, essendo onnivori opportunisti (benché la loro tendenza frugivora faccia prediligere loro ghiande, radici, tuberi, castagne in autunno-inverno e foglie, gemme e piccoli fusti in estate). Proprio perché sono animali opportunisti, quando le risorse naturali scarseggiano, i cinghiali, pur essendo considerati una specie sedentaria, sono capaci di percorrere anche decine di chilometri in cerca di cibo e, sempre più spesso, entrano nelle nostre città, attratti dai rifiuti organici presenti nei bidoni in strada. È chiaro che la loro presenza può essere percepita come pericolosa, anche se spesso la reazione umana risulta sproporzionata rispetto all’effettivo pericolo. Tuttavia, può capitare che una femmina di cinghiale con prole al seguito possa diventare aggressiva e quindi, se allarmata dalla presenza umana, attaccare l’uomo.

Inoltre, i cinghiali vanno nottetempo a compiere veri e propri scavi nei terreni da pascolo o agricoli, facendo razzia delle coltivazioni e arrecando gravi perdite economiche ad agricoltori e pastori. Si stima che i danni all’agricoltura in Italia, a causa dei cinghiali, dal 2015 al 2021 siano stati in media di circa 17 milioni di euro annui. Questa cifra non tiene conto dei danni (anche mortali) causati agli automobilisti negli incidenti stradali da essi provocati. Infine, occorre considerare il rischio di possibili infezioni trasmesse ai suini d’allevamento, visto che, dal gennaio dello scorso anno, i cinghiali sono stati individuati come i principali responsabili della diffusione della peste suina. Per tutto questo sono, quindi, moltissimi coloro che, a gran voce, chiedono il controllo e l’eliminazione di questi animali, indicando la caccia come soluzione. Siamo però sicuri che sia questa la strada migliore per risolvere il problema?

Una società matriarcale

In realtà, se consideriamo la biologia e lo stile di vita dei cinghiali, la risposta è certamente «no», anzi, con la caccia, si rischia di aggravare il problema invece di risolverlo. Infatti, nonostante il gran numero di capi abbattuti ogni anno (circa 300mila secondo l’Ispra), la loro popolazione continua ad aumentare. Per capire questo fenomeno, dobbiamo prendere in considerazione la biologia e l’ordine sociale dei cinghiali, che vivono in società matriarcali con a capo una femmina anziana, detta «matrona», che è la madre di tutte le altre femmine presenti nel branco e che è l’unica a riprodursi in condizioni normali, dal momento che essa emette particolari feromoni capaci di inibire la riproduzione delle femmine più giovani, impedendo che esse vadano in estro. La matrona normalmente si accoppia con il maschio più anziano, detto «salengano», che, pur essendo un animale potente, è caratterizzato da una bassa carica spermatica. Dalla loro unione nascono mediamente 4-6 cuccioli all’anno. Date le maggiori dimensioni delle matrone e dei salengani, essi sono le vittime predilette dei cacciatori, i quali, uccidendoli, privano il branco di controllo. In tal modo, le giovani femmine rimanenti entrano immediatamente in estro e si accoppiano con i giovani maschi ad alta carica spermatica. Il risultato è che in un branco, nel quale normalmente sarebbero nati solo i cuccioli della matrona, ogni anno ne nascono 20-30 dalle giovani femmine. Queste, per riprodursi, hanno soltanto bisogno di raggiungere i 30 chilogrammi di peso (indipendentemente dall’età), cosa piuttosto semplice vista la grande disponibilità di cibo sul territorio. L’età media di riproduzione delle femmine di cinghiale è scesa da 18 a 15 mesi. Quindi, è a causa delle battute di caccia che colpiscono gli animali più grandi e anziani, che ci ritroviamo popolazioni sempre più giovani e prolifiche.

L’intervento umano

Questo dimostra come spesso l’intervento umano in natura porti più danno che beneficio. Come se non bastasse, l’attività venatoria, oltre ad alterare l’organizzazione sociale dei cinghiali, ne altera la mobilità spingendoli verso le aree libere da cacciatori, come i luoghi abitati, i bordi delle strade e i parchi cittadini. Peraltro, bisogna distinguere la caccia sportiva dall’attività di controllo e dalla caccia di selezione. Mentre la prima è sostanzialmente un hobby, l’attività di selezione si fonda su basi ambientali ed è selettiva sugli animali da contenere scegliendo, in base a valutazioni biologiche ed ecologiche, quali colpire, utilizzando un’ampia strumentazione e non solo il fucile. La caccia di selezione è invece una via di mezzo tra le altre due. È effettuata da cacciatori, ma su base ecologica, per cui chi vuole diventare selecontrollore deve seguire dei corsi di formazione e superare un esame finale.

Tuttavia, è bene considerare che se ci sono voluti settant’anni per arrivare alla situazione attuale, questa non potrà essere risolta in breve tempo.

Come prevenire i danni

Sarebbe opportuno agire su più fronti. In primo luogo, limitare la pressione venatoria, per evitare il più possibile l’alterazione dell’organizzazione sociale dei cinghiali, che – come abbiamo visto – favorisce un maggiore numero di nascite. Inoltre, bisognerebbe predisporre delle aree libere dalla caccia, dove gli animali si sentano più sicuri e quindi invogliati a lasciare i luoghi abitati. Essenziale, inoltre, sarebbe evitare di lasciare i rifiuti organici in luoghi a loro accessibili, poiché la disponibilità di cibo non può che attrarli e rendere le giovani femmine più prolifiche.

Per quanto riguarda la prevenzione dei danni causati dai cinghiali all’agricoltura, potrebbe essere utile ricorrere a recinzioni elettrificate delle aree coltivate, così come la selezione oculata delle colture da impiantare. Infine, per la prevenzione degli incidenti stradali causati non solo dai cinghiali, ma dalla selvaggina in genere sono disponibili delle tecnologie piuttosto semplici, che percepiscono l’avvicinamento di un animale a bordo strada ed emettono luci e suoni, sia per spaventarlo che per avvisare gli automobilisti del pericolo. Il loro uso andrebbe sicuramente incentivato.

Prede e predatori

Poiché dove c’è la preda, lì si trova anche il predatore, ed essendo il cinghiale la preda per eccellenza del lupo, non poteva essere che quest’ultimo non facesse altrettanto rapidamente la sua comparsa vicino ai luoghi abitati.

In questi ultimi anni, sono stati numerosi gli avvistamenti vicino ai paesi o nelle periferie di grandi città in diverse zone italiane. Il lupo in Italia è una specie protetta, quindi non può essere oggetto di attività venatoria. Attualmente, in Italia si stima che ci siano circa 3mila lupi, mentre in Europa sarebbero circa 17mila. Le prede del lupo sono principalmente selvatiche ma, come noto, possono essere anche gli animali d’allevamento, soprattutto caprini e ovini, per l’estrema facilità di cattura. La totale protezione del lupo, in vigore in alcuni paesi europei, ha fatto sì che molti esemplari abbiano meno paura dell’essere umano; si parla di «lupi confidenti», che si addentrano nelle periferie dei centri abitati e fanno strage soprattutto di pecore e capre anche custodite all’interno di recinti, che questi predatori sono spesso in grado di saltare.

Da una parte, dunque, il lupo potrebbe essere alleato dell’uomo nel controllo dell’espansione dei cinghiali, dal momento che, come fanno spesso i grandi predatori, catturano più facilmente i piccoli che gli adulti. Per contro, i lupi causano gravi danni agli allevatori, anche perché sovente un singolo lupo che riesce a introdursi in un recinto di pecore o capre, ne uccide parecchie per cibarsi di una soltanto. Questo capita perché gli animali d’allevamento hanno perso i comportamenti delle prede selvatiche, quindi stanno fermi, oppure fuggono disordinatamente, mentre il lupo ha mantenuto le sue caratteristiche naturali di predatore, cioè è programmato per assalire l’animale oggetto di preda. Ecco perché è essenziale non fuggire di corsa dandogli le spalle. Tra l’altro, i lupi si avvicinano sempre più ai centri abitati seguendo anche le stagioni e le condizioni meteo, poiché sono le loro stesse prede, in particolare gli ungulati, a farlo. Normalmente l’inverno comporta carenza di cibo per gli animali selvatici, che tendono ad avvicinarsi maggiormente ai centri abitati. Secondo alcuni studiosi sarebbe opportuno derogare alla protezione assoluta del lupo, con degli abbattimenti controllati, in modo da riuscire a mantenere alta nel lupo la diffidenza verso l’essere umano.

Rosanna Novara Topino




Non c’è un domani senza biodiversità


Invasione e distruzione degli habitat

L’uomo sta occupando, distruggendoli o modificandoli, gli habitat di molte specie animali. Ciò mette a rischio sia la loro sopravvivenza che l’equilibrio ambientale, favorendo al tempo stesso la diffusione delle malattie di origine zoonotica.

La copertina del «Living planet report 2022» del WWF.

Negli ultimi cinquanta anni, il consumo di risorse legato alle attività umane ha portato a una drastica riduzione di esemplari nelle popolazioni di vertebrati, al punto che si sta ormai parlando di sesta estinzione di massa. Secondo il Living planet report 2022 del Wwf, siamo arrivati a un calo medio, rispetto al 1970, del 69% degli individui nelle popolazioni di specie di vertebrati (mammiferi, uccelli, anfibi, rettili e pesci) analizzate dal Living planet index, che studia quasi 32mila popolazioni di oltre 5mila specie diverse. Questo non significa che abbiamo perso il 69% dei vertebrati terrestri, ma che in media ciascuna specie di vertebrati si è ridotta di questo valore.

Habitat e Occupazione umana

Si stima che, nel 2018, solo un quarto della superficie terrestre disponibile fosse libera dall’impatto umano e che nel 2050 lo sarà soltanto il 10%. L’occupazione del suolo per le molteplici attività umane, dalla produzione di cibo e di energia alla costruzione di infrastrutture e di miniere, porta alla privazione per le specie animali di habitat che sono essenziali per la loro sopravvivenza.

I peggiori trend tra le popolazioni di vertebrati analizzate si ritrovano in America Latina e nella regione dei Caraibi, con un calo medio del 94% dal 1970. Seguono l’Africa con il 66% e la regione dell’Asia-Pacifico con il 55%. In Nord America si è registrato un calo del 20%, mentre in Europa e in Asia centrale del 18%, ma questi dati non sono più confortanti dei precedenti, perché, in queste tre regioni, gran parte della biodiversità era già andata persa nei decenni precedenti. Tra le specie analizzate, quelle di acqua dolce hanno subito la riduzione più drastica, con un declino medio dell’83%. Attualmente tra l’1 e il 2,5% delle specie di vertebrati si è già estinto, mentre le popolazioni rimanenti e la loro diversità genetica sono diminuite notevolmente. In particolare, il 46% degli anfibi, il 25% dei mammiferi e il 13% degli uccelli si stanno avvicinando all’estinzione.

Rettili e temperature

Per quanto riguarda i rettili, finora meno studiati di altre specie, un recente studio apparso su «Nature» e condotto da Neil Cox e Bruce Young (che hanno studiato la situazione conservazionistica di 10.196 specie di rettili) è giunto alla conclusione che un rettile su cinque è a rischio estinzione. Tra i rettili in pericolo maggiore troviamo le tartarughe, con il 58% di specie appartenenti a quest’ordine che rischiano di sparire nei prossimi vent’anni. Seguono coccodrilli e alligatori, di cui il 50% delle specie è a rischio. Tra gli squamati, cioè lucertole e serpenti, sono il 19% le specie a rischio, in particolare gli iguanidi. Le specie che rischiano maggiormente l’estinzione sono quelle che vivono nelle foreste, essendo il loro ecosistema più alterato sia dalla deforestazione che dall’espansione urbana. Questo studio ha anche messo in luce il nesso tra l’aumento della temperatura e il rischio estinzione per i rettili. In molte loro specie, infatti, il sesso è determinato dalla temperatura, per cui un costante rialzo termico rischia di alterare significativamente le proporzioni tra maschi e femmine.

Tuttavia, i resoconti sulle specie minacciate di estinzione non descrivono in modo esaustivo il quadro attuale. Secondo uno studio di Gerardo Ceballos, ecologo dell’Università nazionale autonoma del Messico, un terzo delle specie, che più di tutte si stanno assottigliando, non fa attualmente parte dell’elenco delle specie a rischio. Il 32% delle specie di vertebrati considerate nello studio ha avuto perdite notevoli sia nel numero, che nel range di distribuzione. In particolare tutte le specie di mammiferi studiate hanno subito una riduzione di oltre il 30% del loro habitat, ma più del 40% ne ha perso oltre l’80%. Tali perdite sono ascrivibili a varie cause: il continuo aumento della popolazione umana (con uno sfruttamento eccessivo delle risorse), la distruzione degli habitat naturali, la caccia e la pesca sconsiderate, l’inquinamento conseguente alle attività umane e l’invasione di specie aliene (non autoctone) favorita dall’uomo.

Ecosistemi, specie e specializzazione

Generalmente, quando parliamo di perdita della biodiversità, facciamo riferimento al numero delle specie a rischio in determinate aree. Tuttavia, è sbagliato considerare solo il numero delle specie a rischio perché, all’interno del proprio ecosistema, ogni specie svolge un ruolo dettato dalla sua specializzazione. Se la specie in questione va incontro all’estinzione, la sua specializzazione andrà persa per sempre a meno che tale specie non venga rimpiazzata da un’altra con analoga specializzazione e quindi con simili strategie di sopravvivenza. Poiché in un ecosistema non sempre questo avviene, c’è il rischio della perdita non solo della biodiversità, ma della diversità funzionale. In questo caso, la perdita di una specie non rimpiazzata lascia un vuoto, che può avere gravi ripercussioni su tutte le altre specie animali e vegetali dell’ecosistema, che sarà progressivamente compromesso. Le strategie di conservazione non possono essere, quindi, uguali in tutto il mondo. In altre parole, vi sono aree in cui l’estinzione di una specie non comporta necessariamente l’alterazione dell’ecosistema; al contrario, in altre aree la perdita di una specie insostituibile può portare a un crollo della diversità funzionale e al conseguente sbilanciamento dell’ecosistema. È perciò fondamentale conoscere il ruolo ecologico delle singole specie, in modo da concentrare gli interventi di protezione sulle specie che svolgono un ruolo cruciale nel loro ecosistema. Ad esempio, nella ecozona indo-malese – comprendente l’India, parte della Cina e del Pakistan e una serie di isole dell’Oceano Indiano tra cui Taiwan e le Filippine – ci sono specie di mammiferi e di uccelli la cui estinzione comporterebbe un calo di oltre il 20% della diversità funzionale. In Europa, invece, la diversità funzionale crollerebbe del 30% se si arrivasse all’estinzione di determinate specie di rettili, di anfibi e di pesci d’acqua dolce.

Un esemplare di camaleonte. Foto AQagraphy – Pixabay.

La situazione Italiana

In Italia sono piuttosto numerose le specie a rischio di estinzione o che lo sono state in passato. Tra queste abbiamo il lupo, la lince, l’orso bruno, lo stambecco, il cervo sardo, la foca monaca, la lontra, l’aquila reale, il gipeto, il grifone, il gallo cedrone e la starna. In seguito all’occupazione e allo sfruttamento del suolo, molto spesso gli habitat naturali vengono frammentati, cioè suddivisi in sottoaree tra loro parzialmente connesse o totalmente isolate. Questo può essere dovuto alla costruzione di barriere artificiali come strade, impianti sciistici, linee elettriche o ferroviarie, canali artificiali, ecc., che impediscono la libera circolazione degli animali nel loro areale di distribuzione. Vengono così a formarsi sottoaree a macchia di leopardo, con la suddivisione della popolazione di una specie in sottopopolazioni scarsamente in contatto tra loro. Queste ultime sono meno consistenti numericamente rispetto alla popolazione originale e più vulnerabili alle fluttuazioni climatiche, alle possibili epidemie, al deterioramento genetico dovuto a endogamia, cioè all’incrocio tra individui consanguinei, e ai fattori di disturbo antropico. Inoltre, in presenza di frammentazione, l’habitat di una specie è maggiormente a contatto con l’habitat di altre specie. Questo può comportare maggiori casi di predazione, competizione e parassitismo. In pratica le sottopopolazioni di una specie dislocate in aree distanziate tra loro e con scarsa o nulla possibilità di contatto sono maggiormente a rischio di estinzione, perché il distanziamento tra le diverse aree impedisce di fatto la ricolonizzazione laddove la popolazione si sia estinta per qualsivoglia motivo.

Se scompaiono  gli impollinatori

Quando pensiamo alle specie in via d’estinzione, siamo portati a pensare solitamente ad animali di grossa taglia, come il rinoceronte nero o l’elefante asiatico, ma ci sono specie di animali piccoli e piccolissimi, la cui forte diminuzione ci riguarda molto da vicino. Si tratta degli impollinatori, per lo più insetti, ma non solo, la cui attività è fondamentale per favorire l’impollinazione delle piante, da cui dipendono per buona parte la nostra alimentazione e la nostra economia. La riproduzione di almeno il 75% delle piante da fiore e dei raccolti di tutto il mondo dipende dagli impollinatori. Tra questi: api, vespe, farfalle, mammiferi come i pipistrelli e uccelli come i colibrì. Già nel 2010 gli scienziati erano giunti alla conclusione che oltre il 40% degli insetti di tutto il mondo era a rischio di estinzione e che il ritmo della loro moria è otto volte superiore a quello dei mammiferi e degli uccelli.

Sono tre le principali cause della progressiva riduzione degli impollinatori: l’uso dei pesticidi, il modo in cui sfruttiamo il suolo con la predilezione per le monocolture e soprattutto la distruzione dell’habitat. Anche l’aumento delle temperature globali ha un ruolo nella riduzione degli impollinatori, ma si trova solo al quarto posto. Per capire la portata del danno che deriverebbe dalla scomparsa degli impollinatori, basta pensare che, negli ultimi 50 anni, tra i cibi consumati, quelli la cui produzione dipende dagli impollinatori sono aumentati del 300% e fanno muovere un mercato globale del valore di 577 miliardi di dollari. Dobbiamo anche considerare che, finora, ci siamo resi conto della diminuzione solo delle specie di impollinatori che conosciamo, ma la quantità di specie, soprattutto di insetti, a noi ancora sconosciuta è altissima quindi la valutazione del numero delle specie di impollinatori a rischio di estinzione o già estinte è certamente sottostimata. Secondo un recente studio di Matt Devis e Jens Christian Svenning del «Center for biodiversity dynamics in a changing world» (Danimarca), gli esseri umani sterminano le specie animali e vegetali così rapidamente che l’evoluzione, come meccanismo di autodifesa della natura, non può porvi rimedio. Secondo questi ricercatori, nel corso degli ultimi 450 milioni di anni ci sono stati cinque grandi sconvolgimenti con alterazioni ambientali tali che buona parte delle specie animali e vegetali presenti sul nostro pianeta si è estinta. Dopo ciascuna estinzione di massa, l’evoluzione, con i suoi tempi, ha colmato le lacune con nuove specie, ma nel caso dei mammiferi, considerando i loro tempi di diversificazione, per riportare la biodiversità a ciò che era prima della comparsa dell’uomo moderno ci vorrebbero 5-7 milioni di anni e 3-5 milioni solo per riottenere l’attuale biodiversità, dato che è in corso la sesta estinzione di massa, questa volta causata dall’uomo.

Con la perdita delle specie, perdiamo non solo le loro funzioni ecologiche talvolta uniche, ma anche i milioni di anni di storia evolutiva che queste specie rappresentavano.

Habitat, pandemie E zoonosi

C’è un altro aspetto che dovremmo prendere in attenta considerazione. La distruzione degli ecosistemi da parte dell’uomo sta rivelando il suo effetto boomerang sotto forma di pandemie o comunque di diffusione di malattie di origine zoonotica, che sono all’origine di circa un miliardo di casi di malattia e di milioni di morti ogni anno a livello globale.

Le zoonosi attualmente conosciute sono oltre 200, tra cui: rabbia, leptospirosi, Hiv, Ebola, antrace, Sars, Mers (queste ultime due causate da Coronavirus), febbre gialla, dengue, malattia di Lyme, tifo esantematico, malaria e non dimentichiamoci della peste, che non è mai stata completamente debellata.

Fino a qualche tempo fa si riteneva erroneamente che gli ambienti naturali intatti fossero pericolosi serbatoi dei virus e degli altri agenti patogeni portatori di queste malattie, ma studi recenti hanno completamente smontato questa tesi dimostrando, al contrario, che è la distruzione degli habitat che crea le condizioni ottimali per la trasmissione all’uomo degli agenti eziologici.La riduzione delle specie predatrici a seguito delle attività umane può rivelarsi molto pericolosa per la nostra salute.

Rosanna Novara Topino

Un esemplare di zecca (sempre più diffusa). Foto Erik Karits – Pixabay.


Biodiversità e zoonosi

La diffusione della zecca

La malattia di Lyme o borrelliosi è una malattia diffusa in Nord America, Europa e Asia e trasmessa dalle punture delle zecche del genere Ixodes. Questa malattia presenta alcuni sintomi tipici come eritema migrante, febbre, mal di testa, debolezza e affaticamento ma, se non si interviene precocemente con una cura antibiotica, l’infezione può diffondersi andando a interessare articolazioni, cuore, muscoli, reni, fegato, cute, sistema nervoso centrale (causando in questo caso encefalite o mielite). Il suo agente eziologico è un batterio, la Borrelia burgdorferi, che ha come vettore la zecca, ma presenta diversi ospiti tra i vertebrati soprattutto mammiferi, alcuni dei quali risultano essere serbatoi altamente competenti, cioè capaci di ospitare e di trasmettere il batterio molto meglio di altri. Tra questi ultimi vi sono il peromisco dai piedi bianchi, una varietà di topo diffusa nel continente americano dal Canada fino al Nicaragua e il toporagno, specie assai diffusa anche da noi nelle aree verdi, soprattutto nei parchi e nei boschi. Le zecche non trasmettono l’infezione alla prole, ma si contaminano infestando un ospite infetto, mentre ne succhiano il sangue che serve loro per completare le tre fasi del loro ciclo vitale (larva, ninfa, adulto) e per riprodursi. Le zecche adulte passano l’inverno ben rigonfie di sangue e in primavera depongono le uova, da cui a metà estate nascono le larve. Poiché necessitano di pasti a base di sangue ma hanno scarsa mobilità, questi aracnidi devono mettersi in posizione ottimale, per esempio sulla cima di un filo d’erba, per attaccarsi a un ospite vertebrato di passaggio. Date le loro piccole dimensioni, peromischi e toporagni sono gli ospiti ottimali delle larve di zecca e, se sono infettati dalla Borrellia, passano loro agevolmente il batterio; le zecche lo trasmetteranno poi ad altri ospiti con le loro punture. Peraltro la varietà degli ospiti delle zecche è elevatissima, potendo comprendere animali di svariate dimensioni come scoiattoli, opossum, conigli selvatici, volpi, cervi, cinghiali e, occasionalmente, l’uomo. Non tutti questi però si rivelano dei serbatoi altamente competenti come i topi e i toporagni. L’essere umano, ad esempio, non lo è in alcun modo, quindi non trasmette la malattia ad altre persone.

Gli studiosi hanno osservato che la diffusione delle zecche è particolarmente alta dopo le annate ricche di ghiande delle querce, frutti di cui sono particolarmente ghiotti i peromischi e i toporagni, che hanno elevatissimi tassi di riproduzione e ciascuno dei quali può arrivare a ospitare fino a una settantina di larve di zecca, che allo stadio adulto infestano solitamente animali di grossa taglia, come i cervi, utilizzati come supporto per la riproduzione. Si è osservato che è più facile essere punti da una zecca in un parco o piccolo boschetto, dove la fauna è rappresentata da poche specie e quindi i peromischi e i toporagni hanno pochi predatori, piuttosto che in un grande bosco ricco di specie come scoiattoli, opossum, falchi, furetti e gufi, che ne limitano la presenza. Questo dimostra come la biodiversità sia indispensabile per il controllo delle zoonosi.

RNT

 




L’invasione dei superbatteri


I microrganismi patogeni si evolvono (anche a causa dei nostri comportamenti) e resistono ai farmaci. Presto potrebbero causare più decessi del cancro. Già oggi alcuni superpatogeni fanno paura.

Da un secolo a questa parte, la medicina e la farmacologia hanno fatto continui progressi che hanno permesso di curare patologie dall’esito infausto fino ai primi quarant’anni del Novecento.

È del 1928 la scoperta da parte di Alexander Fleming della penicillina, una molecola prodotta da un fungo e capace di aggredire la parete cellulare dei batteri, provocandone la morte. I microrganismi (batteri, virus, funghi, protozoi, eccetera) sono spesso in competizione tra loro e una delle strategie più collaudate è proprio quella di produrre sostanze antibiotiche (a cui i produttori sono immuni) per sterminare gli avversari. In questa «guerra molecolare», in cui l’uomo è l’ultimo arrivato, antibiotici e fenomeni di resistenza sono le due facce di una stessa medaglia. Questo è il motivo per cui i microrganismi patogeni trovano spesso una strada per non soccombere sviluppando resistenza ai farmaci in uso (antimicrobico-resistenza o farmaco-resistenza). Oggi, uno dei principali problemi di salute pubblica è quello della nascita di superpatogeni, capaci di resistere a pressoché ogni forma di difesa di cui l’uomo dispone.

Batteri e resistenza: un problema serio

Solo nel nostro paese ogni anno muoiono circa 10mila persone a causa dell’antimicrobico-resistenza. L’Italia, con la Grecia e la Romania, è uno dei paesi europei con i maggiori tassi di antimicrobico-resistenza. In particolare, negli ospedali italiani i ceppi del batterio Klebsiella pneumoniae (Kpc) resistenti ai carbapenemi (classe di antibiotici ad ampio spettro, con struttura molecolare simile a quella delle cefalosporine e delle penicilline) sono già intorno al 50%, mentre quelli di Acinetobacter resistenti sono circa l’80-90%. E queste sono solo due delle specie di batteri che stanno creando seri problemi ai pazienti ospedalieri. Si stima che in Europa siano già circa 33mila i decessi annuali legati all’antimicrobico-resistenza con un impatto di circa un miliardo e mezzo di euro a livello economico sia per le spese sanitarie, sia per la perdita di produttività. Secondo l’Organizzazione mondiale della sanità (Oms), se la tendenza attuale non verrà modificata, nel 2050 l’antimicrobico-resistenza sarà responsabile di circa 2,4 milioni di decessi all’anno solo nei 38 paesi dell’area Ocse (Organizzazione per la cooperazione e lo sviluppo economico) con un impatto economico da 3,5 miliardi di dollari annui. Secondo uno studio commissionato dal governo britannico, a livello mondiale i decessi annui legati a questo fenomeno potrebbero raggiungere i 10 milioni nel 2050 (superando gli 8 milioni di morti previsti per il cancro), con una riduzione del Prodotto interno lordo (Pil) stimabile nel 2-3%, che potrebbe tradursi in una perdita fino a 100mila miliardi di dollari a livello mondiale da qui al 2050. Oltre all’impatto sui singoli sistemi sanitari, infatti, un aumento delle resistenze ai farmaci avrebbe ripercussioni sulla forza lavoro in termini di mortalità e di morbosità e quindi sull’intera produzione economica. Di fatto, si sta diffondendo un panico silenzioso negli ospedali, ma per la maggior parte delle persone, dei gruppi politici e di quelli d’affari sembra essere un problema molto lontano. Del resto, governi e istituzioni di tutto il mondo, dopo aver ripetutamente ridotto i fondi a disposizione della ricerca, sono piuttosto riluttanti a rendere pubbliche epidemie di infezioni resistenti ai farmaci.

Batterio di Escherichia coli al microscopio elettronico. Foto WikiImages – Pixabay.

Pericoli e ricerca

L’Oms ha stilato una lista dei principali batteri che presentano antibiotico-resistenza, classificandoli in base alla loro pericolosità e alla loro resistenza, in modo da promuovere la ricerca e lo sviluppo di nuovi antibiotici. L’accento è posto in particolare sui batteri Gram-negativi resistenti a molteplici antibiotici. Questa lista è suddivisa in tre categorie, a seconda dell’urgenza di nuovi antibiotici: priorità fondamentale, elevata e media. I batteri appartenenti al primo gruppo sono quelli resistenti a più farmaci, rappresentando una particolare minaccia in ospedali, case di cura e tra i pazienti che necessitano di ventilatori e di cateteri. Tra questi ci sono Acinetobacter, Pseudomonas e vari componenti della famiglia delle Enterobacteriacee (tra cui Klebsiella, Escherichia coli, Serratia, Proteus). Essi possono causare gravi infezioni, spesso mortali, come setticemie e polmoniti e sono diventati resistenti a un gran numero di antibiotici compresi i carbapenemi e le cefalosporine di terza generazione, tra i migliori antibiotici attualmente a disposizione. La seconda e la terza categoria della lista comprendono altri batteri sempre più resistenti ai farmaci e capaci di causare malattie più comuni come gonorrea e salmonellosi.

La Candida auris, il fungo killer

Un altro superpatogeno, che desta sempre più preoccupazione come emergenza di salute pubblica, non è un batterio bensì un fungo, la Candida auris. Si tratta del cosiddetto fungo killer, che è molto resistente ai farmaci ed è capace di uccidere la metà dei soggetti colpiti in tre mesi. La sua diffusione, cominciata in sordina, ha raggiunto ogni zona del globo. Fu identificato per la prima volta nel 2009 nell’orecchio di una donna giapponese di circa 70 anni e da allora è stato rinvenuto in tutto il mondo, nelle Americhe, in Asia, in Africa, in Australia e in Europa, dove sono stati identificati 52 casi al Royal Brompton Hospital di Londra nel 2015 e 85 casi al Politecnic La Fe di Valencia nel 2016. Si rivela molto pericoloso per chi ha il sistema immunitario immaturo o compromesso come i neonati o gli anziani, i fumatori, i diabetici e le persone con patologie autoimmuni costrette ad assumere farmaci steroidei, che funzionano come immunosoppressori. I ricercatori che hanno studiato la Candida auris ritengono che essa sia comparsa in contemporanea e in modo indipendente negli stati di tre diversi continenti, in particolare in India, in Sudafrica e in Sud America e questo fatto singolare non può essere imputabile solo all’abuso di antibiotici e di antimicotici, quindi alla farmaco-resistenza.

Il riscaldamento globale

Un recente studio suggerisce che i cambiamenti climatici possano avere favorito la diffusione del fungo killer e la sua capacità di infettare gli esseri umani. Confrontando il comportamento di Candida auris con quello di altre specie micotiche strettamente imparentate dal punto di vista genetico, i ricercatori si sono resi conto che il fungo killer sa adattarsi molto bene all’aumento della temperatura e sarebbe perciò predisposto a infettare l’essere umano, a differenza della maggior parte dei funghi, che sono incapaci di sopravvivere alla nostra temperatura corporea e vengono quindi facilmente eliminati dai nostri meccanismi di difesa. Secondo uno degli autori di questo studio, Alberto Casadevall (John Hopkins Bloomberg School of public health) «il riscaldamento globale porterà alla selezione di lignaggi fungini, che sono più tolleranti alle alte temperature e che dunque possono violare la zona di restrizione termica dei mammiferi». Si tratta di un’ipotesi ancora da verificare, ma senz’altro suggestiva e meritevole di ulteriori approfondimenti. Sicuramente sono necessari migliori sistemi di sorveglianza per segnalare rapidamente nuove infezioni fungine come quella di Candida auris.

I batteri e i loro geni

Cosa causa l’antibiotico resistenza? Alla base di questo fenomeno vi è una serie di cause. Sicuramente la resistenza ai trattamenti è un fenomeno naturale presente in tutti gli organismi. I batteri, rispetto ad altri patogeni, hanno una marcia in più rappresentata dalla capacità di trasferimento genico orizzontale, che li caratterizza, cioè la capacità di trasmettere materiale genetico ai loro simili senza passare attraverso la riproduzione. Spesso nel materiale trasferito si trovano geni che conferiscono la resistenza a qualche farmaco. Questo consente ai batteri di essere più veloci nell’evolvere le loro difese. Dall’analisi di campioni di acque profonde un centinaio di metri è stata rilevata la presenza di batteri con geni della resistenza ad alcuni antibiotici. Questo dà un’idea di quanto sia diffuso questo fenomeno.

La «Candida auris», un fungo molto pericoloso. Foto notiziescientifiche.it.

Antibiotici vecchi e nuovi

Ci sono antibiotici nuovi, che generano resistenza già poco tempo dopo la loro immissione sul mercato, mentre alcuni antibiotici vecchi di decenni come le tetracicline si dimostrano ancora efficaci contro la filariosi, una malattia parassitaria dei cani veicolata dalle zanzare. Le case farmaceutiche si dimostrano un po’ restie a investire nello sviluppo di nuovi antibiotici, perché è sempre più difficile produrne uno che duri a lungo come le tetracicline. L’insufficienza degli investimenti nella ricerca di nuove terapie è un problema evidenziato anche dall’Oms.

L’uso sconsiderato ed eccessivo di antibiotici è sicuramente una parte del problema. Questi farmaci, infatti, sono inutili per la cura delle patologie di origine virale, dal momento che i virus non sono esseri viventi, a differenza dei batteri, dei funghi, dei protozoi e dei parassiti pluricellulari, quindi non possono essere uccisi dagli antibiotici.

Inoltre, spesso l’antimicrobico-resistenza si osserva in microrganismi isolati da pazienti con diagnosi effettuata in ritardo, che hanno avuto prescrizioni non adeguate, che hanno assunto farmaci qualitativamente scadenti o che non hanno effettuato per intero il ciclo di cura. È infatti molto pericoloso interrompere il ciclo di cura non appena si attenuano i sintomi della malattia. Queste variabili possono portare alla selezione di ceppi sempre più resistenti e la difficoltà di trattare le infezioni aumenta i rischi delle procedure mediche come la chemioterapia, gli interventi chirurgici e odontoiatrici.

Il problema allevamenti

Un’altra fonte di rischio di antimicrobico-resistenza è l’uso massiccio di antibiotici, che si è fatto finora in campo veterinario, soprattutto negli allevamenti intensivi, i quali massimizzano la resa economica, ma anche la diffusione delle malattie che necessitano di un trattamento antibiotico. Poiché è complicato curare i singoli individui malati di un allevamento, solitamente vengono trattati tutti gli animali presenti, malati e sani. Questo abuso di antibiotici per curare gli animali d’allevamento supera quello in campo umano. Inoltre, questi prodotti vengono anche usati per stimolare la crescita degli animali. I batteri farmaco-resistenti, che vengono selezionati negli allevamenti, hanno diverse possibilità di diffusione: possono infettare gli operatori del settore; essere ingeriti, se la carne viene consumata senza un’adeguata cottura; finire nelle feci usate come fertilizzanti e raggiungere i campi coltivati oppure passare i loro geni ad altri batteri secondo il meccanismo del trasferimento genico orizzontale già visto. A tal proposito, l’Agenzia europea per la regolamentazione dei farmaci (Ema) ha fissato una soglia per l’uso della colistina, che dovrebbe essere limitata ad un massimo di 5 mg per chilogrammo di bestiame.

Come prevenzione, va detto che sono senz’altro importanti le raccomandazioni sulle norme igieniche personali di base, come il lavaggio frequente delle mani, come abbiamo sperimentato durante la pandemia di Covid. Tuttavia, sono misure ampiamente insufficienti. È infatti indispensabile, da parte delle amministrazioni nazionali e locali prendere provvedimenti seri contro le infestazioni di roditori e di insetti ematofagi.

Negli allevamenti intensivi si fa un uso massiccio di antibiotici con gravi conseguenze. Foto Ralphs fotos – Pixabay.

Dalla storica peste ai superpidocchi

Non dimentichiamo che la Yersinia pestis, che ha più volte decimato le popolazioni europee nel corso dei secoli, è un batterio trasmesso all’uomo dalle pulci dei ratti e dei topi, roditori di cui purtroppo attualmente le nostre città sono piene. Proprio come capitò nel Medio Evo, quando il batterio si diffuse in comunità affollate e malnutrite di città fiorenti, uccidendo circa il 30% della popolazione europea. Cosa succederebbe se questo batterio si ripresentasse adesso, magari dopo avere acquisito qualche gene dell’antibiotico-resistenza? E che dire della diffusione dei pidocchi diventati resistenti agli insetticidi attualmente in uso, tanto da essersi meritati l’appellativo di superpidocchi? Questo fenomeno è la diretta conseguenza dell’abuso fatto per anni del Ddt, che colpisce il sistema nervoso dei pidocchi provocandone la morte. Dopo decenni di esposizione, in alcuni pidocchi sono comparse mutazioni genetiche, che li hanno resi insensibili a questo insetticida. Mentre i loro simili non resistenti venivano sterminati, la popolazione resistente è aumentata enormemente e a nulla è valsa la sostituzione del Ddt con insetticidi naturali a base di piretrine o dei loro analoghi sintetici, i piretroidi, che hanno un meccanismo d’azione simile a quello del Ddt. In Europa si sta ricorrendo a metodi alternativi come l’uso di siliconi e di oli sintetici per incapsulare i pidocchi e provocarne la morte; tuttavia, i casi d’infestazione sono in aumento. Oltre al fastidio rappresentato dall’infestazione, non dimentichiamo che i pidocchi potrebbero trasmettere il tifo petecchiale, essendo tra i vettori della Rickettsia prowazekii, il batterio che causa questa patologia.

Zanzare e superzanzare

Ritroviamo lo stesso fenomeno della resistenza a piretrine e a piretroidi nelle zanzare, che sono i vettori del plasmodio della malaria, malattia che, nel 2019, ha colpito 229 milioni di persone in tutto il mondo con circa 409mila morti, la maggior parte dei quali nell’Africa subsahariana. Naturalmente anche il Plasmodium malariae si è dato da fare ad acquisire la farmaco-resistenza nelle zone dove la malaria è endemica, per cui attualmente i ceppi ancora sensibili alla clorochina sono presenti solo più nell’America centrale, nei Caraibi e nel Medio Oriente, mentre la resistenza all’artemisina è stata osservata per la prima volta nel Sud Est asiatico nel 2008 e, da allora, si è diffusa in tutta la regione ed ha raggiunto l’India.

Oltre alla malaria, le zanzare sono responsabili anche della diffusione di altre gravissime infezioni come la febbre gialla, la chikungunya, la filariosi e la più recente zika. Da quanto abbiamo visto, risulta evidente che i molteplici agenti patogeni contrastati per decenni grazie alla scoperta e alla produzione di diverse classi di antimicrobici stanno riuscendo poco per volta ad aggirare l’ostacolo tornando a rappresentare un serio pericolo.

Rosanna Novara Topino




Gli incendi bruciano anche il nostro futuro


In Italia, ogni anno, migliaia di ettari di aree boschive sono perse a causa del fuoco. Sei incendi su dieci sono di origine dolosa e criminale. In Siberia e Brasile la situazione è ancora peggiore.

Ogni anno, durante il periodo estivo, sono molte le regioni italiane nelle quali vaste aree boschive sono colpite da incendi. E la situazione sta rapidamente peggiorando. Nell’estate 2021, tra le regioni più interessate da incendi ci sono state la Sardegna, la Sicilia e la Calabria, che hanno registrato il maggior numero di danni, ma anche la Campania, la Basilicata, l’Abruzzo, le Marche, il Molise e la Toscana. Secondo il report di Europa Verde Incendi e desertificazioni, in Italia, dall’inizio dello scorso anno, sono bruciati circa 158mila ettari di boschi e di macchia mediterranea e questo ha ovviamente comportato la morte di migliaia di animali selvatici, nonché la perdita di oliveti e di pascoli. Nel 2021 l’Italia ha detenuto in Europa il record estivo d’incendi, che sono cresciuti del 256%, rispetto alla media storica 2008-2020, secondo i dati Effis (European forest fire information system). Secondo la Coldiretti, 6 incendi su 10 sono di origine dolosa.

Meno agricoltori e zero forestali

La situazione è aggravata dalla dismissione di parecchie aziende agricole, quindi dalla cospicua riduzione del numero di agricoltori, che hanno sempre esercitato un’azione di vigilanza e di gestione del patrimonio boschivo, che in Italia rappresenta un terzo della superficie, per un totale di 11,4 milioni di ettari (di cui il 32% fa parte di aree protette).

Un altro colpo alla sorveglianza e alla salvaguardia delle aree boschive in Italia è stato dato dalla riforma Madia del 2016, durante il governo Renzi, che ha riformato il Corpo forestale dello stato, sotto la spinta della spending review e sostanzialmente privatizzato la flotta dei canadair. Purtroppo in Italia, secondo il «Rapporto ecomafie 2020» di Legambiente, gli incendi scoppiano più frequentemente nelle regioni a forte presenza della criminalità organizzata, che spesso colpisce le aree naturalistiche sotto vincolo, come è avvenuto nella riserva dello Zingaro, in provincia di Trapani, nel Metapontino in Basilicata, nella riserva di Punta Aderci e nelle colline intorno a Pescara, nelle aree protette del Lazio, sulla costiera amalfitana, nella Sila e in provincia di Olbia. In Italia, la situazione è aggravata da due fattori: da un lato l’aumento delle temperature e la riduzione delle precipitazioni, che hanno caratterizzato gli ultimi anni con conseguente siccità sulle foreste, che risultano quindi meno resilienti nei confronti degli incendi; dall’altro gli errori nella scelta delle piante nelle attività di forestazione. Talora, infatti, vengono scelte, per la piantumazione di aree verdi, specie che soddisfano solo le ragioni estetiche, ma sono inadatte a resistere all’impatto climatico. Come capitò nel 2017 quando un incendio colpì le pendici del Vesuvio, dove erano stati piantati dei pini, che nulla avevano a che fare con la flora del territorio, cioè la macchia mediterranea, la quale ha una maggiore capacità di resistere alle temperature locali. In Italia, il pericolo d’incendi ha un andamento stagionale legato al fattore climatico, che influenza il grado di umidità della vegetazione, in particolare di quella erbacea del sottobosco.

Ci sono zone dove il pericolo d’incendio è maggiore che in altre. In base all’andamento meteorologico e climatologico, possiamo individuare due periodi di particolare pericolosità: quello estivo per le regioni del Sud e per la Liguria, e quello invernale per le regioni dell’arco alpino, quindi ancora la Liguria, il Piemonte, la Lombardia e il Veneto.

Ci sono, inoltre, diverse situazioni, che possono favorire lo scoppio di incendi boschivi come l’afflusso turistico, il già citato abbandono rurale delle campagne, particolari attività agronomiche e pastorizie, le vendette e le speculazioni. Queste ultime andrebbero sempre e comunque contrastate in base all’art. 9 della legge 1 marzo 1975, n.47, che vieta l’insediamento di qualsiasi tipo di costruzioni nelle zone boschive distrutte o danneggiate dal fuoco, impedendo così che tali zone assumano una diversa destinazione rispetto a quella avuta prima dell’incendio.

Non sempre però gli incendi sono di origine dolosa, seppure correlati alle attività umane. È stato, infatti, osservato che ad un progressivo aumento del numero dei veicoli circolanti e dello sviluppo viario, corrisponde un progressivo aumento degli incendi boschivi. Si è, inoltre, osservato che molti incendi hanno inizio ai bordi di strade e di autostrade. Anche le linee ferroviarie possono essere responsabili dell’innesco di incendi, quando nelle cunette e nelle scarpate c’è dell’erba secca, che può prendere fuoco per le scintille sprigionate dalle ruote dei treni. Da tutto ciò si evince che non solo è necessario ripristinare il Corpo forestale, rafforzando i nuclei investigativi con risorse umane e materiali adeguate, ma è indispensabile formare personale, che sia in grado di prevenire gli incendi con le tecniche più avanzate, tra cui quella degli incendi volontari controllati («fuochi prescritti»).

Nel resto del mondo

Se la situazione italiana quest’anno è stata drammatica, la mappa elaborata dal Fire information for resource management system della Nasa ci mostra che le fiamme hanno devastato i territori di molti stati nel mondo, soprattutto laddove le temperature estive sono state molto alte a lungo. Nel Sud dell’Europa, oltre all’Italia, sono state colpite la Grecia, la Turchia e la Spagna. Nel Nord Europa, la Finlandia e nell’Europa nord orientale, vaste regioni della Russia meridionale. Oltre oceano sono state interessate da incendi ampie zone del Nord e del Sud America. Nella zona centro meridionale dell’Africa, gli Stati più colpiti sono Zambia, Angola, Malawi e Madagascar. Le fiamme hanno inoltre colpito la penisola arabica e in Asia, le coste dell’India, la Siberia, la Cina e l’Indonesia.

In Siberia, il bilancio degli incendi da cui è stata colpita quest’anno, complici le insolite ed elevatissime temperature (intorno ai 39°C), che hanno interessato per giorni questa immensa regione russa, è superiore a quello disastroso del 2012, in cui aveva perso 181.100 Km2, infatti a metà settembre è stata registrata una perdita di 181.300 Km2 di foresta, ma se si considera che le fiamme hanno colpito anche praterie, canneti e tundra, l’estensione dei fuochi potrebbe essere superiore a 300mila Km2 (cioè un territorio di poco inferiore all’Italia). Gli incendi che colpiscono la taiga siberiana, cioè la più grande regione boschiva del mondo (comprendente quasi un quarto delle foreste del pianeta), sono estremamente dannosi perché non solo rilasciano enormi quantità di anidride carbonica (immagazzinata sia nella vegetazione, che nella torba del terreno) in atmosfera, ma riescono a sopravvivere all’inverno continuando a bruciare nel sottosuolo. Essi, pertanto, restano invisibili fino al rialzo delle temperature, pronti a tornare poi in superficie durante la stagione estiva. Il sistema di monitoraggio satellitare europeo Copernicus ha rilevato una quantità di 970 Mega tonnellate (Mt) di CO2 immessa nell’atmosfera tra giugno e agosto 2021 dovuta solo agli incendi siberiani. Tale quantità aumenta a 1.258 Mt a luglio e 1.384,6 Mt ad agosto, se si considerano le immissioni di CO2 dovute agli incendi, in tutto l’emisfero boreale.

Se in quest’ultimo la maggior parte degli incendi boschivi è legata a incuria, combustione di rifiuti, eventi accidentali, incidenti industriali e talvolta dolo, nelle regioni tropicali e subtropicali, gli incendi sono appiccati per lo più intenzionalmente con lo scopo di cambiare la destinazione d’uso dei terreni, che possono essere così utilizzati per la coltivazione e gli allevamenti intensivi.

Il decadimento dell’amazzonia

È evidente che il cambiamento climatico, con l’innalzamento delle temperature per lunghi periodi dell’anno, favorisce l’attecchimento degli incendi boschivi e la loro propagazione, ma la CO2 rilasciata in atmosfera dai roghi è essa stessa causa dell’innalzamento globale della temperatura, pertanto si instaura un circolo vizioso. Si stima che ogni anno gli incendi delle foreste immettano in atmosfera una quantità di CO2 equivalente a quella immessa dall’Unione europea e che vi siano circa 340mila morti premature causate da problemi respiratori e cardiovascolari attribuiti al fumo degli incendi.

Se da un lato la perdita di enormi quantità di foreste è dovuta agli incendi, dall’altro essa è legata al disboscamento illegale causato dall’agricoltura commerciale e dalla richiesta di legname. Secondo il rapporto Forest Trends 2021, il Brasile è il paese maggiormente responsabile di disboscamento illegale, insieme al Congo e all’Indonesia. Questi tre paesi, insieme, rappresentano il 50% del global logging (termine anglosassone che accorpa il taglio e il trasporto del legno). A sua volta, la Cina è responsabile del disboscamento illegale della taiga siberiana, essendo il più grande importatore di legname al mondo e avendo vietato il disboscamento delle proprie foreste.

Si stima che, tra il 2013 e il 2019, quasi 2/3 delle perdite delle foreste tropicali sia stata causata dall’agricoltura commerciale e che 3/4 della conversione agricola dei terreni sia avvenuta illegalmente.

Secondo i dati della Ong brasiliana Imazon, tra agosto 2020 e luglio 2021, il disboscamento dell’Amazzonia ha raggiunto 10.476 Km2, cioè una superficie grande il doppio di quella della provincia di Roma. L’ecosistema forestale amazzonico sta versando in condizioni critiche con 10mila specie dichiarate a rischio. Inoltre, con il 35% della superficie disboscata o degradata, uno studio decennale è arrivato alla conclusione che la foresta attualmente emette più CO2 di quanta ne assorba, per cui non può più essere considerata il polmone verde della terra.

Le promesse della Cop26

Durante la conferenza sul clima dell’Onu, la Cop26 di Glasgow (cfr. dossier in questo stesso numero), oltre 100 paesi hanno sottoscritto una dichiarazione sulle foreste e sull’uso del suolo, che dovrebbe limitare e invertire la deforestazione entro il 2030.

In pratica 114 paesi, che detengono insieme l’85% delle foreste mondiali, si sono impegnati a mettere a disposizione circa 16,5 miliardi di euro, tra fondi pubblici e privati, per il recupero dei terreni danneggiati, per la gestione degli incendi e per gli aiuti alle comunità che vivono in questi ambienti. La prima criticità di questo accordo è rappresentata dal fatto che i paesi partecipanti hanno avuto una richiesta, non un obbligo, a «rivedere e a rafforzare gli obiettivi sul clima al 2030 nei loro contributi nazionali entro la fine del 2022 di quanto è necessario per allinearli con l’obiettivo di temperatura dell’Accordo di Parigi, tenendo in considerazione le diverse circostanze nazionali», come recita il punto 29 del patto sul clima di Glasgow. Questo ha permesso ad Australia e Nuova Zelanda di affermare che non presenteranno contributi nazionali volontari prima della Cop27 del prossimo anno, perché si ritengono già allineate. Un’altra criticità emersa da Glasgow è il ruolo della piantagione di nuovi alberi (l’Unione europea si è impegnata a piantare 3 miliardi di piante entro il 2030), unitamente al contrasto alla deforestazione, nella lotta al cambiamento climatico. Di per sé, la piantagione di nuovi alberi sembra una buona soluzione, ma non può essere considerata fondamentale per la lotta al cambiamento climatico perché prima che, in un terreno distrutto da un incendio, essa sia in grado di ricostituire un bosco, devono passare almeno 15 anni, troppi per i danni all’ambiente e all’economia delle popolazioni locali.

È molto più importante perseguire politiche di prevenzione degli incendi e del disboscamento illegale, così come la lotta alla criminalità organizzata, piuttosto che correre ai ripari a cose fatte. È altrettanto importante un’azione di educazione delle popolazioni alla conoscenza e alla salvaguardia dei boschi e delle foreste, soprattutto perché le piante, con la loro organizzazione, hanno molto da insegnarci. Ogni singola pianta è infatti costituita da una rete di moduli e una foresta è una rete di reti, cioè un superorganismo. Dall’unione di tante unità emergono caratteristiche, che non esistono nel singolo individuo, ma permettono di superare le difficoltà presentate dall’ambiente. Le piante quindi ci insegnano la cooperazione, il senso di comunità e di rete, cioè che non vince il più forte, ma chi sa cooperare.

Rosanna Novara Topino


Una difesa naturale

Piante fuocoresilienti

Può sembrare strano l’utilizzo del fuoco per controllare gli incendi. Si tratta di una tecnica già utilizzata negli Stati Uniti dai primi anni del secolo scorso. Essa mira a sfruttare la capacità di resistenza di alcune specie di piante nei confronti del fuoco. Pertanto, la loro presenza può salvaguardare il bosco da un incendio più distruttivo. Un esempio è dato dal comportamento del Pinus palustris, che allo stadio giovanile è poco più di un ciuffo di aghi verdi su un esile fusto, che rimane a lungo in questo stato, se circondato e sovrastato da erbe e arbusti, che lo adombrano e gli tolgono spazio. Quando però un incendio colpisce il suo territorio, con l’eliminazione delle piante concorrenti, questo tipo di pino cresce molto rapidamente, diventando in breve tempo una delle piante più alte del bosco. Come ci riesce? Grazie alla protezione della propria gemma apicale con un mazzetto di aghi lunghi circa 20 centimetri, che bruciano se attaccati dal fuoco, lasciando la gemma intatta alla loro base. Anche il cisto e il pino di Aleppo utilizzano il fuoco per svilupparsi. Lo stesso discorso vale per la quercia da sughero, la cui spessa corteccia serve proprio a proteggere la pianta dal fuoco, oppure per i castagni, i corbezzoli e le robinie, tutte piante capaci di sopravvivere a un incendio emettendo nuovi fusti dai ceppi residui o dalle radici. La tecnica del fuoco prescritto sfrutta tutto questo: serve a selezionare piante resistenti e autoctone e nel contempo a eliminare il carico di combustibile presente nel territorio, in modo che un incendio incontrollato possa raggiungere le chiome degli alberi. È chiaro che, per poterla applicare, sono necessarie condizioni meteorologiche favorevoli (vento e umidità) e uno studio accurato del territorio. Nei terreni dove da lungo tempo manca un incendio, può verificarsi il cosiddetto «paradosso del fuoco» cioè l’accumulo di arbusti, legno e foglie secche diventa un pericoloso combustibile, che per un evento accidentale (fulmini, forte siccità, azioni umane) può dare origine ad un incendio devastante e incontrollabile. Per evitare tutto questo, se non si vuole ricorrere alla tecnica del fuoco prescritto, a cui non tutti sono favorevoli perché comunque essa può alterare la flora e la fauna del sottobosco, è necessario ricorrere a un’asportazione meccanica dei carichi d’incendio e quindi un controllo costante del patrimonio boschivo, che da anni in Italia è abbandonato a sé stesso. (RNT)




Le molte facce della pandemia

testo di Rosanna Novara Topino |


Le chiusure (lockdown) e le misure contro la pandemia hanno comportato e comportano varie conseguenze negative sulla salute mentale. E su quella fisica, con controlli cancellati e cure rinviate.

Da quando è scoppiata la pandemia da coronavirus – e ormai siamo alla soglia dei due anni -, veniamo quotidianamente informati sull’andamento dei contagi, dei ricoveri e dei decessi oltre che, negli ultimi otto mesi, delle vaccinazioni anti Covid-19. Siamo quindi portati a pensare che l’unico problema sanitario causato da questo virus sia quello della malattia. Ci sono però altri aspetti sanitari, di cui si parla meno, che sono la diretta conseguenza delle misure messe in atto nel tentativo di contrastare la pandemia e che vanno presi in attenta considerazione, poiché rischiano di protrarsi più a lungo nel tempo della pandemia stessa e di avere gravi ripercussioni sulla società.

Il peggioramento della salute mentale

C’è stato e c’è tuttora un forte impatto del coronavirus sulla salute mentale, che si manifesta trasversalmente in diverse fasce d’età e che può sfociare in atti di autolesionismo fino al suicidio o in atti violenti verso altre persone.

Sebbene i dati a disposizione siano incompleti, la sensazione è che, a seguito della pandemia, i problemi legati alla salute mentale e il numero dei suicidi siano aumentati. Tanto che l’Organizzazione mondiale della sanità (Oms) ha dichiarato che la salute mentale è diventata un’emergenza gravissima. In particolare, il suicidio rappresenta un problema di sanità pubblica così rilevante che, nel 2020, l’Oms ha elaborato un documento sulla sua prevenzione rivolto ai professionisti dell’informazione, fornendo loro indicazioni sulle modalità per una corretta informazione, vista la loro potenziale influenza sul manifestarsi del fenomeno, soprattutto tra le persone più vulnerabili.

Già nel 2014, l’Oms aveva dichiarato il suicidio come quindicesima causa di morte al mondo e la seconda tra 15-29 anni d’età. Quindi, il problema era già rilevante prima della comparsa del Covid-19, che lo ha esacerbato. Basta pensare a cosa è avvenuto nel 2020 in Giappone, dove sono morte suicide 20.919 persone, con un aumento del 3,7% rispetto all’anno precedente. Un numero molto elevato, se confrontato con quello dei decessi correlati al coronavirus nello stesso periodo, pari a 3.459. Il dato è ancora più angosciante, tenendo conto del fatto che di questi suicidi 479 sono stati di adolescenti, 140 in più dell’anno precedente.

In Italia, secondo l’Istat, il numero annuale di suicidi è di circa 4mila e questa è la seconda causa di morte nella fascia d’età sotto i 24 anni. Secondo diversi responsabili dei dipartimenti di salute mentale e dei centri di neuropsichiatria dell’infanzia e dell’adolescenza, le pressioni psicologiche legate al Covid subite da bambini e adolescenti hanno causato un’impennata di ricoveri legati ad atti autolesionistici e a tentativi di suicidio. In particolare, dall’ottobre 2020 in questi centri si è registrato un aumento di ricoveri di questo tipo del 30% per ragazzi e bambini.

La Didattica a distanza (Dad) ha prodotto varie conseguenze negative sugli studenti. Foto Alexandra Koch – Pixabay.

I ragazzi e la scomparsa della socialità

I disturbi sono aumentati notevolmente a seguito dei lockdown, delle chiusure e restrizioni varie, dell’insegnamento a distanza (Dad), che hanno creato una grave crisi psicologica soprattutto, ma non solo, tra i giovani.

Accanto ai ricoveri per gesti autolesivi e tentativi di suicidio, sono in aumento anche quelli legati ai disturbi del comportamento alimentare, soprattutto tra le ragazzine e a episodi di aggressività nei ragazzi.

Durante i periodi di lockdown sono venute meno le occasioni di socialità, che sono indispensabili per tutti, dal momento che l’essere umano è un animale sociale. In particolare, bambini e adolescenti per la loro crescita necessitano della vicinanza dei loro pari, una volta superata l’età della più tenera infanzia, dove prevale il legame con i genitori. Il prolungato isolamento, la mancanza di attività sportiva o ludica e di attività musicali, quali partecipazioni a cori e orchestre, hanno appesantito ulteriormente il carico psicologico già molto negativo dovuto alla paura di ammalarsi, di perdere i propri cari o di essere veicolo per loro della malattia.

I ragazzi e lo stress da Dad

Per molti bambini e ragazzi la didattica a distanza si è rivelata una notevole fonte di stress, che ha acuito il loro disagio psicologico. Questo, tra l’altro, ha portato ai peggiori risultati di sempre dei test Invalsi di fine anno scolastico, oltre che al digital divide tra le famiglie degli alunni più benestanti e quelle più povere e a un aumento di dispersione scolastica, che è passata dal 13% pre pandemia al 25% durante la pandemia (con punte di abbandono di un alunno su tre nel Sud Italia).

A differenza di quanto avviene nelle persone adulte o anziane, per le quali il suicidio è molto spesso legato a forme di depressione, nei giovani esso rappresenta quasi sempre un modo eclatante di manifestare il proprio disagio, la rabbia e la frustrazione dettati dall’impulsività. Quest’ultima è anche un fattore biologico legato allo sviluppo del cervello. Nelle fasi precedenti la maturità cerebrale (raggiunta intorno ai 20-21 anni nelle ragazze e tra i 24-25 anni nei ragazzi), c’è un minore controllo della parte limbica della corteccia cerebrale, che presiede agli impulsi e alle emozioni. Questo comporta una prevalenza nei giovani dell’aspetto emotivo su quello razionale e spiega le grandi difficoltà incontrate da loro nell’affrontare le crisi legate alla pandemia.

Per prevenire queste reazioni giovanili, che possono diventare estremamente pericolose per la loro vita, è importantissimo l’aspetto della familiarità e della condivisione.

A volte fare qualcosa insieme come una passeggiata, un gioco o condividere un hobby dà migliori risultati di tanti discorsi. È fondamentale, da parte degli adulti, dedicare del tempo all’ascolto dei bambini e dei ragazzi, sia in famiglia sia in ambito scolastico ed extrascolastico. Per permettere ai ragazzi di recuperare le carenze accumulate con la didattica a distanza, sarebbe indispensabile farli affiancare da figure di supporto messe a disposizione dagli istituti scolastici, una volta tornati alle lezioni in presenza, in modo da dare loro ripetizioni in orario extracurricolare, senza aggravio economico per le famiglie.

Le conseguenze per adulti e anziani

Tra gli adulti e gli anziani, le persone che hanno scelto di suicidarsi durante la pandemia, lo hanno fatto molto spesso per motivi economici, per l’isolamento e per le pressioni psicologiche, a cui sono state sottoposte.

Per quanto riguarda i motivi economici, va detto che la crisi  esisteva già ben prima della pandemia, che però l’ha notevolmente acuita. Secondo l’Istat, in un anno in Italia sono stati persi 700mila posti di lavoro (da febbraio 2020 a luglio 2021) in coincidenza con la pandemia. Dall’inizio della pandemia sono numerosi gli imprenditori falliti e coloro che hanno perso il lavoro, tra cui molti adulti con figli a carico. Sicuramente le difficoltà economiche (molte famiglie si sono ritrovate in condizioni di sovraindebitamento) e l’incertezza del futuro hanno fatto cadere molte persone in depressione, talvolta con gravi conseguenze.

Per ovviare ai disagi psicologici legati alle chiusure sarebbe indispensabile creare una rete di ascolto e di supporto da parte delle istituzioni pubbliche, in grado di aiutare coloro che, pur avendone bisogno, non possono permettersi i costi di una psicoterapia.

Un altro grave impatto sulla psiche di molte persone è stato causato dall’isolamento conseguente ai lockdown, che ha verosimilmente contribuito al diffondersi di idee suicidarie in molti soggetti, specialmente quelli fragili. Molto spesso hanno fatto questa tragica scelta persone anziane, che temevano per la propria salute o quella del consorte, oppure che hanno dovuto trascorrere troppo tempo senza potere vedere i propri cari, magari rinchiusi in qualche Rsa, dove le visite dei parenti sono state a lungo impedite.

Secondo la Società italiana di gerontologia, in base ad un’analisi condotta su anziani ricoverati con Covid-19, anche senza arrivare al suicidio, l’isolamento è comunque causa di un aumento del rischio di mortalità. Addirittura, secondo questa analisi, la riduzione della durata della vita negli anziani è influenzata dall’isolamento e dalla solitudine a un livello simile a quello di chi fuma 15 sigarette al giorno e maggiore a quello di chi è obeso.

Le mascherine saranno compagne obbligatorie per lungo tempo. Foto Gerd Altmann – Pixabay.

Violenza domestica e femminicidi

Il distanziamento sociale ha avuto spesso come conseguenza un aumento del consumo di alcol e droghe (si è diffuso il fenomeno dello spaccio a domicilio), che si è spesso accompagnato a quello della violenza domestica. Quest’ultima ha portato a un aumento dei casi di femminicidio, quasi tutti in ambito familiare, durante la pandemia.

Secondo l’Istat, nel 2020 i casi di femminicidio sono stati il 50% di tutti i casi di omicidio durante i periodi di lockdown.

Va detto che le misure di quarantena collettiva sono spesso state associate anche in passato a un aumento del rischio di suicidio, come è avvenuto durante le epidemie Sars, Mers e spagnola. Inoltre, il personale medico e infermieristico, che svolse il servizio durante quelle epidemie, così come nella pandemia attuale, spesso è stato colpito da «disturbo da stress post traumatico» (Ptsd).

L’impatto della pandemia sulla salute mentale si è manifestato parallelamente su due piani: da un lato con l’esordio di problemi psicopatologici nuovi nella popolazione generale e dall’altro con l’aggravamento di condizioni patologiche preesistenti, che non è stato possibile seguire adeguatamente presso i servizi psichiatrici, che spesso hanno dovuto ridurre o sospendere l’erogazione delle cure, a causa dell’introduzione delle norme di contenimento del contagio. Per questo motivo molti pazienti con malattia psichiatrica preesistente alla pandemia non hanno potuto essere sottoposti alle normali visite di controllo e si è quindi assistito, nei primi mesi della pandemia, a un netto incremento degli scompensi psicopatologici «prevenibili».

Tra le cause che hanno portato molte persone a un grave disagio psicologico, con possibilità di tendenze suicidarie, oltre al distanziamento sociale e, ovviamente, alla perdita dei propri cari, c’è stata la paura costante di contrarre il virus o l’averlo effettivamente contratto. La paura è stata peraltro enormemente alimentata da un’informazione mediatica, che troppo spesso ha esagerato, mandando in onda, a tutte le ore e per mesi, immagini di ambulanze, operatori sanitari in tuta integrale, bare accatastate: un insieme di cose che possono avere avuto un impatto pericoloso sulle persone più fragili.

I pazienti Covid e quelli non covid

Un analogo problema di visite di controllo posticipate o, peggio, di cure temporaneamente sospese in ossequio alle norme di contenimento del contagio ha riguardato sia i pazienti oncologici che quelli di altre categorie, tra cui i cardiopatici. A distanza di un anno dall’inizio della pandemia e precisamente ad aprile 2021, la Federazione di oncologi, cardiologi ed ematologi (Foce) ha consegnato al premier Draghi un documento di denuncia sui gravi disagi subiti dai pazienti da loro seguiti. Ci sono stati infatti moltissimi ritardi o cancellazioni di interventi chirurgici per tumore. È stata registrata una diminuzione dell’afflusso al pronto soccorso e alle unità intensive di cardiologia degli infartuati e sono stati ritardati o cancellati il 20-30% dei trattamenti oncologici.

Questi disagi hanno colpito 11 milioni tra pazienti oncologici, ematologici e cardiopatici. Inoltre, si sono verificati gravi ritardi anche per quanto riguarda lo screening annuale dei tumori, a cui afferiscono 5-6 milioni di persone. È evidente che la precedenza data alle cure dei malati di Covid causerà altre morti o l’aggravamento di patologie più facilmente trattabili, se diagnosticate tempestivamente. La stessa Foce ha reso noto che, da marzo a dicembre 2020, c’è stato un eccesso di mortalità generale nella popolazione del 21%, rispetto alla media dei cinque anni precedenti: 108.178 decessi in più. Di questi, il 69% era rappresentato da pazienti Covid, molti dei quali affetti da patologie cardiologiche o oncoematologiche, quindi a maggiore rischio di letalità da contagiati. Il restante 31%, però, era costituito da morti non Covid, deceduti per patologie in cui il fattore tempo gioca un ruolo determinante, come quelle cardiologiche e si è trattato di pazienti che non hanno ricevuto tempestivamente un’assistenza adeguata in occasione degli eventi acuti. Nei soli mesi di marzo e aprile 2020 ci sono stati 19mila morti in più delle attese, non legate alla Covid.

Se confrontata con le altre nazioni europee, l’Italia ha avuto, nello stesso periodo, il più alto numero di decessi per patologie non Covid, e questo dimostra che qualche errore di programmazione è stato fatto. Se, infatti, è necessario contrastare la pandemia, tuttavia non possono essere messe in secondo piano patologie altrettanto o più gravi. L’elevata mortalità dovuta a queste ultime è la logica conseguenza dei ritardi nella prevenzione, nella formulazione di una diagnosi, nella presa in carico e nell’attuazione di trattamenti salvavita. Il problema è rappresentato dal fatto che si è pensato di aumentare i posti letto per pazienti Covid a scapito dei posti letto riservati a pazienti di altre patologie, anziché aumentare il numero complessivo dei posti letto ospedalieri, con assunzione di ulteriore personale medico, tecnico e infermieristico.

Questo è il risultato dei tagli alla sanità pubblica fatti da governi di ogni colore politico che si sono succeduti alla guida del nostro paese negli ultimi anni.

Conseguenze sulla vista

Un’altra conseguenza dei lockdown legati alla pandemia è stato l’aumento della miopia, soprattutto tra i bambini e i giovani, dovuto alle molte ore passate ai videoterminali sia per le lezioni a distanza, sia per giocare o stare sui social, che per mesi hanno rappresentato la forma di comunicazione più utilizzata. Un recente studio pubblicato su Jama Oftalmology e condotto su 120mila tra bambini e ragazzi cinesi di età compresa tra 6-16 anni ha rilevato un aumento della miopia tre volte superiore da quando è iniziata la pandemia, rispetto agli anni precedenti.

Anche la vista degli adulti, con lo smart working ha subito dei contraccolpi, ma in questo caso, più che di aumento della miopia (lo sviluppo dell’apparato visivo è ormai completo nell’adulto) si può parlare di pseudo-miopia dovuta allo sforzo accomodativo, gestibile facendo delle pause di circa 20 minuti ogni due ore di lavoro.

Anche in ambito oculistico, in Italia la pandemia ha rallentato enormemente le visite di controllo, portando a liste d’attesa fino a tre anni, che impediscono l’accesso alle cure anche per patologie molto invalidanti come la cataratta e la maculopatia.

Rosanna Novara Topino




Carta versus digitale (con molte sorprese)


La carta è un prodotto che genera un forte impatto sull’ambiente. È meglio scegliere il digitale? Non è detto. Per valutare l’impronta ecologica di un dispositivo elettronico occorre infatti considerare il suo intero ciclo di vita.

Nel tentativo di ridurre la nostra impronta ecologica, talvolta rischiamo di fare delle scelte sbagliate a causa di una visione incompleta delle questioni ambientali. Uno dei luoghi comuni più frequenti è che leggere libri o riviste in formato digitale sia un modo di salvaguardare l’ambiente, perché in tal modo si riducono il consumo di legname e di acqua e le emissioni di gas a effetto serra. Ma è proprio così? Per rispondere a questa domanda è necessario confrontare l’intero ciclo di vita di libri e riviste cartacee da un lato e delle tecnologie digitali utilizzate nella trasmissione, ricezione ed elaborazione di dati (Ict) dall’altro. Il metodo da utilizzare è l’Lca (Life cycle assessment o analisi del ciclo di vita), che ci dà un’esatta valutazione dell’impatto ambientale di un prodotto o di un servizio perché prende in considerazione tutte le fasi del ciclo di vita che lo riguardano, partendo dall’estrazione delle materie prime necessarie alla sua produzione fino allo smaltimento del prodotto finale.

Un triciclo carico di carta da riciclare in Vietnam. Foto Falco – Pixabay.

Il ciclo della carta

Per quanto riguarda la carta, essa, per essere prodotta, richiede il legname. Per fortuna, una quantità sempre maggiore di carta viene recuperata tramite la raccolta differenziata. Il riciclo però non è possibile all’infinito, perché ogni volta la lunghezza delle fibre, di cui è costituita la carta, si riduce un po’ (e questo è il motivo per cui anche la carta riciclata deve contenere una minima quantità di fibre nuove).

La produzione della carta, tuttavia è responsabile della deforestazione solo in minima parte. Secondo il Wwf, infatti, la deforestazione e il grave degrado delle foreste naturali sono dovuti a molteplici fattori, tra cui l’agricoltura intensiva, il disboscamento non sostenibile, l’attività mineraria, la costruzione di nuove strade e l’aumento del numero e dell’intensità degli incendi.

Del legname raccolto, il 50% viene usato per produrre energia, il 28% per le costruzioni, mentre per la produzione di carta viene impiegato circa il 13%. Nel mondo, l’area con certificazione di gestione forestale è passata da 18 milioni di ettari nel 2000 a 438 milioni nel 2014. Mentre le foreste naturali rappresentano il 93% dell’area boschiva mondiale, quelle piantate sono il 7%. Anche queste ultime, come le naturali, possono assorbire CO2 dall’atmosfera. La carta, come derivato del legno, rappresenta un magazzino di CO2 per tutto il suo ciclo vitale.

Per quanto riguarda le emissioni di gas a effetto serra, quelle dell’industria della carta si sono ridotte del 22% tra il 2005 e il 2013, e attualmente rappresentano l’1% del totale di quelle dell’industria manifatturiera (che rappresentano a loro volta il 29% delle emissioni di gas climalteranti a livello mondiale), contro il 6% dell’industria dell’estrazione e lavorazione dei minerali non metallici, del 4,8% di quella del ferro e dell’acciaio, del 4,3% del settore petrolchimico, dell’1,4% di quella dei metalli non ferrosi, dell’1,1% della produzione del cibo e del tabacco e del 10,5% di altri tipi d’industrie.

Bisogna comunque considerare che alcuni tipi di carta, come quella dei giornali e dei materiali da imballaggio sono costituiti completamente da fibre riciclate. In Europa, nel 2020, la raccolta differenziata della carta si è attestata intorno all’81% con una lieve flessione di 3 punti percentuali dovuta all’emergenza sanitaria da Covid-19. Nello stesso anno, in Italia, la raccolta è stata del 70%, pari a 9,6 milioni di tonnellate.

Naturalmente, quando si considerano i consumi e le emissioni per produrre libri, giornali e riviste cartacei, bisogna tenere conto che per la produzione della carta sono necessari dei procedimenti che comportano sia l’utilizzo che l’inquinamento dell’acqua. Per quanto riguarda l’utilizzo di acqua necessario a produrre una tonnellata di carta, le significative innovazioni introdotte negli ultimi anni dall’industria cartaria italiana, per ottimizzare i consumi, hanno permesso di arrivare a un consumo attuale di soli 26 metri cubi di acqua dolce per tonnellata, contro i 100 della fine degli anni ‘70. Inoltre solo il 10% dell’acqua utilizzata nell’intero processo produttivo è costituito da acqua fresca, mentre il 90% è acqua di riciclo.

Tra i maggiori inquinanti rilasciati con le acque reflue dall’industria cartaria c’è il mercurio, che viene trasformato dai microrganismi degli strati superficiali dei sedimenti marini in metilmercurio, una forma estremamente tossica del metallo, che entra nella catena alimentare attraverso il plancton, percorrendola interamente fino ai pesci di grossa taglia, i grandi predatori, in cui si concentra in maggiore quantità, a causa del processo di biomagnificazione.

Anche gli inchiostri utilizzati per la stampa contribuiscono all’inquinamento sia delle acque, durante la loro produzione, che dell’aria, durante il loro uso, per via dei solventi in essi presenti.

Bisogna inoltre considerare il trasporto sia della carta alle case editrici, che dei prodotti stampati ai punti di vendita o a casa dei lettori, nel caso della distribuzione attraverso le grandi piattaforme di vendita on line.

Il corretto smaltimento dei cellulari (e dei rifiuti elettronici in generale) è possibile ma costoso. Foto Fairphone.

L’impronta digitale

La lettura di testi per mezzo di un dispositivo elettronico come un e-reader, un tablet o un pc sembrerebbe essere molto più «leggera» per l’ambiente, rispetto alla carta stampata, perché un dispositivo può contenere migliaia di testi, questi si possono scaricare in un attimo e non devono essere trasportati, quindi apparentemente non c’è inquinamento. Nemmeno per spostarsi con un mezzo di trasporto per il loro acquisto, dal momento che esso può essere effettuato su internet. Inoltre i testi sono dematerializzati, quindi non si contribuisce alla deforestazione. Apparentemente la lettura dei testi digitali sembra rivoluzionaria per l’ambiente, ma un attento esame dimostra che la sua impronta ecologica è piuttosto elevata e non si discosta da quella della carta stampata. Questo perché non possiamo considerare solo i consumi del nostro dispositivo elettronico, ma dobbiamo innanzitutto considerare i consumi e gli scarti relativi al suo intero ciclo di vita e quelli di tutta la tecnologia necessaria per fare arrivare i testi fino al nostro dispositivo. In pratica, dobbiamo tenere conto delle materie prime utilizzate per la costruzione del nostro dispositivo, tra cui le terre rare, come il coltan, estratte con procedimenti e in luoghi rischiosi per i lavoratori, soprattutto perché spesso teatro di guerre per la loro appropriazione. Dobbiamo, inoltre, considerare il quantitativo di energia necessario sia per la sua costruzione, che per il suo trasporto fino a noi da luoghi lontanissimi e che per tale trasporto sono necessari mezzi ad altissimo consumo energetico come navi mercantili o aerei e autotreni. Certo non possiamo comparare il consumo di energia per la costruzione di un dispositivo elettronico con quella per la produzione di un singolo libro o rivista o giornale. Come dicevo prima, il nostro dispositivo può contenere fino a qualche migliaio di libri e, se siamo dei lettori particolarmente assidui, almeno in considerazione di questo fatto, potremmo pensare ad un risparmio energetico con la lettura di testi digitali. Il nostro dispositivo però ha bisogno di corrente per funzionare, mentre se leggiamo di giorno basta la luce solare.

Una caratteristica dei dispositivi elettronici è che la loro vita è piuttosto breve, sia perché le batterie al litio, di cui sono dotati, durano pochi anni, sia perché caratterizzati dall’obsolescenza programmata. Dopo un po’, infatti, pc, tablet ed e-reader non riescono più a effettuare i necessari aggiornamenti per adeguarsi ai nuovi sistemi operativi e alle nuove app (applicazioni), che hanno bisogno di una memoria sempre più ampia per funzionare. La batteria esaurita e l’obsolescenza programmata ci portano, quindi, a cambiare i nostri dispositivi dopo pochi anni di uso, anche se ancora funzionanti e a doverli smaltire come Raee (Rifiuti di apparecchiature elettriche ed elettroniche).

lo smaltimento

Il corretto smaltimento di questa tipologia di rifiuti è un processo multifase, lungo e costoso, che prevede il recupero e il riutilizzo di buona parte dei componenti. Tuttavia, non sempre questi rifiuti tecnologici vengono smaltiti correttamente, con il rischio che le sostanze tossiche contenute nei loro componenti, se gettati in discariche e non trattati in modo adeguato, possano inquinare l’ambiente.

È quello che sta capitando in molti paesi a basso reddito, dove viene effettuato in modo illegale e non tracciato lo smaltimento dei nostri rifiuti tecnologici, come ad esempio in diverse regioni o città africane, che si stanno trasformando in discariche a cielo aperto di rifiuti tecnologici dei paesi occidentali. Questo avviene perché gli impianti per il corretto trattamento dei rifiuti elettronici sono all’avanguardia, ma costosi. Si stima che già nel 2006, in Europa siano stati prodotti tra 8-12 milioni di tonnellate di Raee, ma attualmente si pensa che la loro percentuale rispetto al totale dei rifiuti solidi urbani sia equivalente a quella degli imballaggi in plastica. Il loro tasso di crescita è infatti elevatissimo. È evidente che smaltire un libro è molto più semplice ed economico: la cosa migliore da fare è donarlo oppure, nella peggiore delle ipotesi, destinarlo alla raccolta differenziata e riciclarlo.

Il peso dei data center

Ciò che ho descritto fino a qui però riguarda solo il nostro dispositivo personale. Quindi, molto meno dei reali consumi legati alla fruizione on line di libri, riviste, giornali (oltre che di video, film, podcast, ecc.), perché tutto ciò di cui possiamo fruire è formato da dati che si trovano in qualche gigantesco data center, da cui partono i servizi digitali che utilizziamo.

L’insieme dei data center è un sistema, che identifichiamo con il cloud, rappresentato da quella eterea nuvoletta, che vediamo nell’icona corrispondente, ma che ha ben poco di etereo. Si tratta in realtà di un insieme di strutture fisiche costituite da fibre ottiche, router, satelliti, cavi posizionati in fondo all’oceano, giganteschi centri di elaborazione dati pieni di computer. Tutto questo consuma un’enorme quantità di energia, anche perché molte di queste strutture necessitano, per funzionare bene, di impianti di raffreddamento.

Gli utenti finali non si rendono minimamente conto di questo grandissimo dispendio energetico, perché pagano esclusivamente la piccola quantità di energia consumata dai loro dispositivi, gli abbonamenti ai fornitori di contenuti e i gigabyte di traffico ai loro operatori telefonici. È evidente, quindi che anche le letture online pesano parecchio sull’ambiente e probabilmente non ci sono vantaggi in termini di risparmio energetico totale e di riduzione dell’inquinamento, rispetto alla carta stampata.

I servizi offerti dagli strumenti digitali costano (e molto) anche in termini ambientali. Foto Gerd Altmann – Pixabay.

Digitale e problemi fisici

Nella scelta tra un modo di leggere e l’altro pesano diversi fattori, tra cui l’età dei lettori (le persone anziane non sempre hanno dimestichezza con i mezzi informatici), la necessità di risparmiare spazio (la carta pesa e occupa grandi volumi), la possibilità di facilitare la lettura regolando le dimensioni dei caratteri offerta dai dispositivi elettronici, le esigenze dell’insegnamento a distanza, per cui è necessario che i due sistemi continuino a coesistere.

È però importante considerare che un’eccessiva esposizione agli schermi dei dispositivi elettronici può portare alla «sindrome da visione al computer» o Cvs (Computer vision syndrome), una condizione sempre più diffusa che interessa tra il 70-90% delle persone che passano diverse ore davanti ad uno schermo. I sintomi di questa sindrome sono variabili e sono di tipo visivo, neurologico e muscolo-scheletrico. Non è detto che si presentino tutti insieme e possono variare da una persona all’altra, in base alle abitudini di lettura allo schermo. Frequentemente, dopo alcune ore allo schermo, si presentano bruciore agli occhi, affaticamento e talora sdoppiamento della visione, mal di testa e dolori al collo, per la posizione assunta.

Molti problemi legati a una lunga esposizione a uno schermo sono dovuti al fatto che gli schermi di computer, tablet e smartphone emettono luce blu, che ha effetti negativi su uno dei nostri pigmenti visivi, la rodopsina, portando a un più rapido invecchiamento della vista. Inoltre, la luce blu influenza negativamente il sonno e la concentrazione, in particolare se l’esposizione avviene nelle ore serali, perché rallenta la produzione di melatonina, l’ormone che induce il sonno, provocando insonnia, irritabilità e ansia. Oltre a questo, un’esposizione costante alla luce blu può danneggiare la retina, che non ha sufficienti schermature per questa lunghezza d’onda. A differenza delle altre gamme di luce, che vengono assorbite dalla cornea e dal cristallino, quella blu-viola penetra in profondità nell’occhio e arriva alla zona centrale della retina, la macula, che elabora le nostre informazioni visive.

Infine, la luce blu è capace di influenzare i neurotrasmettitori del tratto retino-ipotalamico, responsabile della regolazione del nostro ritmo circadiano, che è alla base dei nostri processi biologici, tra cui sonno-veglia e produzione ormonale, con alterazioni sia fisiche, che comportamentali.

In conclusione, con un occhio alla salute del pianeta e uno alla nostra, scegliamo il supporto che più ci è confacente.

Rosanna Novara Topino

Quanto inquina l’Internet?

Sebbene sia difficile quantificarlo, secondo una recente ricerca di Greenpeace, il consumo energetico di internet è circa il 7% dell’energia elettrica mondiale. Il suo rilascio di CO2 sarebbe di circa un miliardo e 850 milioni di tonnellate cubiche all’anno, cioè circa 400 grammi per ciascun utente di internet. E l’energia utilizzata dai grandi data center è «pulita» o «sporca», cioè deriva da fonti rinnovabili o no? Secondo un altro report del 2017 di Greenpeace, che ha preso in considerazione i grandi data center e una settantina tra siti web e applicazioni, per quanto riguarda l’utilizzo di energia pulita, per le loro operazioni negli Usa, al primo posto si trova Apple con l’83% di energia pulita, seguita da
Facebook con il 67%, Google con il 56%, Microsoft con il 32%, Adobe con il 23% e
Oracle con l’8%. La restante parte di energia usata è fornita da gas naturale, centrali a carbone e nucleare.

RTN




Se scomparissero (anche) le api

testo di Rosanna Novara Topino |


Le attività umane stanno determinando la sparizione o la riduzione di molte specie viventi (animali e vegetali). Questa perdita (silenziosa) della biodiversità ha conseguenze molto preoccupanti per la nostra vita e per quella del pianeta.

Il surriscaldamento del pianeta (global warming) è quasi ovunque oggetto di attenzione, nonché di iniziative tese a rallentarne l’aggravamento. Questo perché sono già ben visibili gli effetti in termini di alterazioni del clima, sotto forma di alluvioni, uragani, valanghe che lasciano spesso una scia di morte e devastazione. A questi fenomeni si aggiunge lo scioglimento del ghiaccio ai poli, con l’aumento del livello del mare che, in futuro, rappresenterà un serio problema per molte popolazioni costiere e la scomparsa di molti ghiacciai montani, con la conseguente perdita di grandi quantità di acqua dolce. Si parla invece un po’ meno della perdita della biodiversità, probabilmente perché avviene in modo più silenzioso e questo non ci aiuta a renderci conto di quali gravi conseguenze essa comporti per il genere umano. Sicuramente essa eguaglia e probabilmente supera per importanza e urgenza la crisi dovuta ai cambiamenti climatici. Peraltro, i due fenomeni sono strettamente connessi tra loro.

Antropocene e tassi d’estinzione

L’estinzione delle specie è un fenomeno sempre esistito, ma i tassi attuali sono di gran lunga superiori a quelli naturali. Si stima che, dalla comparsa dell’uomo sulla Terra, i tassi di estinzione di uccelli e di mammiferi siano da 100 a 1.000 volte superiori rispetto a prima. Il tasso di estinzione globale per tutte le specie animali e vegetali è circa 10mila volte superiore a quello naturale, e il numero di estinzioni è aumentato soprattutto negli ultimi due secoli nei quali le attività umane hanno causato in molti modi la scomparsa o la riduzione di diverse specie. Secondo gli scienziati, siamo di fronte alla sesta estinzione di massa nella storia della Terra, questa volta per cause antropiche e con proporzioni superiori persino a quella che causò la scomparsa dei dinosauri 65 milioni di anni fa.

Il peso delle attività umane sul pianeta è tale che si parla dell’era geologica attuale come di Antropocene, perché l’essere umano non solo si è adattato all’ambiente, come fanno tutte le specie viventi di successo, ma lo ha modificato a suo favore, a scapito spesso delle altre forme di vita.

Per capire cosa stiamo perdendo, è necessario soffermarsi un attimo su cosa sia la biodiversità. Questo concetto comprende ogni manifestazione della vita, a tutti i livelli di organizzazione biologica. Si va dal livello molecolare a quello del patrimonio genetico, dalle specie alle comunità biologiche, quindi la biodiversità è una componente essenziale dell’ambiente naturale nel quale è comparsa e si è evoluta anche la specie umana. Gli esseri umani hanno bisogno della biodiversità per la loro sopravvivenza e ne fanno parte. La biodiversità è l’insieme dei patrimoni genetici e delle conoscenze apprese dalle specie nei loro processi evolutivi che da milioni di anni permettono loro di sopravvivere e adattarsi a condizioni ambientali estremamente variabili.

L’attuale ecatombe di api nel mondo è una questione di enorme rilevanza. Foto Gaëtan Bussy – Pixabay.

I benefici della biodiversità

I vantaggi della salvaguardia della biodiversità sono molteplici. In primo luogo essa garantisce la qualità della vita delle future generazioni per il suo valore economico, attraverso lo sfruttamento delle risorse naturali. C’è poi il suo valore scientifico, che si traduce nella conoscenza e nella conservazione delle specie. Non meno importanti sono i valori estetico, ricreativo, culturale e spirituale. La biodiversità, infine, svolge un’azione regolatrice fondamentale dei cicli biogeochimici della terra, stabilizzando il clima, regolando i deflussi delle acque e rinnovando il suolo. In pratica, la biodiversità è per il pianeta quello che per noi è il sistema immunitario.

Se veniamo aggrediti da agenti patogeni, il nostro sistema immunitario, alla base del quale sta un’enorme variabilità legata al patrimonio genetico, è in grado di scegliere, tra infinite possibilità, il tipo di anticorpo più adatto a neutralizzare il patogeno di turno. La variabilità anticorpale, tra l’altro, risulta inferiore nei legami tra consanguinei, perché il patrimonio genetico dei loro figli è impoverito, cioè presenta meno diversità.

La stessa cosa avviene con la biodiversità. È la differenziazione tra le specie, che assicura ad un ecosistema equilibrio e capacità di rispondere ai parassiti. Le monocolture, ad esempio, sono quasi sempre tendenti ad essere aggredite da parassiti, e possono essere mantenute solo dall’intervento dell’uomo con l’uso di pesticidi, di erbicidi e di fitofarmaci.

In un ecosistema naturale esiste, invece, un equilibrio tra parassiti e predatori naturali, come uccelli, vespe, ragni, mosche e funghi, che con la loro azione antagonista riducono la vulnerabilità delle singole specie. Da questo si capisce che è indispensabile mantenere una grande variabilità genetica a livello di popolazione per conservare le specie e, più in generale, gli ecosistemi.

Una pluralità di cause

Quali sono le cause principali dell’estinzione delle specie e quindi della perdita della biodiversità? Sicuramente una delle principali cause è la sostituzione degli ecosistemi naturali con agroecosistemi o con ecosistemi urbani. Altre cause molto importanti sono il bracconaggio, la pesca intensiva, le pratiche agricole intensive con l’uso di pesticidi, erbicidi e fitofarmaci, l’introduzione di specie esotiche in contesti a loro estranei, con conseguente diffusione di agenti patogeni, la frammentazione degli habitat naturali, l’inquinamento del suolo, dell’acqua e dell’atmosfera. Molto spesso più fattori agiscono simultaneamente nella riduzione della biodiversità.

Talvolta le alterazioni ambientali prodotte localmente hanno conseguenze su scala continentale. Possiamo pensare alla plastica dispersa in acqua nei fiumi e nei mari di tutto il mondo, soprattutto laddove si trovano grandi insediamenti urbani. Essa si frammenta in microplastiche e viene ritrovata nelle acque artiche e antartiche, anche dove non esistono villaggi, oppure alle piogge acide, che inquinano i grandi laghi del Nord America e dell’Europa continentale e settentrionale e che prendono origine dalle emissioni atmosferiche prodotte a migliaia di chilometri di distanza.

A causa dell’acidificazione delle acque, è stato calcolato che sono scomparse più di 200mila popolazioni di pesci e un milione di popolazioni di invertebrati (dove per «popolazione» si intende l’insieme degli organismi di una data specie in un dato luogo).

Non solo api. Anche altri insetti impollinatori sono a rischio estinzione. Foto David Hablützel – Pixabay.

La deforestazione e l’Amazzonia

Per quanto riguarda la sottrazione di habitat, basta pensare che, secondo il Wwf, negli ultimi trent’anni sono stati deforestati 420 milioni di ettari di terreno, cioè una superficie equivalente a quella dell’Unione europea, la maggior parte dei quali in zone tropicali. Mediamente, ogni anno vanno persi almeno 10 milioni di ettari di foreste, che vengono convertiti in terreni agricoli. Nel solo 2018 sono andati persi 3,6 milioni di foresta pluviale primaria, una superficie grande quanto il Belgio. Le foreste pluviali primarie sono le più vecchie, mai modificate finora dall’attività antropica. Hanno un ruolo fondamentale sia nella preservazione della biodiversità, sia nella limitazione delle emissioni di gas climalteranti.

Le foreste tropicali rappresentano inoltre la più grande farmacia del pianeta. La deforestazione comporta quindi la perdita di specie sia vegetali, che animali, che potrebbero tornare molto utili per le sostanze in esse presenti, soprattutto in campo farmaceutico.

Solo in Amazzonia, che ha un’estensione di 6,7 milioni di chilometri quadrati, tra il 1988 e il 2017 sono stati persi ogni anno mediamente 12mila chilometri quadrati con dei picchi fino a 28mila. La tecnica maggiormente usata in questa regione per deforestare ed espandere le aree destinate a coltivazioni, allevamenti ed estrazioni minerarie è l’utilizzo del fuoco. Nel 2018 sono stati contati circa 73mila roghi.

Se non si interviene urgentemente, il terreno bruciato va incontro a dilavamento, erosione e desertificazione, amplificando i rischi prodotti dai cambiamenti climatici. Si calcola che, se si perdesse tutta l’Amazzonia, andrebbe perso il 10% di tutta la biodiversità mondiale, oltre all’habitat per 34 milioni di persone. Se poi consideriamo che le foreste assorbono globalmente 2,4 miliardi di tonnellate di carbonio all’anno e l’Amazzonia vi contribuisce per un quarto, è evidente che essa rappresenta uno dei pilastri fondamentali dell’equilibrio climatico terrestre.

Biodiversità e fame (il caso del grano)

La perdita di biodiversità significa anche aumento della fame nel mondo, insorgenza di intolleranze alimentari e perdita di molecole utilizzabili a scopo farmaceutico.

La biodiversità può aiutare a contrastare la fame nel mondo, perché la disponibilità di diverse specie utilizzabili a scopo alimentare è senz’altro più sicura dei prodotti delle monocolture e degli allevamenti intensivi, che più facilmente possono soccombere all’aggressione di agenti patogeni o alle avversità climatiche, essendo caratterizzate da una minore variabilità genetica, rispetto alle specie selvatiche.

Recenti studi hanno portato alla conclusione che l’aumento dell’intolleranza al glutine potrebbe derivare dall’uso diffuso, che si fa attualmente, di sole quattro varietà di grano per la panificazione e la produzione di pasta, con il quasi totale abbandono delle antiche varietà. Le varietà di grano usate fino alla metà del secolo scorso erano circa una cinquantina, ma con l’avvento dell’agricoltura meccanizzata e l’introduzione delle monocolture è stata data la preferenza alle specie selezionate successivamente agli anni Settanta, con un’altezza ottimale per l’uso della mietitrebbia e dalla maggiore resa. Questo ha però comportato una disassuefazione del nostro organismo alle diverse varietà di grano e quindi di glutine, con conseguente possibile insorgenza dell’intolleranza. Inoltre, i grani antichi presentano un tipo di glutine con una diversa struttura e più facilmente assimilabile, rispetto a quello delle cultivar moderne.

Formare una coscienza collettiva

Come fare quindi a difendere la biodiversità? Oltre alle azioni intraprese a livello internazionale dai vari governi, o a quelle di organizzazioni come il Wwf o Greenpeace, oltre alla realizzazione di strumenti di difesa della natura come i bioparchi e di conoscenza come gli ecomusei, è indispensabile una continua informazione ed educazione della popolazione, e dei giovani in particolare, attraverso la scuola e i media, per creare una coscienza collettiva capace di rendersi conto delle gravi conseguenze che la distruzione dell’ambiente ha sul genere umano.

Rosanna Novara Topino

Coltivazioni estensive e utilizzo dei pesticidi stanno distruggendo la biodiversità. Foto Erich Westendarp – Pixabay.

I numeri

A rischio estinzione

Secondo un rapporto congiunto del Wwf e della Zoological Society of London del 2016, tra il 1970 e il 2012, le popolazioni di animali selvatici al mondo si sono dimezzate. Secondo la «lista rossa» dello Iunc (Unione internazionale per la conservazione della natura) sono minacciati di estinzione:

  • ●︎ 1.199 specie di mammiferi (il 26% delle specie conosciute);
  • ● 1.957 di anfibi (41%);
  • ● 1.373 di uccelli (13%);
  • ● 993 di insetti (0,5%).

Sicuramente queste stime sono per difetto, perché la nostra conoscenza del numero reale delle specie viventi è alquanto approssimativa.
Basta pensare che, alla fine degli anni Ottanta del secolo scorso, si sospettava che una percentuale compresa tra l’83 e il 98% di specie fosse ancora da scoprire. Questo significa che, con le nostre attività, portiamo all’estinzione specie di cui non siamo nemmeno a conoscenza, soprattutto per quanto riguarda le specie che vivono ai tropici (si stima che il loro numero sia compreso fra 3 e 30 milioni).
Attualmente in tutto il pianeta sono state descritte 1.371.500 specie animali, ma si pensa che il loro numero possa variare tra 2 e 11 milioni. I funghi conosciuti sono circa 100mila, ma il loro numero dovrebbe essere compreso tra 600mila e 10 milioni di specie. Le piante conosciute sono 307.700, ma il loro numero potrebbe essere di 450mila specie. Dei batteri probabilmente conosciamo solo l’1%. Ciò che sappiamo per certo è che ogni specie vivente rappresenta un tassello indispensabile dell’ecosistema in cui vive e la sua perdita porta senz’altro all’alterazione di un equilibrio tra esseri viventi.

RTN

Le cause della moria

I nemici delle api

Primavera © Gigi Anataloni

La moria delle api è un esempio di forte riduzione di popolazione all’interno di una specie. Essa è dovuta all’azione di varie concause, tra cui sicuramente l’uso di pesticidi, la presenza di agenti patogeni e l’introduzione di specie aliene. Il fenomeno preoccupa fortemente dagli anni 2000, quando si è iniziata a registrare una vera e propria sparizione di intere colonie. Il fatto però è antecedente a quegli anni, poiché in Usa tra il 1947 e il 2005 è andato perso il 59% delle colonie di api, mentre in Europa tra il 1985 e il 2005 il 25%. Ci sono ben 29 agenti patogeni che attaccano le api, il principale dei quali è il Varroa destructor, un acaro parassita dell’Apis mellifera e dell’Apis cerana, ma una grande responsabilità per la moria è dei pesticidi neonicotinoidi. Oltre a questo è stata introdotta in Europa e in Italia in particolare una specie aliena carnivora, che aggredisce le api durante il loro ritorno all’alveare, cibandosene. Si tratta della Vespa velutina, un calabrone di origine asiatica. Oltre alla riduzione delle api, si calcola che solo in Europa il 9,2% delle 1.965 specie di insetti impollinatori stia per estinguersi, mentre un ulteriore 2,5% potrebbe essere minacciato nel prossimo futuro. Considerando che l’80% delle piante esistenti dipende, per la riproduzione, dall’impollinazione per mezzo di insetti, possiamo capire quale sia la portata di questo fenomeno. È celebre, a tal proposito la frase di Einstein: «Se le api scomparissero dalla Terra, per l’uomo non resterebbero che quattro anni di vita».

RTN