Rinnovabili • Rinnovabili - Inform - Act - Share Background

Le cicatrici della nostra terra

Le cause del dissesto idrogeologico in Italia sono da ricercarsi nella fragilità geomorfologica del nostro Paese e soprattutto nella mancanza di un’adeguata pianificazione territoriale

Il 18 luglio 1987 nel piccolo paese di Tartano, in provincia di Sondrio, alle prime ombre della sera, sotto una pioggia intensa che stava cadendo da giorni, dalla montagna si staccò senza nessun preavviso una massa enorme di fango, che trascinò letteralmente verso valle un intero condomino e la strada sottostante. Undici persone morirono senza neanche avere il tempo di capire cosa stava succedendo. Fu solo il preambolo di 43 lunghissimi giorni di terrore vissuti dalla Valtellina. Il fiume Adda ruppe gli argini e trasformò la parte centrale della valle in un gigantesco lago melmoso. La Valtellina rimase isolata e interi comuni, sotto la minaccia di altre frane, furono sfollati. Ma il peggio arrivò il 28 luglio quando, di prima mattina, 40 milioni di metri cubi di materiale, quasi mezza montagna, si staccarono dal monte Zandila, sull’alto versante della Val Pola, in alta Valtellina, e precipitarono sulle frazioni di Morignone, Sant’Antonio e Piazza, spazzandole via. La forza della frana fu tale che risalì per alcune centinaia di metri sulla sponda opposta della valle. Quel giorno morirono 42 persone, compresi 7 operai al lavoro sulla statale. Finita l’emergenza si contarono 53 morti, migliaia di sfollati e danni per 1,5 miliardi di Euro.
Il 5 maggio 1998 nel primo pomeriggio, al culmine di tre giorni di pioggia incessante, la frazione di Contrada Fosso Cerasole, in provincia di Salerno, fu investita dalla prima di molte frane, che si susseguirono con forti boati in poche ore in tutto il bacino del fiume Sarno (alla fine si contarono più di 140 frane). Alle 17 ci furono le prime vittime quando un’enorme colata di fango invase le strade e travolse alcune case nel comune di Sarno. Soltanto un’ora dopo una violenta ondata di acqua e detriti sommerse completamente il paese di Quindici e quasi contemporaneamente altrettanto violente colate di fango si abbatterono su Episcopio, frazione di Sarno, e sui comuni di Siano e Bracigliano. Dalle 20 alle 24 a Sarno furono quattro ore di puro terrore.
Nel buio totale, per un blackout, si susseguirono boati, frane e morti. A mezzanotte l’ultima frana si staccò dal Monte Saro e si portò via l’Ospedale Villa Malta di Sarno, con medici, infermieri e ricoverati. Il bilancio fu da incubo: 180 le case distrutte, 450 quelle danneggiate e danni materiali per 550 milioni di Euro. I morti furono 160, di cui 137 solo a Sarno, centinaia i feriti e migliaia i senzatetto. Si è calcolato in seguito che su Sarno, Quindici, Siano e Bracigliano si abbatterono complessivamente oltre 2 milioni di metri cubi di fango con velocità di 10 metri al secondo.
Questi avvenimenti sono due delle tragedie più gravi legate al dissesto idrogeologico avvenute in Italia negli ultimi vent’anni, e forse sono quelle rimaste più impresse nella memoria collettiva.
Purtroppo non sono stati gli unici eventi catastrofici avvenuti nel nostro Paese. Secondo le statistiche del Progetto AVI (Aree Vulnerate Italiane) del CNR – GNDCI (Gruppo Nazionale per la Difesa dalle Catastrofi Idrogeologiche), nel decennio 1991–2001 in Italia sono avvenuti più di 13.000 eventi di dissesto idrogeologico, di cui 12.000 frane e 1.000 piene. Fortunatamente solo poco più di mille di questi hanno causato danni rilevanti.
Le stime riportate nell’Annuario dei dati ambientali 2007 dell’APAT (Agenzia per la Protezione dell’Ambiente e per i servizi Tecnici) indicano che dal 1951 al 2006 le principali alluvioni in Italia provocate da eventi meteo climatici hanno causato 1.416 vittime e 16,5 miliardi di Euro di danni (senza contare la tragedia del Vajont nel 1963, che causò da sola più di 2000 morti, ma che fu provocata dalla costruzione della diga e non da un evento climatico). Soltanto dopo Sarno i morti in eventi alluvionali sono stati 105, con danni economici per 7,5 miliardi di Euro.
L’ultimo aggiornamento del Ministero dell’Ambiente del 2006 indica che circa il 10% del territorio italiano (pari a 29.517 km2) è classificato a rischio elevato per alluvioni, frane e valanghe, interessando più di 6.600 comuni italiani (più dell’80% del totale). In particolare, il 4,1% (12.263 km2) è a rischio alluvioni, il 5,2% (15.738 km2) è a rischio frane e lo 0,5% (1.516 Km2) è a rischio valanghe. L’Italia è quindi un Paese estremamente vulnerabile da un punto di vista idrogeologico.
Esiste una fragilità intrinseca del nostro Paese dovuta al fatto che l’Italia è un’area geologicamente “giovane”, prevalentemente montuosa, circondata quasi interamente dal mare e ricca di corsi d’acqua superficiali e fenomeni quali frane, valanghe, erosioni e alluvioni accadono frequentemente nel processo naturale di modellazione del suolo. Il dissesto idrogeologico quindi non è altro che la manifestazione della normale evoluzione geologica del territorio.
Il problema subentra quando i dissesti coinvolgono insediamenti umani mettendo a rischio l’incolumità di persone e beni. Purtroppo le esigenze dello sviluppo socio-economico e demografico hanno portato ad uno sfruttamento del territorio italiano poco attento ai delicati equilibri idrogeologici. Dopo la II Guerra Mondiale si è assistito ad una forte espansione dei centri abitati e delle zone industriali nelle aree di pianura alluvionale, ed è aumentato il rischio. Esempio lampante sono le terre piemontesi e valdostane, oggi più vulnerabili rispetto al passato, anche in presenza di piogge non eccezionali, a causa dell’occupazione crescente delle zone di espansione naturale dei fiumi (tristemente famosa è l’alluvione nel novembre del 1994 in Piemonte che fece 64 vittime e danni per quasi 3 miliardi di Euro).
Opere come argini, dighe, canali, bonifiche, muri di sostegno, se da un alto hanno portato benefici sociali ed economici enormi permettendo di sviluppare aree altrimenti inutilizzabili (come per esempio le golene dei fiumi) e contribuendo a trasformare l’Italia contadina della metà del ‘900 in una società industriale e moderna, dall’altro hanno però impedito l’evoluzione del territorio secondo le dinamiche naturali. Tali opere di protezione, peraltro, sono efficaci solo nel breve periodo perché necessitano di manutenzioni continue e onerose.
Il territorio italiano risulta perciò come “imbrigliato” in una cementificazione eccessiva, che nel tempo ha creato numerose situazioni a rischio, permettendo a sempre più persone di stabilirsi in zone naturalmente pericolose.
La mancanza o la cattiva gestione del territorio ha avuto poi effetti negativi per la difesa del suolo. Nelle aree montane il progressivo spopolamento ha portato all’abbandono della tradizionale manutenzione idrogeologica del suolo, che avveniva con i terrazzamenti agricoli e la pulizia degli impluvi naturali.
Nelle aree collinari e di pianura, l’agricoltura intensiva ha incrementato la perdita di suolo per erosione idrica, diminuendo la fertilità degli stessi suoli e aumentando il trasporto solido dei corsi d’acqua. Inoltre l’elevata impermeabilizzazione dei terreni, con strade e superfici asfaltate, ha impedito (e impedisce) il normale assorbimento delle acque meteoriche da parte dei suoli.
L’elevata cementificazione, l’abusivismo edilizio, l’artificilizzazione dei corsi d’acqua, l’assenza di manutenzione idraulica del territorio favoriscono quindi i fenomeni di frana e incrementano gli eventi di piena, amplificando i dissesti in atto o innescandone di nuovi.
A tutto ciò bisogna aggiungere che nell’ultimo secolo è cambiata la distribuzione delle piogge con una diminuzione dei giorni piovosi durante l’anno, ma con un aumento dei fenomeni intensi e di breve durata, che accrescono le probabilità di eventi catastrofici, soprattutto nel territorio italiano dove esiste già una situazione di rischio idrogeologico molto elevato (oggi in un solo giorno possono cadere fino a 200 mm di pioggia, quantità enorme dato che la media annuale italiana nelle zone di pianura è di 800/1000 mm).
Appare evidente che la prevenzione del rischio idraulico e di frana deve partire da una pianificazione territoriale che tenga conto della pericolosità idrogeologica dei siti.
Questo principio è stato introdotto nella legislazione italiana soltanto dopo la tragedia della Valtellina del 1987. Prima, infatti, le leggi sulla difesa del suolo erano dettate unicamente dalla logica del superamento dell’emergenza (per esempio la Legge 996 del 1970 emanata in seguito all’alluvione di Firenze del 1966).
Dopo l’alluvione in Valtellina, il Parlamento Italiano mise a punto una delle migliori leggi per la salvaguardia del territorio, la 183 del 18 maggio 1989. L’estrema gravità dell’evento fece capire quanto fosse importante la pianificazione territoriale per impedire i disastri causati dal dissesto idrogeologico. Finalmente si spostava il problema oltre la logica dell’emergenza per passare ad una fase di programmazione dell’uso del suolo con il preciso scopo di prevenire i rischi.
La Legge 183/89 istituì le Autorità di Bacino Idrografico (AdB) come Enti pubblici per la salvaguardia del territorio e delle acque, ma negli anni successivi all’emanazione le sue prescrizioni vennero in gran parte disattese. Questa è la causa principale delle catastrofi avvenute nel nostro Paese negli ultimi vent’anni e in particolare nel 1998 in Campania.
La mancanza totale di manutenzione della vegetazione sui versanti montuosi e degli impluvi naturali di Sarno, aggiunta ad un’indiscriminata e sregolata speculazione edilizia, ha creato le premesse per una delle più grandi tragedie avvenute in Italia a causa di un evento alluvionale.
Non solo, la gravità dell’evento fu sottovalutato e colse tutti impreparati, specialmente le autorità pubbliche. Mancò il coordinamento e l’organizzazione generale dei soccorsi causando ritardi inaccettabili. La perizia tecnica presa in esame dai magistrati durante il processo contro l’ex sindaco di Sarno evidenziò che se l’ordine di sgombero fosse avvenuto nei 90 minuti dopo le prime frane, si sarebbero risparmiate tante vite. Il Prefetto di Salerno, poi, inviò il primo fax al Dipartimento della Protezione Civile solo alle 22.30, ben 7 ore e mezzo dopo la prima colata. L’ex sindaco fu accusato di non aver dato l’allarme alla popolazione e non aver convocato il comitato locale per la Protezione Civile in tempo, ma fu pienamente assolto nel 2004. La strage, per ora, è rimasta senza responsabili.
L’evento di Sarno, al di là della sua tragicità, ebbe comunque l’effetto positivo di accelerare l’applicazione della Legge 183/89 attraverso l’approvazione del Decreto Legislativo 180 del 11 giugno 1998 (tramutato poi nella Legge 267 del 3 agosto 1998).
Tale Decreto ha obbligato le AdB ad un’immediata individuazione delle zone con maggior criticità (attraverso lo strumento dei Piani Straordinari), introdotto e definito i “Programmi di interventi urgenti per la riduzione del rischio idrogeologico” e infine disposto che le stesse AdB adottino Piani stralcio per l’Assetto Idrogeologico (PAI) contenenti l’individuazione e la perimetrazione delle aree a rischio idrogeologico.
Oggi lo stato di attuazione dei PAI a livello nazionale si può considerare sostanzialmente concluso. A fine 2006 erano stati approvati 27 PAI e adottati 8 progetti di PAI; solo in 3 casi la pianificazione risultava ancora in corso (dati APAT).
Il PAI, per essere strumento efficace di pianificazione territoriale, deve essere continuamente aggiornato in relazione ai cambiamenti nell’uso del suolo e alla realizzazione degli interventi di mitigazione del rischio. La cronica scarsità di fondi per la difesa del suolo penalizza, però, l’attività di studio e ricerca delle AdB, impedendo di fatto il necessario aggiornamento dei PAI e la programmazione degli interventi e delle azioni di mitigazione.
Il Ministero dell’Ambiente ha stimato il fabbisogno nazionale per gli interventi di contrasto al rischio idrogeologico in 43 miliardi di Euro. Finora i fondi stanziati sono stati invece molto minori di quelli necessari: dal 1991 al 2005 appena 5,3 miliardi di Euro (la Finanziaria 2008 ha previsto altri 530 milioni di Euro per i piani di intervento contro il dissesto idrogeologico).
Con l’approvazione nel 2006 del Decreto Legislativo 152/06, che riordina tutta la materia ambientale, è stato smantellato l’intero corpo di norme ed esperienze sulla difesa del suolo, creando una situazione caotica. Il Decreto 152/06, infatti, abroga le norme vigenti (in particolare la 183/89 e l’art. 1 del D.L. n. 180/98), ma non riordina la materia in modo organico. Si limita a riproporre alcune parti dei provvedimenti abrogati, senza alcuna coerenza. Il risultato è un insieme di norme lacunose e confuse riguardo le competenze territoriali tra Stato e Regioni e la definizione dei piani e dei programmi di intervento. L’abolizione delle AdB prevista dal Decreto, poi, e il loro accorpamento in pochi grandi Distretti Idrografici, rischia di far perdere le importanti esperienze e competenze acquisite, oltre a generare una gran confusione nel processo di riorganizzazione amministrativa. La situazione appare complessa e preoccupante. Oggi in Italia si spende più nella ricostruzione delle aree distrutte da frane e alluvioni, spesso con interventi strutturali di sistemazione dei versanti e di regimazione dei corsi d’acqua troppo invasivi e di dubbia efficacia, piuttosto che in politiche di prevenzione del rischio. Per poter realmente ridurre il rischio idrogeologico è necessario venga promossa su tutto il territorio nazionale un’adeguata pianificazione territoriale che ne diminuisca la vulnerabilità, prevedendo ad esempio la delocalizzazione di infrastrutture e centri abitati, limitazioni nell’uso del suolo e la rinaturalizzazione di intere zone.
L’indebolimento delle politiche ambientali degli ultimi anni, però, non fanno sperare in un cambiamento di rotta nel breve periodo. Le tragiche esperienze della Valtellina e di Sarno sembra siano state dimenticate.

About Author / La Redazione
Successivo
La società del sole

Rinnovabili • filiere delle rinnovabili

Decreto FERX, gli stakeholder chiedono più chiarezza e trasparenza

Il Ministero dell'Ambiente pubblica gli esiti della consultazione pubblica sul Decreto Ministeriale FER X, chiusa lo scorso settembre. Dai 46 soggetti partecipanti emerge l'esigenza di conoscere per tempo tutte le informazioni utili alla programmazione degli investimenti nelle rinnovabili. Chiesti chiarimenti sul processo autorizzativo e sulle tempistiche

decreto ferx
Foto di Rabih Shasha su Unsplash

Decreto FERX, nuovi spunti di riflessione

Servono maggiori informazioni sui coefficienti sul prezzo d’aggiudicazione, sui criteri di priorità, sulla documentazione per l’accesso al meccanismo e sulle tipologie di interventi ammessi. In particolare quando si tratta di progetti di “rifacimento” e “potenziamento”. Queste alcune delle principali richieste emerse dalla consultazione pubblica sul Decreto FERX. La scorsa estate il Ministero dell’Ambiente e della Sicurezza energetica aveva pubblicato lo schema del provvedimento per una raccolta di pareri da parte degli stakeholder, con l’obiettivo di condividerne le logiche. Oggi il MASE rende noti gli esiti di tale consultazione puntando i riflettori sugli spunti e le richieste emerse da parte dei 46 soggetti partecipanti. 

Gli esiti della consultazione pubblica

Ricordiamo che il Decreto FERX nasce con lo scopo di definire un meccanismo di supporto espressamente dedicato ad impianti a fonti rinnovabili con costi di generazione vicini alla competitività. Come? Tramite contratti CfD a valere sull’energia elettrica prodotta dagli impianti. Con un accesso diretto per quelli di taglia inferiore al MW, e tramite aste al ribasso per quelli di taglia uguale o superiore al MW. Ed è proprio su queste due modalità che arrivano le prime considerazioni.

Per la maggior parte dei soggetti che hanno risposto alla consultazione, il contingente di 5 GW per gli impianti FER ad accesso diretto non sarebbe sufficiente, soprattutto vista la grande attenzione che stanno ricevendo al livello di investimento i sistemi di piccola taglia.

Per quanto riguarda l’accesso tramite asta, invece, il parere generale condivide i contingenti individuati, che secondo l’ultima bozza pubblicata oggi sarebbero: per il fotovoltaico 45 GW; per l’eolico di 16,5 GW; per l’idroelettrico di 630 MW; per i gas residuati 20 MW. “Tuttavia – si legge nel documento del MASE – congiuntamente alla risposta positiva sono state proposte diverse modifiche (aumento di uno specifico contingente, creazione di nuovo contingente, meccanismi di riallocazione della potenza non assegnata, ridefinizione dei contingenti al fine di favorire lo sviluppo dei PPA, etc.)”. Tra gli spunti emersi c’è la proposta di contingenti separati tra il fotovoltaico a terra e sul tetto.

Proposti nuovi requisiti di accesso e tempistiche

In tema requisiti d’accesso, alcuni soggetti chiedono l’incremento della soglia di potenza per l’accesso diretto, l’aggiunta dei criteri ESG, la reintroduzione del requisito specifico che attesti la capacità finanziaria ed economica di chi partecipa al meccanismo del Decreto FERX.

Con riferimento ai tempi massimi individuati per la realizzazione degli interventi, la consultazione ha evidenziato un forte distaccamento con le aspettative degli operatori. Per quanto detto diversi soggetti propongono per una o più fonti l’innalzamento dei tempi previsti, chiedendo di tenere in considerazione parametri quali, la potenza e/o la tipologia d’intervento, l’ottenimento dei titoli autorizzativi, i tempi di realizzazione della connessione e quelli dovuti agli approvvigionamenti, che sottolineano, potrebbero oltretutto determinare un aumento dei costi, visto anche i meccanismi incentivanti”, si legge ancora nel documento.

Per i tempi di comunicazione della data d’entrata in esercizio dell’impianto, emerge nel complesso l’esigenza di un prolungamento, aggiungendo da più 60 giorni a 12 mesi. Viene anche evidenziata una certa contrarietà all’obbligo per gli operatori di impianti rinnovabili non programmabili che stipula un contratto CfD ad abilitarsi alla fornitura dei servizi di dispacciamento.

About Author / La Redazione

Rinnovabili • batteria ibrida al sodio

Dalla Corea la batteria ibrida al sodio che si ricarica in pochi secondi

Un gruppo di scienziati del KAIST ha sviluppato una batteria a ioni di sodio ad alta energia, ad alta potenza e di lunga durata

batteria ibrida al sodio
Foto di danilo.alvesd su Unsplash

Quando le batteria a ioni sodio incontrato i supercondensatori a ioni sodio

Arriva dalla Corea del Sud la prima batteria ibrida al sodio in grado di battere la tecnologia a ioni di litio a mani basse. Con ottime prestazioni lato di capacità di accumulo, potenza, velocità di carica e durata, come dimostra l’articolo pubblicato sulla rivista scientifica Energy Storage Materials (testo in inglese).

Nel 2020 le batterie a ioni sodio (Na+) hanno raggiunto prestazioni comparabili a quelle degli ioni di litio in termini di capacità e durata del ciclo in condizioni di laboratorio. Da allora il segmento ha continuato a macinare grandi progressi, spinto dall’esigenza globale di trovare una tecnologia di accumulo più economica delle ricaricabili al litio e meno dipendente dalle attuali catene di approvvigionamento dei materiali critici. L’ultimo grande risultato nel campo è quello segnato da un gruppo di scienziati del KAIST, il Korea Advanced Institute of Science and Technology.

leggi anche Batterie al sodio allo stato solido, verso la produzione di massa

Il team guidato dal professor Jeung Ku Kang del Dipartimento di Scienza e Ingegneria dei Materiali ha messo a punto una batteria ibrida agli ioni di sodio dalle prestazioni eccellenti e in grado di ricaricarsi in pochi secondi. Il segreto? Un’architettura che integra materiali anodici propri delle batterie con catodi adatti ai supercondensatori.

Batteria ibrida al sodio, prestazioni record

In realtà non si tratta di un approccio nuovo. Gli stoccaggi ibridi con Na+ sono emersi negli ultimi anni come una promettente applicazione nel campo dell’energy storage in grado di superare i punti deboli degli accumulatori a ioni di sodio più conosciuti.

Tradizionalmente questo metallo è usato e studiato in due tipi di dispositivi di stoccaggio: batterie e condensatori. Le prime, come spiegato poc’anzi, forniscono oggi una densità di energia relativamente elevata ma sono caratterizzate da una lenta cinetica di ossidoriduzione, che si traduce in una bassa densità di potenza e una scarsa ricaricabilità. I secondi invece hanno un’elevata densità di potenza dovuta all’accumulo di carica tramite rapido adsorbimento di ioni superficiali, ma una densità di energia estremamente bassa.

Tuttavia unire le due tecnologie impiegando catodi di tipo condensatore e degli anodi di tipo batteria, non ha dato subito i risultati sperati. La causa è da ricercare soprattutto nello squilibrio cinetico tra i due tipi di elettrodi.

Nuovi materiali per catodo e anodo

Per arginare il problema il team sudcoreano ha utilizzato sviluppato un nuovo materiale anodico con cinetica migliorata attraverso l’inclusione di materiali attivi fini nel carbonio poroso derivato da strutture metallo-organiche. Inoltre, ha sintetizzato un materiale catodico ad alta capacità e la combinazione dei due ha consentito lo sviluppo di un sistema di accumulo di ioni sodio che ottimizza l’equilibrio e riduce al minimo le disparità nei tassi di accumulo di energia tra gli elettrodi.

leggi anche Da CATL la prima batteria con degrado zero dopo 5 anni

La cella completamente assemblata supera per densità di energia le batterie commerciali agli ioni di litio e presenta le caratteristiche della densità di potenza dei supercondensatori. Nel dettaglio la batteria ibrida al sodio si ricarica rapidamente e raggiunge una densità di energia di 247 Wh/kg e una densità di potenza di 34.748 W/kg. Inoltre gli scienziati hanno registrato una stabilità del ciclo con efficienza Coulombica pari a circa il 100% su 5000 cicli di carica-scarica.

Rinnovabili •
About Author / Stefania Del Bianco

Giornalista scientifica. Da sempre appassionata di hi-tech e innovazione energetica, ha iniziato a collaborare alla testata fin dalle prime fasi progettuali, profilando le aziende di settore. Nel 2008 è entrata a far parte del team di redattori e nel 2011 è diventata coordinatrice di redazione. Negli anni ha curato anche la comunicazione e l'ufficio stampa di Rinnovabili.it. Oggi è Caporedattrice del quotidiano e, tra le altre cose, si occupa quotidianamente delle novità sulle rinnovabili, delle politiche energetiche e delle tematiche legate a tecnologie e mercato.


Rinnovabili • fotovoltaico materiale quantistico

Fotovoltaico, ecco il materiale quantistico con un’efficienza del 190%

Un gruppo di scienziati della Lehigh University ha sviluppato un materiale dotato di una efficienza quantistica esterna di 90 punti percentuali sopra quella delle celle solari tradizionali

fotovoltaico materiale quantistico
via Depositphotos

Nuovo materiale quantistico con un assorbimento solare medio dell’80%

Atomi di rame inseriti tra strati bidimensionali di seleniuro di germanio e solfuro di stagno. Questa la ricetta messa a punto dai fisici Srihari Kastuar e Chinedu Ekuma nei laboratori della Lehigh University, negli Stati Uniti, per dare una svecchiata alla prestazioni delle celle solari. Il duo di ricercatori ha così creato un nuovo materiale quantistico dalle interessanti proprietà fotovoltaiche. Impiegato come strato attivo in una cella prototipo, infatti, il nuovo materiale ha mostrato un assorbimento solare medio dell’80%, un alto tasso di generazione di portatori fotoeccitati e un’efficienza quantistica esterna (EQE) record del 190%. Secondo gli scienziati il risultato raggiunto supera di gran lunga il limite teorico di efficienza di Shockley-Queisser per i materiali a base di silicio e spinge il campo dei materiali quantistici per il fotovoltaico a nuovi livelli. 

leggi anche Fotovoltaico in perovskite, i punti quantici raggiungono un’efficienza record

L’efficienza quantistica esterna

Tocca fare una precisazione. L’efficienza quantistica esterna non va confusa con l’efficienza di conversione, il dato più celebre quando si parla di prestazioni solari. L’EQE rappresenta il rapporto tra il numero di elettroni che danno luogo a una corrente in un circuito esterno e il numero di fotoni incidenti ad una precisa lunghezza d’onda

Nelle celle solari tradizionali, l’EQE massimo è del 100%, tuttavia negli ultimi anni alcuni materiali e configurazioni avanzate hanno dimostrato la capacità di generare e raccogliere più di un elettrone da ogni fotone ad alta energia incidente, per un efficienza quantistica esterna superiore al 100%. Il risultato di Kastua e Ekuma, però, rappresenta un unicum nel settore.

Celle solari a banda intermedia

Per il loro lavoro due fisici sono partiti da un campo particolare della ricerca fotovoltaica. Parliamo delle celle solari a banda intermedia (IBSC – Intermediate Band Solar Cells), una tecnologia emergente che ha il potenziale per rivoluzionare la produzione di energia pulita. In questi sistemi la radiazione solare può eccitare i portatori dalla banda di valenza a quella di conduzione, oltre che direttamente, anche in maniera graduale. Come?  “Passando” per l’appunto attraverso stati di una banda intermedia, livelli energetici specifici posizionati all’interno della struttura elettronica di un materiale creato ad hoc. “Ciò consente a un singolo fotone di provocare generazioni multiple di eccitoni attraverso un processo di assorbimento in due fasi“, scrivono i due ricercatori sulla rivista Science Advances.

Nel nuovo materiale quantistico creato dagli scienziati della Lehigh University questi stati hanno livelli di energia all’interno dei gap di sottobanda ideali. Una volta testato all’interno di una cella fotovoltaica prototipale il materiale ha mostrato di poter migliorare l’assorbimento e la generazione di portatori nella gamma dello spettro dal vicino infrarosso alla luce visibile. 

La rivoluzione dei materiali quantistici

Il duo ha sviluppato il nuovo materiale sfruttando i “gap di van der Waals”, spazi atomicamente piccoli tra materiali bidimensionali stratificati. Questi spazi possono confinare molecole o ioni e gli scienziati dei materiali li usano comunemente per inserire, o “intercalare”, altri elementi per ottimizzare le proprietà dei materiali. Per la precisione hanno inserito atomi di rame tra strati di seleniuro di germanio e solfuro di stagno. “Rappresenta un candidato promettente per lo sviluppo di celle solari ad alta efficienza di prossima generazione – ha sottolineato Ekuma – che svolgeranno un ruolo cruciale nell’affrontare il fabbisogno energetico globale“.

Rinnovabili •
About Author / Stefania Del Bianco

Giornalista scientifica. Da sempre appassionata di hi-tech e innovazione energetica, ha iniziato a collaborare alla testata fin dalle prime fasi progettuali, profilando le aziende di settore. Nel 2008 è entrata a far parte del team di redattori e nel 2011 è diventata coordinatrice di redazione. Negli anni ha curato anche la comunicazione e l'ufficio stampa di Rinnovabili.it. Oggi è Caporedattrice del quotidiano e, tra le altre cose, si occupa quotidianamente delle novità sulle rinnovabili, delle politiche energetiche e delle tematiche legate a tecnologie e mercato.