Berlino ospita per 3 giorni la fiera che favorisce l'incontro tra startup ed investitori in diversi settori: climate tech, data center, smart city

Da Dubai fino al cuore dell’Europa. La fiera tech Gitex, nata gli Emirati Arabi Uniti, sbarca nel Vecchio Continente per la prima volta, e sceglie Berlino per raccontare come la tecnologia sta cambiando il nostro presente. GITEX EUROPE x Ai Everything, il nome della fiera in programma fino al 23 maggio a Messe Berlin.
Secondo l’ultimo rapporto “State of European Tech” il settore tecnologico europeo è salito a 2,95 bilioni di euro nel 2025, quintuplicando il valore rispetto ai 518 miliardi di euro di dieci anni fa. Infatti, è ricco il parterre delle startup europee, ed italiane, presenti a North Star Europe, l’evento nell’evento, tutto dedicato alle startup. Una formula che da Dubai torna anche a Berlino.

North Star Europe è una delle vetrine più importanti del continente per quanto riguarda le startup internazionali: oltre 750 startup provenienti da più di 80 Paesi si uniscono a più di 600 investitori internazionali con oltre 880 miliardi di euro di asset in gestione. Innovazione ed investimenti, queste le due parole chiave di Gitex Europe, che ha l’ambizione di integrare i vari settori del tech, sempre più integrati: data center, climate tech, health tech, cloud, smart city tutti accomunati dall’implementazione dell’intelligenza artificiale.
La forza delle startup
All’evento la potenza imprenditoriale dell’Europa è ulteriormente rafforzata attraverso una collaborazione strategica con lo European Innovation Council (EIC) – l’acceleratore di deep tech di punta dell’UE. L’EIC lancia la sua più grande esposizione di startup, con oltre 40 imprese deep tech che mettono in mostra il futuro dell’innovazione europea.
Tra queste ci sono Atland 3D, azienda danese che produce nano fabbricatori 3D a precisione atomica e collabora con la NASA; Kiuntra, dalla Germania, unico fornitore al mondo di raffreddamento sub-Kelvin senza criogenia, che abilita infrastrutture quantistiche scalabili.
L’inquietudine dell’intelligenza artificiale
Sul palco di Gitex, nel giorno di apertura, il Premio Nobel per la Fisica 2024, Geoffrey Hinton, che con i suoi studi ha contribuito allo sviluppo accelerato dell’AI. Lo scienziato inglese, che per anni ha collaborato con Google, nel 2022 ha lasciato l’azienda perché nutriva preoccupazioni sulle derive incontrollate che stava (e sta) prendendo l’intelligenza artificiale. Partiamo con le buone notizie.
Secondo Hinton, l’IA consentirà progressi enormi in medicina, nella farmaceutica e persino nell’istruzione: “Potrà diagnosticare malattie più velocemente e con maggiori percentuali di successo, leggere esami meglio dei radiologi, insegnare meglio ai bambini e all’università“. Insomma un’intelligenza sempre più avanzata ed utile all’essere umano. “Per fare un esempio, se ogni anno si fa una risonanza magnetica di tutto il corpo e l’intelligenza artificiale la interpreta, in pratica non si deve più morire di cancro. È possibile individuare quasi tutti i tumori quando sono molto piccoli” dice lo scienziato britannico.
Il problema energetico dell’intelligenza artificiale
Ma allora da dove derivano i timori di Hinton che lo hanno spinto a lasciare Google? “È molto difficile vedere cinque anni in avanti. Il modo migliore per capire quanto sia difficile è guardare indietro di cinque anni” e Hinton fa l’esempio dei progressi dei modelli linguistici, gli LLM, come ChatGPT. “Si sta raggiungendo un limite in cui la quantità di progressi che si ottengono scalando è logaritmica. Per ottenere un piccolo incremento di prestazioni, è necessario raddoppiare la quantità di dati e la quantità di calcolo. Il bit successivo raddoppia ancora. Quindi si arriva a un limite. E ora sta raggiungendo un limite energetico.” Questa è l’altra grande questione da affrontare: l’energia consumata da software di IA è enorme.

L’abbandono di Google per il consumo energetico
A sorpresa, è proprio il consumo energetico il motivo per cui Hinton ha lasciato Google. “Il cervello è fondamentalmente analogico, mentre questi sistemi di intelligenza artificiale sono tutti digitali. E uno dei motivi per cui ho lasciato Google è che stavo lavorando su come poter creare modelli linguistici di grandi dimensioni con hardware analogico. È un’operazione costosa in termini di energia. C’è un modo diverso di farlo, che consiste nel fare in modo che l’attività neurale sia solo un voltaggio e che la forza di connessione sia solo una conduttanza, e che per unità di tempo il voltaggio moltiplicato per la conduttanza sia la carica, e che il neurone che raccoglie tutte queste cose possa semplicemente sommare la carica.”
Cosa significa la teoria di Hinton sul cervello analogico?
Hinton sostiene che il cervello opera in modo analogico. Questo significa che le informazioni non sono rappresentate da valori discreti (0 o 1, come nel digitale), ma da un continuum di valori. Nel contesto neuronale, l’attività può essere un voltaggio che varia gradualmente, e la forza delle connessioni (sinapsi) tra i neuroni può essere una conduttanza (la capacità di condurre elettricità) che anch’essa varia in modo continuo. L’idea è che, in un’unità di tempo, il voltaggio moltiplicato per la conduttanza darebbe una carica, e i neuroni potrebbero semplicemente sommare queste cariche. Questo tipo di calcolo è intrinsecamente più efficiente dal punto di vista energetico per alcune operazioni, poiché non richiede la conversione costante tra segnali analogici e digitali e viceversa.
Al contrario, i sistemi di IA moderni, inclusi i modelli linguistici sono digitali. Funzionano su hardware che rappresenta le informazioni come bit. Ogni calcolo, ogni peso in una rete neurale, è un valore numerico discreto. Questo approccio è estremamente preciso e flessibile, ma può essere energeticamente costoso, specialmente per operazioni su vasta scala come quelle richieste dagli LLM. Richiede molta energia per spostare i dati, eseguire calcoli e memorizzare informazioni in formato digitale.
Hinton suggerisce che il cervello ha un “trucco” per fare calcoli complessi con un consumo energetico molto inferiore, e questo trucco risiede nella sua natura analogica. La sua ricerca mirava a capire se si potesse replicare questo approccio nell’hardware per l’IA per superare i limiti di efficienza energetica degli attuali sistemi digitali.