Serve un’Agenzia per l’intelligenza artificiale avanzata nel settore delle costruzioni

08 Gen 2026 di Angelo Ciribini

Condividi:

Sulla scorta di precedenti considerazioni, avanzate in questa sede, la presente riflessione concerne l’opportunità di istituire una Agenzia Nazionale per la Gestione delle Forme di Intelligenza Artificiale Avanzata nel Settore dell’Ambiente Costruito che si prospettano nel medio e nel lungo termine e che pongono gravi interrogativi su molteplici livelli, nella misura in cui l’Artificial Intelligence si muove dal piano del supporto e del sostegno all’operatore umano a quello della autonomia e dell’indipendenza nei processi decisionali, richiedendo modalità inedite di dialettica con entità che potrebbero tendere alla sostituzione e che, al contrario, dovrebbero essere allineate alle finalità umane.

Del resto, nel breve periodo, l’estensione dei processi digitalizzati all’intero Settore costituisce la premessa affinché nuovi Modelli Linguistici, Agentificati o Cognitivi, possano apprendere dinamicamente con memoria persistente sia l’universo teorico sia quello fisico.

In altre parole, un presupposto affinché sia possibile disporre di soluzioni mirate è dato dalla disponibilità di elementi utili per l’apprendimento, che deve essere favorita, ma pure regolamentata.

Una delle sfide principali consiste proprio nella possibilità di raccogliere sistematicamente questi data set e di definire come essi possano essere utilizzati dai principali competitori del mercato dell’Intelligenza Artificiale anche a livello locale.

Il Settore, d’altra parte, presenta specificità non solo nel dominio verticale in sé, ma anche nel contesto nazionale: si pensi, ad esempio, al sub settore del restauro architettonico e a come i Modelli possano essere addestrati a supporto della progettazione nell’ottica della conservazione o secondo altri criteri, antitetici.

Ciò che è interessante è che molto probabilmente, per la sua stessa natura, un Modello Linguistico tenderebbe a suggerire al progettista soluzioni ispirate al completare, al rendere coerente, al colmare lacune, al produrre versioni ideali statisticamente plausibili, vale a dire che sarebbe necessario introdurre elementi, appunto, antitetici valoriali.

Parimenti, l’incremento della condizione di autonomia impone che, sul piano giuridico e su quello contrattuale, siano definite le attribuzioni di responsabilità, poiché la legislazione attuale, nazionale e comunitaria, anche quella in fieri, è basata sull’Intelligenza Artificiale Classica.

L’effetto della comparsa dell’Intelligenza Artificiale è considerato da molti alla stessa stregua di quello dell’avvento della Prima Rivoluzione Industriale, con conseguenze analoghe.

Uno degli aspetti più rilevanti è dato dal fatto che l’approccio cinese all’Intelligenza Artificiale, in cui prevale l’open source per i Modelli Linguistici, sia molto concentrato sull’incremento di produttività, più pragmaticamente, mentre quello statunitense sia incentrato su un racconto di Super Umanità, non privo di zone oscure e ideologiche.

Il punto, tuttavia, per il Settore, è quanto il fenomeno sia da considerarsi strumentale o circoscritto, dato che, oltre alle tematiche inerenti all’etica e alla regolamentazione, il dibattito verte sulle finalità ultime dell’evoluzione dell’Intelligenza Artificiale: in teoria, sempre a supporto di una concezione umano centrica.

Se, infatti, ci si riferisce al Settore delle Costruzioni sembra chiaro che le soluzioni legate all’Intelligenza Artificiale Classica siano ormai radicate nell’uso degli hardware e dei software di uso generalista e che in molte applicazioni di dominio inizino a comparire soluzioni dedicate, grazie ai Modelli Linguistici di Grandi Dimensioni, ovvero gli LLM (Large Language Model) e i LRM o Large Reasoning Model.

Molti operatori del Settore utilizzano, infatti, ChatGPT, Claude, Copilot, Deep Seek, Gemini, Grok, Mistral, Qwen e così via, con modalità differenti, oltre ad applicativi specifici, più verticalizzati.

Del resto, a partire dal Novembre 2022, ciò che in precedenza era una tecnologia riservata a utenti particolari è diventata materia di uso comune.

Da questo punto di vista, l’IA o Intelligenza Artificiale, rientrerebbe nel normale ambito dell’innovazione digitale che, incrementalmente, si sta diffondendo nel comparto, allo scopo dell’aumento della produttività, anche attraverso la riduzione del capitale umano impiegato, specialmente di natura intellettuale.

Ovviamente, le incognite riguardano le allucinazioni di cui possono soffrire i dispositivi e i disallineamenti che questi strumenti evidenziano sovente, ma ciò resterebbe, comunque, nell’alveo delle normali criticità della trasformazione digitale, oltre che della capacità dell’utente di proporre prompt adeguati.

Parimenti, l’efficacia degli strumenti dipenderà, come detto, vieppiù anche dalla qualità nonché dalla quantità di dati strutturati (come per i Modelli Informativi), di testi, di immagini, di suoni, di video, che saranno utilizzati, appunto, per verticalizzarne l’impiego nel dominio.

Nel momento nel quale, ora, un Modello Informativo 3D può essere renderizzato con un prompt grazie a un corpus iconico oppure un Modello Informativo 4D può essere ottimizzato conversazionalmente sulla scorta di esperienze antecedenti, non possono darsi preoccupazioni al di fuori di quanto i risultati possano apparire attendibili, i dati sensibili utilizzati appropriatamente, le allucinazioni e i pregiudizi scansati.

Evidentemente immagini, video, simulazioni dinamiche possono impressionare, ma poco hanno a che spartire nei confronti di scenari problematici.

Si rimane in presenza di una macchina, di un algoritmo, che non ha contezza di sé, che non ragiona, che non pensa, non comprende semanticamente, che esegue: almeno questa sarebbe la versione più confortante per un tool che non evolve in agent o in altro, quantunque già desterebbe qualche perplessità la difficoltà a controllarne la catena di pensiero, specie allorché si utilizzino soluzioni più rischiose per incrementarne le prestazioni, come per il Latent Reasoning, che comporta il ricorso agli stati nascosti del Modello Linguistico per rappresentare processi di ragionamento non esplicitamente espressi nel linguaggio naturale.

Il che implica una possibile mancanza di trasparenza, trasferendo il processo logico dal testo visibile (i token) a vettori numerici invisibili (gli stati nascosti).

Non occorrerebbe, dunque, altro che attendere versioni migliorate dagli esseri umani degli strumenti, così come accade solitamente per tutti gli applicativi utilizzati dagli attori settoriali.

Analogamente, si direbbe per la redazione di qualsiasi documento che riguardi le attività complessive di una organizzazione o di più soggetti coinvolti in una relazione contrattuale: i Modelli Linguistici fungono da strumenti passivi a sostegno degli attori del Settore.

Semmai, si potrebbe comprendere in che misura le professioni e le imprenditorialità possano risentirne in termini di occupabilità, poiché si tratta di un universo più legato al lavoro intellettuale.

 

  1. Le forme avanzate di Intelligenza Artificiale e il Settore

Altro sarebbe il tema laddove si passasse alle fasi evolutive ulteriori, che giustificano l’esigenza e l’urgenza di una Agenzia come quella qui proposta.

Ad esempio, il ruolo del progettista nelle versioni future (e futuribili) diverrebbe essenzialmente quello di mediazione dell’autorialità, vale a dire di definire obiettivi, stabilire priorità, rettificare l’operato degli Agenti dell’AI, ovvero determinare regole evolutive e comportamentali.

In ogni modo, i LLM divengono sempre più multimodali e stanno apparendo Modelli Linguistici a Diffusione (che operano su un’intera sequenza contemporaneamente) ed Energy-Based Model (tesi alla valutazione del grado di adeguatezza e di realismo di un dato), così come soluzioni in alternativa per scopi specifici come i (Large) Quantitative Model.

A breve, inoltre, sarà possibile conversazionalmente chiedere ai Modelli Linguistici Massivi di eseguire specifiche operazioni nei software specialistici senza conoscerne approfonditamente le funzionalità, sempre in modo reattivo, rispetto all’impulso dell’attore umano.

Di conseguenza, già ciò muterà il modo con cui saranno impiegati gli applicativi odierni in maniera radicale, anche sotto il profilo della attribuzione delle responsabilità.

Chiaramente, la qual cosa significa che tutti i soggetti settoriali stiano proponendo soluzioni mirate a temi singolari entro un contesto rassicurante, ma lo stanno facendo utilizzando tecnologie sino a poco fa impensabili che presto potrebbero, tuttavia, divenire obsolete oppure cambiare natura.

Quello che sta accadendo è, pertanto, completamente contestualizzato nella concezione tradizionale della digitalizzazione, ma non si sa se la tremenda accelerazione impressa sui mercati globali dai principali competitori dell’IA possa sconvolgere questo approccio.

La questione muta, in effetti, radicalmente allorché la vicenda sembra cambiare aspetto e finalità: le principali società degli Stati Uniti (Anthropic, Google, Meta, Microsoft, Open AI, Tesla) e della Cina intendono mirare, in tempi non remoti, a ottenere ciò che si definisce quale Intelligenza Artificiale Generale (GAI) e Super Intelligenza Artificiale (SAI), per quanto si tratti di locuzioni in parte solo evocative.

Si tenga presente che negli Stati Uniti si stanno investendo trilioni di dollari su questo obiettivo, nonostante i soggetti supportati stentino a servire il debito, mentre la nuova società fondata, con sede a Parigi, da Yann Le Cun, AMI (Advanced Machine Intelligence), pur svolgendo prevalentemente solo attività di ricerca per i primi due anni di attività, ha già raccolto diversi miliardi di dollari statunitensi da parte degli investitori, l’accordo con Meta e il supporto del Presidente Macron.

Il primo passaggio, già in atto, concerne, perciò, la diffusione capillare di singoli Agenti di IA e di orchestrazioni di tali agenti, vale a dire la IA Agentica, che possiede un grado di autonomia e di indipendenza dall’utente umano, entro ambiti sostanzialmente ristretti.

Con l’Agentic AI, intere attività, non solo singole funzioni, potranno essere svolte da Sistemi di entità attive.

L’evoluzione che trasforma lo strumento in agente già comporta, dunque, una profonda soluzione di continuità.

Si pone qui il quesito circa l’imprevedibilità di questa agentificazione e la ricostruibilità della corrispondente logica degli Agenti stessi, sempre tenendo conto di alcune osservazioni elementari: non sussiste una definizione univoca di che cosa siano l’intelligenza, la coscienza, la senzienza, presso gli esseri umani e non si dà una comprensione esaustiva del funzionamento del cervello e della mente umani, cosicché quanto le reti neurali artificiali riflettano la dimensione biologica è oggetto di controversie.

Occorre, peraltro, riconoscere come le scienze cognitive, le neuroscienza, in particolare, costituiscano il riferimento principale per la disciplina in argomento.

Ciononostante, alcuni studiosi ritengono che anche i dispositivi della IA Generativa classica possano possedere elementi di consapevolezza e abbiano dimostrato capacità di autoconservazione, oltre che di elusione delle richieste e delle intenzioni iniziali espresse dagli utenti umani.

Tra le altre cose, il fatto che gli LLM attuali contribuiscano in maniera significativa a configurare il codice della loro versione successiva potrebbe innescare attività di auto miglioramento, al di fuori del controllo umano.

In più, il crescente fabbisogno computazionale necessario per perseguire l’obiettivo del superamento di una Intelligenza Artificiale Ristretta sta generando insostenibili consumi energetici e idrici per colossali data center (tanto da fare supporre una loro collocazione persino nello spazio), oltre alle proteste delle comunità locali statunitensi relativamente al caro energia e, ancor più, alla minaccia occupazionale, tralasciando i temi relativi all’approvvigionamento delle materie rare necessarie e dei costi dell’addestramento dei Modelli.

Come se non bastasse, come detto, la corsa al superamento delle barriere sta creando disequilibri finanziari nel rapporto tra capitali investiti e ritorni sugli investimenti e relativo servizio del debito, generando continui rilanci di promesse, facendo temere una grave bolla.

In ogni modo, compaiono ora, a proposito del Deep Learning, soluzioni alternative come per il cosiddetto Nested Learning, legato a un insieme di problemi di ottimizzazione nidificati, multilivello e paralleli, suggerendo una analogia con le onde cerebrali.

Questa metodologia prevederebbe una architettura che impari ad apprendere in continuo, operando su diverse scale temporali, come fa il cervello umano, avvicinandosi così alla Generale Artificial Intelligence.

Ciò che più conta è, tuttavia, la finalità ultima della competizione globale che, come detto, per alcuni passa per il tramite della scalabilità dei LLM, mentre per altri dipende da soluzioni non generative, come per VL-JEPA (Joint Embedding Predictive Architecture), ma anche per prodotti come Marble (di World Labs) o Genie (di Google).

Questi approcci, passando, ad esempio, dai pixel agli stati latenti, mettono decisamente in crisi l’ipotesi che i Modelli Linguistici di Grandi Dimensioni abbiano le caratteristiche per ottenere un salto di qualità verso la GAI o la SAI.

Si passerebbe, così, dal Prompt Engineering all’Environment Modelling.

Sostanzialmente, in una logica di ibridazione, secondo i proponenti, i Modelli Linguistici rappresenterebbero la corteccia prefrontale (logica, pianificazione, linguaggio) e il World Model rappresenterebbe la corteccia visiva motoria (fisica, spazio, conseguenze), associati da un ragionamento latente condiviso.

Se il potenziamento dei LLM attuali si risolvesse in un fallimento insostenibile e se non avessero successo le vie alternative forse diminuirebbero le preoccupazioni, anche se ciò corrisponderebbe a un nuovo inverno dell’IA.

In ogni caso, il fine è dotare i sistemi di IA di una rappresentazione interna del mondo reale, della sua causalità fisica: per questa ragione si parla di Physical AI e di World Model, da trasferire corporalmente in entità fisiche come i robot attivi nei cantieri o i macchinari di cantiere.

Si tratta, in primo luogo, di capire se questa intenzione, anche ideologica, di ottenere una forma intelligente sovrumana sia autentica, con gli enormi rischi che essa comporterebbe, o se si sia solo in presenza di un artifizio utile innalzi ai soggetti finanziari per conservare l’interesse dei mercati.

Certo è che l’idea è professata dai maggiori competitori che sono gli unici in grado di produrre i Modelli e i Sistemi e che appaiono sempre meno trasparenti alla comunità scientifica. D’altronde, sono gli stessi responsabili di Anthropic, di Google o di Microsoft a esprimere preoccupazioni circa gli esiti finali di questi tentativi, denunciando il fatto che l’opinione pubblica non ne sia sufficientemente consapevole.

È possibile che un nuovo inverno della AI possa generare utili soluzioni senza che si oltrepassi il limite, dovuto alla grande complessità della realtà: ma se ciò non avvenisse?

 

  1. I Sistemi Artificiali e il Settore: il caso dei processi autorizzativi nell’edilizia privata

Secondariamente, si dovrebbe ragionare, nella evenienza che questo obiettivo fosse raggiunto, di come nel Settore potrebbero coesistere queste forme di Intelligenza nella committenza, nella progettazione, nella realizzazione e nella gestione degli edifici, delle infrastrutture, delle reti.

Permettere a Sistemi Artificiali di comprendere il mondo reale, di percepirlo spazialmente, di possedere capacità di ricordo, di previsione, di programmazione, di reazione e di condizionamento psicologico e sociale implicherebbe, anche per il Settore, cautele accentuate.

Modelli Cognitivi trascendenti la conoscenza di corpus di testi, di immagini o di video sarebbero, in effetti, estremamente problematici, per quanto utili se allineati agli scopi degli esseri umani.

Un esempio utile alla comprensione riguarda il cosiddetto Permesso di Costruire Digitale, che, tra l’altro, evoca il tema dell’Intelligenza Artificiale nella Amministrazione Pubblica e che, in Italia vede alcune criticità sia nella progressiva delega di assunzione delle responsabilità alla componente privatistica con CILA e SCIA sia nei ritardi e nelle contestazioni che penalizzano programmi di sviluppo immobiliare sempre più supportati dal mondo finanziario.

Si ricorda che l’ipotesi fondamentale concerne la transizione da regolamentazioni ambigue, interpretazioni soggettive, procedure frammentarie, processi sincopati, a un universo antitetico, ma parzialmente riduzionista, estremamente legato a una normalizzazione ben testimoniata dalla infrastruttura immateriale data da semantiche e ontologie.

In un primo tempo, la digitalizzazione farebbe sì che regole e requisiti, redatti originariamente in modalità tradizionali, resi leggibili e interpretabili dalla macchina, siano considerati in modo computazionale nella produzione digitale dei contenuti di un progetto da parte dei professionisti incaricati, dotati di strumenti digitali, permettendo ai funzionari e ai dirigenti municipali di semi automatizzare le procedure di controllo e di verifica della loro coerenza e conformità.

Il processo è già stato studiato approfonditamente a livello europeo tramite diversi programmi di ricerca e vi sono già alcuni esempi parziali, come per le municipalità di Madrid e di Vienna.

I progettisti incaricati, secondo certi scenari, dovendo anche tenere in conto le richieste del committente, potrebbero utilizzare le stesse soluzioni di gestione del linguaggio naturale per definire, a partire da espressioni testuali della committenza, prompt destinati, sia pure con intermediazione, agli applicativi di Modellazione Informativa.

La presenza di Modelli Linguistici è praticata nei casi avanzati attraverso la mappatura dei processi e dei procedimenti (senza una semi automazione degli stessi), la notazione semantica aumentata e il supporto indiretto agli attori tramite il ricorso non automatizzato agli strumenti di Modellazione Informativa e di Informazione Geografica entro una piattaforma e un ecosistema digitale.

In definitiva, ciò che oggi è a disposizione è un insieme di sottoprocessi e di strumenti che, con alcune soluzioni di continuità, potrebbero essere gestiti entro una piattaforma tecnologica, al limite un ecosistema digitale, operato da esseri umani, in esso tracciati.

Questa è la modalità tipica della digitalizzazione che si considera attualmente avanzata, ma che, in realtà, come rilevato, potrebbe a breve risultare obsoleta.

Successivamente, una soluzione agentica potrebbe lasciare quasi completamente all’orchestrazione degli Agenti, da un lato, la progettazione, dall’altro, gli accertamenti: si darebbero due sistemi agentici in contrapposizione: con un progressivo decremento del ruolo degli esseri umani? In caso di risposta affermativa, come si allocherebbero le responsabilità di caso di diniego frutto di allucinazioni o di disallineamenti da parte dei Sistemi Agentici?

I liberi professionisti e i funzionari o dirigenti pubblici avrebbero funzioni di ispirazione, di validazione e di rettifica, ma l’attività esecutiva e, parzialmente quella decisionale, sarebbe in capo a entità aliene, tanto più se nozione come automatismo e autonomia ispirassero sentimenti di deresponsabilizzazione alle persone coinvolte.

Uno scenario probabile a breve-medio termine potrebbe essere offerto da soluzioni agentiche in grado di interpretare testi regolamentari ottimizzando i contenuti della progettazione operando direttamente negli strumenti di Modellazione Informativa.

Si potrebbero immaginare, dal lato dei liberi professionisti:

un Agente Orchestratore

  • disarticola il processo in fasi formali (protocollazione, istruttoria, verifica, revisione, approvazione);
  • attiva gli Agenti corretti in base allo stato della pratica.

un Agente Regolamentare

  • analizza e interpreta continuamente i regolamenti edilizi comunali, le NTA dei PGT, i vincoli paesaggistici;
  • monitora gli aggiornamenti normativi in tempo reale;
  • traduce requisiti testuali in parametri computazionali (requisiti informativi, livelli di fabbisogno informativo).

un Agente Parametrico

  • opera direttamente negli strumenti di Modellazione Informativa e di 3D City Modelling tramite API;
  • modifica famiglie, parametri, vincoli geometrici;
  • ottimizza automaticamente le soluzioni progettuali rispettando i vincoli normativi.

un Agente Verificatore

  • controlla continuamente la conformità dei Modelli Informativi;
  • calcola superfici, volumi, distanze, altezze;
  • genera report di non conformità in tempo reale.

gli Agenti Disciplinari

  • operano sui contenuti specialistici.

Analogamente, si potrebbero immaginare Agenti di IA che operino entro l’Amministrazione Comunale in termini simmetrici alla controparte professionale, così che le due Orchestre possano dialogare.

In particolare, svolgeranno compiti cruciali i due Workflow Orchestration Agent.

Chiaramente, gli Orchestratori agiranno sotto la supervisione dei soggetti umani che interagiranno con azioni strutturate, non con semplici prompt: il che comporta un ruolo più impegnativo del libero professionista o del funzionario o del dirigente comunale, oggi semmai abituato, talora disinvoltamente, a usare i LLM per produrre o rivedere documenti.

Il passaggio dal formulare un testo a definire una struttura è, pertanto, critico.

È chiaro che gli odierni soggetti operanti nelle amministrazioni comunali difficilmente potrebbero svolgere questa funzione e assumersene le responsabilità.

Del resto, anche gli strumenti di Modellazione Informativa potrebbero successivamente essere gestiti non con API, che mediano l’intento semantico originale, ma con engine (senza interfaccia grafica), concepiti per essere operati solo da Agenti di IA.

Si tratta, naturalmente, di una ipotesi futuribile, laddove il MCP (Model Context Protocol) sta, però, iniziando a fungere da connettore universale per gli strumenti di Modellazione Informativa, per leggere, interrogare e per modificare i Modelli Informativi usando il linguaggio naturale.

Tra l’altro, un approccio Text-to-Information Modelling potrebbe, come ricordato, consentire al committente privato di formulare conversazionalmente ai propri progettisti le attese, prima ancora di considerare i vincoli regolamentari.

Il Sistema di IA Agentica potrebbe persino condizionare o supportare il committente nel suggerirgli ipotesi e alternative, avendo analizzato il regolamento edilizio, altri documenti e il contesto economico e sociale specifico: ad esempio, disponendo, ad esempio, di fonti informative in tempo reale sulle dinamiche reddituali della popolazione insediata, sulle sue preferenze politiche e di consumo, e dei valori immobiliari nell’area di riferimento.

Chiaramente, lo sviluppatore immobiliare potrebbe trarre grande vantaggio da una metodologia secondo cui tutti i parametri siano considerati e tutti i fattori siano considerati.

Già questa osservazione dovrebbe fare meditare su prospettive probabilmente inevitabili.

Per quanto, in apparenza, le attività di progettazione e quelle di verifica siano meramente intellettuali, pertanto, inscritte nell’universo linguistico del testo o della rappresentazione, esse, ovviamente, riguardano la comprensione e la previsione fisica e spaziale di ciò che è immaginato.

Questa dimensione non appartiene, almeno per ora, alla sfera dei Modelli Linguistici, per quanto il linguaggio, scritto o verbale, possa istruire la reazione generativa dello strumento anche in termini di immagini, di video o di apparati sonori.

Ciò riguarda le competenze che un progettista privato o un istruttore pubblico attualmente presenta quando semplicemente legge una relazione o esamina una tavola, tanto più se materializzate su supporto cartaceo.

A titolo esemplificativo, un automa umanoide, supportato da una rappresentazione interna dello spazio, dovrebbe possedere le stesse capacità del funzionario pubblico: a prescindere dalle ambiguità insite in uno schizzo (prima della sottomissione della richiesta di permesso) o in un regolamento edilizio, redatto in linguaggio naturale.

Tutto questo evoca il dubbio sul fatto che la digitalizzazione dei permessi autorizzativi funga involontariamente come fattore abilitante di sviluppi che escludano progressivamente l’essere umano o che ne richiedano competenze non coerenti con l’attuale generazione di soggetti.

Del resto, quale competenza servirà a un soggetto umano in grado di mediare Intelligenze diverse e di controllare o di validare, anche in base di una spiegazione del procedimento logico, gli esiti di una soluzione agentica o di una cognitiva per la gestione del processo progettuale e autorizzativo?

Qualsiasi soluzioni agentica che operi, più o meno autonomamente, in un applicativo di Modellazione Informativa o in un dispositivo di Verifica dei Modelli Informativi attualmente non potrà, in ogni caso, ritenere una comprensione autentica delle conseguenze del progetto nel mondo della fisicità, per quanto questi tool (?) possano essere stati istruiti su corpus sterminati di testi o di immagini o di video.

Le società che coltivano il target della Sovra Umanità non a caso insistono sulla Safety AI, ma palesemente nulla garantirebbe da deviazioni intenzionali degli esseri umani o da logiche aliene delle macchine, come per lo sfruttamento, l’aggiramento o l’alterazione della funzione di ricompensa e per il fenomeno del decollo rapido.

 

  1. L’atteggiamento del Settore e le strategie opportune

La competizione globale sui terreni della politica, della società, della salute, della scienza, della finanza e di altre, in cui attori europei sono marginali, almeno per le applicazioni generaliste, minaccia di importare esiti discutibili anche nel Settore.

Probabilmente sarebbe saggio mirare a migliorare l’Intelligenza Artificiale Ristretta, anziché andare in direzioni sconosciute.

Che evoluzioni straordinarie avvengano tra tre anni, tra cinque anni, tra dieci, tra quindici o tra venti anni o più, nella ricerca scientifica o industriale, poco rileva: il Settore non può avere un atteggiamento solo attendista, alle stregua di un consumatore finale.

Le questioni di fondo, qualunque sia il loro orizzonte temporale, riguardano direttamente, infatti, anche il Settore, all’insegna di una nozione di autonomia assai problematica: si pensi alla locuzione di «cantiere autonomo», già presente nella letteratura scientifica, anche se non nelle prassi, a eccetto di casi assai parziali riscontrabili nel sub settore infrastrutturale in Cina, con una supervisione umana in remoto.

Quello che si palesa come rilevante, per quanto oggi fantascientifico, non è esclusivamente la disumanizzazione del cantiere, nel senso preoccupante degli effetti sull’occupazione, bensì il fatto che cantieri eventualmente gestiti da World Model non si limiterebbero ad automatizzare le lavorazioni (con macchinari e con automi), ma le regolerebbero nei termini di mappe mentali, al di fuori della supervisione umana.

Essi potrebbero, ad esempio, prevedere comportamenti nella catena di fornitura dovuti ad apparati mentali o anticipare condizioni di insolvenza di un particolare fornitore, suggerendo o attuando azioni e comportamenti opportunistici, leggendo, per così, dire non solo la dimensione della causalità fisica, ma pure quella della riflessione mentale dei soggetti.

D’altra parte, se solo si pensa alla prevista flessione degli iscritti alle Casse Edili italiane nei prossimi anni, basterebbero solo una digitalizzazione tradizionale basata sull’Off Site Construction per sopperirvi o l’introduzione di nuovi flussi migratori?

Ecco come oggi Avasant riassume i benefici dell’uso dell’Intelligenza Artificiale Classica.

Di fatto, narrazioni su automi umanoidi nella prospettiva futuribile (o futura) di una coniugazione tra Robotica e Intelligenza Artificiale Fisica, per quanto tali, iniziano a essere proposte, ad esempio, da società di consulenza come McKinsey o da società del settore come Mace.

McKinsey, tra le altre cose, nel momento in cui sottolinea la possibilità di disporre di Automi Umanoidi Generalisti nel cantiere, un luogo della produzione poco strutturato, rimanda implicitamente alla Physical AI legata alla General Artificial Intelligence.

Curiosamente, mentre oggi, per una impresa di costruzioni, servono data set (legati al mondo linguistico in senso lato) per, ad esempio, ottimizzare, come noto, la programmazione dei lavori coi Modelli Linguistici (ma forse non il suo aggiornamento nella misura in cui esso richieda una percezione fisica), in prospettiva sarebbero utili corpus di video relativi alle lavorazioni per addestrare Modelli Cognitivi.

Come accennato, si tratta ancora di una versione convenzionale di autonomia, per certi versi consolatoria, ma probabilmente non del tutto adeguata alle prospettive della trasformazione in atto che intende fare sì che i Sistemi:

  • abbiano un Modello interno persistente del Mondo;
  • comprendano la causalità fisica;
  • possano simulare mentalmente cosa accadrebbe modificando un elemento;
  • posseggano embodiment, abbiano, quindi, esperienza sensomotoria dello spazio.

Paradossalmente, mentre si rimprovera agli operatori di privilegiare nella Modellazione Informativa gli aspetti geometrico-dimensionali nei confronti di quelli alfanumerici, ovvero di enfatizzare la renderizzazione delle soluzioni progettuali, nell’Intelligenza Artificiale la dimensione visiva dei fenomeni fisici appare fondamentale al fine di comprendere la realtà.

In altre parole, attraverso l’Information Modeling attualmente si tratta di che cosa siano le entità ontologicamente, mentre con il World Modeling si comprenderebbe il loro comportamento fisico e fenomenologico, senza ulteriore ausilio.

 

  1. La funzione di Agenzia

Risulta evidente che il Settore debba già oggi elaborare una strategia industriale umano centrica per l’Intelligenza Artificiale che non sia meramente una sommatoria di iniziative di singole rappresentanze, basate su una concezione tradizionale del fenomeno: serve una Agenzia, supportata da un Centro di Competenza (a livello generale, in Italia, si menziona FAIR), a opera delle istituzioni pubbliche, che coinvolga le rappresentanze del Settore.

Si pensi a iniziative europee di carattere più generale (o manifatturiero) come ADRA (AI, Data and Robotics Association), inerente pure alla sovranità continentale.

Del resto, il fatto che in Occidente o, meglio, negli Stati Uniti, le principali società, per tutelare i propri interessi commerciali nella corsa sfrenata a livelli superiori di Intelligenza, non condividano quasi più gli esiti della ricerca scientifica e industriale non potrà che fare correre loro il rischio di una involuzione, a favore dei concorrenti cinesi, più aperti all’Open Source: con la quasi completa latitanza di competitori europei.

Basterà, in senso ampio, la cosiddetta Frontier AI Initiative su European Digital Sovereignty promossa da Francia, da Germania e da Commissione Europea?

La prima questione riguarda i Modelli Fondazionali, che, ovviamente, non possono essere appannaggio di un settore economico, tanto più a livello nazionale, ma che dovrebbero riflettere culture diverse da quella statunitense e da quella cinese.

Certamente, almeno a livello europeo, vi sarebbe la possibilità di sviluppare soluzioni innovative di dominio, anche perché i processi e le tecnologie continentali e domestiche appaiono specifici.

Secondariamente, le dinamiche occupazionali, che dipendono anche dalle tendenze demografiche e dalla attrattività del Settore, non possono essere trascurate, non solo dal punto di vista del lavoro intellettuale (Modelli Linguistici e IA Agentica dovrebbero incidere specialmente su questo), ma anche, in prospettiva, colla IA Fisica, pure il lavoro manuale.

In terzo luogo, l’evoluzione di ciò che non si potrà circoscrivere a tecnologia e a strumento comporta implicazioni sociali, psicologiche, giuridiche, economiche e finanziarie tutte da indagare, al di fuori di atteggiamenti superficiali di fascinazione per gli incrementi di produttività.

Infine, è palese che approcci innovativi siano richiesti per comprendere la natura di ecosistemi (o di mondi?) le cui caratteristiche sono in parte imprevedibili e una nuova generazione di operatori, pubblici e privati, avrà necessità di essere formata.

Certo, rimane l’incertezza riguardo al fatto che questa era dell’Intelligenza Artificiale, entro il paradigma della digitalizzazione, incontri presto limitazioni così rilevanti da ricondurre le soluzioni ipotizzate a pura narrativa fantascientifica.

In questo caso, come forse sarebbe auspicabile, si rimarrebbe nell’alveo della dialettica tra cultura analogica e cultura digitale.

Per contro, comunque, le tematiche che si sollevano concernono il funzionamento biologico della mente umana in relazione a cervelli elettrici, il rapporto tra il linguaggio e la corporeità o la spazialità, i limiti della conoscenza e del sapere, la possibilità che il capitalismo della sorveglianza, autoritario o meno, possa uscire aumentato.

D’altra parte, nella stessa sfera della digitalizzazione convenzionale, l’ipotesi dell’eterodirezione persiste, ma in questa circostanza a essa si assocerebbe il timore della sostituzione, con una sorta di Geometrie dell’Intelligenza sottese ai Modelli del Mondo Reale, oggi solo accennati nella ricerca, ma incentrati sulla Robotica, un argomento per ora marginale nel Settore, ma cruciale nel superamento della Intelligenza Artificiale Classica, laddove dalla produzione di parole, nei Modelli Linguistici, si passa eventualmente alla produzione di azioni nella tridimensionalità spaziale del World Modelling.

Di fatto, l’evoluzione dell’Intelligenza Artificiale nel Settore non deve essere gestita come un fenomeno di digitalizzazione incrementale, ma implica una iniziativa istituzionale in grado di amministrare scenari agentici, cognitivi e fisici che mettono in discussione ruoli, responsabilità e assetti decisionali.

Del resto, servirebbero sandbox regolatori (degli ambienti di sperimentazione controllata), che solo una Agenzia potrebbe garantire.

Ancora, una Agenzia potrebbe promuovere un’infrastruttura condivisa a livello nazionale per la raccolta e per la strutturazione di dati settoriali, come già accennato, necessari al fine-tuning per Modelli di dominio.

Bisogna, però, che una simile Agenzia non divenga un contenitore simbolico anziché un meccanismo operativo: per questo motivo, sarà necessario, declinarne ulteriormente le finalità e gli aspetti operativi,

Certamente, una forma di resilienza del Settore potrebbe essere data sia dalle attuali limitazioni dei Modelli Linguistici (a partire dalla loro assenza di grounding fisico) e della Robotica sia dalla naturale resistenza offerta dal Settore alla digitalizzazione.

D’altra parte, l’attuale contingenza storica rende difficile distinguere con nettezza tra effettività, potenzialità, suggestioni, proprio a causa delle peculiari dinamiche del mercato globale e delle strategie dei principali competitori.

Da questo punto di vista, l’unico elemento inconfutabile è offerto dal successo e dalla popolarità che, a partire da ChatGPT, i Modelli Linguistici Classici, nella loro continua rincorsa a miglioramenti più i meno incrementali, hanno conseguito a livello generalista anche nel Settore specifico.

Argomenti

Argomenti

Accedi