La fattibilità economica dell’AI generativa

7 gennaio 2024

[email protected]

Che l’Intelligenza Artificiale Generativa[1] abbia attirato l’attenzione di tutti, nelle chiacchiere in salotto e nei convegni, nei gruppi sui social media e nei parlamenti nazionali, non vi è dubbio. Addirittura la politica per la prima volta, al momento caso unico, si è pronunciata nel dare indicazioni legislative su un fenomeno sociale che ancora deve mostrare le sue concrete potenzialità e la sua diffusione.  

Infatti, a dispetto dei tecnico-catastrofisti e dei tecno-entusiasti, il mondo economico finanziario, che ha il merito di dare concretezza a qualsiasi entusiasmo generato con troppa facilità, si sta scontrando con i limiti economici del fenomeno. Senza denari non si cantano messe!

Un recente articolo del Wall Street Journal (Tech’s AI Hangover Might Just Be Getting Started) constata che “I titoli tecnologici aprono l’anno con un crollo, dopo che il clamore per l’intelligenza artificiale ha portato a grandi guadagni (finanziari N.d.T.) prima dell’effettiva crescita del business”. È dunque ora che questa tecnologia mostri come generare denaro, almeno in proporzione alle aspettative degli investitori che hanno già scommesso molto su di essa.

L’impresa però appare più difficile di quanto i dibattiti pubblici temevano o speravano. Consideriamo ad esempio il caso di Microsoft. È stata la prima azienda tecnologica ad adottare le funzionalità di ChatGPT, il motore generativo AI che tanto ha fatto sognare (o provocato incubi), inserendo le sue funzionalità in alcuni suoi prodotti (Microsoft Adds AI Key in First Change to PC Keyboard in Decades). Ne ha certamente beneficiato l’andamento delle sue azioni, ma poiché Microsoft già genera 218 miliardi di dollari l’anno l’AI dovrà produrre molta nuova crescita per spostare l’ago della bilancia. Al tempo stesso però i maggiori clienti sono ancora indecisi su come utilizzare queste nuove tecnologie (CIOs Feel Heat From CEOs on Generative AI).

[1] Altre tipologie di questa tecnologia sono presenti da anni in molti apparati e servizi intorno a noi ma non hanno turbato i sonno di nessuno.

 

 

 

La corsa ai dati, così critica per il buon funzionamento di questi sistemi, sta diventando una sorta di corsa agli armamenti.

Vi sono poi anche le enormi difficoltà nel mettere in produzione tali sistemi. La costruzione di prodotti di intelligenza artificiale può richiedere anni e centinaia di milioni di dollari, più che per altri tipi di software. Infatti qui non è questione solo di programmatori che buttano giù righe di codice ma di “addestramento” di tali modelli che va realizzato alimentando tali tecnologie con massicce iniezioni di dati. Come sempre nell’Information Technology, anche qui vale il principio del garbage-in garbage-out (se introduco immondizia nei programmi ne esce immondizia) per cui è essenziale ricorrere a dati di qualità. Questi però sono di proprietà privata e i loro legittimi proprietari iniziano a ribellarsi a questi indiscriminati furti, come dimostra il recente caso del New York Times che ha citato in giudizio Open AI e Microsoft (The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work). Inoltre è una dimostrazione, per coloro che non conoscevano i fondamentali di questa tecnologia, di quanto sia fondata l’accusa a tali sistemi di essere dei Pappagalli stocastici, ovvero oggetti che ripropongono in modo statisticamente complesso, ma parassitario, ciò che gli umani producono.

La corsa ai dati, così critica per il buon funzionamento di questi sistemi, sta diventando una sorta di corsa agli armamenti. Infatti le start-up del settore sono state inondate di denaro dagli investitori ma la disponibilità di dati di qualità, critica per il loro buon funzionamento, scarseggia o sta diventando molto costosa (AI Startups Have Tons of Cash, but Not Enough Data.).

Ma il problema principale risiede nel cuore di una qualsiasi attività economica: il modello di business. Come già detto, costruire e addestrare prodotti con questa tecnologia può costare milioni e impiegare anni, molti di più che altri tipi di software. Le economie di scala prevedili per i software standard qui non sono applicabili. Una semplice interrogazione, che per definizione nell’AI generativa può essere libera e imprevista, può generare un intenso uso di risorse che non è possibile prevedere a priori. Ciò espone le aziende che offrono accesso a tali prodotti con una tariffa fissa a perdite ingenti. D’altro canto non è possibile profilare la tipologia di usi da parte degli utenti dei sistemi AI in virtù dell’impiego di risorse che questi utilizzeranno. Significherebbe declassare tali sistemi a software standard. In parole povere c’è il rischio da un lato di costruire una Lamborghini per consegnare una pizza e dall’altro di rendere disponibile un mezzo di trasporto solo per consegnare cibo in una determinata zona! (Big Tech Struggles to Turn AI Hype Into Profits ).    

La cosiddetta Intelligenza Artificiale generativa, che personalmente ritengo andrebbe ribattezzata Comunicazione Artificiale, ha grandi potenzialità positive ed è foriera di possibili minacce, come tutte le tecnologie, a partire dal coltello. Al di là degli effetti scenografici, che hanno generato un caleidoscopio di reazioni che vanno da una sorta di sciovinismo di genere a un entusiasmo isterico, ci si dovrebbe concentrare nel costruire i contesti giusti. Concentrarci sulle persone più che sulle macchine. Questo aiuterebbe sia la fattibilità economica che la definizione della dimensione dei rischi e dei benefici.

Luciano Martinoli