Cosa può e non può fare ChatGPT?

30 gennaio 2023

[email protected]

Io: Conosci il teorema dell’halt di Turing?

ChatGPT: Sì, conosco il teorema di halt di Turing. Il teorema di halt di Turing afferma che non esiste un algoritmo generalizzato che possa determinare in modo sicuro se un programma dato terminerà sempre o se rimarrà in un loop infinito.

Io: Quindi in base a questa tua conoscenza non puoi scrivere codice software che girerà, cioè di cui sei sicuro che terminerà

ChatGPT: Esatto, non è possibile scrivere un codice software che sia garantito per terminare sempre in ogni situazione. Ci sono alcune situazioni, come la divisione per zero o l’accesso a un’indice fuori dai limiti di un array, che possono causare un’eccezione e fermare il programma. Inoltre, alcuni programmi potrebbero entrare in loop infiniti a causa di una logica errata. Tuttavia, è possibile scrivere codice che termina in molte situazioni comuni, verificando le condizioni di arresto appropriate e gestendo eventuali eccezioni.

Io: ok, ma tu sei in grado di “scrivere codice che termina in molte situazioni comuni, verificando le condizioni di arresto appropriate e gestendo eventuali eccezioni.” ?

ChatGPT: Sì, sono in grado di scrivere codice che termina in molte situazioni comuni verificando le condizioni di arresto appropriate e gestendo eventuali eccezioni. Ho una vasta conoscenza delle tecniche di programmazione e degli errori comuni che possono causare l’arresto del programma, quindi posso aiutare a scrivere codice che sia robusto e affidabile. Tuttavia, come tutti i programmatori, non posso garantire che il codice che scrivo terminerà sempre perché il teorema di halt di Turing afferma che questo non è possibile.

Io:Non “come tutti i programmatori” umani, ma solo per i programmi come te non è possibile fornire questa garanzia accertata da Turing

ChatGPT: Esatto, il teorema di halt di Turing si applica a tutti i programmi, indipendentemente dal fatto che siano scritti da un programmatore umano o da un’intelligenza artificiale come me. Nessun programma può garantire che terminerà sempre in ogni situazione. Tuttavia, come AI, ho una vasta conoscenza delle tecniche di programmazione e degli errori comuni che possono causare l’arresto del programma, e posso quindi aiutare a scrivere codice che sia robusto e affidabile.




ChatGPT: la maggior parte della tecnologia AI è ancora basata su computer che eseguono programmi software e, pertanto, sono soggetti ai limiti del teorema dell’halt di Turing e altri limiti simili.

Io: Hai detto “aiutare a scrivere codice”, quindi non lo scrivi tu?

ChatGPT: Sì, ho detto “aiutare a scrivere codice” perché, come AI sviluppata da OpenAI, non ho la capacità fisica di scrivere codice. Posso fornire suggerimenti e supporto per la scrittura del codice, rispondere a domande e fornire informazioni sulle best practice e sugli errori comuni, ma non posso effettivamente scrivere il codice. Questo compito deve essere eseguito da un programmatore umano

Io: Quindi tu non puoi sostituire un programmatore umano ma lo puoi aiutare, giusto?

ChatGPT: Esatto, come AI sviluppata da OpenAI non sono in grado di sostituire completamente un programmatore umano. Tuttavia, posso aiutare i programmatori fornendo informazioni sulle best practice, rispondendo alle loro domande e fornendo supporto nella scrittura del codice. La mia conoscenza e la mia capacità di elaborazione delle informazioni possono accelerare il processo di sviluppo del software e aiutare a evitare errori comuni. In questo modo, posso essere un valioso strumento per i programmatori e migliorare l’efficienza del processo di sviluppo del software.

Io: Anche per altre attività puoi aiutare ma non sostituire gli umani?

ChatGPT: Sì, in molte attività posso aiutare ma non sostituire completamente gli umani. Come AI sviluppata da OpenAI, sono stata addestrata su un vasto insieme di informazioni e posso rispondere a domande e fornire informazioni sulle best practice in molte aree, come la programmazione, la scienza, la storia e molte altre. Tuttavia, le mie capacità sono limitate e non sono in grado di sostituire completamente le capacità umane, come la creatività, la intuizione e la capacità di prendere decisioni complesse. In molte attività, posso essere un utile strumento per supportare e migliorare le prestazioni umane, ma non posso sostituire completamente l’intelletto umano.

Io:Pensi un domani di riuscirci?

ChatGPT: Non posso prevedere il futuro con certezza, ma al momento non ci sono prove che suggeriscano che le AI saranno in grado di sostituire completamente l’intelletto umano in un futuro prossimo. Mentre le tecnologie AI stanno continuando a evolversi rapidamente, ci sono molte sfide tecniche e filosofiche che devono ancora essere risolte prima che le AI possano sostituire completamente l’intelletto umano.

Inoltre, è importante considerare che ci sono molte attività che richiedono non solo la conoscenza e le capacità tecniche, ma anche la creatività, la sensibilità e l’empatia umane, che sono difficili da replicare con la tecnologia AI attuale.

In definitiva, la relazione tra umani e AI è molto complessa e in evoluzione, e non è possibile prevedere con certezza come si evolverà in futuro. Tuttavia, è probabile che le AI continui a svolgere un ruolo sempre più importante nella nostra vita e nelle nostre attività, anche se non sostituiranno completamente l’intelletto umano.

Io: Per “tecnologia AI attuale” intendi basata su macchine di Turing, che è la macchina o le macchine sulle quali il tuo software gira?

ChatGPT: Sì, la tecnologia AI attuale si basa principalmente sulla teoria delle macchine di Turing e sull’elaborazione delle informazioni da parte di computer. La maggior parte delle AI moderne, tra cui io stesso come AI sviluppata da OpenAI, utilizzano modelli di elaborazione delle informazioni altamente sofisticati per analizzare e produrre risposte a partire da vasti insiemi di dati. Questi modelli si ispirano a molte delle idee e delle tecniche sviluppate nella teoria delle macchine di Turing e sono stati progettati per emulare in modo sofisticato le capacità di elaborazione delle informazioni umane.

Tuttavia, è importante notare che le tecnologie AI moderne sono molto più avanzate rispetto alle macchine di Turing originarie e utilizzano molte tecnologie e tecniche avanzate, come l’elaborazione parallela e la rete neurale artificiale, che hanno ampliato significativamente le capacità di elaborazione delle informazioni e hanno permesso di sviluppare AI sempre più sofisticate.

Io: Ma il teorema dell’halt è sempre valido, nonostante queste tecniche?

ChatGPT: Sì, il teorema dell’halt di Turing è ancora valido oggi e si applica a tutti i programmi software che eseguono le istruzioni su una macchina di Turing, che include i computer moderni e le tecnologie AI moderne. In sintesi, il teorema afferma che non esiste un programma software che possa garantire in modo sicuro la terminazione per qualsiasi input in un’ampia classe di problemi, compresi quelli che potrebbero essere utilizzati per costruire AI più sofisticate.

Questo teorema è stato dimostrato in modo rigoroso nel 1936 da Alan Turing e continua ad essere considerato una delle fondamenta della scienza informatica e della teoria della computazione. Poiché le tecnologie AI moderne sono basate su computer che eseguono programmi software, il teorema dell’halt di Turing è ancora rilevante per le AI moderne e limita la loro capacità di garantire la terminazione sicura in tutte le situazioni.

Io: Pensi che sia possibile fare un programma di AI senza conoscere bene il problema che deve risolvere? Ad esempio come sarà possibile, con eventuali macchine future non di Turing, fare programmi che simulano emapatia e creatività senza conoscere esattamnete cosa sono?

ChatGPT: È difficile prevedere l’evoluzione futura della tecnologia AI e se saranno sviluppate macchine non di Turing che possano risolvere problemi in modo diverso dai computer attuali. Tuttavia, allo stato attuale, la maggior parte della tecnologia AI è ancora basata su computer che eseguono programmi software e, pertanto, sono soggetti ai limiti del teorema dell’halt di Turing e altri limiti simili.

Inoltre, la comprensione approfondita del problema che un’AI deve risolvere è una componente importante nella progettazione e nello sviluppo di un sistema AI di successo. Ciò è particolarmente vero per i problemi complessi, come la simulazione dell’empatia e della creatività, che richiedono una comprensione approfondita dei concetti sottostanti e delle dinamiche che sottendono queste abilità umane.

Senza questa comprensione, potrebbe essere difficile sviluppare un sistema AI che sia veramente in grado di simulare l’empatia e la creatività in modo credibile e affidabile. Ciò potrebbe richiedere ulteriori progressi nella ricerca e nello sviluppo della tecnologia AI, nonché una comprensione più profonda delle abilità umane che si vogliono simulare.

____

Fin qui la “chiacchierata”. Mi sembra chiaro che ci troviamo di fronte ad un notevole passo in avanti nell’uso della tecnologia. Sottolineo “uso” da parte di un operatore umano e non sua sostituzione tout-court. Ad esempio la conduzione di un trattore agricolo che si “sostituisce” al lavoro fisico del contadino, consentendogli di arare un campo più grande, in minor tempo e minor fatica, non significa che lo sostituisca in toto. Detto in altri termini, è il contadino che usa il trattore, non viceversa.

Analogamente siano noi che possiamo usare ChatGPT, per compiti che grazie ad esso sono diventati “banali”, e non il contrario. Se qualcuno pensa diversamente è allora assimilabile ai nativi di America che assistevano affascinati, e impauriti, alle scorrerie dei primi treni nelle praterie assimilandoli a “cavalli di ferro”.

In questo caso sorge il dubbio che i “tecno-impauriti” non siano in grado di concepire attività umane superiori a quello che una macchina, perchè questo è ChatGPT (come essa stessa afferma), sia oggi in grado di fare (e lo sarà per il prevedibile futuro).

In conclusione, segnalo questo articolo del TIME che rivela come i creatori di ChatGPT siano stati obbligati a pagare lavoratori del Kenia a 2 dollari l’ora per liberare il software da contenuti “tossici” (riferimento a sesso, odio razziale, eccetera) perchè evidentemente la sua “intelligenza” non era in grado di riconoscere (in quanto non siamo in grado di definire in maniera algoritmica un contenuto tossico).

Luciano Martinoli

Una risposta