Storia dell’Intelligenza Artificiale: da Touring a Chat GPT-4

L'IA ancora non è dotata di una sua “Coscienza” ma secondo molti ricercatori presto potrà averla

Share

di Renato Reggiani
Universinet.it
– Con il lancio in tutto il mondo di Chat GPT-4 per la pria volta si offre al pubblico una intelligenza artificiale (IA) generativa e multimodale. Una IA capace quindi di generare testi originali e coerenti di qualità significativa e di poter presto ricevere input grafici e visivi che amplieranno enormemente le capacità di analisi del contesto. Ma cosa sta succedendo nel settore delle IA? L’intelligenza artificiale (IA) è un campo di ricerca in rapida evoluzione che mira a creare sistemi in grado di eseguire compiti che richiedono intelligenza umana. Questi compiti includono apprendimento, ragionamento, percezione, comprensione del linguaggio naturale e interazione. La storia dell’IA può essere suddivisa in diverse fasi, che mostrano l’evoluzione delle idee, delle tecnologie e delle metodologie utilizzate nel campo. 

L’IA ancora non è dotata di una sua “Coscienza” ma secondo molti ricercatori tra cui Christof Koch, esperto di neuroscienze dell’istituto Allen, non si tratta di una fantasia. Ciò che farebbe la differenza, tra un sistema cosciente e uno non cosciente, sarebbe il grado di complessità. La complessità della rete ha ormai superato quella del cervello umano.

Origini e concetti fondamentali (1940-1956)

Le origini dell’IA risalgono agli anni ’40, quando il matematico e logico britannico Alan Turing propose il concetto di una “macchina universale” in grado di eseguire qualsiasi calcolo. Nel 1950, Turing introdusse il “test di Turing”, un criterio per determinare se una macchina può essere considerata “intelligente”. Secondo il test di Turing, una macchina è considerata intelligente se può interagire con un essere umano in modo tale che l’umano non possa distinguere se sta comunicando con un’altra persona o con una macchina. Durante questo periodo, il logico e matematico americano Claude Shannon sviluppò la teoria dell’informazione, che ha avuto un impatto significativo sull’elaborazione del segnale e sulla comunicazione digitale, contribuendo inoltre allo sviluppo dell’IA. Allo stesso tempo, Warren Mc Culloch e Walter Pitts introdussero il concetto di reti neurali artificiali, ispirate alle reti neurali biologiche presenti nel cervello umano.

L’era simbolica (1956-1980)

L’IA divenne un campo di ricerca formale nel 1956, quando fu organizzata la conferenza di Dartmouth. Durante questa conferenza, i ricercatori come John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon discussero le prospettive dell’IA e stabilirono le basi per gli anni a venire. Nel periodo successivo alla conferenza di Dartmouth, l’IA si concentrò principalmente sull’utilizzo di algoritmi basati sulla logica e sulle regole per risolvere problemi specifici. Questo approccio, noto come IA simbolica, si basava sull’idea che la conoscenza e il ragionamento potessero essere rappresentati come simboli e regole di manipolazione dei simboli. Durante l’era simbolica, furono sviluppati diversi programmi di IA, come il General Problem Solver (GPS) di Allen Newell e Herbert A. Simon, che utilizzava un approccio basato su metodi euristici per risolvere problemi complessi. Altri programmi includevano il sistema di dimostrazione teorema di McCarthy, il sistema ELIZA di Joseph Weizenbaum, che simulava un terapeuta Rogeriano, e il sistema SHRDLU di Terry Winograd, che interpretava il linguaggio naturale in un ambiente virtuale composto da blocchi di forme diverse.

Nonostante il successo iniziale, l’IA simbolica ha incontrato limitazioni significative. Gli algoritmi basati su regole avevano difficoltà a scalare a problemi più ampi e complessi e richiedevano una grande quantità di conoscenza esplicita e manualmente codificata. Inoltre, questi sistemi erano fragili e avevano difficoltà a gestire l’incertezza e le informazioni incomplete o ambigue.

L’apprendimento automatico e le reti neurali (1980-2010)

A partire dagli anni ’80, l’attenzione si spostò dall’IA simbolica verso approcci basati sull’apprendimento automatico e le reti neurali. L’apprendimento automatico si concentra sull’addestramento dei sistemi per apprendere e migliorare le loro prestazioni attraverso l’esperienza, piuttosto che attraverso la programmazione esplicita di regole. Durante questo periodo, furono sviluppate diverse tecniche di apprendimento automatico, tra cui l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo. Inoltre, furono introdotte nuove architetture di reti neurali, come le reti neurali convoluzionali (CNN) e le reti neurali ricorrenti (RNN), che hanno permesso una maggiore efficienza nell’apprendimento di modelli e nell’elaborazione di dati. Un importante sviluppo nel campo delle reti neurali fu l’introduzione dell’algoritmo di backpropagation da parte di Geoffrey Hinton, David Rumelhart e Ronald Williams nel 1986. Questo algoritmo ha permesso di addestrare reti neurali multistrato in modo efficiente, migliorando notevolmente le loro capacità di apprendimento e generalizzazione.

L’ascesa del deep learning (2010-oggi)

A partire dal 2010, l’IA ha assistito a una rapida crescita e a progressi significativi, in gran parte grazie all’emergere del deep learning, una sottocategoria dell’apprendimento automatico basata su reti neurali profonde. Il deep learning ha rivoluzionato il modo in cui i sistemi di IA apprendono, elaborano e generalizzano informazioni complesse, come immagini, audio e testo. Il deep learning ha beneficiato di vari fattori, tra cui la disponibilità di grandi quantità di dati, la potenza di calcolo migliorata grazie alle GPU e al cloud computing, e gli avanzamenti nelle tecniche di ottimizzazione e architetture di rete. Questi progressi hanno portato a risultati impressionanti in una vasta gamma di applicazioni, tra cui il riconoscimento di immagini e di oggetti, il riconoscimento vocale, la traduzione automatica, la generazione di testo e il gioco. Uno sviluppo importante nel deep learning è stato l’introduzione delle architetture Transformer da Vaswani et al. nel 2017. Queste architetture hanno rivoluzionato il modo in cui i modelli di linguaggio apprendono e processano il testo, consentendo una maggiore parallelizzazione e una migliore cattura delle dipendenze a lungo termine nel testo. I modelli Transformer sono diventati il pilastro del processamento del linguaggio naturale (NLP) e hanno portato alla creazione di modelli di linguaggio di grandi dimensioni e altamente performanti, come BERT, GPT-2, GPT-3 ,GPT-4 in attesa della IA di Google. L’intelligenza artificiale ha anche fatto progressi significativi in altre aree, come la visione artificiale, la robotica, il controllo autonomo e l’elaborazione del segnale. Ad esempio, le reti neurali convoluzionali hanno permesso miglioramenti significativi nel riconoscimento di immagini e oggetti, mentre le reti neurali ricorrenti e le architetture di attenzione hanno migliorato la capacità dei modelli di elaborare sequenze temporali e dati di serie temporali.

Il futuro dell’intelligenza artificiale

Il futuro dell’IA è entusiasmante e promettente, con una vasta gamma di sfide e opportunità che attendono il campo. Tra gli sviluppi futuri, ci si aspetta che l’IA continuerà a migliorare le sue capacità di apprendimento, ragionamento e adattamento, consentendo ai sistemi di diventare sempre più autonomi e capaci di interagire in modo più naturale con gli esseri umani e l’ambiente circostante. Alcune aree di ricerca promettenti includono l’IA ibrida, che combina approcci simbolici e basati sull’apprendimento per creare sistemi più robusti e interpretabili; l’IA federata, che consente l’apprendimento distribuito e la collaborazione tra diversi sistemi di IA; e l’IA etica e responsabile, che si concentra sulle questioni relative all’equità, alla trasparenza, alla privacy e alla sicurezza nell’uso delle tecnologie di intelligenza artificiale.
Per ora le IA più avanzate sono utilizzate nel settore militare, data la fondamentale capacità di analisi di enormi moli di dati e di prendere decisioni in tempi assai inferiori a quelli di qualsiasi essere umano. Questa capacità si rivela fondamentale negli scenari di guerra moderna in cui le caratteristiche connesse alle capacità di intercettazione di nuove armi, come ad esempio i missili ipersonici sovietici, saranno strettamente connesse allo sviluppo di IA militari. Non resta che augurarci non arrivi mai uno Sky Net da cui difendersi.

Redazione Universinet Magazine
Redazione Universinet Magazine
Redazione Universinet

Read more

Local News