La storia dell'intelligenza artificiale (AI) ha origine nell'antichità, segnata da miti, racconti e leggende riguardanti entità artificiali dotate di intelletto o consapevolezza da abili artigiani. Lo studio continuo della logica e del ragionamento formale, dall'antichità ai giorni nostri, è culminato negli anni Quaranta nello sviluppo del computer digitale programmabile, un dispositivo fondato su principi matematici astratti. Questa invenzione, insieme alle sue basi concettuali, spinse gli scienziati a contemplare la creazione di un cervello elettronico.
La disciplina della ricerca sull'intelligenza artificiale fu formalmente istituita durante un seminario convocato al Dartmouth College nel 1956. Durante questo evento, il programma inaugurale di intelligenza artificiale, Logic Theorist, fu introdotto da Allen Newell, futuro destinatario del Premio Turing, e Herbert A. Simon, che avrebbe poi ricevuto il Premio Nobel, con il contributo di J. C. Shaw. I partecipanti a questo seminario fondamentale sono successivamente emersi come figure di spicco nella ricerca sull’intelligenza artificiale per diversi decenni. Un numero significativo di questi pionieri anticipò l’emergere di macchine intelligenti a livello umano nel giro di una sola generazione. Di conseguenza, il governo degli Stati Uniti ha stanziato ingenti finanziamenti, pari a milioni di dollari, per raggiungere questo obiettivo ambizioso.
Successivamente, è diventato evidente che i ricercatori avevano notevolmente sottovalutato la natura complessa di questo obiettivo. Nel 1974, le critiche di James Lighthill, insieme alle pressioni del Congresso degli Stati Uniti, spinsero sia il governo statunitense che quello britannico a cessare i finanziamenti per la ricerca non indirizzata sull’intelligenza artificiale. Sette anni dopo, un’iniziativa lungimirante del governo giapponese, insieme alla dimostrata efficacia dei sistemi esperti, ha rivitalizzato gli investimenti nell’intelligenza artificiale. Alla fine degli anni ’80, il settore si era espanso fino a diventare un’industria multimiliardaria. Tuttavia, l’entusiasmo degli investitori è diminuito nel corso degli anni ’90, portando alle critiche dei media nei confronti del settore e alla sua elusione da parte dell’industria, un periodo colloquialmente definito “inverno dell’intelligenza artificiale”. Nonostante queste battute d'arresto, la ricerca e il sostegno finanziario sono continuati, spesso con denominazioni alternative.
Durante i primi anni 2000, l'apprendimento automatico ha trovato ampia applicazione in diverse sfide accademiche e industriali. Questo successo è derivato dalla confluenza di potenti hardware informatici, dall’accumulo di vasti set di dati e dall’implementazione di rigorose metodologie matematiche. Poco dopo, il deep learning è emerso come una tecnologia trasformativa, superando i metodi precedenti. L'architettura del trasformatore, introdotta nel 2017, è stata successivamente utilizzata per sviluppare applicazioni di intelligenza artificiale generativa, tra le altre implementazioni.
Gli investimenti nell'intelligenza artificiale hanno registrato un aumento significativo negli anni '20. Questa recente espansione, catalizzata dal progresso dell'architettura del trasformatore, ha facilitato la rapida scalabilità e l'implementazione pubblica di modelli linguistici di grandi dimensioni (LLM) come ChatGPT. Questi modelli dimostrano attributi di conoscenza, attenzione e creatività simili a quelli umani e sono stati incorporati in numerosi settori, determinando così investimenti esponenziali nell’intelligenza artificiale. Allo stesso tempo, sono emerse preoccupazioni riguardo ai potenziali rischi e alle implicazioni etiche dell'IA sofisticata, stimolando un'ampia discussione sulla traiettoria futura dell'IA e sulle sue conseguenze sociali.
Antecedenti
Mitologia, folklore, narrazioni immaginarie e pensiero speculativo
Gli umanoidi meccanici e le entità artificiali sono prominenti nella mitologia greca, esemplificati dai robot dorati di Efesto, dal gigante di bronzo Talos e dalla Galatea di Pigmalione. Durante il Medioevo circolavano leggende riguardanti metodi mistici o alchemici clandestini per impregnare la materia di coscienza, tra cui il Takwin di Jabir ibn Hayyan, l'omuncolo di Paracelso, il Golem di Rabbi Judah Loew e la testa di bronzo di Roger Bacon. Nel 19° secolo, i concetti di esseri umani artificiali e macchine senzienti erano diventati un motivo prevalente nella letteratura. Opere significative includono Frankenstein di Mary Shelley (1818), Faust, seconda parte di Johann Wolfgang von Goethe (1832) e R.U.R. (Robot universali di Rossum) (1921). Le narrazioni che circondano queste creazioni e i loro destini spesso esplorano molte delle stesse aspirazioni, ansie e dilemmi etici posti dall’intelligenza artificiale contemporanea. Inoltre, argomenti pertinenti all'intelligenza artificiale sono stati esaminati in saggi speculativi, come "Darwin Among the Machines" (1863) di Samuel Butler.
Automi
Automi umanoidi altamente realistici furono costruiti da artigiani di numerose civiltà, tra cui Yan Shi, Eroe di Alessandria, Al-Jazari, Haroun al-Rashid, Jacques de Vaucanson, Leonardo Torres y Quevedo, Pierre Jaquet-Droz e Wolfgang von Kempelen. I primi automi documentati erano effigi sacre dell'antico Egitto e della Grecia. Gli aderenti credevano che queste figure fossero state dotate di autentico intelletto e capacità emotiva dai loro creatori. Ermete Trismegisto affermò in particolare che "scoprendo la vera natura degli dei, l'uomo è stato in grado di riprodurla".
Ragionamento formale
L'intelligenza artificiale opera sulla premessa che i processi mentali umani siano suscettibili di meccanizzazione. Nel primo millennio a.C. i filosofi cinesi, indiani e greci avevano stabilito approcci sistematici al ragionamento formale. La logica formale fu originata e successivamente perfezionata da filosofi greci, islamici ed europei, tra cui figure come Aristotele, Euclide, Al-Khwarizmi, Duns Scoto e René Descartes.
Il filosofo spagnolo Ramon Llull (1232–1315) concepì diverse macchine logiche progettate per generare conoscenza attraverso processi logici. Ha caratterizzato queste macchine come costrutti meccanici in grado di sintetizzare verità fondamentali e inconfutabili tramite operazioni logiche elementari, generando così meccanicamente tutta la conoscenza immaginabile. L'opera di Lullo influenzò in modo significativo Gottfried Leibniz, che sviluppò ulteriormente questi concetti.
Durante il XVII secolo, Leibniz, Thomas Hobbes e René Descartes indagarono la possibilità che tutto il pensiero razionale potesse essere sistematizzato con la precisione dell'algebra o della geometria. Hobbes afferma nel Leviatano: "La ragione... non è altro che calcolo, cioè addizione e sottrazione". Leibniz proponeva un linguaggio universale per il ragionamento, la characteristica universalis, inteso a trasformare l'argomentazione in mero calcolo in modo che "non ci fosse più bisogno di disputa tra due filosofi che tra due contabili. Basterebbe infatti prendere la loro matita in mano, fino alla lavagnetta, e dirsi l'un l'altro (con un amico come testimone, se vogliono): Calcoliamo."
Boole's Le leggi del pensiero (1854) e il Begriffsschrift di Frege (1879) stabilirono la struttura contemporanea della logica matematica simbolica. Estendendo la struttura di Frege, Russell e Whitehead offrirono un'esposizione formale dei principi fondamentali dell'aritmetica nei Principia Mathematica del 1913. Ispirato dal loro successo, David Hilbert spinse i matematici degli anni '20 e '30 a formalizzare l'intero ragionamento matematico. In risposta, la prova di incompletezza di Gödel, la macchina di Turing e il calcolo Lambda di Church dimostrarono collettivamente i limiti intrinseci della matematica formale.
Tuttavia, entro questi limiti stabiliti, la tesi di Church-Turing suggeriva che un apparato meccanico, manipolando simboli elementari come 0 e §23§, potrebbe emulare qualsiasi processo immaginabile di ragionamento matematico o di risoluzione di problemi. Al centro di tutto ciò c’era la macchina di Turing, un costrutto teorico semplice che incapsulava la natura fondamentale della manipolazione dei simboli astratti. Questo dispositivo concettuale e i suoi principi sottostanti hanno successivamente motivato ingegneri e matematici negli anni '40 a costruire macchine teoricamente in grado di eseguire qualsiasi forma di ragionamento formale o di risoluzione dei problemi.
Informatica
Nel corso della storia, dall'antichità in poi, numerosi individui hanno progettato o costruito macchine calcolatrici, tra cui Gottfried Leibniz, Joseph Marie Jacquard, Charles Babbage, Percy Ludgate, Leonardo Torres Quevedo e Vannevar Bush, tra gli altri. Ada Lovelace postulò che l'apparato di Babbage costituisse "una macchina pensante o...ragionante", ma avvertì: "È desiderabile stare in guardia contro la possibilità che emergano idee esagerate riguardo ai poteri" della macchina.
I primi computer moderni emersero come macchine su larga scala durante la seconda guerra mondiale, esemplificati dallo Z3 di Konrad Zuse, da Heath Robinson e Colossus di Tommy Flowers, dall'ABC di Atanasoff e Berry e dall'ENIAC. presso l'Università della Pennsylvania. ENIAC si è basato sulle basi teoriche stabilite da Alan Turing ed è stato ulteriormente sviluppato da John von Neumann, diventando infine il più influente.
Nascita dell'intelligenza artificiale (1941–1956)
Le prime indagini sulle macchine intelligenti furono catalizzate da una convergenza di concetti che acquisì importanza dalla fine degli anni '30 fino all'inizio degli anni '50. Studi neurologici contemporanei avevano rivelato che il cervello è una rete elettrica di neuroni che funziona tramite impulsi tutto o niente. Il lavoro di Norbert Wiener sulla cibernetica ha chiarito i principi di controllo e stabilità all'interno delle reti elettriche. La teoria dell'informazione di Claude Shannon caratterizzava i segnali digitali, in particolare quelli che operano sulla base del "tutto o niente". La teoria computazionale di Alan Turing ha dimostrato la rappresentabilità digitale di qualsiasi processo computazionale. La relazione sinergica tra queste diverse idee implicava il potenziale per la costruzione di un "cervello elettronico".
Durante gli anni Quaranta e Cinquanta, un gruppo eterogeneo di scienziati provenienti da discipline quali matematica, psicologia, ingegneria, economia e scienze politiche ha avviato vari percorsi di ricerca che si sono rivelati cruciali per il successivo sviluppo dell'intelligenza artificiale (AI). Alan Turing è stato un pioniere nell'esaminare rigorosamente il potenziale teorico dell'"intelligenza artificiale". La disciplina accademica della "ricerca sull'intelligenza artificiale" è stata formalmente istituita nel 1956.
Il test di Turing
Nel 1950, Turing scrisse l'articolo fondamentale "Computing Machinery and Intelligence", in cui esplorò la fattibilità dello sviluppo di macchine capaci di pensare. All'interno di questo lavoro, riconobbe le sfide della definizione del "pensiero" e successivamente propose il suo famoso test di Turing: una macchina potrebbe essere considerata "pensante" se potesse impegnarsi in una conversazione basata su telescrivente indistinguibile da quella con un essere umano. Questo quadro semplificato permise a Turing di affermare in modo convincente che una "macchina pensante" fosse almeno plausibile, e l'articolo affrontava le obiezioni prevalenti a questo concetto. Il test di Turing ha rappresentato la proposta iniziale significativa all'interno della filosofia dell'intelligenza artificiale.
Reti neurali artificiali
Nel 1943, Walter Pitts e Warren McCulloch condussero un'analisi di reti di neuroni artificiali idealizzate, dimostrando la loro capacità di eseguire funzioni logiche di base. Furono i primi ad articolare il concetto che i ricercatori successivi avrebbero identificato come rete neurale. La loro pubblicazione trasse ispirazione dall'articolo di Turing del 1936, "On Computable Numbers", impiegando analoghi "neuroni" booleani a due stati, ma applicando questa struttura in modo univoco alla funzione neuronale. Marvin Minsky, allora studente laureato di 24 anni, fu tra quelli influenzati da Pitts e McCulloch. Nel 1951, Minsky collaborò con Dean Edmonds per costruire lo SNARC, la prima macchina della rete neurale. In seguito Minsky emerse come leader fondamentale e innovatore nel campo dell'intelligenza artificiale.
Robotica cibernetica
Durante gli anni '50 furono sviluppati robot sperimentali, tra cui le "tartarughe" di William Gray Walter e la "Bestia di Johns Hopkins". Questi dispositivi funzionavano senza computer, elettronica digitale o ragionamento simbolico, basandosi esclusivamente su circuiti analogici per il loro controllo.
Intelligenza artificiale del gioco
Nel 1951, Christopher Strachey sviluppò un programma per la dama e Dietrich Prinz creò un programma per gli scacchi, entrambi utilizzando la macchina Ferranti Mark 1 presso l'Università di Manchester. Il programma di dama di Arthur Samuel, documentato nel suo articolo del 1959 "Alcuni studi sull'apprendimento automatico utilizzando il gioco della dama", alla fine raggiunse un livello di competenza capace di sfidare un dilettante competente. Il programma di Samuel rappresenta una delle prime applicazioni di quello che in seguito verrà chiamato machine learning. Nel corso della storia dell'intelligenza artificiale, l'intelligenza artificiale dei giochi è sempre stata un punto di riferimento per valutare i progressi.
Ragionamento simbolico e il teorico della logica
Con l'avvento dei computer digitali a metà degli anni '50, alcuni scienziati intuirono che le macchine capaci di manipolazione numerica potevano anche elaborare simboli e che tale manipolazione simbolica poteva costituire la natura fondamentale della cognizione umana. Questa intuizione segnò una nuova metodologia per la costruzione di macchine intelligenti.
Nel 1955, Allen Newell e il futuro premio Nobel Herbert A. Simon, assistiti da J. C. Shaw, svilupparono il "teorico della logica". Questo programma ha dimostrato con successo 38 dei 52 teoremi iniziali presentati in Principia Mathematica di Russell e Whitehead e ha inoltre scoperto dimostrazioni nuove e più eleganti per molti di essi. Simon affermò di aver "risolto il venerabile problema mente/corpo, spiegando come un sistema composto di materia possa avere le proprietà della mente". Il paradigma del ragionamento simbolico da loro introdotto è diventato l'approccio predominante nella ricerca e nel finanziamento dell'IA fino alla metà degli anni '90, ispirando contemporaneamente la rivoluzione cognitiva.
Il laboratorio di Dartmouth
Il workshop di Dartmouth, tenutosi nel 1956, ha rappresentato un momento cruciale, stabilendo formalmente l'intelligenza artificiale (AI) come disciplina accademica. Marvin Minsky e John McCarthy hanno organizzato questo evento, ricevendo il sostegno degli scienziati senior Claude Shannon e Nathan Rochester dell'IBM. La proposta della conferenza articolava l'intenzione di convalidare l'affermazione secondo cui "ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza può essere descritto in modo così preciso che si può costruire una macchina per simularlo". John McCarthy ha introdotto il termine "Intelligenza Artificiale" durante questo workshop. I partecipanti chiave includevano Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell e Herbert A. Simon, i quali avrebbero tutti sviluppato programmi significativi nei primi decenni di ricerca sull'intelligenza artificiale. Al seminario, Newell e Simon hanno presentato il "Teorico della logica". Questo evento è ampiamente considerato come la genesi dell'intelligenza artificiale, fornendo al campo il nome, la missione, il grande successo iniziale e le figure fondamentali.
Rivoluzione cognitiva
Nell'autunno del 1956, Newell e Simon presentarono anche il Teorico della Logica a un incontro dello Special Interest Group in Information Theory, ospitato presso il Massachusetts Institute of Technology (MIT). Durante lo stesso incontro, Noam Chomsky ha discusso della sua grammatica generativa e George Miller ha presentato il suo articolo fondamentale, "Il magico numero sette, più o meno due". Miller in seguito rifletté: "Ho lasciato il simposio con la convinzione, più intuitiva che razionale, che la psicologia sperimentale, la linguistica teorica e la simulazione computerizzata dei processi cognitivi fossero tutti pezzi di un insieme più ampio."
Questo incontro ha dato il via alla "rivoluzione cognitiva", un cambiamento di paradigma interdisciplinare che comprende psicologia, filosofia, informatica e neuroscienza. Ha ispirato l’emergere di diversi sottocampi, tra cui l’intelligenza artificiale simbolica, la linguistica generativa, le scienze cognitive, la psicologia cognitiva, le neuroscienze cognitive e le scuole filosofiche del computazionalismo e del funzionalismo. Tutti questi domini utilizzavano metodologie correlate per modellare la mente e le scoperte in un campo spesso avevano rilevanza per gli altri.
L'approccio cognitivo ha consentito ai ricercatori di indagare su "oggetti mentali" come pensieri, piani, obiettivi, fatti o ricordi, spesso analizzandoli attraverso simboli di alto livello all'interno di reti funzionali. Questi costrutti interni erano stati precedentemente considerati "inosservabili" e quindi esclusi da paradigmi precedenti come il comportamentismo. Successivamente, gli oggetti mentali simbolici sono diventati l'obiettivo principale della ricerca e dei finanziamenti sull'intelligenza artificiale per diversi decenni.
Primi successi (1956–1974)
I programmi sviluppati negli anni successivi al workshop di Dartmouth furono ampiamente percepiti come "sorprendenti". I computer hanno dimostrato capacità come risolvere problemi di algebra, dimostrare teoremi di geometria e imparare a parlare inglese. Pochi all'epoca credevano che un comportamento così "intelligente" delle macchine fosse fattibile. I ricercatori hanno espresso in privato e in pubblico un intenso ottimismo, prevedendo la costruzione di una macchina completamente intelligente entro due decenni. Le agenzie governative, inclusa la Defense Advanced Research Projects Agency (DARPA, allora nota come "ARPA"), finanziarono in modo significativo il campo. Laboratori di intelligenza artificiale furono istituiti in numerose università britanniche e statunitensi tra la fine degli anni '50 e l'inizio degli anni '60.
Il saggio filosofico di Stanisław Lem sull'"intellectronica" apparve nel Summa Technologiae di Lem nel 1964.
Metodologie
La fine degli anni '50 e '60 furono testimoni di numerosi programmi di successo e di nuove direzioni di ricerca. Tra i più influenti c'erano:
Ragionamento, pianificazione e risoluzione dei problemi come ricerca
Molti dei primi programmi di intelligenza artificiale utilizzavano un algoritmo fondamentale comune. Per raggiungere un obiettivo specifico, come vincere un gioco o dimostrare un teorema, questi programmi progredivano passo dopo passo, in modo simile alla navigazione in un labirinto, e tornavano sui propri passi quando incontravano un vicolo cieco. La sfida principale è nata dal numero astronomico di potenziali percorsi attraverso il "labirinto" per molti problemi, una situazione definita "esplosione combinatoria". I ricercatori hanno affrontato questo problema utilizzando l'euristica per ridurre lo spazio di ricerca, eliminando così i percorsi che difficilmente avrebbero portato a una soluzione.
Newell e Simon hanno tentato di incapsulare una versione generalizzata di questo algoritmo in un programma chiamato "General Problem Solver". Contemporaneamente, altri programmi basati sulla ricerca ottennero risultati impressionanti, inclusa la risoluzione di problemi di geometria e algebra, come dimostrato dal Geometry Theorem Prover di Herbert Gelernter (1958) e dal Symbolic Automatic Integrator (SAINT), sviluppato dallo studente di Minsky James Slagle nel 1961. Inoltre, sistemi come STRIPS, creato a Stanford per controllare il robot Shakey, utilizzavano la ricerca di obiettivi e sotto-obiettivi per pianificare le azioni.
Linguaggio naturale
Uno degli obiettivi principali della ricerca sull'intelligenza artificiale consiste nel consentire ai computer di comunicare utilizzando linguaggi naturali, come l'inglese. Uno dei primi risultati in questo ambito è stato il programma di Daniel Bobrow, STUDENT, che ha risolto con successo problemi di algebra di livello scolastico.
Una rete semantica modella concetti, come "casa" o "porta", come nodi, e le relazioni tra questi concetti, ad esempio "ha-a", come collegamenti che collegano i nodi. Ross Quillian ha sviluppato il primo programma di intelligenza artificiale per utilizzare una rete semantica. L'iterazione di maggior impatto, anche se controversa, di questo approccio è stata la teoria della dipendenza concettuale di Roger Schank.
Il programma ELIZA di Joseph Weizenbaum era in grado di condurre conversazioni con una tale verosimiglianza che gli utenti a volte credevano erroneamente di interagire con un essere umano anziché con un programma per computer. Tuttavia, la funzionalità di ELIZA si basava sulla fornitura di risposte preprogrammate o sulla riformulazione dell'input dell'utente utilizzando un insieme limitato di regole grammaticali. ELIZA è riconosciuta come il chatbot pionieristico.
Micro-mondi
Durante la fine degli anni '60, Marvin Minsky e Seymour Papert, affiliati al Laboratorio AI del MIT, sostenevano di indirizzare la ricerca sull'intelligenza artificiale verso scenari deliberatamente semplificati chiamati micromondi. Osservarono che i principi fondamentali delle scienze consolidate, come la fisica, spesso venivano compresi meglio attraverso modelli semplificati, inclusi piani privi di attrito o corpi perfettamente rigidi. Una parte significativa di questa ricerca si è concentrata su un "mondo di blocchi", comprendente blocchi colorati di diverse forme e dimensioni disposti su una superficie planare.
Questo paradigma di ricerca ha favorito progressi rivoluzionari nella visione artificiale, in particolare da parte di Gerald Sussman, Adolfo Guzman, David Waltz (l'ideatore della "propagazione dei vincoli") e in particolare Patrick Winston. Allo stesso tempo, Minsky e Papert costruirono un braccio robotico in grado di impilare i blocchi, attualizzando così il concetto del mondo dei blocchi. Il sistema SHRDLU di Terry Winograd ha dimostrato la capacità di comunicare sul micromondo utilizzando frasi in inglese naturale, pianificare operazioni e successivamente eseguirle.
Perceptron e prime reti neurali
Nel corso degli anni '60, le agenzie di finanziamento hanno assegnato risorse prevalentemente a laboratori impegnati nella ricerca simbolica sull'intelligenza artificiale; tuttavia, un numero limitato di istituzioni ha continuato a studiare le reti neurali.
Il perceptron, una rete neurale a strato singolo, è stato introdotto nel 1958 da Frank Rosenblatt, ex compagno di scuola di Marvin Minsky alla Bronx High School of Science. Coerentemente con l’ottimismo prevalente tra i ricercatori sull’intelligenza artificiale, Rosenblatt ha previsto il potenziale del perceptron, prevedendo la sua eventuale capacità di “imparare, prendere decisioni e tradurre le lingue”. Il suo lavoro ha ricevuto un sostegno finanziario primario dall'Office of Naval Research.
Bernard Widrow e il suo studente Ted Hoff svilupparono ADALINE (1960) e MADALINE (1962), sistemi dotati di un massimo di 1000 pesi regolabili. Allo stesso tempo, un team dello Stanford Research Institute, sotto la guida di Charles A. Rosen e Alfred E. (Ted) Brain, costruì due macchine per reti neurali, MINOS I (1960) e MINOS II (1963), supportate principalmente dall'US Army Signal Corps. MINOS II incorporava 6600 pesi regolabili ed era controllato da un computer SDS 910 in una configurazione denominata MINOS III (1968). Questo sistema ha dimostrato capacità nella classificazione dei simboli sulle mappe dell'esercito e nel riconoscimento dei caratteri stampati a mano dai fogli di codifica Fortran. Durante questa fase nascente, la maggior parte della ricerca sulle reti neurali si è concentrata sulla creazione e sull'utilizzo di hardware specializzato, anziché fare affidamento su simulazioni eseguite su computer digitali.
Tuttavia, il progetto MINOS ha cessato di ricevere finanziamenti nel 1966, in parte a causa della scarsità di risultati dimostrabili e in parte al panorama competitivo dominato dalla ricerca simbolica sull'intelligenza artificiale. Allo stesso modo, Rosenblatt non fu in grado di garantire finanziamenti sostenibili per tutti gli anni ’60. Una significativa flessione nella ricerca si verificò nel 1969 con la pubblicazione del libro di Minsky e Papert, Perceptrons. Questo lavoro poneva limitazioni sostanziali alle capacità dei percettroni e sosteneva che le precedenti previsioni di Rosenblatt erano state notevolmente sopravvalutate. L'impatto del libro fu profondo, portando alla quasi completa cessazione dei finanziamenti per la ricerca sul connessionismo per un decennio. Di conseguenza, la competizione per i finanziamenti governativi si è conclusa con l'ascesa delle metodologie di intelligenza artificiale simbolica sulle reti neurali.
Minsky, collaboratore di SNARC, divenne in seguito un eminente critico dell'IA connessionista pura. Widrow, che aveva lavorato su ADALINE, ha reindirizzato la sua ricerca verso l'elaborazione adattiva del segnale. Allo stesso modo, il gruppo SRI, responsabile di MINOS, ha spostato la sua attenzione sull'intelligenza artificiale simbolica e sulla robotica.
Un ostacolo significativo era l'incapacità di addestrare reti multistrato in modo efficace, anche se variazioni di backpropagation erano state impiegate in altri campi, all'insaputa di questi ricercatori. La comunità dell'intelligenza artificiale ha acquisito conoscenza della backpropagation negli anni '80, che successivamente ha portato al sostanziale successo delle reti neurali nel 21° secolo, soddisfacendo infine le previsioni ottimistiche di Rosenblatt. Tuttavia, Rosenblatt non visse abbastanza da testimoniare questi progressi, poiché morì in un incidente in barca nel 1971.
Proiezioni ottimistiche
La generazione inaugurale di ricercatori sull'intelligenza artificiale ha articolato le seguenti previsioni riguardo al proprio lavoro:
- Nel 1958, H. A. Simon e Allen Newell postularono che "entro dieci anni un computer digitale sarà il campione mondiale di scacchi" e che "entro dieci anni un computer digitale scoprirà e dimostrerà un nuovo importante teorema matematico."
- Nel 1965, H. A. Simon affermò che "le macchine saranno capaci, entro vent'anni, di svolgere qualsiasi lavoro possa fare un uomo."
- Marvin Minsky, nel 1967, prevedeva che "Entro una generazione... il problema della creazione di un''intelligenza artificiale' sarà sostanzialmente risolto."
- Nel 1970, Marvin Minsky dichiarò sulla rivista Life che "Tra tre e otto anni avremo una macchina con l'intelligenza generale di un essere umano medio."
Finanziamenti
Nel giugno 1963, il Massachusetts Institute of Technology (MIT) ottenne una sovvenzione di 2,2 milioni di dollari dalla neonata ARPA (Advanced Research Projects Agency), in seguito denominata DARPA. Questo finanziamento fu assegnato al Progetto MAC, che integrava il "Gruppo AI" fondato da Minsky e McCarthy cinque anni prima. La DARPA ha successivamente fornito una somma annuale di 3 milioni di dollari fino agli anni '70. Inoltre, la DARPA ha esteso sovvenzioni comparabili al programma di Newell e Simon presso la Carnegie Mellon University e al laboratorio di intelligenza artificiale dell'Università di Stanford, fondato da John McCarthy nel 1963. Un altro importante laboratorio di intelligenza artificiale è stato fondato all'Università di Edimburgo da Donald Michie nel 1965. Queste quattro istituzioni sono rimaste per molti anni i principali centri accademici per la ricerca e il finanziamento dell'IA.
L'allocazione finanziaria era accompagnata da clausole minime, come J. C. R. Licklider, allora direttore della ARPA, ha sostenuto il principio “finanziare persone, non progetti!” Questa politica ha consentito ai ricercatori di perseguire liberamente i propri interessi intellettuali. Un simile ambiente al MIT favorì l’emergere della cultura hacker; tuttavia, questa metodologia "interattiva" non è stata mantenuta indefinitamente.
Il primo inverno dell'IA (1974–1980)
Durante gli anni '70, l'intelligenza artificiale ha dovuto affrontare critiche sostanziali e inversioni di rotta a livello finanziario. I ricercatori sull’intelligenza artificiale avevano sottovalutato la difficoltà intrinseca dei problemi che cercavano di affrontare. Il loro notevole ottimismo aveva elevato le aspettative del pubblico a un livello insostenibile e, quando i risultati attesi non si sono concretizzati, i finanziamenti stanziati per l’intelligenza artificiale sono stati significativamente ridotti. Questa assenza di successo indicava che le tecniche utilizzate dai ricercatori sull'intelligenza artificiale a quel tempo erano insufficienti per raggiungere gli obiettivi dichiarati.
Tuttavia, queste sfide non hanno impedito la crescita complessiva e il progresso del settore. Le riduzioni dei finanziamenti hanno interessato principalmente un numero limitato di laboratori importanti e le critiche sono state in gran parte respinte. L’interesse del pubblico per l’intelligenza artificiale ha continuato ad espandersi, il numero di ricercatori è aumentato sostanzialmente e sono stati esplorati nuovi concetti in aree come la programmazione logica, il ragionamento basato sul buon senso e vari altri ambiti. Nel 2023, lo storico Thomas Haigh ha sostenuto che questo periodo non costituiva un "inverno", mentre il ricercatore di intelligenza artificiale Nils Nilsson lo ha definito il periodo più "eccitante" per lavorare nel campo dell'intelligenza artificiale.
Sfide
All'inizio degli anni '70, le capacità dei programmi di intelligenza artificiale erano notevolmente limitate. Anche i sistemi più sofisticati potevano affrontare solo versioni banali dei problemi che intendevano risolvere, rendendo di fatto tutti i programmi come "giocattoli". I ricercatori nel campo dell'intelligenza artificiale hanno iniziato a confrontarsi con diversi limiti, alcuni dei quali sono stati superati solo decenni dopo, mentre altri continuano a ostacolare il campo negli anni '20.
- La limitata potenza dei computer rappresentava un limite significativo, poiché memoria e velocità di elaborazione insufficienti ostacolavano lo sviluppo di applicazioni veramente pratiche. Ad esempio, il lavoro di successo di Ross Quillian nell'elaborazione del linguaggio naturale è stato limitato a un vocabolario di sole 20 parole a causa dei limiti di memoria. Nel 1976, Hans Moravec sostenne che i computer milioni di volte non avevano la potenza necessaria per manifestare l’intelligenza. Ha tracciato un’analogia, affermando che l’intelligenza artificiale necessita di una potenza computazionale simile a quella con cui gli aerei richiedono potenza. Moravec ha ipotizzato che al di sotto di una specifica soglia computazionale, raggiungere l'intelligenza artificiale è irrealizzabile, ma con l'aumento della potenza, potrebbe alla fine diventare semplice, affermando: "Con abbastanza potenza, qualsiasi cosa volerà".
- Il concetto di Intrattabilità e esplosione combinatoria è emerso nel 1972 quando Richard Karp, ampliando il teorema di Stephen Cook del 1971, ha dimostrato l'esistenza di numerosi problemi risolvibili solo in tempi esponenziali. Ottenere soluzioni ottimali per questi problemi ha richiesto immense risorse computazionali, tranne che in casi banali. Questa limitazione intrinseca ha avuto un impatto significativo su tutti i programmi di intelligenza artificiale simbolica che utilizzano alberi di ricerca, il che implica che molte soluzioni "giocattolo" sviluppate nella ricerca sull'intelligenza artificiale si sarebbero rivelate non scalabili per sistemi pratici e utili.
- Il paradosso di Moravec evidenzia una peculiare discrepanza nelle prime ricerche sull'intelligenza artificiale: mentre i computer ottenevano un notevole successo in compiti "intelligenti" come la dimostrazione di teoremi, la risoluzione di problemi di geometria e gli scacchi, faticavano profondamente con compiti apparentemente "non intelligenti" come il riconoscimento facciale o la navigazione in una stanza senza collisioni. I successi iniziali hanno portato i ricercatori a credere che le sfide fondamentali del comportamento intelligente fossero in gran parte risolte. Tuttavia, negli anni '80, divenne evidente che il ragionamento simbolico era del tutto inadeguato per queste funzioni percettive e sensomotorie, rivelando limiti intrinseci nell'approccio prevalente.
- Una sfida significativa è stata l'ampiezza della conoscenza del senso comune, poiché le applicazioni cruciali dell'intelligenza artificiale, tra cui la visione artificiale e l'elaborazione del linguaggio naturale, necessitano di ampie informazioni sul mondo. Un programma di intelligenza artificiale deve possedere una comprensione fondamentale del suo input visivo o del contesto conversazionale, simile alla conoscenza generale posseduta da un bambino. I ricercatori hanno rapidamente accertato che si trattava di un immenso volume di dati, comprendente miliardi di fatti atomici. Nel 1970, la capacità tecnologica di costruire un database sufficientemente ampio era inesistente, né esisteva una metodologia chiara per un programma in grado di acquisire una quantità così grande di informazioni.
- Sorgono sfide anche nel Rappresentare il ragionamento basato sul senso comune attraverso la logica formale o sistemi simbolici. I tentativi di formalizzare le detrazioni ordinarie spesso portavano a descrizioni sempre più lunghe, rendendo necessarie numerose eccezioni, chiarimenti e distinzioni. Al contrario, la cognizione umana dei concetti quotidiani non si basa su definizioni rigide ma piuttosto su centinaia di presupposti imprecisi, che vengono perfezionati in modo adattivo utilizzando un corpo completo di conoscenza del senso comune. Gerald Sussman ha giustamente osservato che "l'uso di un linguaggio preciso per descrivere concetti essenzialmente imprecisi non li rende più precisi."
I finanziamenti per la ricerca sull'intelligenza artificiale hanno subito un calo significativo.
Le agenzie di finanziamento, tra cui il governo britannico, la DARPA e il National Research Council (NRC), sono diventate sempre più insoddisfatte dei progressi limitati nella ricerca sull'intelligenza artificiale, cessando infine quasi tutto il sostegno finanziario per i progetti non indirizzati. Questa tendenza è iniziata nel 1966 con il rapporto ALPAC (Automatic Language Processing Advisory Committee), che valutava criticamente gli sforzi di traduzione automatica. A seguito di una spesa di 20 milioni di dollari, l'NRC ha interrotto tutti i finanziamenti per tali iniziative. Nel 1973, il rapporto Lighthill, valutando lo stato della ricerca sull’IA nel Regno Unito, condannò l’incapacità dell’IA di raggiungere i suoi “grandiosi obiettivi”, con conseguente scioglimento dei programmi di ricerca sull’IA all’interno del paese; in particolare, il rapporto cita il problema dell’esplosione combinatoria come un fattore chiave delle carenze dell’intelligenza artificiale. La DARPA, esprimendo profondo disappunto nei confronti dei ricercatori coinvolti nel programma di ricerca sulla comprensione del parlato presso la CMU, ha conseguentemente revocato una sovvenzione annuale di 3 milioni di dollari.
Hans Moravec ha attribuito la crisi alle previsioni eccessivamente ottimistiche dei suoi colleghi, affermando che "molti ricercatori sono rimasti intrappolati in una rete di crescenti esagerazioni". Allo stesso tempo, l'emendamento Mansfield del 1969 obbligò la DARPA a dare priorità alla "ricerca diretta orientata alla missione" rispetto alla "ricerca di base non indirizzata". Di conseguenza, la DARPA smise di finanziare la ricerca creativa ed esplorativa prevalente negli anni '60, reindirizzando le risorse verso progetti specifici con obiettivi definiti, come carri armati autonomi e sistemi di gestione della battaglia.
I principali laboratori, tra cui MIT, Stanford, CMU ed Edimburgo, avevano precedentemente beneficiato di ingenti finanziamenti governativi. La successiva revoca di questo sostegno ha colpito in modo sproporzionato queste istituzioni, rendendole le principali entità colpite dalle riduzioni di bilancio. Al contrario, migliaia di ricercatori che operavano indipendentemente da queste istituzioni, insieme ai nuovi entranti nel settore, sono rimasti in gran parte inalterati.
Critiche filosofiche ed etiche
Vari filosofi hanno espresso notevoli riserve riguardo alle affermazioni fatte dai ricercatori sull'intelligenza artificiale. John Lucas, uno dei primi critici, sostenne che il teorema di incompletezza di Gödel dimostrava l'incapacità di un sistema formale, come un programma per computer, di discernere la verità di affermazioni specifiche, una capacità posseduta dagli esseri umani. Hubert Dreyfus derise le promesse non mantenute degli anni '60 e sfidò i presupposti fondamentali dell'intelligenza artificiale, postulando che il ragionamento umano coinvolge principalmente il "know-how" incarnato, istintivo e inconscio piuttosto che un'"elaborazione di simboli" estesa. Nel 1980, John Searle introdusse il suo argomento della Stanza Cinese, con l'obiettivo di illustrare che un programma non può realmente "comprendere" i simboli che manipola (una caratteristica chiamata "intenzionalità"). Searle sosteneva che se i simboli non hanno un significato intrinseco per una macchina, allora la macchina non può essere accuratamente descritta come "pensante".
I ricercatori sull'intelligenza artificiale hanno ampiamente respinto queste critiche filosofiche, dando priorità a sfide più immediate e tangibili come l'intrattabilità e l'acquisizione della conoscenza del buon senso. Le implicazioni pratiche di concetti come "know-how" o "intenzionalità" per i programmi operativi dei computer rimanevano per loro ambigue. Marvin Minsky del MIT affermò notoriamente che Dreyfus e Searle "fraintendono e dovrebbero essere ignorati". Dreyfus, nonostante fosse anche un membro della facoltà del MIT, subì l'ostracismo sociale, sottolineando in seguito che i ricercatori sull'intelligenza artificiale "non osavano essere visti pranzare con me". Joseph Weizenbaum, creatore di ELIZA, pur essendo anch'egli critico nei confronti delle posizioni di Dreyfus, ha condannato esplicitamente la condotta dei suoi colleghi di intelligenza artificiale nei confronti di Dreyfus definendola poco professionale e infantile, sottolineando che "non era il modo di trattare un essere umano".
Weizenbaum ha sviluppato profonde preoccupazioni etiche riguardo all'intelligenza artificiale dopo che Kenneth Colby ha creato un "programma per computer in grado di condurre un dialogo psicoterapeutico" derivato da ELIZA. Weizenbaum trovava inquietante il fatto che Colby considerasse un programma non senziente uno strumento terapeutico praticabile. Questo disaccordo si trasformò in una faida, esacerbata dal mancato riconoscimento da parte di Colby del contributo fondamentale di Weizenbaum al programma. Nel 1976, Weizenbaum pubblicò Potenza del computer e ragione umana, affermando che l'applicazione inappropriata dell'intelligenza artificiale potrebbe diminuire il valore dell'esistenza umana.
Ricerca logica a Stanford, CMU ed Edimburgo
L'integrazione della logica nella ricerca sull'intelligenza artificiale è iniziata nel 1958 con la proposta di Advice Taker di John McCarthy. Nel 1963, J. Alan Robinson aveva ideato un metodo semplice per la deduzione basata su computer, utilizzando algoritmi di risoluzione e unificazione. Tuttavia, le implementazioni dirette, come quelle intraprese da McCarthy e dai suoi studenti alla fine degli anni ’60, si rivelarono estremamente difficili, richiedendo un numero esorbitante di passaggi computazionali per convalidare anche i teoremi di base. Una metodologia logica più efficace è emersa negli anni '70, sperimentata da Robert Kowalski presso l'Università di Edimburgo. Questa innovazione ha presto favorito una collaborazione con i ricercatori francesi Alain Colmerauer e Philippe Roussel, che ha portato allo sviluppo di Prolog, un linguaggio di programmazione logica di successo. Prolog utilizza uno specifico sottoinsieme logico, noto come clausole di Horn (strettamente correlato alle "regole" e alle "regole di produzione"), che facilita il calcolo trattabile. Successivamente il concetto di regole rimase influente, costituendo la base per i sistemi esperti di Edward Feigenbaum e informando la ricerca in corso di Allen Newell e Herbert A. Simon, culminata in Soar e nelle loro teorie unificate della cognizione.
I critici dell'approccio logico, facendo eco alle osservazioni di Dreyfus, hanno notato che la risoluzione dei problemi umani raramente si basa sulla logica formale. Questa affermazione è stata confermata da esperimenti condotti da psicologi come Peter Wason, Eleanor Rosch, Amos Tversky e Daniel Kahneman. McCarthy, tuttavia, ribatté che i processi cognitivi umani erano irrilevanti, sostenendo che l'obiettivo era sviluppare macchine in grado di risolvere problemi, piuttosto che macchine che si limitassero a emulare il pensiero umano.
Approccio anti-logico del MIT
Tra i critici della metodologia di McCarthy c'erano i suoi colleghi del MIT. Marvin Minsky, Seymour Papert e Roger Schank si concentrarono su problemi come la "comprensione della storia" e il "riconoscimento degli oggetti", che richiedevano che le macchine pensassero in modo simile a quello umano. Per utilizzare concetti quotidiani come “sedia” o “ristorante”, questi ricercatori hanno dovuto incorporare gli stessi presupposti illogici comunemente fatti dalle persone. Rappresentare concetti così imprecisi all’interno di un quadro logico si è rivelato impegnativo. Di conseguenza, il MIT ha scelto di sviluppare programmi che risolvessero compiti specifici attraverso test iterativi, evitando definizioni astratte di alto livello o teorie generali della cognizione e dando priorità alle prestazioni pratiche rispetto agli argomenti basati sui principi primi. Schank definì questi metodi "anti-logici" "trasandati", contrastandoli con il paradigma "pulito" favorito da McCarthy, Kowalski, Feigenbaum, Newell e Simon.
In un fondamentale articolo del 1975, Minsky osservò che molti dei suoi colleghi utilizzavano uno strumento simile: una struttura progettata per catturare ipotesi di buon senso su una data entità. Ad esempio, il concetto di "uccello" evoca immediatamente una costellazione di fatti, come l'ipotesi che voli o mangi vermi, anche se questi non sono universalmente veri per tutti gli uccelli. Minsky propose che questi presupposti fossero associati a una categoria generale e potessero essere ereditati da frame che rappresentano sottocategorie e istanze individuali, con la flessibilità di essere sovrascritti secondo necessità. Chiamò queste strutture frame. Schank successivamente utilizzò una versione di frame, che chiamò "script", per rispondere con successo a domande su brevi racconti inglesi. Alla fine i frame trovarono ampia applicazione nell'ingegneria del software, dove divennero noti come programmazione orientata agli oggetti.
I logici hanno risposto a questa sfida. Pat Hayes ha sostenuto che "la maggior parte dei 'frame' è solo una nuova sintassi per parti della logica del primo ordine", tuttavia ha riconosciuto che "ci sono uno o due dettagli apparentemente minori che danno molti problemi, tuttavia, soprattutto i valori predefiniti."
Ray Reiter ha ammesso che "le logiche convenzionali, come la logica del primo ordine, mancano del potere espressivo per rappresentare adeguatamente la conoscenza richiesta per il ragionamento di default." Ha proposto di aumentare la logica del primo ordine con un presupposto del mondo chiuso, che presuppone che una conclusione sia valida per impostazione predefinita se il suo contrario non può essere dimostrato. Reiter ha illustrato come questo presupposto corrisponda al ragionamento di buon senso impiegato con i frame e ha identificato come fallimento il suo "equivalente procedurale" nella negazione di Prolog. Ha inoltre chiarito che il presupposto del mondo chiuso, così come lo ha formulato, "non è una nozione di primo ordine. (È una meta nozione.)". Tuttavia, Keith Clark ha successivamente dimostrato che la negazione come fallimento finito potrebbe essere intesa come un ragionamento implicito con definizioni nella logica del primo ordine, incorporando un presupposto di nome univoco in cui termini distinti si riferiscono a individui distinti.
Per tutta la fine degli anni '70 e gli anni '80, una varietà di logiche e sono state sviluppate estensioni della logica del primo ordine per affrontare sia la negazione come fallimento nella programmazione logica sia il ragionamento predefinito in modo più ampio. Collettivamente, questi diversi sistemi logici sono noti come logiche non monotone.
Il boom (1980–1987)
Durante gli anni '80, i "sistemi esperti", un tipo specifico di programma di intelligenza artificiale, hanno ottenuto un'adozione diffusa da parte delle aziende a livello globale, spostando l'obiettivo principale della ricerca tradizionale sull'intelligenza artificiale verso la rappresentazione della conoscenza. I governi hanno fornito finanziamenti ingenti, esemplificati da iniziative come il Fifth Generation Computer Project del Giappone e la Strategic Computing Initiative degli Stati Uniti. Di conseguenza, il settore dell'intelligenza artificiale ha registrato una crescita significativa, passando "da pochi milioni di dollari nel 1980 a miliardi di dollari nel 1988".
Adozione diffusa di sistemi esperti
Un sistema esperto è definito come un programma computazionale progettato per affrontare domande o risolvere problemi all'interno di un dominio di conoscenza specializzato, utilizzando regole logiche derivate dalla conoscenza esperta. Esempi pionieristici furono sviluppati da Edward Feigenbaum e dai suoi studenti. Dendral, avviato nel 1965, era in grado di identificare composti chimici dalle letture dello spettrometro, mentre MYCIN, sviluppato nel 1972, diagnosticava malattie infettive del sangue. Questi primi sistemi hanno dimostrato efficacemente la fattibilità dell'approccio del sistema esperto.
I sistemi esperti erano confinati in ambiti ristretti di conoscenza specializzata, aggirando così la sfida della conoscenza basata sul senso comune. La loro architettura semplice ha facilitato lo sviluppo e la successiva modifica dei programmi una volta distribuiti. Alla fine, questi sistemi hanno dimostrato un'utilità pratica, un risultato significativo che l'intelligenza artificiale non aveva mai raggiunto in precedenza.
Nel 1980, la Carnegie Mellon University (CMU) ha sviluppato un sistema esperto denominato R1 per la Digital Equipment Corporation. Questo sistema ottenne un notevole successo, generando risparmi annuali per l’azienda di 40 milioni di dollari entro il 1986. Di conseguenza, le aziende globali iniziarono lo sviluppo e l’implementazione di sistemi esperti, portando a spese superiori a un miliardo di dollari per l’intelligenza artificiale entro il 1985, principalmente all’interno dei dipartimenti interni di intelligenza artificiale. È emerso un settore di supporto, che comprende produttori di hardware come Symbolics e Lisp Machines, insieme a fornitori di software come IntelliCorp e Aion.
Finanziamenti governativi potenziati
Nel 1981, il Ministero giapponese del commercio internazionale e dell'industria ha stanziato 850 milioni di dollari per il progetto informatico di quinta generazione. Gli obiettivi del progetto includevano lo sviluppo di programmi e la costruzione di macchine in grado di impegnarsi in conversazioni, tradurre lingue, interpretare immagini ed eseguire ragionamenti simili a quelli umani. In particolare, con sgomento di alcuni ricercatori, Prolog è stato inizialmente selezionato come linguaggio di programmazione principale per questa iniziativa.
In risposta, altre nazioni hanno avviato i propri programmi di ricerca. Il Regno Unito ha lanciato il progetto Alvey da 350 milioni di sterline. Allo stesso tempo, un consorzio di società americane ha fondato la Microelectronics and Computer Technology Corporation (MCC) per finanziare ampi progetti nel campo dell’intelligenza artificiale e della tecnologia dell’informazione. La DARPA ha reagito anche creando la Strategic Computing Initiative, che ha triplicato i suoi investimenti nell'intelligenza artificiale tra il 1984 e il 1988.
La rivoluzione della conoscenza
L'efficacia dei sistemi esperti derivava dalla loro conoscenza specializzata incorporata. Ciò ha rappresentato una nuova traiettoria nella ricerca sull’intelligenza artificiale che aveva acquisito importanza nel corso degli anni ’70. Come ha osservato Pamela McCorduck, "i ricercatori dell'intelligenza artificiale stavano cominciando a sospettare - con riluttanza, perché violava il canone scientifico della parsimonia - che l'intelligenza potesse benissimo essere basata sulla capacità di utilizzare grandi quantità di conoscenze diverse in modi diversi". Ha inoltre osservato che "la grande lezione degli anni '70 è stata che il comportamento intelligente dipendeva in gran parte dalla gestione della conoscenza, a volte piuttosto dettagliata, di un ambito in cui si trovava un determinato compito". Di conseguenza, i sistemi basati sulla conoscenza e l’ingegneria della conoscenza sono emersi come aree significative della ricerca sull’intelligenza artificiale negli anni ’80. L'aspettativa era che database estesi risolvessero il problema della conoscenza del senso comune e fornissero il supporto necessario per il ragionamento basato sul buon senso.
Durante gli anni '80, alcuni ricercatori affrontarono direttamente il problema della conoscenza del senso comune costruendo database estesi destinati a comprendere i fatti quotidiani conosciuti da un individuo medio. Douglas Lenat, che ha avviato un progetto di database denominato Cyc, ha sostenuto che non esistevano scorciatoie; l'unico metodo con cui le macchine potevano comprendere i concetti umani era attraverso l'istruzione manuale, concetto per concetto.
Direzioni emergenti negli anni '80
Nonostante lo sviluppo di applicazioni pratiche e finanziamenti sostanziali per la rappresentazione della conoscenza simbolica e il ragionamento logico durante gli anni '80, questi metodi si sono rivelati insufficienti per risolvere le sfide della percezione, della robotica, dell'apprendimento e del buon senso. Di conseguenza, una minoranza di scienziati e ingegneri ha messo in dubbio l’adeguatezza a lungo termine del paradigma simbolico per questi compiti, portando allo sviluppo di metodologie alternative come il “connessionismo”, il “soft” computing e l’apprendimento per rinforzo. Nils Nilsson ha classificato questi nuovi approcci come "subsimbolici".
La rinascita delle reti neurali: "connessionismo"
Nel 1982, il fisico John Hopfield dimostrò che un tipo specifico di rete neurale, ora nota come "rete di Hopfield", possedeva la capacità di apprendere ed elaborare informazioni, mostrando una convergenza dimostrabile entro un intervallo di tempo sufficiente in qualsiasi condizione fissa. Ciò ha rappresentato un progresso significativo, poiché le ipotesi precedenti suggerivano che le reti non lineari avrebbero generalmente mostrato un’evoluzione caotica. Geoffrey Hinton successivamente stabilì una scoperta comparabile riguardante un dispositivo chiamato "macchina Boltzmann". (Hopfield e Hinton furono successivamente insigniti del Premio Nobel 2024 per i loro contributi.) Inoltre, nel 1986, Hinton e David Rumelhart diffusero ampiamente la "backpropagation", un metodo per addestrare le reti neurali. Questi tre sviluppi cruciali hanno stimolato collettivamente un rinnovato interesse nello studio delle reti neurali artificiali.
Le reti neurali, insieme a diversi modelli analoghi, acquisirono una notevole importanza in seguito alla pubblicazione nel 1986 di Parallel Distributed Processing, una raccolta di articoli in due volumi curata da Rumelhart e dallo psicologo James McClelland. Il campo emergente fu chiamato “connessionismo”, innescando un sostanziale dibattito intellettuale tra i sostenitori dell’intelligenza artificiale simbolica e i “connessionisti”. Hinton ha caratterizzato i simboli come "l'etere luminoso dell'intelligenza artificiale", implicando un paradigma di intelligenza poco pratico e ingannevole. Questa affermazione costituiva una sfida diretta ai principi fondamentali che hanno ispirato la rivoluzione cognitiva.
Le reti neurali hanno iniziato a migliorare in modo significativo le capacità in domini specializzati, come la previsione della struttura delle proteine. Basandosi sui contributi fondamentali di Terry Sejnowski, i percettroni multistrato a cascata, tra cui PhD e PsiPred, hanno raggiunto livelli di precisione che si avvicinavano ai massimi teorici nella previsione della struttura secondaria.
Nel 1990, Yann LeCun dei Bell Labs ha utilizzato reti neurali convoluzionali per il riconoscimento delle cifre scritte a mano. Questo sistema è stato ampiamente utilizzato nel corso degli anni '90, elaborando codici postali e strumenti finanziari personali. Ciò ha segnato la prima applicazione pratica e dimostrabile delle reti neurali.
Robotica e ragione incarnata
Rodney Brooks, Hans Moravec e altri ricercatori hanno ipotizzato che la vera intelligenza in una macchina necessita di incarnazione: richiede la capacità di percepire, muoversi, sostenersi e interagire con l'ambiente. Le abilità sensomotorie sono fondamentali per le capacità cognitive avanzate, come il ragionamento basato sul buon senso. Queste abilità non possono essere realizzate efficacemente attraverso il ragionamento simbolico astratto; di conseguenza, l’intelligenza artificiale dovrebbe affrontare le sfide legate alla percezione, alla mobilità, alla manipolazione e alla sopravvivenza senza ricorrere alla rappresentazione simbolica. Questi ricercatori di robotica sostenevano un approccio "dal basso verso l'alto" alla costruzione dell'intelligenza.
Questo concetto fu prefigurato da David Marr, che arrivò al MIT alla fine degli anni '70 dopo una illustre carriera nelle neuroscienze teoriche per dirigere il gruppo di ricerca dedicato agli studi sulla visione. Ha sconfessato tutte le metodologie simboliche (sia la logica di McCarthy che le strutture di Minsky), sostenendo che l'intelligenza artificiale richiedeva una comprensione dei meccanismi fisici sottostanti alla visione, a partire dai principi fondamentali, prima dell'impegno di qualsiasi elaborazione simbolica. (Il percorso di ricerca di Marr fu tragicamente interrotto dalla leucemia nel 1980.)
Nel suo articolo del 1990 "Elephants Don't Play Chess", il ricercatore di robotica Brooks sfidò direttamente l'ipotesi del sistema simbolico fisico, sostenendo che i simboli non sono sempre necessari, dato che "il mondo è il suo modello migliore. È sempre esattamente aggiornato. Ha sempre ogni dettaglio che c'è da conoscere. Il trucco è percepirlo in modo appropriato e abbastanza spesso."
Durante gli anni '80 e '90, numerosi scienziati cognitivi hanno anche contestato il paradigma cognitivo dell'elaborazione dei simboli e hanno affermato il ruolo indispensabile del corpo fisico nei processi cognitivi, un quadro teorico noto come "tesi della mente incarnata".
Soft computing e ragionamento probabilistico
Il soft computing utilizza metodologie in grado di operare con dati incompleti e imprecisi. Questi metodi non mirano a fornire soluzioni esatte e logicamente definitive, ma piuttosto a fornire risultati probabilisticamente accurati. Ciò ha consentito la risoluzione di sfide intrattabili per approcci simbolici precisi. I resoconti dei media spesso affermavano che questi strumenti possedevano capacità cognitive simili a quelle umane.
Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference di Judea Pearl, un'influente pubblicazione del 1988, integrava la probabilità e la teoria delle decisioni nel campo dell'intelligenza artificiale. La logica fuzzy, introdotta da Lofti Zadeh negli anni ’60, ha ottenuto una crescente adozione nelle applicazioni di intelligenza artificiale e robotica. Anche il calcolo evolutivo e le reti neurali artificiali elaborano informazioni imprecise e sono classificati come metodi di elaborazione "soft". Nel corso degli anni '90 e all'inizio degli anni 2000, sono state ideate e implementate numerose ulteriori metodologie di soft computing, tra cui reti bayesiane, modelli di Markov nascosti, teoria dell'informazione e modelli stocastici. Questi strumenti, a loro volta, si basavano su sofisticate tecniche matematiche come l’ottimizzazione classica. Durante gli anni '90 e l'inizio degli anni 2000, questi paradigmi di soft computing hanno costituito il fulcro di un sottocampo specializzato dell'intelligenza artificiale noto come "intelligenza computazionale".
Apprendimento per rinforzo
L'apprendimento per rinforzo fornisce un rinforzo positivo a un agente dopo l'esecuzione riuscita di un'azione desiderata e può somministrare rinforzi negativi (o "punizioni") in casi di prestazioni non ottimali. Questo concetto è stato delineato durante la prima metà del ventesimo secolo da psicologi che utilizzavano modelli animali, come Thorndike, Pavlov e Skinner. Negli anni '50, Alan Turing e Arthur Samuel anticiparono l'importanza dell'apprendimento per rinforzo nell'ambito dell'intelligenza artificiale.
A partire dal 1972, Richard Sutton e Andrew Barto hanno guidato un programma di ricerca influente e di grande successo. I loro sforzi di collaborazione hanno trasformato profondamente lo studio dell’apprendimento per rinforzo e del processo decisionale nel corso dei successivi quattro decenni. Nel 1988, Sutton ha concettualizzato l’apprendimento automatico nel quadro della teoria delle decisioni, in particolare il processo decisionale di Markov. Questa formulazione ha fornito alla disciplina un solido supporto teorico e ha facilitato l'accesso a una vasta gamma di risultati teorici precedentemente stabiliti nella ricerca operativa.
Contemporaneamente, nel 1988, Sutton e Barto hanno ideato l'algoritmo di apprendimento della "differenza temporale" (TD), che premia un agente esclusivamente quando le sue previsioni dimostrano un miglioramento. Questo algoritmo ha sostanzialmente superato le prestazioni dei metodi precedenti. Nel 1992, Gerald Tesauro ha implementato l'apprendimento del TD nel programma TD-Gammon, che ha raggiunto una competenza a livello umano nel backgammon. In particolare, il programma ha acquisito la padronanza del gioco attraverso il gioco autonomo, senza alcuna conoscenza iniziale. Un esempio convincente di sinergia interdisciplinare è emerso nel 1997, quando i neurologi hanno scoperto che il sistema di ricompensa della dopamina del cervello impiega anche una variante dell'algoritmo di apprendimento TD. L'apprendimento TD ha successivamente acquisito un'influenza significativa nel 21° secolo, in particolare applicato sia ad AlphaGo che ad AlphaZero.
Il secondo inverno AI (anni '90)
Durante gli anni '80, l'entusiasmo del settore imprenditoriale per l'intelligenza artificiale ha seguito la traiettoria caratteristica di una bolla economica, sperimentando una rapida ascesa seguita da un precipitoso declino. Il successivo fallimento di numerose aziende ha favorito nella sfera commerciale la percezione diffusa che la tecnologia non fosse praticabile. Questo danno alla reputazione dell’intelligenza artificiale è continuato nel 21° secolo. In ambito accademico mancava consenso riguardo alle cause precise dell’incapacità dell’intelligenza artificiale di realizzare l’aspirazione di un’intelligenza di livello umano, una visione che aveva affascinato l’immaginazione globale negli anni ’60. Collettivamente, questi elementi hanno contribuito alla frammentazione dell'intelligenza artificiale in sottocampi disparati e concorrenti, ciascuno concentrato su problemi o metodologie specifiche, adottando occasionalmente una nuova nomenclatura per oscurare la reputazione compromessa associata all'"intelligenza artificiale".
Nel corso dei due decenni successivi, l'intelligenza artificiale ha costantemente fornito soluzioni funzionali per problemi distinti e circoscritti. Verso la fine degli anni ’90, le sue applicazioni erano ormai pervasive in tutto il settore tecnologico, anche se spesso operavano senza un’importante visibilità pubblica. Questo successo può essere attribuito a diversi fattori: maggiore potenza di calcolo, collaborazioni sinergiche con altre discipline (tra cui l'ottimizzazione matematica e la statistica) e l'adozione di standard più rigorosi di responsabilità scientifica.
AI Inverno
La definizione "inverno AI" è nata tra i ricercatori che avevano sperimentato la riduzione dei finanziamenti del 1974, spinti dalla loro preoccupazione che il crescente entusiasmo per i sistemi esperti fosse diventato eccessivo, portando inevitabilmente a una successiva disillusione. Le loro preoccupazioni si rivelarono preveggenti: durante la fine degli anni '80 e l'inizio degli anni '90, l'intelligenza artificiale incontrò una serie di inversioni finanziarie.
Il presagio iniziale di questo cambiamento fu il brusco crollo del mercato dell'hardware specializzato per l'intelligenza artificiale nel 1987. I computer desktop prodotti da Apple e IBM erano progressivamente aumentati in velocità di elaborazione e potenza, superando le capacità delle più costose macchine Lisp prodotte da Symbolics e altri produttori nel 1987. Di conseguenza, la logica per l'acquisto di macchine dedicate L'hardware AI è diminuito in modo significativo. Questo evento portò al collasso istantaneo di un'industria valutata mezzo miliardo di dollari.
In definitiva, i pionieristici sistemi esperti di successo, incluso R1, hanno dimostrato costi di manutenzione proibitivi. Questi sistemi presentavano sfide nell'aggiornamento, mancavano di capacità di apprendimento e mostravano "fragilità", nel senso che erano soggetti a errori significativi quando presentati con input atipici. Sebbene i sistemi esperti offrissero utilità, la loro applicabilità era limitata a un numero limitato di contesti specializzati.
Durante la fine degli anni '80, la Strategic Computing Initiative ridusse drasticamente i finanziamenti per l'intelligenza artificiale. La nuova leadership all'interno della DARPA concluse che l'intelligenza artificiale non rappresentava il futuro paradigma tecnologico e di conseguenza riallocò le risorse verso progetti percepiti come più propensi a produrre risultati immediati.
Nel 1991, gli ambiziosi obiettivi delineati nel 1981 per il progetto giapponese di quinta generazione rimasero insoddisfatti. Alcuni obiettivi, come la capacità di “portare avanti una conversazione casuale”, non sarebbero stati raggiunti prima di altri tre decenni. Coerentemente con altri sforzi nel campo dell'intelligenza artificiale, le aspettative iniziali avevano notevolmente superato le reali capacità.
Entro la fine del 1993, più di 300 aziende di intelligenza artificiale avevano cessato le attività, dichiarato fallimento o subito acquisizioni, concludendo così la fase commerciale iniziale dell'intelligenza artificiale. Nel 1994, HP Newquist ha affermato in The Brain Makers che "Il futuro immediato dell'intelligenza artificiale, nella sua forma commerciale, sembra dipendere in parte dal continuo successo delle reti neurali".
AI dietro le quinte
Gli algoritmi inizialmente sviluppati dai ricercatori dell'intelligenza artificiale (AI) sono stati integrati in sistemi più ampi nel corso degli anni '90. L'intelligenza artificiale ha affrontato con successo numerose sfide complesse, producendo soluzioni che si sono rivelate preziose in tutto il settore tecnologico, comprese applicazioni nel data mining, nella robotica industriale, nella logistica, nel riconoscimento vocale, nel software bancario, nella diagnosi medica e nel motore di ricerca di Google.
Nonostante questi progressi, il campo dell'intelligenza artificiale ha ricevuto un riconoscimento minimo per i suoi contributi nel corso degli anni '90 e all'inizio degli anni 2000. Molte innovazioni significative dell’intelligenza artificiale sono state successivamente riclassificate come componenti standard nell’ambito dell’informatica. Nick Bostrom chiarisce questo fenomeno, affermando: "Molta IA all'avanguardia è filtrata in applicazioni generali, spesso senza essere chiamata IA perché una volta che qualcosa diventa abbastanza utile e abbastanza comune non viene più etichettata come IA."
Durante gli anni '90, numerosi ricercatori di IA hanno intenzionalmente designato il loro lavoro con una terminologia alternativa, come informatica, sistemi basati sulla conoscenza, "sistemi cognitivi" o intelligenza computazionale. Questa pratica è stata in parte guidata dalla percezione che il loro dominio fosse fondamentalmente diverso dall’intelligenza artificiale tradizionale, ma anche dal vantaggio strategico che queste nuove etichette offrivano nel garantire i finanziamenti. Nella sfera commerciale, gli impegni non mantenuti dell'"inverno dell'intelligenza artificiale" hanno continuato a gettare un'ombra sulla ricerca sull'intelligenza artificiale negli anni 2000, come documentato dal New York Times nel 2005: "Gli scienziati informatici e gli ingegneri del software hanno evitato il termine intelligenza artificiale per paura di essere visti come sognatori sfrenati."
Rigore matematico migliorato, sforzi collaborativi e concentrazione specializzata
I ricercatori nel campo dell'intelligenza artificiale hanno adottato e sviluppato sempre più strumenti matematici avanzati, superando i precedenti livelli di integrazione. La maggior parte delle traiettorie di ricerca emergenti sull’intelligenza artificiale erano sostanzialmente basate su modelli matematici, che comprendevano reti neurali artificiali, ragionamento probabilistico, soft computing e apprendimento per rinforzo. Nel corso degli anni '90 e 2000, numerose altre sofisticate metodologie matematiche sono state adattate per le applicazioni di intelligenza artificiale, in particolare nei settori dell'apprendimento automatico, della percezione e della mobilità.
È emerso un ampio consenso riguardo alla sovrapposizione tra i problemi che richiedono soluzioni di intelligenza artificiale e quelli già oggetto di indagine da parte di ricercatori in discipline quali statistica, matematica, ingegneria elettrica, economia e ricerca operativa. Questo quadro matematico comune ha facilitato una migliore collaborazione con campi più consolidati e di successo, portando al raggiungimento di risultati misurabili e verificabili, trasformando così l’intelligenza artificiale in una disciplina scientifica più rigorosa. Un ulteriore fattore critico che ha contribuito ai successi degli anni '90 è stata la concentrazione dei ricercatori sull'intelligenza artificiale su problemi specifici suscettibili di soluzioni verificabili, un approccio successivamente caratterizzato come IA ristretta. Questa strategia ha prodotto strumenti pratici per un'applicazione immediata, invece di favorire previsioni future speculative.
Agenti intelligenti
Il paradigma degli "agenti intelligenti" ha ottenuto un ampio consenso nel corso degli anni '90. Mentre i ricercatori precedenti avevano sostenuto metodologie modulari, "divide et impera" nell'intelligenza artificiale, la formulazione contemporanea dell'agente intelligente si è materializzata attraverso l'integrazione di concetti della teoria delle decisioni e dell'economia nella ricerca sull'intelligenza artificiale da parte di figure come Judea Pearl, Allen Newell e Leslie P. Kaelbling. Il paradigma dell'agente intelligente è stato pienamente stabilito sulla sintesi della definizione economica di agente razionale con il concetto informatico di oggetto o modulo.
Un agente intelligente è concettualizzato come un sistema in grado di percepire il suo ambiente ed eseguire azioni progettate per ottimizzare la sua probabilità di successo. Secondo questa definizione, sia i programmi rudimentali che affrontano problemi specifici sia le entità complesse come gli esseri umani o le organizzazioni umane (ad esempio le aziende) si qualificano come "agenti intelligenti". Il paradigma dell’agente intelligente ridefinisce la ricerca sull’intelligenza artificiale come “lo studio degli agenti intelligenti”, rappresentando una generalizzazione più ampia delle precedenti definizioni di intelligenza artificiale. Questo quadro si estende oltre lo studio esclusivo dell’intelligenza umana per comprendere tutte le forme di intelligenza. Inoltre, questo paradigma ha consentito ai ricercatori di indagare su problemi isolati e divergere sugli approcci metodologici, pur mantenendo l'aspirazione che i loro contributi individuali potessero alla fine fondersi in un'architettura di agenti in grado di raggiungere un'intelligenza generale.
Pietre miliari e legge di Moore
L'11 maggio 1997, Deep Blue ha raggiunto un traguardo storico diventando il primo sistema di scacchi computerizzato a sconfiggere il campione mondiale in carica di scacchi, Garry Kasparov. Successivamente, nel 2005, un robot sviluppato presso l’Università di Stanford ha completato con successo la DARPA Grand Challenge, attraversando autonomamente 131 miglia attraverso un paesaggio desertico sconosciuto. Due anni dopo, un team della Carnegie Mellon University (CMU) si è assicurato la vittoria nella DARPA Urban Challenge, percorrendo 55 miglia attraverso un ambiente urbano gestendo abilmente i rischi del traffico e rispettando le norme sul traffico.
Questi risultati derivano principalmente dalla diligente applicazione delle competenze ingegneristiche e dai sostanziali progressi nella velocità e nella capacità dei computer osservati negli anni '90, piuttosto che da un nuovo paradigma rivoluzionario. Ad esempio, la velocità di calcolo di Deep Blue ha superato quella del Ferranti Mark 1, che Christopher Strachey programmò per giocare a scacchi nel 1951, di un fattore di 10 milioni. Questa crescita esponenziale è quantificata dalla legge di Moore, che postulava un raddoppio della velocità del computer e della capacità di memoria circa ogni due anni, mitigando così progressivamente il vincolo fondamentale della "potenza pura del computer".
L'influenza dell'intelligenza artificiale su arte e letteratura
Esperimenti di letteratura elettronica, tra cui The Impermanence Agent (1998-2002), e installazioni di arte digitale come Agent Ruby, hanno integrato l'intelligenza artificiale per "mettere a nudo i pregiudizi che accompagnano le forme di tecnologia che fingono oggettività" all'interno delle loro espressioni artistiche e letterarie.
Big data, deep learning e intelligenza artificiale generale (2005–2017)
Durante i primi decenni del 21° secolo, la convergenza di un'ampia disponibilità di dati (i cosiddetti "big data"), di sistemi informatici sempre più accessibili e potenti e di sofisticate metodologie di apprendimento automatico ha facilitato applicazioni di successo in diversi settori economici. Uno sviluppo fondamentale si è verificato intorno al 2012 con l’avvento del deep learning, che ha migliorato significativamente le prestazioni dell’apprendimento automatico in vari settori, tra cui l’elaborazione di immagini e video, l’analisi del testo e il riconoscimento vocale. Allo stesso tempo, gli investimenti nell'intelligenza artificiale sono aumentati con l'espansione delle sue capacità, portando a un valore di mercato superiore a 8 miliardi di dollari per prodotti, hardware e software legati all'intelligenza artificiale entro il 2016. Il New York Times ha successivamente definito il crescente interesse per l'intelligenza artificiale come una "frenesia".
Nel 2002, Ben Goertzel e i suoi collaboratori hanno espresso preoccupazione per il fatto che la ricerca sull'intelligenza artificiale si fosse ampiamente discostata dal suo obiettivo fondamentale di sviluppare macchine versatili e completamente intelligenti, sostenendo che invece per una ricerca più mirata dell’intelligenza generale artificiale (AGI). Verso la metà degli anni 2010, numerose organizzazioni, tra cui OpenAI e DeepMind di Google, furono fondate con l'obiettivo esplicito di far avanzare l'AGI. Allo stesso tempo, le prospettive emergenti sulla superintelligenza hanno suscitato preoccupazioni riguardo al potenziale dell’intelligenza artificiale come minaccia esistenziale. Di conseguenza, i rischi e le implicazioni impreviste della tecnologia dell'intelligenza artificiale sono diventati un ambito significativo di indagine accademica dopo il 2016.
Il ruolo dei Big Data e dei sistemi informatici avanzati
L'efficacia dell'apprendimento automatico negli anni 2000 dipendeva dall'accessibilità di dati di addestramento estesi e da una maggiore velocità di calcolo. Russell e Norvig hanno osservato che "il miglioramento delle prestazioni ottenuto aumentando la dimensione del set di dati di due o tre ordini di grandezza supera qualsiasi miglioramento che può essere ottenuto modificando l'algoritmo". Geoffrey Hinton ha chiarito ulteriormente questo contesto storico, sottolineando che negli anni '80 e '90 "i nostri set di dati etichettati erano migliaia di volte troppo piccoli. [E] i nostri computer erano milioni di volte troppo lenti", una limitazione che era stata superata entro il 2010.
Durante gli anni 2000, i dati di maggior impatto per l'apprendimento automatico e l'intelligenza artificiale provenivano da set di dati meticolosamente curati ed etichettati. Nel 2007, i ricercatori dell'UMass Amherst hanno introdotto "Labeled Faces in the Wild", una raccolta di immagini di volti con annotazioni che è diventata per decenni una risorsa fondamentale per la formazione e la valutazione dei sistemi di riconoscimento facciale. Successivamente, Fei-Fei Li ha guidato la creazione di ImageNet, un database completo comprendente tre milioni di immagini annotate da volontari tramite Amazon Mechanical Turk. Lanciato nel 2009, ImageNet è servito sia come prezioso corpus di formazione che come punto di riferimento critico per le generazioni successive di sistemi di elaborazione delle immagini. Nel 2013, Google ha rilasciato word2vec come strumento open source, che sfruttava ampi dati di testo estratti da Internet e tecniche di incorporamento di parole per generare vettori numerici che rappresentavano singole parole. La capacità di word2vec di catturare accuratamente le relazioni semantiche, esemplificate da addizioni di vettori che producono equivalenze come "Cina + Fiume = Yangtze" o "Londra - Inghilterra + Francia = Parigi", ha attirato notevole attenzione. Questo particolare database si è rivelato indispensabile per il progresso di grandi modelli linguistici alla fine degli anni 2010.
La proliferazione esponenziale di Internet ha garantito ai programmi di machine learning un accesso senza precedenti a miliardi di pagine di testo e immagini adatte all'estrazione dei dati. Allo stesso tempo, sfide specifiche sono state affrontate grazie ai dati pertinenti che risiedono in ampi database privati. Il McKinsey Global Institute ha riferito che "nel 2009, quasi tutti i settori dell'economia statunitense avevano una media di almeno 200 terabyte di dati archiviati". Questo vasto accumulo di informazioni è stato chiamato big data negli anni 2000.
Nel febbraio 2011, il sistema di risposta alle domande di IBM, Watson, ha ottenuto una notevole vittoria sui due principali campioni di Jeopardy!, Brad Rutter e Ken Jennings, durante una partita di esibizione del programma. La sofisticata competenza di Watson dipendeva fondamentalmente dalle vaste risorse di informazioni disponibili tramite Internet.
Apprendimento profondo
Nel 2012, AlexNet, un modello di deep learning creato da Alex Krizhevsky, ha ottenuto il primo posto nella ImageNet Large Scale Visual Recognition Challenge, dimostrando prestazioni significativamente superiori con meno errori rispetto al secondo classificato. Il lavoro di Krizhevskij è stato condotto in collaborazione con Geoffrey Hinton presso l'Università di Toronto. Questo evento ha rappresentato un momento critico nell'apprendimento automatico, poiché numerosi altri approcci al riconoscimento delle immagini sono stati successivamente sostituiti dal deep learning negli anni successivi.
Il deep learning utilizza fondamentalmente un percettrone multistrato. Sebbene questo progetto architettonico sia stato riconosciuto fin dagli anni '60, la sua applicazione pratica richiede una notevole potenza di calcolo e ampi dati di addestramento. Prima che questi prerequisiti fossero soddisfatti, il miglioramento delle prestazioni dei sistemi di elaborazione delle immagini richiedeva la laboriosa creazione di funzionalità ad hoc realizzate a mano, che erano intrinsecamente complesse da implementare. Il deep learning, al contrario, presentava una metodologia più semplice e generalizzata.
Negli anni successivi, il deep learning è stato applicato con successo a una vasta gamma di problemi, comprendendo ambiti come il riconoscimento vocale, la traduzione automatica, la diagnosi medica e i giochi. In ogni applicazione, ha prodotto costantemente miglioramenti sostanziali delle prestazioni. Questo successo ha catalizzato un aumento significativo sia degli investimenti che dell'interesse per l'intelligenza artificiale.
Il problema dell'allineamento
Negli anni 2000, le rinnovate discussioni sul futuro dell'intelligenza artificiale hanno acquisito importanza, con diversi libri popolari che esaminavano il potenziale delle macchine superintelligenti e le loro implicazioni sociali. Mentre alcune prospettive, come The Singularity is Near di Ray Kurzweil, erano ottimistiche, altre, comprese quelle di Nick Bostrom e Eliezer Yudkowsky, mettevano in guardia sul fatto che un'intelligenza artificiale sufficientemente potente potrebbe rappresentare una minaccia esistenziale per l'umanità. Questo argomento ha successivamente ricevuto un'ampia attenzione da parte dei media, attirando commenti da numerosi intellettuali e politici di spicco.
I programmi di intelligenza artificiale nel 21° secolo sono fondamentalmente definiti dai loro obiettivi, che sono le misure specifiche che sono progettati per ottimizzare. L'influente libro di Nick Bostrom del 2014, Superintelligence, sostiene che un'attenzione insufficiente nella definizione di questi obiettivi potrebbe far sì che le macchine causino danni all'umanità durante il perseguimento di un obiettivo. Stuart J. Russell ha fornito un esempio illustrativo di un robot intelligente che elimina il suo proprietario per evitare che venga scollegato, razionalizzando: "non puoi andare a prendere il caffè se sei morto". Questa specifica questione è tecnicamente chiamata “convergenza strumentale”. La soluzione proposta implica allineare la funzione obiettivo della macchina con gli obiettivi del suo proprietario e dell'umanità in generale. Pertanto, la sfida di mitigare i rischi e le conseguenze indesiderate dell'intelligenza artificiale è diventata formalmente nota come "il problema dell'allineamento dei valori" o allineamento dell'intelligenza artificiale.
Contemporaneamente, i sistemi di apprendimento automatico hanno iniziato a mostrare conseguenze indesiderate preoccupanti. Cathy O'Neil ha spiegato in dettaglio come gli algoritmi statistici abbiano contribuito al crollo economico del 2008. Julia Angwin di ProPublica ha affermato che il sistema COMPAS, utilizzato dal sistema di giustizia penale, mostra pregiudizi razziali sotto valutazioni specifiche. Inoltre, altri studi hanno indicato che molti sistemi di apprendimento automatico manifestano varie forme di pregiudizi razziali e sono stati documentati numerosi ulteriori esempi di risultati pericolosi derivanti da questi sistemi.
Nel 2016, l'elezione di Donald Trump e la controversia che circonda il sistema COMPAS hanno evidenziato diverse carenze critiche all'interno dell'infrastruttura tecnologica contemporanea, tra cui la diffusione della disinformazione, gli algoritmi dei social media progettati per massimizzare il coinvolgimento, l'uso improprio dei dati personali e questioni riguardanti l'affidabilità dei modelli predittivi. Di conseguenza, le questioni relative all’equità e alle conseguenze indesiderate hanno guadagnato notevole interesse alle conferenze sull’intelligenza artificiale, portando a un aumento sostanziale delle pubblicazioni, all’assegnazione di finanziamenti dedicati e a un riorientamento dell’attenzione professionale di numerosi ricercatori verso queste preoccupazioni. Successivamente il problema dell'allineamento dei valori è emerso come un serio campo di studio accademico.
Ricerca artificiale sull'intelligence generale
All'inizio degli anni 2000, tra i ricercatori è emersa una crescente preoccupazione riguardo al fatto che l'intelligenza artificiale (AI) tradizionale si fosse concentrata eccessivamente su "prestazioni misurabili in applicazioni specifiche", un ambito spesso definito "IA ristretta". Questo focus è stato percepito come un allontanamento dall’obiettivo fondamentale dell’intelligenza artificiale: lo sviluppo di macchine versatili e completamente intelligenti. Nils Nilsson ha espresso le prime critiche nel 1995, con figure di spicco dell'intelligenza artificiale come John McCarthy, Marvin Minsky e Patrick Winston che hanno pubblicato prospettive analoghe tra il 2007 e il 2009. Minsky ha ulteriormente contribuito organizzando un simposio sull'intelligenza artificiale a livello umano nel 2004. Successivamente, Ben Goertzel ha coniato il termine "intelligenza generale artificiale" (AGI) per questo nascente sottocampo, istituendo una rivista dedicata e avviando conferenze dal 2008 in poi. Il campo dell'AGI ha conosciuto una rapida espansione, spinto dai continui progressi nelle reti neurali artificiali e dall'aspettativa che questi sviluppi fossero la chiave per raggiungere l'AGI.
Gli anni 2010 hanno visto la creazione di numerose entità concorrenti, tra cui aziende, laboratori e fondazioni, tutte dedicate al progresso dell'intelligenza generale artificiale (AGI). DeepMind, ad esempio, è stata co-fondata nel 2010 da tre scienziati britannici – Demis Hassabis, Shane Legg e Mustafa Suleyman – ricevendo inizialmente capitale da Peter Thiel, con successivo investimento da parte di Elon Musk. Sia i fondatori che i loro finanziatori hanno espresso profonda apprensione riguardo alla sicurezza dell’IA e ai potenziali rischi esistenziali posti dall’IA avanzata. I fondatori di DeepMind mantennero un legame diretto con Yudkowsky e Musk fu una figura notevole che espresse attivamente queste preoccupazioni. Hassabis ha articolato una duplice prospettiva, esprimendo sia l'ansia per i pericoli intrinseci dell'AGI sia l'ottimismo riguardo al suo potenziale di trasformazione, aspirando a "risolvere l'intelligenza artificiale, quindi risolvere tutto il resto". Nel 2023, The New York Times ha osservato: "In questo panorama competitivo c'è un profondo paradosso: gli individui che esprimono la massima preoccupazione per l'intelligenza artificiale sono allo stesso tempo tra i più risoluti nella sua creazione e nella ricerca delle sue ricompense finanziarie. Razionalizzano i loro obiettivi ambiziosi con la ferma convinzione che solo loro possiedono la capacità di salvaguardare la Terra dai potenziali pericoli dell'intelligenza artificiale."
Nel 2012, Geoffrey Hinton, una figura di spicco che aveva guidato ricercatore sulle reti neurali dagli anni '80, ha ricevuto un'offerta da Baidu per reclutare lui e il suo intero gruppo di ricerca per una somma finanziaria considerevole. Hinton ha successivamente organizzato un'asta, culminata nella vendita delle competenze del suo team a Google per 44 milioni di dollari durante una conferenza sull'intelligenza artificiale tenutasi a Lake Tahoe. Osservando questo sviluppo, Hassabis ha venduto DeepMind a Google nel 2014, stabilendo che la società si sarebbe astenuta dall'accettare contratti militari e avrebbe operato sotto la supervisione di un comitato etico indipendente.
Larry Page, cofondatore di Google, aveva una visione ottimistica riguardo al futuro dell'intelligenza artificiale, in contrasto con le prospettive più caute di Musk e Hassabis. Un significativo disaccordo sui rischi dell'AGI è scoppiato tra Musk e Page durante la celebrazione del compleanno di Musk nel 2015. Nonostante un'amicizia decennale, la loro comunicazione si è interrotta poco dopo. Musk ha partecipato all'unica riunione del comitato etico di DeepMind, dove è diventato evidente che Google mostrava scarso interesse nel mitigare attivamente i potenziali danni dell'AGI. Insoddisfatto della sua influenza limitata, Musk ha fondato OpenAI nel 2015, nominando Sam Altman come leader e reclutando scienziati di spicco. Inizialmente strutturata come organizzazione senza scopo di lucro, OpenAI mirava a operare "libera dagli incentivi economici che guidavano Google e altre società". La rinnovata frustrazione di Musk ha portato alla sua partenza dall'azienda nel 2018. Successivamente, OpenAI ha cercato un sostegno finanziario sostenuto da Microsoft e Altman, in collaborazione con OpenAI, ha ristrutturato l'entità in un'impresa a scopo di lucro, assicurandosi oltre 1 miliardo di dollari di finanziamenti.
Nel 2021, Dario Amodei, insieme ad altri quattordici scienziati, ha lasciato OpenAI, citando la preoccupazione che l'organizzazione stesse dando priorità ai guadagni finanziari rispetto ai protocolli di sicurezza. Successivamente fondarono Anthropic, che rapidamente ottenne 6 miliardi di dollari di finanziamenti sia da Microsoft che da Google.
Grandi modelli linguistici e boom dell'intelligenza artificiale (2017–presente)
L'impennata contemporanea dell'intelligenza artificiale, spesso definita "boom dell'intelligenza artificiale", è iniziata con lo sviluppo fondamentale di architetture e algoritmi fondamentali, in particolare l'architettura del trasformatore nel 2017. Questa innovazione ha facilitato l'ampia scalabilità e la successiva creazione di modelli linguistici di grandi dimensioni (LLM) che dimostrano attributi simili a quelli umani nell'acquisizione della conoscenza, nell'elaborazione dell'attenzione e nella generazione creativa. Nel 2020 è stata inaugurata una nuova epoca nell'intelligenza artificiale, segnata dall'introduzione pubblica di GPT-3, un modello linguistico di grandi dimensioni in modo significativo e precursore di ChatGPT.
Architettura di Transformer e modelli linguistici di grandi dimensioni
Nel 2017, i ricercatori di Google hanno introdotto l'architettura del trasformatore in un articolo intitolato "L'attenzione è tutto ciò di cui hai bisogno". Questa architettura sfrutta un meccanismo di auto-attenzione e successivamente ha ottenuto un'adozione diffusa in ampi modelli linguistici. Modelli linguistici di grandi dimensioni, basati sul trasformatore, sono stati ulteriormente avanzati da altre organizzazioni: OpenAI ha rilasciato GPT-3 nel 2020, seguito dal rilascio di Gato da parte di DeepMind nel 2022. Questi costituiscono modelli di base, addestrati su ampie quantità di dati non etichettati e adattabili a una vasta gamma di attività a valle. Tali modelli dimostrano la capacità di discutere una vasta gamma di argomenti e di esibire conoscenze generali, il che ha spinto a indagare sulla loro potenziale classificazione come esempi di intelligenza generale artificiale.
Nel 2023, Microsoft Research ha valutato il modello in numerosi compiti, concludendo che "potrebbe ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza generale artificiale (AGI)."
Nel 2024, OpenAI ha annunciato OpenAI o3, un modello di ragionamento avanzato sviluppato da compagnia. Nel benchmark Abstraction and Reasoning Corpus for Artificial General Intelligence (ARC-AGI), creato da François Chollet nel 2019, il modello ha ottenuto un punteggio non ufficiale dell'87,5% nel test semi-privato, superando così la tipica prestazione umana dell'84%. Questo benchmark è considerato un criterio necessario, anche se non sufficiente, per l'AGI. Per quanto riguarda il benchmark, Chollet ha dichiarato: "Saprai che l'AGI è qui quando l'esercizio di creare compiti facili per gli esseri umani normali ma difficili per l'intelligenza artificiale diventa semplicemente impossibile."
Investimenti nell'intelligenza artificiale
Gli investimenti nell'intelligenza artificiale hanno registrato una crescita esponenziale dopo il 2020, con un aumento significativo dei finanziamenti in capitale di rischio per le società di intelligenza artificiale generativa. Gli investimenti totali nell’intelligenza artificiale sono aumentati da 18 miliardi di dollari nel 2014 a 119 miliardi di dollari nel 2021, con l’intelligenza artificiale generativa che costituirà circa il 30% degli investimenti totali entro il 2023. Secondo i parametri dal 2017 al 2021, gli Stati Uniti hanno superato altre nazioni a livello globale in termini di finanziamenti di venture capital, numero di startup e brevetti IA concessi. Il panorama commerciale dell’IA è stato prevalentemente modellato dalle multinazionali americane della Big Tech, i cui investimenti in questo settore hanno superato quelli provenienti dai venture capitalist con sede negli Stati Uniti. La valutazione di OpenAI ha raggiunto gli 86 miliardi di dollari all'inizio del 2024, mentre la capitalizzazione di mercato di NVIDIA ha superato i 3,3 trilioni di dollari entro la metà del 2024, posizionandola come la più grande azienda al mondo per capitalizzazione di mercato, spinta da un sostanziale aumento della domanda di GPU compatibili con l'intelligenza artificiale.
Adozione pubblica dell'IA
Lanciato nel marzo 2020 da un ricercatore anonimo del MIT, 15.ai ha rappresentato un primo esempio di IA generativa che ha attirato un notevole interesse pubblico durante la fase nascente dell'espansione dell'IA. Questa applicazione web gratuita ha dimostrato la capacità di replicare le voci dei personaggi utilizzando reti neurali con dati di addestramento minimi, richiedendo solo 15 secondi di input audio per la riproduzione vocale, una capacità successivamente convalidata da OpenAI nel 2024. Il servizio ha raggiunto una viralità diffusa su tutte le piattaforme di social media all'inizio del 2021, consentendo agli utenti di sintetizzare il parlato per personaggi di franchise mediatici popolari, e si è particolarmente distinto per il suo contributo fondamentale alla divulgazione della sintesi vocale AI per contenuti creativi e meme.
ChatGPT è stato introdotto il 30 novembre 2022, segnando un momento cruciale nell'adozione pubblica dell'intelligenza artificiale. Nel giro di pochi giorni dal suo rilascio, ha raggiunto una rapida viralità, accumulando oltre 100 milioni di utenti in due mesi e affermandosi come l'applicazione software consumer in più rapida crescita nella storia. La capacità del chatbot di interagire con conversazioni simili a quelle umane, di generare codici e di produrre contenuti creativi ha catturato l'interesse del pubblico e ha facilitato una rapida integrazione in diversi settori, tra cui istruzione, affari e ricerca. Il successo di ChatGPT ha suscitato reazioni senza precedenti da parte delle principali aziende tecnologiche: Google ha emesso un avviso di "codice rosso" e ha prontamente introdotto Gemini (precedentemente noto come Google Bard), mentre Microsoft ha integrato la tecnologia all'interno di Bing Chat.
La rapida adozione di queste tecnologie di intelligenza artificiale ha dato vita a un dibattito considerevole sulle loro implicazioni. Importanti ricercatori nel campo dell’intelligenza artificiale e leader del settore hanno espresso uno spettro di prospettive, che comprende sia prospettive ottimistiche che apprensioni riguardo alla rapida traiettoria di sviluppo. Nel marzo 2023, oltre 20.000 firmatari, tra cui l’informatico Yoshua Bengio, Elon Musk e il co-fondatore di Apple Steve Wozniak, hanno firmato una lettera aperta sostenendo una moratoria sullo sviluppo avanzato dell’intelligenza artificiale, sottolineando “profondi rischi per la società e l’umanità”. Al contrario, altri eminenti ricercatori, come Juergen Schmidhuber, hanno adottato una prospettiva più ottimistica, presupponendo che l'obiettivo predominante della ricerca sull'intelligenza artificiale sia migliorare la longevità, il benessere e la comodità umana.
Entro la metà del 2024, tuttavia, il settore finanziario ha avviato un esame più rigoroso delle imprese di intelligenza artificiale, interrogandosi specificamente sulla loro capacità di produrre rendimenti sugli investimenti proporzionati alle loro sostanziali valutazioni di mercato. Alcuni importanti investitori hanno espresso timori riguardo a una potenziale divergenza tra le aspettative del mercato e i fondamentali aziendali sottostanti. Jeremy Grantham, co-fondatore di GMO LLC, ha avvertito gli investitori di "stare molto attenti" e ha identificato somiglianze con precedenti episodi speculativi di mercato alimentati dalla tecnologia. Allo stesso modo, Jeffrey Gundlach, CEO di DoubleLine Capital, ha esplicitamente paragonato l’impennata dell’intelligenza artificiale alla bolla delle dot-com della fine degli anni ’90, lasciando intendere che il fervore degli investitori potrebbe superare le capacità tangibili a breve termine e le prospettive di generazione di entrate. Le considerevoli capitalizzazioni di mercato delle aziende incentrate sull'intelligenza artificiale, molte delle quali non avevano ancora stabilito paradigmi di redditività praticabili, hanno ulteriormente esacerbato queste preoccupazioni.
Nel marzo 2024, Anthropic ha presentato la suite Claude 3 di grandi modelli linguistici, che comprende Claude 3 Haiku, Sonnet e Opus. I modelli hanno mostrato miglioramenti sostanziali nelle prestazioni attraverso molteplici parametri di valutazione, con Claude 3 Opus che ha notevolmente superato i modelli di spicco di OpenAI e Google. Nel giugno 2024, Anthropic ha rilasciato Claude 3.5 Sonnet, che ha mostrato prestazioni migliorate rispetto al più ampio Claude 3 Opus, soprattutto in ambiti quali lo sviluppo di software, processi sequenziali complessi e interpretazione visiva dei dati.
Premi Nobel 2024
Nel 2024, l'Accademia reale svedese delle scienze ha conferito i premi Nobel riconoscendo i progressi fondamentali nel campo dell'intelligenza artificiale. I vincitori comprendevano:
- In fisica: John Hopfield per la sua ricerca sulle reti Hopfield basate sulla fisica e Geoffrey Hinton per i suoi contributi fondamentali alle macchine Boltzmann e al campo dell'apprendimento profondo.
- In chimica: David Baker, Demis Hassabis e John Jumper per il loro lavoro pionieristico nella previsione del ripiegamento delle proteine.
Progressi e ricerche continui nell'intelligenza artificiale
Nel gennaio 2025, OpenAI ha presentato ChatGPT-Gov, un nuovo sistema di intelligenza artificiale progettato specificamente per l'implementazione sicura da parte delle agenzie governative statunitensi. OpenAI ha indicato che le agenzie sarebbero in grado di distribuire ChatGPT-Gov su un cloud Microsoft Azure o su un cloud Azure Government, sfruttando il "servizio Azure OpenAI di Microsoft". Secondo la dichiarazione ufficiale di OpenAI, "ChatGPT Gov in self-hosting consente alle agenzie di gestire più facilmente i propri requisiti di sicurezza, privacy e conformità, come i rigorosi framework di sicurezza informatica (IL5, CJIS, ITAR, FedRAMP High). Inoltre, riteniamo che questa infrastruttura accelererà l'autorizzazione interna degli strumenti di OpenAI per la gestione di dati sensibili non pubblici."
Politiche nazionali
I paesi hanno stanziato risorse verso politiche e sostegno finanziario per l'implementazione di sistemi robotici autonomi, con l'obiettivo di mitigare i deficit di manodopera e aumentare l'efficienza operativa, stabilendo contemporaneamente quadri normativi per garantire pratiche di sviluppo etiche e sicure.
Cina
Nel 2025, la Cina ha stanziato circa 730 miliardi di yuan (equivalenti a circa 100 miliardi di dollari) per il progresso dell'intelligenza artificiale e della robotica nei settori della produzione intelligente e della sanità. Il "14° piano quinquennale" (2021-2025) ha enfatizzato la robotica di servizio, sfruttando i sistemi di intelligenza artificiale per consentire ai robot di eseguire funzioni complesse, tra cui l'assistenza chirurgica e l'assemblaggio automatizzato delle fabbriche. Una parte di questi finanziamenti è stata destinata anche ad applicazioni di difesa, in particolare alle tecnologie dei droni autonomi. A partire dal settembre 2025, la Cina ha introdotto l'obbligo di etichettare i contenuti generati dall'intelligenza artificiale, con l'obiettivo di promuovere la trasparenza e la fiducia del pubblico in questi progressi tecnologici.
Stati Uniti
Nel gennaio 2025, Stargate LLC è stata fondata come impresa collaborativa tra OpenAI, SoftBank, Oracle e MGX, che successivamente ha dichiarato l'intenzione di investire 500 miliardi di dollari in infrastrutture di intelligenza artificiale negli Stati Uniti entro il 2029. L'iniziativa ha ricevuto un annuncio formale dal presidente degli Stati Uniti Donald Trump il 21 gennaio 2025, in concomitanza con la nomina del CEO di SoftBank Masayoshi Son a presidente.
Il governo degli Stati Uniti ha impegnato circa 2 miliardi di dollari per l'integrazione dell'intelligenza artificiale e della robotica nei settori manifatturiero e logistico. I governi statali hanno aumentato questo investimento federale fornendo finanziamenti aggiuntivi per i robot di servizio, esemplificato dal loro impiego nei magazzini per la gestione delle scorte tramite comandi verbali e nelle strutture di assistenza agli anziani per rispondere alle richieste di aiuto dei residenti. Una parte di questi fondi è stata assegnata anche ad applicazioni di difesa, che comprendono armi autonome letali e robotica militare. Inoltre, nel gennaio 2025, l'Ordine esecutivo 14179 ha istituito un "Piano d'azione sull'intelligenza artificiale", progettato per accelerare l'innovazione e l'implementazione di queste tecnologie, dichiarando esplicitamente gli obiettivi di "dominazione del mondo" e "vittoria".
- Controversie sull'intelligenza artificiale
- Storia della rappresentazione e del ragionamento della conoscenza
- Cenni di intelligenza artificiale
- Cronologia dell'intelligenza artificiale
- Note
Note
Riferimenti
Opere citate
- Taylor DB, Metz C, Miller K (8 ottobre 2024). "Premio Nobel per la fisica assegnato per la ricerca pionieristica sull'intelligenza artificiale di 2 scienziati." New York Times.The University of Manchester (2008). "The Ferranti Mark 1." Digital 60. Estratto il 31 gennaio 2026.IBM. "Blu profondo." IBM 100. Estratto il 31 gennaio 2026.Bonner A (2007), L'arte e la logica di Ramón Llull: una guida per l'utente, Brill, ISBN 978-9004163256Bonner A (1985). "L'influenza di Lullo: la storia del lullismo". In Il dottor Illuminatus: un lettore di Ramon Llull. Princeton University Press.Brooks R (2002), Flesh and Machines, Pantheon BooksBubeck S, Chandrasekaran V, Eldan R, Gehrke J, Horvitz E, Kamar E, Lee P, Lee YT, Li Y, Lundberg S, Nori H, Palangi H, Ribeiro MT, Zhang Y (22 marzo 2023)."Scintille di intelligenza generale artificiale: primi esperimenti con GPT-4." arXiv:2303.12712 [cs.CL].Carreras y Artau T (2018) [1939], Historia de la filosofía española: Filosofía cristiana de los siglos XIII al XV (in spagnolo), vol. 1, Madrid: Forgotten Books, ISBN 9781390433708Butler EM (1979) [1948]. Il mito del mago. Londra: Cambridge University Press. ISBN 0-521-22564-7. OCLC 5063114.Clark S (21 dicembre 2023). "The Era of AI: 2023's Landmark Year." CMSWire.com. Estratto il 28 gennaio 2024.Copeland J (1999). "Una breve storia dell'informatica." AlanTuring.net.Cave S, Dihal K (2019). "Speranze e paure per le macchine intelligenti nella finzione e nella realtà." Nature Machine Intelligence. §34§ (2): 74–78. doi:10.1038/s42256-019-0020-9. ISSN 2522-5839. S2CID 150700981.Cave S, Dihal K, Dillon S (2020).Narrazioni sull'intelligenza artificiale: una storia del pensiero fantasioso sulle macchine intelligenti. Stampa dell'Università di Oxford. ISBN 978-0-19-884666-6. Estratto il 2 maggio 2023.Christian B (2020). The Alignment Problem: Machine Learning and Human Values. W. W. Norton & Company. ISBN 978-0-393-86833-3. OCLC 1233266753.Clark K (1977). "La negazione come fallimento." In Logica e basi di dati. Boston, MA: Springer negli Stati Uniti. pp. 293–322. doi:10.1007/978-1-4684-3384-5_11. ISBN 978-1-4684-3386-9.Gates B (21 dicembre 2023). "This Year Signaled the Start of a New Era." com. Estratto il 28 gennaio 2024.Goethe JW (1890). Faust; una tragedia. Tradotto, nei metri originali... di Bayard Taylor. Ed. Autorizzata, pubblicata da un accordo speciale con la signora Bayard Taylor. Con un'introduzione biografica. Londra: Ward, Lock.Hart PE, Nilsson NJ, Perrault R, Mitchell T, Kulikowski CA, Leake DB (15 marzo 2003). "In Memoriam: Charles Rosen, Norman Nielsen e Saul Amarel." AI Magazine. 24 (1): 6. doi:10.1609/aimag.v24i1.1683.ISSN 2371-9621.Hayes P (1981). "The Logic of Frames." In Kaufmann M (a cura di), Readings in Artificial Intelligence. pp. 451–458."GOLEM", The Jewish Encyclopedia, recuperato il 15 marzo 2020Hollander LM (1991) [1964]. Heimskringla; storia dei re di Norvegia. Austin: pubblicato per la American-Scandinavian Foundation dalla University of Texas Press. ISBN 0-292-73061-6. OCLC 638953.Kressel M (1 ottobre 2015). "36 giorni del mito giudaico: giorno 24, Il Golem di Praga 2015". Matteo Kressel. Estratto il 15 marzo 2020.LeCun Y, Bengio Y, Hinton G (2015). "Deep learning" (PDF). Natura. 521 (7553): 436–444. Codice biblico:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096.Lee A (23 gennaio 2024). "UT designa il 2024 'L'anno dell'intelligenza artificiale'" . Notizie UT.Estratto il 28 gennaio 2024.Linden SJ (2003). The alchemy reader: from Hermes Trismegistus to Isaac Newton. New York: Cambridge University Press. pp. Cap. 18. ISBN 0-521-79234-7. OCLC 51210362.Lohr S (17 ottobre 2016), "IBM conta sulla sua scommessa su Watson e paga un sacco di soldi per questo", New York TimesMarkoff J (16 febbraio 2011). "Su 'Jeopardy!' Watson Win è tutt'altro che banale". The New York Times.Marr B (20 marzo 2023). "Oltre le aspettative: cosa devi veramente sapere sull'intelligenza artificiale nel 2023". Forbes. Estratto il 27 gennaio 2024.McCarthy J (1988). "Review of The Question of Artificial Intelligence". Annali della storia dell'informatica. 10 (3): 224–229.McCarthy J (1996). "10. Revisione di La questione dell'intelligenza artificiale". Difendere la ricerca sull'intelligenza artificiale: una raccolta di saggi e recensioni. CSLI.McCulloch WS, Pitts W (1 dicembre 1943)."Un calcolo logico delle idee immanenti nell'attività nervosa". Bollettino di Biofisica Matematica. 5 (4): 115–133. Codice Bib:1943BMaB....5..115M. doi:10.1007/BF02478259. ISSN 1522-9602."Big data: la prossima frontiera per innovazione, concorrenza e produttività". McKinsey.com. 1 maggio 2011.Metz C, Weise K, Grant N, Isaac M (3 dicembre 2023). "Ego, paura e denaro: come è stata accesa la miccia dell'intelligenza artificiale". New York Times.Miller G (2003). "La rivoluzione cognitiva: una prospettiva storica" (PDF). Tendenze nelle scienze cognitive. 7 (3): 141–144. doi:10.1016/s1364-6613(03)00029-9. PMID 12639696.Moravec H (18 maggio 2000). Robot: semplice macchina per mente trascendente. Stampa dell'Università di Oxford. ISBN 9780195136302.Morford M (2007). Mitologia classica. Oxford: Oxford University Press. p. 184. ISBN 978-0-19-085164-4. OCLC 1102437035.Murgia M (23 luglio 2023). "Transformers: gli scienziati di Google che hanno aperto la strada a una rivoluzione dell'intelligenza artificiale". com.Estratto il 10 dicembre 2023.O'Neill C (6 settembre 2016). Armi di distruzione della matematica: come i big data aumentano la disuguaglianza e minaccia la democrazia. Crown. ISBN 978-0553418811.Nielson DL (1 gennaio 2005). "Capitolo 4: La vita e i tempi di un laboratorio SRI di successo: Intelligenza artificiale e robotica" (PDF). UN PATRIMONIO DI INNOVAZIONE Il primo mezzo secolo di SRI (1a ed.). SRI Internazionale. ISBN 978-0-9745208-0-3.Nilsson NJ (1984). "The SRI Artificial Intelligence Center: A Brief History" (PDF). Artificial Intelligence Center, SRI International. Archiviato dall'originale (PDF) il 10 agosto 2022.Olazaran Rodriguez JM (1991). Una sociologia storica della ricerca sulle reti neurali (PDF) (tesi). Università di Edimburgo. Archiviato dal (PDF) originale l'11 novembre 2022.Piccinini G (1 agosto 2004). "The First Computational Theory of Mind and Brain: A Close Look at McCulloch and Pitts's "Logical Calculus of Ideas Immanent in Nervous Activity"". Sintesi. 141 (2): 175–215. doi:10.1023/B:SYNT.0000043018.52445.3e ISSN 1573-0964.S2CID 10442035.Porterfield A (2006). The Protestant Experience in America. Esperienza religiosa americana. Greenwood Press. p. 136. ISBN 978-0-313-32801-5. Estratto 15 maggio 2023.Reiter R (1978). "Sul ragionamento per impostazione predefinita." American Journal of Computational Linguistics: 29–37.Rhodios A (2007). The Argonautika: Extended Edition. University of California Press, p. 355. ISBN 978-0-520-93439-9. OCLC 811491744.Rosa A (aprile 1946). "Il fulmine colpisce la matematica." Scienza popolare: 83–86.Rosen CA, Nilsson NJ, Adams MB (8 gennaio 1965). "A Research and Development Program in Applications of Intelligent Automata to Reconnaissance—Phase I. (Proposal for Research SRI No. ESU 65–1)" (PDF). Stanford Research Institute.Rosenblatt F (1962). Principi di neurodinamica: percettroni e teoria dei meccanismi cerebrali, vol. 55.Washington DC: Spartan Books.Russell SJ (2020). Human Compatibile: Artificial Intelligence and the Problem of Control. Penguin Random House. ISBN 9780525558637. OCLC 1113410915.Schaeffer J (1997). Un salto in avanti: sfidare la supremazia umana a dama. Springer. ISBN 978-0-387-76575-4.Schmidhuber J (2022). "Storia annotata dell'intelligenza artificiale moderna e del deep learning."Schultz W, Dayan P, Montague PR (14 marzo 1997). "Un substrato neurale di previsione e ricompensa." Scienza. 275 (5306): 1593–1599. doi:10.1126/science.275.5306.1593. PMID 9054347.Sejnowski TJ (23 ottobre 2018). The Deep Learning Revolution (1a ed.). Cambridge, Massachusetts; Londra, Inghilterra: The MIT Press, pp. 93–94. ISBN 978-0-262-03803-4."Sanhedrin 65b.".Widrow B, Lehr M (settembre 1990). "30 Years of Adaptive Neural Networks: Perceptron, Madaline, and Backpropagation." Atti dell'IEEE. 78 (9): 1415–1442. Codice bibliografico:1990IEEEP..78.1415W doi:10.1109/5.58323.S2CID 195704643.Berlinski D (2000). The Advent of the Algorithm. Harcourt Books. ISBN 978-0-15-601391-8. OCLC 46890682.Brooks RA (1990). "Gli elefanti non giocano a scacchi" (PDF). Robotica e sistemi autonomi. 6 (1–2): 3–15. doi:10.1016/S0921-8890(05)80025-9.Buchanan BG (inverno 2005). "A (molto) breve storia dell'intelligenza artificiale" (PDF). AI Magazine, pp. 53–60.Butler S (13 giugno 1863). "Darwin tra le macchine." The Press, Christchurch, Nuova Zelanda.Byrne JG (8 dicembre 2012)."Collezione di informatica John Gabriel Byrne" (PDF)."L'intelligenza artificiale è destinata a superare la potenza del cervello umano." 26 luglio 2006.Colby KM, Watt JB, Gilbert JP (1966). "Un metodo informatico di psicoterapia: comunicazione preliminare". Il giornale delle malattie nervose e mentali, vol. 142, n. 2, pp. 148–152. doi:10.1097/00005053-196602000-00005. PMID 5936301. S2CID 36947398.Colby KM (settembre 1974). Dieci critiche a Parry (PDF). Stanford Artificial Intelligence Laboratory, REPORT NO. STAN-CS-74-457.Couturat L (1901). La logica di Leibniz.Copeland J (2000). Micro-World AI.Copeland J (2004). The Essential Turing: le idee che hanno dato vita all'era dei computer. Oxford: Clarendon Press. ISBN 0-19-825079-7.Cordeschi R (2002). La scoperta dell'artificiale.Dordrecht: Kluwer.Crevier D (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: BasicBooks. ISBN 0-465-02997-3.Darrach B (20 novembre 1970). "Incontra Shaky, la prima persona elettronica." Life Magazine, pp. 58–68.Doyle J (1983). "Cos'è la psicologia razionale? Verso una filosofia mentale moderna." AI Magazine, vol. 4, n. 3, pp. 50–53.Dreyfus, H. (1965). Alchimia e intelligenza artificiale. Nota della RAND CorporationDreyfus, H. (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-06-090613-9. OCLC 5056816Dreyfus, H., & Dreyfus, S. (1986). Mente sulla macchina: il potere dell'intuizione e della competenza umana nell'era del computer. Oxford, Regno Unito: Blackwell. ISBN 978-0-02-908060-3. Accesso effettuato il 22 agosto 2020.The Economist. (2007, 7 giugno). "Are You Talking to Me?". The Economist. Consultato il 16 ottobre 2008Feigenbaum, E.A., & McCorduck, P. (1983). La quinta generazione: l'intelligenza artificiale e la sfida informatica del Giappone al mondo. Michele Giuseppe. ISBN 978-0-7181-2401-4Haigh, T. (2023, dicembre). "There Was No 'First AI Winter'". Comunicazioni dell'ACM, 66(12), 35–39. doi:10.1145/3625833. ISSN 0001-0782.Haugeland, J. (1985). Intelligenza Artificiale: l'idea stessa. Cambridge, Massachusetts: MIT Press. ISBN 978-0-262-08153-5.Hawkins, J., & Blakeslee, S. (2004). On Intelligence. New York, NY: Owl Books. ISBN 978-0-8050-7853-4. OCLC 61273290Hebb, D. (2002). L'organizzazione del comportamento (opera originale pubblicata nel 1949). New York: Wiley. ISBN 978-0-8058-4300-2. OCLC 48871099Hewitt, C., Bishop, P., & Steiger, R. (1973). A Universal Modular Actor Formalism for Artificial Intelligence (PDF). IJCAI. Archiviato dalla fonte originale il 29 dicembre 2009Hobbes, T. (1651). LeviatanoHofstadter, D. (1999). Gödel, Escher, Bach: An Eternal Golden Braid (Opera originale pubblicata nel 1979). Libri di base. ISBN 978-0-465-02656-2.OCLC 225590743Howe, J. (1994, novembre). Artificial Intelligence at Edinburgh University: A Perspective. Accesso 30 agosto 2007Kahneman, D., Slovic, D., & Tversky, A. (1982). "Giudizio in condizioni di incertezza: euristiche e pregiudizi". Scienza, 185(4157), 1124–1131. New York: Cambridge University Press. Codice Bib:1974Sci...185.1124T. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957.Kaplan, A., & Haenlein, M. (2018). "Siri, Siri nelle mie mani, chi è il più bello del paese? Sulle interpretazioni, illustrazioni e implicazioni dell'intelligenza artificiale". Business Horizons, 62, 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736Kolata, G. (1982). "Come possono i computer acquisire buon senso?". Scienza, 217(4566), 1237–1238. Codice Bib:1982Sci...217.1237K. doi:10.1126/science.217.4566.1237. PMID 17837639Kurzweil, R. (2005). The Singularity Is Near. Viking Press. ISBN 978-0-14-303788-0. OCLC 71826177Lakoff, G. (1987).Donne, fuoco e cose pericolose: quali categorie rivelano la mente. Stampa dell'Università di Chicago. ISBN 978-0-226-46804-4Lakoff, G., & Johnson, M. (1999). Filosofia nella carne: la mente incarnata e la sua sfida al pensiero occidentale. Libri di base. ISBN 978-0-465-05674-3.Lenat, D., & Guha, RV (1989). Costruire grandi sistemi basati sulla conoscenza. Addison-Wesley. ISBN 978-0-201-51752-1. OCLC 19981533Levitt, G. M. (2000). The Turk, Chess Automaton. Jefferson, N.C.: McFarland. ISBN 978-0-7864-0778-1Lighthill, P. S. (1973). "Intelligenza artificiale: un'indagine generale". In Intelligenza artificiale: un simposio cartaceo. Consiglio per la ricerca scientificaLucas, J. (1961). "Minds, Machines and Gödel". Filosofia, 36(XXXVI), 112–127. doi:10.1017/S0031819100057983. S2CID 55408480Luger, G., & Stubblefield, W. (2004). Intelligenza artificiale: strutture e strategie per la risoluzione di problemi complessi (5a ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7.Accesso 17 dicembre 2019.Maker, M. H. (2006). AI@50: AI Past, Present, Future. Dartmouth College. Archiviato dalla fonte originale l'8 ottobre 2008. Consultato il 16 ottobre 2008Markoff, J. (2005, 14 ottobre). "Dietro l'intelligenza artificiale, uno squadrone di brillanti persone reali". Il New York Times. Accesso effettuato il 16 ottobre 2008McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (1955, 31 agosto). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Archiviato dall'originale il 30 settembre 2008 e recuperato il 16 ottobre, 2008.McCarthy, J., & Hayes, PJ (1969). Alcuni problemi filosofici dal punto di vista dell'intelligenza artificiale. In B. J. Meltzer & D. Mitchie (a cura di), Machine Intelligence 4 (pp. 463–502). Stampa dell'Università di Edimburgo. Estratto il 16 ottobre, 2008.McCarthy, J. (1974). Revisione del rapporto Lighthill.McCorduck, P. (2004). Macchine che pensano (2a ed.). Natick, MA: A. K. Peters, Ltd. ISBN 978-1-56881-205-2.OCLC 52197627.McCullough, W. S., & Pitts, W. (1943). Un calcolo logico delle idee immanenti nell'attività nervosa. Bollettino di biofisica matematica, 5(4), 115–127. Codice biblico: 1943BMaB....5..115M. doi:10.1007/BF02478259.Menabrea, L. F., & Lovelace, A. (1843). Schizzo della macchina analitica inventata da Charles Babbage. Memorie scientifiche, 3. Estratto il 29 agosto, 2008. Con note sulle memorie del traduttore.Minsky, M. (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall.Minsky, M., & Papert, S. (1969). Percettroni: un'introduzione alla geometria computazionale. La stampa del MIT. ISBN 978-0-262-63111-2. OCLC 16924756.Minsky, M. (1974). A Framework for Representing Knowledge. Archiviato dall'originale il 7 gennaio 2021 e recuperato il 16 ottobre, 2008.Minsky, M. (1986). La società della mente. Simon e Schuster. ISBN 978-0-671-65713-0. OCLC 223353010.Minsky, M. (2001). È il 2001.Dov'è HAL?. Technetcast del dottor Dobb. Estratto l'8 agosto, 2009.Moor, J. (a cura di). (2003). The Turing Test: The Elusive Standard of Artificial Intelligence. Dordrecht: Kluwer Academic Publishers. ISBN 978-1-4020-1205-1.Moravec, H. (1976). Il ruolo della potenza pura nell'intelligence. Archiviata dall'originale il 3 marzo 2016 e recuperata il 16 ottobre, 2008.Moravec, H. (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57618-6. OCLC 245755104.Mulvihill, M. (2012, 17 ottobre). 1907: il primo computer portatile fu progettato in Irlanda? Irlanda geniale.Needham, J. (1986). Scienza e civiltà in Cina: volume 2. Taipei: Caves Books Ltd.Newell, A., & Simon, HA (1995). GPS: un programma che simula il pensiero umano. In E. Feigenbaum & J. Feldman (a cura di), Computers and Thought (ristampato dal 1963 ed.). New York: McGraw-Hill. ISBN 978-0-262-56092-4. OCLC 246968117.Newquist, H. P. (1994). The Brain Makers: Genius, Ego, And Greed in the Quest For Machines That Think. New York: Macmillan/SAMS. ISBN 978-0-9885937-1-8.OCLC 313139906.NRC (National Research Council). (1999). Developments in Artificial Intelligence. In Funding a Revolution: Government Support for Computing Research. National Academy Press. ISBN 978-0-309-06278-7. OCLC 246584055.Nick, M. (2005). Al Jazari: l'ingegnoso meccanico musulmano del XIII secolo. Al Shindagah. Estratto il 16 ottobre, 2008.Nilsson, N. (2009, 30 ottobre). The Quest for Artificial Intelligence. Cambridge University Press. ISBN 978-0-52-112293-1.O'Connor, K. M. (1994). La creazione alchemica della vita (takwin) e altri concetti della Genesi nell'Islam medievale (Tesi di dottorato, Università della Pennsylvania). pp. 1–435. Estratto il 10 gennaio, 2007.Olsen, S. (2004, 10 maggio). Newsmaker: Google's man Behind the Curtain. CNET. Consultato il 17 ottobre, 2008.Olsen, S. (2006, 18 agosto). Spiare un motore di ricerca intelligente. CNET. Estratto il 17 ottobre, 2008.Pearl, J. (1988).Ragionamento probabilistico nei sistemi intelligenti: reti di inferenza plausibile. San Mateo, California: Morgan Kaufmann. ISBN 978-1-55860-479-7. OCLC 249625842.Poole, D., Mackworth, A., & Goebel, R. (1998). Computational Intelligence: A Logical Approach. Oxford University Press. ISBN 978-0-19-510270-3.Pollack, A. (1984, 11 ottobre). "Tecnologia, logica fuzzy per i computer." New York Times.Pollack, A. (1989, 2 aprile). "Fuzzy Computer Theory: How to Mimic the Mind?" The New York Times.Quevedo, L. T. (1914). "Giornale dell'Accademia delle Scienze Esatte." Saggi sull'automazione: la sua definizione. Estensione teorica delle sue applicazioni, vol. 12, pp. 391–418.Quevedo, L. T. (1915). "Revisione generale delle scienze pure e applicate." Saggi sull'automazione: la sua definizione. Ambito teorico delle sue applicazioni, vol. 2, pp. 601–611.Randall, B. (1982). "Dalla macchina analitica al computer digitale elettronico: i contributi di Ludgate, Torres e Bush." Annali IEEE della storia dell'informatica, 4 (4): 327. Codice biblico:1982IAHC....4d.327R.doi:10.1109/MAHC.1982.10042.Russell, S. J. e Norvig, P. (2003). Intelligenza artificiale: un approccio moderno (2a ed.). Upper Saddle River, New Jersey: Prentice Hall. ISBN 0-13-790395-2.Russell, S. J., & Norvig, P. (2021). Intelligenza artificiale: un approccio moderno (4a ed.). Hoboken: Pearson. ISBN 978-0-13-461099-3. LCCN 20190474.Samuel, A. L. (1959, luglio). "Alcuni studi sull'apprendimento automatico utilizzando il gioco della dama." IBM Journal of Research and Development, 3 (3): 210–219. CiteSeerX 10.1.1.368.2254. doi:10.1147/rd.33.0210.S2CID 2126705.Saygin, A. P., Cicekli, I., & Akman, V. (2000). "Test di Turing: 50 anni dopo" (PDF). Menti e macchine, 10 (4): 463–518. doi:10.1023/A:1011288000451. hdl:11693/24987. S2CID 990084.Searle, J. (1980). "Minds, Brains and Programs." Scienze comportamentali e cerebrali, 3 (3): 417–457.doi:10.1017/S0140525X00005756.Simon, H. A., & Newell, A. (1958). "Heuristic Problem Solving: The Next Advance in Operations Research." Ricerca operativa, 6: 1–10. doi:10.1287/opre.6.1.1.Simon, H. A. (1965). La forma dell'automazione per uomini e management. New York: Harper & Riga.Skillings, J. (2006). Newsmaker: convincere le macchine a pensare come noi. CNET..Tascarella, P. (2006, 14 agosto). "Le aziende di robotica hanno difficoltà a raccogliere fondi, mentre il capitale di rischio è timido." Pittsburgh Business Times..Turing, A. (1936–1937). "On Computable Numbers, with an Application to the Entscheidungsproblem." Atti della London Mathematical Society, 2, 42 (42): 230–265. doi:10.1112/plms/s2-42.1.230.S2CID 73712.Turing, A. (1950, ottobre). "Macchine informatiche e intelligenza". Mente, 59 (236): 433–460. doi:10.1093/mind/LIX.236.433. ISSN 1460-2113. JSTOR2251299.S2CID 14636783.Turkle, S. (1984). The Second Self: Computers and the Human Spirit. Simon e Schuster. ISBN 978-0-671-46848-4. OCLC 895659909.Wason, P. C., & Shapiro, D. (1966). "Ragionamento." In B. M. Foss (a cura di), Nuovi orizzonti in psicologia. Harmondsworth: Pinguino...Weizenbaum, J. (1976). Potenza del computer e ragione umana. W.H. Freeman & Company. ISBN 978-0-14-022535-8. OCLC 10952283.Fonte: Archivio TORIma Accademia