Segue: il tema scientifico del momento: l’Intelligenza Artificiale, introdotta dalla Prof. Emilia Costa

…..lavoro sulla IA di McCulloch e Pitts del 1943 che spiega come qualsiasi funzione computabile può essere rappresentata da una rete di neuroni. E nel 1950, 7 anni più tardi Marvin ed Edmonds crearono la prima rete neurale nota con il nome di SNARC.

Nel 1956 in un Convegno sui Sistemi Intelligenti si crearono due team di ricerca, uno diretto da McCarthy che introdusse l’espressione IA ed espresse il proposito di costruire una macchina che simulasse tutte le capacità dell’intelligenza umana. Ed un secondo team diretto da Newell e Simon che aveva già un programma chiamato Logic Theorist che simulava parti del ragionamento umano. Programma che gli autori svilupparono ulteriormente negli anni creando il GPS (General Problem Solver) che mostrò come l’approccio che simulava obiettivi ed azioni era assimilabile a quello umano.

Negli stessi anni Rochester con l’IBM sviluppò altri programmi capaci di ragionamento.

Nel 58 McCarty come precedentemente annnunciato, sviluppò l’Advise Taker sistema che più tardi fu riconosciuto come il primo sistema intelligente completo.

Nel 1959 Gelemter creò il GTP un programma in grado di mostrare Teoremi complessi di Geometria. E nel 63 Minsky sviluppò il programma Saint che poteva risolvere problemi di calcolo integrale.

Dal 1966 al 1969 gli sforzi dei ricercatori si concentrarono sulle macchine che potessero avere capacità di ragionamento simili a quella umane. Incontrando però varie difficoltà come la mancanza di conoscenza semantica ed in conseguenza la limitazione dei finanziamenti negli USA; e soprattutto si capì che avere un algoritmo al livello teorico non voleva dire che un corrispondente programma fosse in grado di calcolarlo a livello pratico. Stessa cosa anche per le limitazioni alla base della logica, nel ragionamento dei calcolatori.

 In conseguenza di queste difficoltà i precedenti tipi di approcci furono definiti deboli e nel successivo decennio 1969-1979 si sviluppò Il programma DENDRAL in grado di ricostruire la struttura di una molecola, il primo dei sistemi basati sull’uso intensivo della conoscenza.

Successivamente Feigenbaum ed altri della Stanford University svilupparono il sistema MYCIN per le diagnosi delle infezioni sanguigne, e da allora si cominciò a teorizzare sui Sistemi Esperti.

Dopo gli studi nelle Università, dal 1980 al 1985 l’Industria cominciò ad utilizzare in ambito commerciale il sistema dell’IA creando molteplici sistemi, dagli USA al Giappone raggiugendo nel 1988 una cifra di miliardi di dollari con centinaia di Aziende che creavano sistemi esperti, robot, software e hardware specializzati in vari settori.

Nel 1986 si ripresero gli studi sull’algoritmo di apprendimento per reti neurali del ’69 che venne applicato sia per l’informatica che per la psicologia.

In sintesi i due modelli di Newell e Simon connessionista e di McCarthy simbolico furono visti come complementari ed utilizzati entrambi.

Oggi i sistemi intelligenti sono presenti in ogni campo, dai videogiochi agli scacchi, dalle macchine senza conducente alle missioni spaziali, dalla medicina al mercato azionario, dalla legge alla ricerca scientifica, dall’informatica alla robotica, eccetera

Nel 2017 in un convegno di esperti mondiali è stato redatto un vademecum: Asilomar con 23 principi per affrontare i problemi culturali, sociali, etici e militari. Riporto quello che come ASTRI ci interessa maggiormente, il 3°, “COLLEGAMENTI TRA POLITICA E SCIENZA: Ci dovrebbe essere uno scambio costruttivo e sano tra i ricercatori d’intelligenza artificiale e politici”.

Tuttavia per comprendere meglio la complessità del l’IA si dovrebbe imparare a saper distinguere la Robotica dall’IA. La Robotica è infatti una disciplina correlata all’IA in quanto richiede capacità cognitive per lo spostamento, manipolazione, locomozione, posizione, costruzione di mappe, pianificazione ed esecuzione dei movimenti.

Mentre l’IA si pone invece nella sfera della complessità e sviluppa sistemi che mostrano comportamenti intelligenti, i quali nell’ambito delle applicazioni presentano soluzioni diversificate, operando una scomposizione in sotto problemi, ciascuno con un ambito di ricerca per particolari abilità e proprietà. Per cui viene distinta una IA forte o debole secondo se vengono riprodotte tutte le funzioni della mente umana o solo alcune.

La rappresentazione della conoscenza e l’ingegneria genetica costituiscono i contributi centrali per comprendere quale tipo di conoscenza è opportuno immettere in un sistema intelligente: dagli oggetti alle proprietà, dalle categorie alle relazioni, eventi, oggetti, situazioni, tempo, ecc. La pianificazione, il contributo per definire gli obiettivi, perseguirli ed aggiornare le predizioni future.

L’apprendimento automatico o rete neurale studia gli algoritmi capaci di migliorare automaticamente le proprie performance attraverso l’esperienza.

Mentre l’elaborazione del linguaggio naturale fornisce la possibilità di leggere e capire il linguaggio umano, con tutte le sue ambiguità relative proprio al linguaggio naturale.

Il concetto poi di Agente intelligente centrale nell’IA definisce un’entità in grado di percepire l’ambiente con l’utilizzo di sensori e di agire sull’ambiente con l’utilizzo di attuatori. Ogni agente attraverso l’utilizzo di sensori è associato ad una sequenza di percezioni e ad un’azione da compiere definita misura della performance. Esistono comunque metodologie differenti per la creazione di agenti secondo l’ambiente in cui questi vengono posti: Agenti reattivi semplici, Agenti basati su modello, Agenti basati su obiettivi, Agenti basati su utilità. In pratica: la programmazione funzionale, la programmazione simbolica, la programmazione dinamica, la programmazione orientata agli oggetti.

In conclusione di queste brevi note descrittive, come già accennato, l’IA si è ormai talmente radicata in tutti i campi che quasi non si percepisce più come tale: dall’informatica con il time-sharing, interfaccia grafica, struttura dati, eccetera; alle banche anche per identificare fenomeni relativi a comportamenti nominali; alla medicina con l’interpretazione delle immagini mediche, analisi dei suoni del cuore, diagnosi di cancro, creazione di medicine e di Robot da accompagnamento per anziani e per malati, e via di seguito. Dando spunto a dibattiti filosofici ed etici sempre più frequenti, con domande tipo: può una macchina pensare? – Può una macchina ribellarsi? – Può una macchina decidere di prevaricare chi la programma? Può una macchina avere consapevolezza?

Personalmente ritengo difficile che una macchina impazzisca da sola, mentre purtroppo, potrebbe essere molto più facile, ma molto pericoloso, che lo faccia chi la programma!

BIBLIOGRAFIA

Kaplan Andreas – Haenlein Michael, Siri, Siri in my Hand, who’s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, URL, 13 11. 2018.

Stuart Russel, Petere Norvig – Artificial Intelligence: A Modern Approach, 3°edition – 2009 – Pearson Education Limited.

Nils J. Nilsson – The Quest For Artificial Intelligence, A History of Ideas And achievements, Web Version, Stanford University, 2010.