L’intelligenza artificiale è la vera sfida di questi anni. Lo dicono gli esperti, e tutte le più grandi aziende si stanno muovendo in questa direzione per poter sviluppare un’intelligenza artificiale che sia utile agli uomini e che possa semplificare la nostra vita.
Si dibatte anche molto sul suo utilizzo, e lo stesso Elon Musk in un tweet ha detto che “Potenzialmente è più pericolosa dell’energia nucleare”. Insomma, sull’Intelligenza Artificiale il dibattito è aperto.
Per quanto però possa sembrare un argomento nuovo, in realtà l’intelligenza artificiale è una disciplina che ha ormai molti anni. Senza scomodare i pensatori greci e romani che hanno introdotto il linguaggio logico-matematico e hanno anticipato molte delle intuizioni successive, possiamo dire che fin dagli anni 50 abbiamo le prime applicazioni e ancora prima, negli anni 30, Alan Turing aveva formalizzato il concetto di algoritmo che sta alla base della moderna scienza informatica.
La nascita dell’intelligenza artificiale
La vera e propria data di nascita dell’Intelligenza Artificiale così come la conosciamo oggi si può stabilire nel 1956, quando John McCarthy (uno dei padri della moderna scienza computazionale dedicata allo sviluppo di macchine intelligenti) durante un convegno utilizzò per primo l’espressione “Artificial Intelligence” o A. I., come viene abbreviata nel mondo anglosassone.
Le speranze erano molte, e addirittura si decise di sviluppare in due mesi una macchina che riuscisse a replicare il funzionamento dell’essere umano. Ovviamente il tentativo fallì, ma è proprio da lì che prese l’avvio la ricerca e lo sviluppo di una forma di intelligenza diversa da quella umana.
I primi risultati
Già nel 1959 erano stati sviluppati dei programmi che riuscivano a risolvere complessi problemi di geometria. L’informatica era agli albori, ma era già possibile programmare le macchine perché aiutassero gli esseri umani in compiti ripetitivi.
Sempre McCarthy fu il primo a sviluppare nel 1959 un documento chiamato Advice Taker, che si può considerare il primo programma per l’apprendimento autonomo delle macchine non legato alla risoluzione di problemi matematici.
Dopo questi primi successi però, lo studio dell’Intelligenza Artificiale cominciò a subire un declino che si sarebbe protratto per diversi anni.
Il calo di interesse
Nel 1966 il governo USA interruppe il programma di sviluppo che era stato avviato per la realizzazione di macchine traduttrici automatiche a causa dell’impossibilità di insegnare al computer, con gli strumenti disponibili all’epoca, a distinguere le varie sfumature semantiche di una parola. Fu un duro colpo per i ricercatori, che bloccò per qualche anno la ricerca e fece abbandonare delle strade anche molto promettenti che erano state intraprese.
Altre previsioni sullo sviluppo dell’intelligenza artificiale fallirono clamorosamente, come ad esempio quando nel 1957 Herbert Simon, anche lui uno dei primi studiosi di informatica, aveva predetto che nel giro di 10 anni il computer sarebbe stato capace di battere un uomo a scacchi. Peccato che ci sarebbero voluti 40 anni perché questo si avverasse, con la storica sfida tra il supercomputer “Deep Blue” di IBM e Garry Kasparov, campione mondiale di scacchi. Per la cronaca, Kasparov perse il primo incontro, ma riuscì a vincere i successivi.
Le reti neurali
Uno dei principali errori commessi nei primi esperimenti era stato di pensare che si potesse far ragionare il computer in maniera logica riempiendolo di dati e facendogli eseguire delle operazioni. Questo però implicava il consumo o la disponibilità di una quantità enorme di energia da applicare e un tempo di elaborazione lunghissimo. Soprattutto aveva grandi margini di errore.
La svolta si ebbe quando, applicando le moderne scoperte della neuroscienza e i decisivi passi avanti nella tecnologia, si passò a ideare dei computer che ragionassero e fossero organizzati in maniera simile al cervello umano creando quello che viene definito percettrone, ovvero una forma molto semplice di rete neurale che simula le connessioni tra neuroni e sinapsi che esistono nel cervello.
In questo modo cominciò a diventare possibile sviluppare macchine per l’apprendimento automatico più leggere, stabili e che dessero migliori risultati. Certo, eravamo ancora ben lontani dal simulare il cervello umano e la sua capacità di apprendimento, ma era stato fatto un decisivo passo avanti.
Un ulteriore passo avanti nella teoria fu fatto con la differenziazione tra Intelligenza Artificiale “debole” e “forte”.
Intelligenza artificiale debole e forte
La differenza fondamentale tra i due tipi di Intelligenza Artificiale sta nella capacità di compiere solo una o più funzioni del cervello umano.
Ad esempio, le forme di Intelligenza Artificiale applicate all’industria, grazie alle quali è possibile ad esempio risparmiare tempo e denaro utilizzando l’automazione dei magazzini e la razionalizzazione degli spazi grazie alle macchine, può essere considerata una forma di Intelligenza Artificiale debole, poiché riesce a compiere una sola operazione, anche se in maniera egregia.
La vera sfida contemporanea è concentrata sull’Intelligenza Artificiale forte, ovvero sulla possibilità di insegnare a una macchina a lavorare e ragionare in maniera uguale a un essere umano.
Nascono però delle domande di tipo etico: potranno le macchine competere con l’uomo? Oppure, se riuscissimo a insegnare a una macchina a lavorare e pensare come un uomo, non c’è il rischio di creare una specie di macchina ancora più evoluta dell’essere umano?
Qui il discorso si sposta all’ambito filosofico, e il dibattito è ancora molto aperto.
Il dibattito filosofico sull’Intelligenza Artificiale
Una macchina che riuscisse a pensare e lavorare come e meglio di un uomo, avrebbe anche una coscienza? Riuscirebbe a capire le ragioni delle proprie azioni, e a fermarsi in tempo prima di acquisire troppo potere?
Negli anni ci sono stati dibattiti e scontri su questo, e la discussione è ancora aperta. Sono stati fatti dei passi avanti nella tecnologia, e c’è il rischio che non si riesca a stare dietro a tutte le innovazioni.
Nel 2019 l’Unione Europea ha elaborato un Codice Etico per l’Intelligenza Artificiale con 7 requisiti, nei quali si parla proprio dell’etica nello sviluppo di macchine pensanti.
A noi piace pensare che i robot pensanti del prossimo futuro vengano sviluppati seguendo le 3 Leggi della Robotica elaborate non da uno scienziato o da un filosofo, ma da uno scrittore di fantascienza, forse il più grande scrittore di fantascienza di sempre, come Richard Asimov.
I “robot positronici” che compaiono nei suoi romanzi obbediscono infatti a queste tre leggi fondamentali:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Di sicuro viviamo in un’epoca in cui la corsa all’Intelligenza Artificiale è più aperta che mai, e promette esaltanti sviluppi. Se saranno buoni o cattivi per gli esseri umani, ancora non possiamo saperlo con certezza.
Anche se l’Intelligenza Artificiale domina il dibattito contemporaneo, in Strike siamo convinti che solo affiancando alla potenza calcolatrice delle macchine la creatività umana sia possibile raggiungere dei grandi risultati.
Se vuoi analizzare i dati già in possesso della tua azienda e sfruttarli per migliorare il tuo lavoro, chiamaci per una call gratuita!
Foto di Tara Winstead da Pexels