Home Page Riflessioni.it

        DOVE IL WEB RIFLETTE!  16° ANNO

Menu sito

Enciclopedia   Indice

Intelligenza artificiale

di Donata Allegri

Da “Robot & Risorse Oceaniche” - Ed. Lampi di stampa - 2006

 

 

L'Intelligenza Artificiale si propone di indagare i meccanismi che sono alla base della cognizione umana, in primo luogo il ragionamento logico-matematico, la capacità di risolvere problemi e la comprensione del linguaggio naturale, con il fine dichiarato di riprodurli per mezzo di elaboratori elettronici sufficientemente potenti. Secondo Marvin Minsky, che era uno dei partecipanti allo storico incontro organizzato presso il Darthmouth College, oltre a Claude Shannon, Herbert Simon Allen Newell e John McCarthy, lo scopo dell’Intelligenza Artificiale è quello di far fare alle macchine delle cose che richiederebbero l’intelligenza se fossero fatte dagli uomini.

In questo senso la storia si può  far risalire a C. Babbage che, resosi conto delle potenzialità delle schede perforate usate da Jacquard, nel 1823 progettò un congegno che chiamò “The different engine”, riusciva a fare calcoli differenziali facendo uso delle schede perforate e forniva i risultati sotto forma di nuove schede perforate. La macchine funzionava tramite bielle, cilindri, ingranaggi, ruote dentate con un numero di denti conforme al sistema decimale a 10 cifre. Il suono di campanelli avvisava quando si dovevano introdurre altre schede.

Herman Hollerith, studioso di statistica elaborò un tabulatore elettromeccanico per registrare i dati statistici mediante una perforazione automatica di schede, tale sistema fu usato con successo nei censimenti degli USA del 1890 e del 1900, mentre nel 1880 la tabulazione del censimento richiese 2 anni e mezzo e si trattava di 65 milioni di persone. Hollerith fondò la International Business Machines (IBM) e assieme a Remington Rand e John Powers migliorò il sistema di calcolo elettromeccanico.

Il fatto di dover affrontare una sempre crescente quantità di informazioni ha portato la società ad inventare calcolatori sempre più veloci ed elaborati. Howard Aiken che lavorava all’IBM, ideò, nel 1937 Mark I che era in grado di eseguire operazioni con numeri di undici cifre decimali, anche se si trattava ancora di una macchina elettromeccanica, può essere considerata il primo calcolatore digitale. La struttura dei calcolatori viene decisamente migliorata con la sostituizione dei relè, con le valvole o tubi elettronici e nel 1946 nasce E.N.I.A.C., concepito da John von Neumann, faceva l’elaborazione a lotti (batch) nell’ordine di migliaia di informazioni al minuto e la programmazione avveniva mediante schede. Questo primo calcolatore elettronico pesava  30 tonnellate, occupava una superficie di 140 m2 e conteneva 19.000 valvole. La seconda generazione di computer si ebbene gli anni ’60, grazie alla sostituzione delle valvole con i transistor era diventato tutto più veloce e con un minor dispendio di energia, più terminali e più telescriventi erano collegati ad un calcolatore centrale. Nella generazione che seguì l’invenzione del transistor, si scoprirono altri modi per comprimere ulteriormente la capacità d’informazione e la memoria in dispositivi a stato solido sempre più piccoli. Negli anni ’70 inizia la microelettronica su circuiti stampati, grazie alla comparsa del microchip, il risultato è stato che i calcolatori sono divenuti accessibili a tutti, l’elaborazione è diventata indipendente dai computer centrali, si inizia a parlare di  “informatica distribuita”, tramite cavi telefonici sia per telescriventi che per computer intelligenti.

Mentre da una parte si facevano sforzi per sviluppare programmi capaci di esibire comportamenti intelligenti, dall’altra ci si chiedeva se una macchina poteva essere intelligente, tanto che il matematico Alan Turing nel 1950 scrisse un articolo dal titolo "Computing machinery and intelligence" in cui descriveva quello che oggi è noto come test di Turing, egli era dell'idea che si potessero creare macchine capaci di mimare tutti i processi del cervello umano. Il fatto è che è difficile determinare cosa significhi pensare, nessuno è ancora riuscito a dare una definizione soddisfacente di intelligenza. Per questo motivo esistono 2 branche principali in cui è diviso lo studio dell’Intelligenza Artificiale:
1) intelligenza artificiale forte
2) intelligenza artificiale debole.

 

Quelli che appartengono alla prima sostengono che un computer possa essere dotato di un’intelligenza non distinguibile dall’intelligenza umana. Alla base di questa teoria vi sono le idee di Thomas Hobbes il quale sosteneva che ragionare non è nient’altro che calcolare e quindi la mente umana sarebbe il prodotto di un complesso insieme di calcoli eseguiti dal cervello. Quelli che sostengono la seconda teoria dicono che un computer non sarà mai equivalente alla mente umana, se potrà arrivare a simulare processi cognitivi non riuscirà a riprodurli nella loro totale complessità, in quanto componenti essenziali della mente umana sono anche la creatività, la socialità, le emozioni.

Un aspetto importante della nostra mente è che oltre all’eredità genetica, si sviluppa anche mentre vive, facendo esperienza o lavorando, questo processo è molto intenso nei primi anni di vita, però è molto difficile comprendere quali processi materiali avvengano e a quali leggi chimiche corrispondano.

Quando si parla di Intelligenza Artificiale si pensa in genere alla mente di un uomo,  mentre sarebbe più utile riferirsi alla mente di un bambino, oppure di un animale, a seconda dell’ambiente nel quale il robot dovrà operare, in quanto si tratta di una macchina, anche molto sofisticata, che deve essere un collaboratore dell’uomo. Ad esempio chi si interessa di robotica subacquea dovrà studiare il comportamento degli animali acquatici come i pesci, le tartarughe, i delfini, mentre chi vuole realizzare robot che volano dovrà osservare gli insetti o gli uccelli. Spesso il mondo fisico nel quale deve operare un robot è “non strutturato”, ossia non sempre prevedibile a priori, quindi il robot deve saper modificare il proprio comportamento a seconda delle situazioni.

Sono stati progettati computer che giocano a scacchi, Deep Blue è stato prodotto dall'IBM e nel 1996 vinse a scacchi giocando contro l’allora Campione del Mondo Garry Kasparov; la forza di Deep Blue deriva principalmente dalla sua straordinaria potenza computazionale, è capace di calcolare 100 milioni di posizioni al secondo. Però un computer non è dotato di facoltà cognitive infatti nemmeno il più sofisticato, è in grado di scrivere un romanzo o un banale racconto e questo perché un e l’elaborazione letteraria è il concetto più vicino a quello dell’intelligenza umana.

Il professor Selmer Bringsjord, all’inizio degli anni novanta, ha voluto raccogliere questa sfida dando vita a Brutus 1, un computer che partendo da una base di migliaia di possibili situazioni memorizzate in un database riusciva a scrivere dei brevi racconti di 500 parole. Però era necessario fornirgli la struttura del racconto e una serie di informazioni sulla natura dei personaggi.

Scienziati di tutto il mondo stanno cercando di sviluppare sistemi che simulino il modo di funzionare del nostro cervello. La capacità di calcolo è una delle caratteristiche essenziali ma la velocità, da sola, non è mai sinonimo d’intelligenza. Chris McKinstry sta lavorando alla creazione di una gigantesca banca dati di informazioni comuni a tutti gli abitanti della Terra, con lo scopo di rendere i computer più intelligenti. Questa banca dati viene aggiornata continuamente da volontari via internet, le informazioni fornite sono molto semplici del tipo true/false o proposte probabilistiche. Ognuna di queste affermazioni è classificata come “item” (voce) o “mindpixel”.

Un computer che pensa è un computer che impara e combina delle informazioni semplici per fare delle cose complicate. Il problema è che non si riesce a fare dei modelli matematici del comportamento umano, si tratta di processi complessi ed aleatori, bisognerebbe scomporre questi in atti semplici programmabili e gestibili da un software, per attuare questo  Nel 1994  McKinstry ha lanciato un primo progetto per raccogliere “items” su internet, successivamente ha lanciato un progetto più complesso GAC (Generic Artificial Consciousness), con i dati raccolti  formerà un data base per addestrare un sistema basato su una rete di neuroni  per mimare l'essere umano. McKinstry non è l'unico a lavorare ad un progetto di questo genere, anche Push Singh del Media Lab di Boston ha elaborato un sistema le cui informazioni sono “open source” cioè chiunque può scaricarle e utilizzarle, rispettando poche e semplici regole. Se da una parte c’è un forte stimolo a realizzare computer  sempre più efficienti capaci di vedere, palare, sentire, dall’altra c’è chi teme tutto questo ma, come scriveva Isaac Asimov: ”Quale modo migliore per celebrare la vittoria dell’intelligenza se non quello di trasmettere la nostra eredità ad una intelligenza ancora più grande, creata da noi?”

 

Donata Allegri
"Robot & Risorse oceaniche"

Utenti connessi


Cerca nel sito

Iscriviti alla Newsletter
Un solo invio al mese

Iscriviti alla Newsletter mensile


seguici su facebook


I contenuti pubblicati su www.riflessioni.it sono soggetti a "Riproduzione Riservata", per maggiori informazioni NOTE LEGALI

Riflessioni.it - ideato, realizzato e gestito da Ivo Nardi - P.IVA 09009801003 - copyright©2000-2016

Privacy e Cookies - Informazioni sito e Contatti - Feed - Rss
RIFLESSIONI.IT  -  Dove il Web Riflette!  -  Per Comprendere quell'Universo che avvolge ogni Essere che contiene un Universo...