PM --> HOME PAGE ITALIANA --> ARGOMENTI ED AREE --> NOVITÁ --> PSICHIATRIA E SISTEMI COMPLESSI


PSYCHOMEDIA
SCIENZA E PENSIERO
Psichiatria e Sistemi Complessi



L’Intelligenza artificiale : l’uomo come “creatore”
(tra scienza applicativa e fantascienza)

Carla Bonamici*, Giacomo Pieraccioli, Giovanni Cozzolino




Qualcuno ha detto : “…la fantascienza, è solo la scienza del futuro, non importa quanto lontano o quanto prossimo..”
Il termine Intelligenza Artificiali (I.A.) nasce nel 1956 da un matematico americano Johh Mc. Caryhy che utilizzo tale termine, all’epoca, puramente fantascientifico, prevedendo che in un futuro la macchina avrebbe potuto sostituire l’uomo nelle sue funzioni anche particolarmente complesse al punto di essere dotata di un propria capacità ragionante .
A distanza di 54 anni la realtà delle I.A. si molto avvicinata alla scienza pura allontanandosi dalla fanta-scienza e la previsione di Mc Carthy è sicuramente molto più prossima ad una sua effettiva realizzazione.
Nonostante questa previsione di carattere strettamente tecnologico la vera realizzazione di una “vera” I. A. non appare immediata. Sicuramente gli automi oggi hanno raggiunto livelli di sofisticazione inimmaginabili nel 56’ e sicuramente il progresso tecnologico è oggi in grado di supplire a diverse attività umane, ma il concetto di “Intelligenza artificiale” comporta un salto di qualità ancora considerevole per essere identificata cautamente come tale.
Ci si sta muovendo in un campo che, oltre, l’aspetto puramente tecnologico, riguarda la filosofia, l’etica, la biologia.

L’attuale momento storico è caratterizzato, da un punto di vista geopolitico, dall’esistenza di diversi conflitti locali con una importanza però strategica di livello mondiale, che, come tali, richiedono particolari sforzi a livello di progresso tecnologico e culturale. Ciò sta rendendo possibile questo straordinario salto di qualità .
Come sempre, una guerra o dei conflitti, spronano il progresso tecnologico molto più di quanto questo possa progredire in situazioni di pace e armonia globale.
La necessità di produrre sistemi di arma sempre più precisi, autonomi, veloci e sensibili, ha proiettato verso l’alto tutta una serie di conquiste e invenzioni alle quali si sarebbe giunti sicuramente fra molti anni.
La necessità di risparmiare vite umane delegando attività militari ad automi in grado di agire in territorio nemico in modo succedaneo al soldato, ha reso possibile la realizzazione di macchine rivolte a questo scopo dalle caratteristiche più diverse.
Per cui si è riusciti a realizzare aerei da ricognizione autonomi e senza pilota, robot in grado di andare in avanscoperta, e disinnescare delle mine, oppure automi in grado di fare irruzione in situazioni di grande pericolo per salvare vite di ostaggi. Tutto ciò con livelli di autonomia e capacità di agire molto prossima a quella normalmente impiegata dall’uomo, ma ciò non toglie che siamo ancora lontani dal concetto stesso di I.A. nel senso compiuto del termine.

Le tecnologie di frontiera:

Molti ricercatori hanno posto l’accento sul fatto, e sulla tendezialità parossistica, di voler realizzare, anticipando in tempi, automi perfetti, a livello della somiglianza alle azioni umane più complesse, (come giocare a scacchi) tralasciando, per così dire, lo sviluppo “infantile” dell’automa. Fare in modo che comunque lo sviluppo del processo di automazione parta da azioni più semplici ma, comunque in contatto con l’ambiente in modo interattivo renderebbe , in senso di principio, l’automa permeabile ad imput esterni provenienti dall’ambiente reale che fornirebbero materia prima per la memorizzazione di realtà empiriche dalle quali “imparare”.
In realtà è quello che avviene (in variazioni immensamente più vaste) nella mente di un bambino che si affaccia sul mondo.
A detta di alcuni, esperti del settore , l’improbabile raggiungimento da parte di un computer di una capacità “vera” di un pensiero classificabile come intelligenza è imputabile al fatto, appunto, che lo stesso è isolato dal mondo, o al massimo collegato con esso tramite una rete informatica in grado di trasmettergli solo informazioni provenienti da altri computer.
La vera possibilità con la quale una macchina potrebbe raggiungere i livelli di vera intelligenza artificiale potrebbe essere raggiungibile solo da robot in grado di muoversi ed interagire con l’ambiente grazie a sensori .
La maggiore difficoltà in una costruzione di I.A. consiste nel fatto che il mondo circostante è sicuramente molto complesso e quindi una sua rappresentazione non potrà che esserlo ancora maggiormente, oltre ad essere incompleta. Quindi la percentuale di incertezza produrrà nella macchina una difficoltà nella sua azione nel momento stesso in cui la “sua rappresentazione del mondo”, non diretta ma mediata, dalla trasmissione indiretta, paventerà un problema non acquisito da detta rappresentazione.
In senso elementare, i mammiferi superiori, quindi anche l’uomo, acquisisce conoscenze per semplice imitazione-memorizzazione. Se paragoniamo il metodo di acquisizione della conoscenza da parte di uno scimpanzé , noteremo, che ad una osservazione prolungata e ripetitiva dell’ambiente egli compie delle azioni di risposta. Non si tratta semplicemente di memorizzazione di tutte le variabili, ma, di una memoria che genera modelli di risposta “circolari” interagenti con l’ambiente in modo binario, si direbbe “dialettico” è questo il primo prototipo di intelligenza appartenente agli scimpanzé come ai bambini molto piccoli (2/3/4 anni).
Come afferma Vincenzo Tagliasco, ricercatore presso il laboratorio integrato di robotica avanzata presso la facoltà di ingegneria dell’università di Genova : “.. nell’evoluzione delle macchine intelligenti si è cercato di saltare generazioni di macchine più modeste , ma in grado di fornire preziosi stimoli per capire come gli organismi biologici interagiscono con l’ambiente attraverso la percezione, la locomozione, la manipolazione…” la mancanza di questo passaggio essenziale ha certamente reso diverso, e forse anche rallentato, il processo verso una evoluzione tecnologica tendente alla acquisizione di una “identità” della macchina.

Le reti neurali :

A livello di ingegneria informatica si è andata formando in questi ultimi anni una scuola di pensiero interessante definita “connessionismo” basata sulla sempre diffusa disposizione di “reti neuronali” e “algoritmi genetici”. Su questi due termini vale la pena soffermarsi, in quanto appartenenti ad altro scibile quale la biologia dalla quale vengono presi a prestito per la loro caratteristica intrinseca.
Le reti neurali artificiali sono modelli matematici che rappresentano l’interconnessione tra elementi definiti neuroni artificiali, ossia costrutti matematici che in qualche misura imitano le priorità dei neuroni viventi. Questi modelli matematici possono essere utilizzati sia per ottenere una comprensione delle reti neuronali biologiche, ma ancor per risolvere problemi ingegneristici come quelli che pongono in diversi ambiti tecnologici.
Questo costrutto da un punto di vista costruttivo può essere realizzato da software e da hardware dedicato : DSP Digital Signal Processing questa branca può essere utilizzata in congiunzione alla logica di fuzzy .
L’algoritmo genetico parte da un certo numero di possibili soluzioni chiamate in gergo Popolazione e provvede a farle evolvere nel corso dell’esecuzione : a ciascuna interazione esso opera una selezione di individui della popolazione corrente, impiegandoli per generare nuovi elementi della popolazione stessa, che andranno a sostituire un pari numero d’individui già presenti , e a costituire in tal modo una nuova popolazione per l’interazione seguente .
Tale successioni di generazioni evolve fino e verso una soluzione ottimale del problema assegnato.
Come per i processi genetici, l’evoluzione delle generazioni delle popolazioni ogni individuo trasmette parte del proprio patrimonio genetico ai propri discendenti, e l’introduzione di caratteri casuali nella popolazione di partenza, sporadicamente quindi nascono individui con caratteristiche non comprese tra quelle presenti nel corredo genetico della specie originaria.
Alla fine della fase evolutiva ci si aspetta di trovare una popolazione di soluzioni che riescano a risolvere adeguatamente il problema posto.
Applicando quindi un principio appartenente alla genetica un modello di algoritmo, tradotto nella sua pura espressione matematica, riesce a definire un ventaglio di soluzioni valide per un problema matematico.
Sostanzialmente questi modelli di natura esterna all’informatica “pura” finiscono per essere cooptati all’interno di questa producendo applicazioni empiriche che costituiscono poi, nella realtà la risoluzione “informatica” allo sviluppo di nuova tecnologia mirante alla realizzazione di una I.A.
Il connessionismo per ora vince come scuola di pensiero rispetto ad altre in quanto si avvicina alla visione di una tecnologia mista e sinergica tra una visione sempre più neurologica dei computer e una puramente tecnica basata sulla sofisticazione e miniaturizzazione delle tecnologie e di circuiti .
E’ in questo campo di realtà, che il mito dell’automa simile o addirittura copia conforme di un essere umano, prende campo come realtà prossima ventura, come surrogato umano per conquiste al di la del nostro pianeta, ove il limite della nostra materia non può spingerci.
Ma, per restare ancorati al momento attuale cosa è, e come potrà una macchina essere concepita e costruita a somiglianza di un cervello umano?
Si diceva prima che l’essenzialità, per consentire ad un automa di avvicinarsi a questi livelli era quello di fare un salto di qualità ed imparare dalla sua infanzia, quindi fare esperienza similmente a quello che un bambino fa nel suo iniziale ciclo di vita.
Attualmente si possono definire due orientamenti filosofici : alcuni sostengono che un computer se correttamente programmato possa essere veramente dotato di una intelligenza pura , non distinguibile in nessun senso importante da una intelligenza umana.
Quello che regge questo concetto, l’idea che supporta questa similitudine possibile, risale al filosofo inglese T. Hobbes il quale sosteneva che ragionare non è nient’altro che calcolare : per cui la mente umana sarebbe niente di più di un complesso insieme di calcoli eseguiti dal cervello.
Saremo quindi secondo Hobbes dei sofisticatissimi meccanismi computazionali, il che è vero nella sintesi delle cose , anche se non tutto è semplicemente riportabile o riconducibile a questo unico modello.
Una seconda filosofia detta anche della “intelligenza artificiale debole” sostiene che un computer non sarà mai in grado di eguagliare la mente umana , ma al massimo giungere a simulare alcuni aspetti della mente umana senza riuscire a riprodurli nella loro totalità e complessità.
Fermo restando la programmazione classica, quella per intenderci basata su linguaggi simbolici e lineari, la grande velocità di calcolo supplisce quella che si può definire “parallelismo” che letteralmente identificherebbe la possibilità di “imparare”. La visione legata alla I.A. debole sarebbe quindi quella predominante, ma, questo è un settore scientifico in rapido mutamento e quello che per un momento dato sembrava essere certo viene velocemente superato nell’arco di pochi mesi dal raggiungimento di un traguardo successivo.
Per questo, lo sviluppo che si concretizza sotto i nostri occhi prende sempre più la connotazione di una generale età adolescenziale di una scienza come l’informatica che ci appare (similmente a questa età) come parossistica, affascinante, priva di freni, insuperabile per potenzialità future, inarrestabile nella sua marcia trionfale verso l’infinito.
Ma, l’esperienza nelle scoperte e nelle invenzioni umane ci conduce ad una visione più vicina ad una realtà che, per quanto potente fautrice di progresso, non si discosta da quella del suo “creatore”. Stiamo parlando di una macchina.
Da questo punto di vista il ridimensionamento dell’ottica dovrebbe essere immediato, siamo esseri imperfetti ergo non potremmo mai costruire o concepire qual’cosa di perfetto.
Ma codesta visione quanto è reale ? la risposta che possiamo dare a questo apparente semplice quesito è : siamo mortali ! Vero, questo è un limite, ma tutte le religioni ci avvertono che l’esperienza fisica è solo una parte infinitesimale dello spirito che ci anima è che fa di noi degli esseri immortali. Quindi il limite che ci definiva come imperfetti in quanto “finiti” si infrange davanti a questo dogma che, anche se fosse costruito da noi stessi ci darebbe la possibilità che “noi” possiamo pensare in senso “infinito”. Rimane quindi una diatriba aperta, e comunque incerta. In questo spazio di incertezza, che appare di carattere unicamente filosofico, si inserisce il progresso scientifico e tecnologico in modo prepotente. Esso comunque, si avvale del pensiero, indipendentemente dalla sua radice cerca la soluzione per utilizzare il pensiero medesimo per costruire se stesso in modo “artificiale”. E’ a questo punto che filosofia, tecnologia, e scienza si danno appuntamento. Il presupposto di una intesa tra campi e scibili apparentemente lontani è, o sarebbe , la presa d’atto che un automa deve, necessariamente, imparare dall’ambiente e non da una rappresentazione di esso (per quanto fedele). Quindi l’imitazione della sua analoga naturale sarebbe la sua strada, tenendo ben presente l’importanza dei processi evolutivi nello sviluppo delle caratteristiche morfologiche e comportamenti e nella posta in essere di quello normalmente definito “senso comune”. Un aspetto però va considerato. L’attuale momento storico vede un progressivo appiattimento culturale verso il basso delle ultime generazioni , almeno per quanto riguarda una parte importante del mondo occidentale (in primis l’Italia), ed un preoccupante fenomeno di “atrofia cognitiva” riguardante il mondo dell’istruzione in particolare per le materie scientifiche. Questo a fronte di un progressivo processo di delega verso, e alle macchine, principalmente quelle a forte automazione, che arrogano quindi a se compiti secondari o specifici in percentuale sempre più crescente e, sempre più insostituibile. L’esempio classico che si può fare, nel piccolo, riguarda il mondo della scuola ove la calcolatrice tascabile ha da tempo preso il posto della conoscenza mnemonica delle leggendarie “tabelline”.
Per quanto l’esempio possa apparire secondario rispetto a settori ben più strategici , come il settore industriale, quello sanitario, o quello della difesa, esso è un indicatore di progressiva delega intesa come comportamento acquisito nei confronti di una macchina sentita e vissuta come una nostra personale protesi mnemonica o peggio cognitiva.
I problemi quindi che si pongono nei confronti di uno sviluppo della I.A. sono quindi di due tipi : a) tecnologico-scientifico , b) etico- morale -strategico.
Il primo si sviluppa verso una risoluzione che vede un cambio di approccio riguardante la scienza del comportamento. Per cui la filosofia verso la quale tende è il modello : AMBIENTE MEMORIA GEN. ELABORAZIONE AZIONE MEMORIA DELL’AZIONE

Loop che vede chiudersi il circuito con una “chiusura del circuito sulla Memoria generale che comporta una “conoscenza”, anche se embrionale, delle azioni compiute nell’ambiente, ergo comportamento.
Il secondo ha tutt’altro percorso : come gestire questo modello di comportamento artificiale, rappresenta lo scopo della evoluzione immediatamente futura di questo tipo di conoscenza, la quale anche se molto simile a quella umana (o forse sovrapponibile ad essa) non ha ancora la possibilità di esprimere una capacità astrattiva e, men che meno una qualche capacità etico-morale.
Se, nel problema di primo tipo, il progresso tecnologico ha reso possibile la produzione e posta in essere di una intelligenza artificiale, nel secondo il discorso si complica in modo esponenziale.
Siamo, per così dire, all’infanzia dell’intelligenza la dove un bambino ai primi anni di vita riesce a costruire una base esperenziale dalla quale attingere conoscenze per azioni future.
Ma sappiamo che la capacità astrattiva e i modelli etico-morali sono un percorso lungo, complesso e soggettivo di gran lunga più complicati del “semplice” meccanismo di I.A.
La capacità astrattiva per l’uomo non compare prima del dodicesimo anno, e solo a seguito con un percorso pluriennale si sviluppa il comportamento morale. E anche dopo molti anni il risultato è direttamente connesso alla sua matrice sociale, culturale, antropologica con risposte soggettive e solo in parte generalizzabili.
Per cui il problema che si pone in termini poveri è : chi educherà le macchine ?
Il quesito è più antico di quanto si immagini, il terrore atavico dell’uomo moderno è quello di essere sbalzato dal suo trono di “somigliante a Dio” da una sua creatura, in questo caso una macchina.
Isaac Asimov , che oltre ad essere il grande scrittore di fantascienza che tutti conoscono, era anche un astrofisico, inventò un decalogo di comportamento morale per i Robot , asserviti all’uomo in un futuro, da lui immaginato remoto.
Il primo dogma di questo codice affermava che i robot non possono arrecare in nessun modo danno all’uomo suo creatore/costruttore.
La visione che invece potrebbe presentarsi in un futuro molto prossimo è più poliedrica.
Per giungere ad un comportamento di carattere sociale, eticamente e moralmente orientato, occorre che il livello di umanizzazione delle I.A. sia il più vicino possibile e simile al nostro, per cui noi avremmo a che fare, almeno teoricamente, con robot di età infantile, poi adolescenziale, infine matura.
Una I.A. con un carattere evolutivo come qualsiasi altra intelligenza, ma, addestrata dall’uomo secondo la sua personale o sociale estrazione culturale, antropologica, ideologica. Avremo quindi, potenzialmente, robot “sani” o “normali” e, sempre potenzialmente, robot “deviati”.
Si avrebbe quindi una società artificiale in cui le macchine dotate di I.A. e quindi , a questo punto anche di “personalità artificiale” , sarebbero figlie dirette dell’ambiente nelle quali “vivono” e si evolvono.
Sarà questo il dilemma da risolvere in un futuro che si annuncia molto prossimo.
Ma il vero dilemma, o la vera domanda da porsi è : quale è in nostro attuale livello di evoluzione etico-morale ?
In quanto una società ad alto contenuto tecnologico e a basso livello etico non può che generare in modo entropico il suo progressivo danneggiamento e la sua progressiva autodistruzione .
Attualmente, si può considerare il livello di attività tecnologica sicuramente molto alto, ma fine a se stesso.
L’ellisse si chiude sul livello e nel punto al quale si pone la nostra conoscenza di noi stessi e del nostro futuro.
Quale conoscenza quindi ci è stata tramandata del nostro passato anche prossimo ?
Senza conoscere questi dilemmi e questi presupposti quale sarà il destino di una tecnologia simile a noi ?
Continuando lungo le attuali direttrici di sviluppo l’I.A. diverrà sicuramente una intelligenza “diversa” da quella umana, ma, probabilmente, comparabile a livello di risultati in molti campi in cui necessita, in modo pragmatico, applicare scelte basate su casi precedenti .
Nozioni quindi di “ragionamento” che prevedano livelli percentuali di riuscita o di fallimento. Il dilemma si ripete : possiamo e dobbiamo fidarci di questo tipo di intelligenze ?
Sembrerebbe di si, almeno sul piano scientifico, ma è il solo piano scientifico quello che ci riguarda?
Possiamo definire il livello di I.A. che potrà in futuro essere prodotto , come una intelligenza succedanea a quella umana, quindi ad essa fungibile ?
Da un punto di vista unicamente scientifico la risposta potrebbe essere ancora un netto SI , lentamente , ma inesorabilmente la nostra delega verso le macchine è stata sempre più marcata. Basti pensare alla impossibilità di lavorare oggi senza l’ausilio di un P.C. , o alla sempre più definita nostra dipendenza dal telefono cellulare strumento multifunzionale, e nostra insostituibile appendice o protesi comunicativa , al quale deleghiamo buona parte della organizzazione del nostro tempo.
Non sarebbe immaginabile una loro assenza dalla nostra vita quotidiana.
Per cui la presenza di una delega sempre più presente , e sempre più incalzante delle “macchine” nel nostro vissuto è cosa acquisita .

Il rapporto ottimale uomo-macchina :

dato per scontato il percorso evolutivo dell’universo tecnologico , un quesito, (impensabile all’inizio del secolo scorso), nasce invece come essenziale : quale rapporto ottimale tra uomo e macchina ?
La risposta deve necessariamente partire da una conoscenza, almeno di massima, delle nuove entità automatiche-computazionali di cui sono e saranno dotati in maniera crescente le nove macchine.
Le Reti neurali il concetto di “rete” o di “nodo” non è nuovo, in elettrotecnica classica si conoscono le due leggi di Kirkoff secondo le quali : 1°) “ la somma delle correnti entranti in un nodo e quella delle correnti uscenti è uguale” stessa cosa si dica per il 2°) : “ la somma delle correnti entranti in una maglia è uguale alla somma delle correnti uscenti” .
Definendo le correnti come segnali in entrata e in uscita, si ha la possibilità di capire quale sia il principio di una rete neurale ,similmente a quella neuro-biologica.
Esiste un parallelo di funzionamento tra una cellula neuronale del sistema nervoso centrale e quella artificiale , sostanzialmente un neurone funziona come trasmettitore biochimico di una sostanza chimica chiamata comunemente neurotrasmettitore. Tra un neurone e l’altro i contatti sono tenuti dalle c.d. sinapsi neuronali che gestiscono la trasmissione del neurotrasmettitore che detiene il messaggio.
Tale comunicazione viene effettuata nel momento in cui sulle sinapsi si è addensato la necessaria quantità di sostanza biochimica atta a far scattare il passaggio alla cellula o alle cellule seguenti per l’ulteriore elaborazione-comunicazione.
Questo “ammasso” , definito “potenziale di azione” è l’energia che consente al segnale di andare avanti e proseguire nel suo percorso all’interno delle cellule neuronali per sfociare poi definitivamente in una azione fisica come parlare , muovere un braccio, memorizzare un numero, scrivere una parola ecc.

Per cui la struttura appare sostanzialmente come la figura sopra. Il fattore pregnante che accomuna la rete neuronale tecnologica a quella umana è la capacità della prima di porre in essere delle reti ricorrenti acicliche dove una funzione è dipendente da se stessa.
Quello che rende interessante lo studio di queste reti di è la loro possibilità di apprendimento, che in pratica significa che dato un compito specifico da risolvere e una classe di funzioni F , apprendimento significa impiegare un set di osservazioni al fine di trovare il protocollo risolutivo . Ciò comporta la definizione di una funzione di COSTO C : F R tale che per la soluzione ottimale nessuna soluzione è inferiore ha un costo inferiore.
Questo concetto , cardine dei sistemi di apprendimento elementari, rappresentano la base anche del comportamento dei primati e dell’uomo nella fase iniziale della vita. Definito anche “Misura di convenienza” o “Gradiente di convenienza” definisce, nella macchina la sua capacità oservativa-conservativa-ottimizzatrice di risposte a problemi non conosciuti precedentemente o, per usare un termine più adatto ad una macchina, non osservato precedentemente dalla stessa .
La funzione C definita appunto con i termini vari di COSTO, Gradiente di Convenienza , o Misura di Convenienza, è alla base del concetto generale di apprendimento . Nell’uomo, esso ha base d’azione emotiva e , susseguentemente cognitiva e razionalizzatrice. Questo si collega alla genesi dei processi di memoria che vedono, nell’uomo, la sua definizione iniziale come strettamente connessa alla pulsione del piacere.
Una intelligenza artificiale di ultimissima generazione, e in un futuro prossimo una macchina dotata di algoritmi genetici e reti neurali amplificate e recettive darebbe , o porrebbe le basi per una gestione di macchine con forte delega anche sociale da parte di altri automi di “livello superiore”.
In una catena gerarchica di protesi tecnologiche avanzate il sistema così costituito sicuramente avrebbe tra gli altri effetti benefici un abbassamento dei costi economici delle singole operazioni , e oltre a ciò un progressivo ed accelerato sviluppo produttivo di tecnologie di alto profilo a basso costo e fruibili da tutti.
Sicuramente ciò condurrebbe ad un netto miglioramento dei livelli di vita, ma potrebbe condurre anche a possibili effetti collaterali e punti di criticità la cui conoscenza anticipata metterebbe al riparo di situazioni altamente critiche .
La frase Cult di un film di qualche anno fa : “Matrix” : “… tra noi e loro…Nessuno sa chi colpì per Primo!...” potrebbe divenire drammaticamente reale.

Conclusioni :

quindi il rapporto uomo-macchina, che resta alla base, del nostro futuro evolutivo a livello planetario, deve considerare la tecnologia come strumento assolutamente servile, per quanto esso possa essere sofisticato, complesso, delegato a compiere le più vaste funzioni di grandissima importanza , e assoggettata all’uomo suo “creatore”.
La cosa non è affatto scontata considerando la delega auto generante attualmente affidata alle macchine. In un futuro prossimo venturo avremo più bisogno di ingegneri o di sociologi e psicologi sociali ?
quasi certamente la nuova figura di scienziato dovrà sempre più avvicinarsi ad un approccio olistico della scienza intesa come conoscenza, emanazione e pregnanza dell’uomo.
L’analisi ultima vedrebbe, in realtà, una definizione più spirituale della conoscenza e del progresso scientifico e tecnologico.
Un primato dell’uomo sulla tecnologia in generale , e quindi anche sulla evoluzione delle I.A. non può che essere di carattere “composito” se non propriamente olistico.
La profonda conoscenza di uno strumento o di un manufatto scientifico, non può non prevedere anche la più approfondita conoscenza delle modalità del suo utilizzo.
I nostri due mesencefali che operano , secondo quelle che sono le attuali conoscenze del nostro S.N.C. per ambiti diversi e opposti , dovranno operare in parallelo non più distaccatamente tra razionalità e astrazione.
Al di là delle nostre personali convinzioni e al di là dello sviluppo continuo delle I.A. e delle tecnologie ad esse applicate , la nostra sopravvivenza in quanto specie è indissolubilmente legata a questa nuova/antica visione della realtà, e alla capacità di vivere la conoscenza come parte di noi

Bibliografia

• Ernesto Burattini Roberto Cordeschi Intelligenza Artificiale Roma ,Ediz. Carocci
• Patarnello S. Le reti neuronali 1991 Ediz. Franco Angeli
• G. Fabbri e Raimondello Orsini Reti neurali per le scienze economiche Ediz. F.Muzio
• Meraviglia C. Le reti neuronali nella ricerca sociale Ediz. Il Mulino Bologna 2002

(*) Direttore Dip. Tecnologie e Sistemi informativi ESTAV-centro


PM --> HOME PAGE ITALIANA --> ARGOMENTI ED AREE --> NOVITÁ --> PSICHIATRIA E SISTEMI COMPLESSI