Per suggerimenti e osservazioni scrivi a:

info@storiadelleidee.it

Si ricorda a tutti i visitatori che il sito è in costruzione, ci scusiamo per i numerosi refusi causati dalla dattiloscrittura/dettatura vocale, il materiale presente deve ancora essere revisionato. Lo scopo del sito è didattico i materiali pubblicati o visibili tramite link sono di esclusiva proprietà dei rispettivi autori o gestori.

E' possibile trovare le spiegazioni delle lezioni e dei testi presenti sul sito nell'omonimo canale Storia delle idee

http://www.youtube.com/storiadelleidee

Profilo facebook

http://facebook.com/storia.delleidee.52

Il sito è a cura del prof. Bernardo Croci, attualmente insegnante di filosofia presso il Liceo delle Scienze Umane Galilei di Firenze.

Amici e collaboratori stanno contribuendo alla realizzazione.

Nel 1951 cercando di descrivere, riproducendolo, il funzionamento del cervello umano secondo calcoli matematici, Marvin Minsky (1927-2016) https://i.ytimg.com/vi/Zo68UjlWj8Y/hqdefault.jpg (1927) crea lo Snarc computer (Stocastic Neural Analog Reinforcement), il primo simulatore di reti neurali, cioè il primo simulatore che funziona come un cervello reale https://cyberneticzoo.com/wp-content/uploads/neuron-SNARC-GJLoan2011-x640.jpg L'idea portante è che il cervello è una macchina, la macchina è un cervello. Nell'estate del 1956 si riuniscono a Dartmouth, negli Stati Uniti, i principali esperti di una nuova disciplina che vede confluire in sé contributi di matematici, esperti di strategia, elettronici, informatici, studiosi di scienze cognitive e filosofi. Si propose in quell'occasione di riferirsi a questo campo di studi come Intelligenza Artificiale. I partecipanti erano tutti convinti della possibilità di costruire macchine che svolgano funzioni intelligenti. Minsky ha elaborato la teoria The Society of Mind che si fonda sul concetto che l'intelligenza non è il prodotto di un singolo meccanismo, ma si produce dall'interazione delle diverse varietà di molti agenti: questa diversità è necessaria perché le differenti mansioni richiedono fondamentalmente differenti meccanismi. La psicologia si configura come una ricerca attraverso i meccanismi che la mente può usare nella gestione dell'interazione dei diversi elementi. Negli anni Novanta il lavoro di Minsky sulle reti neurali sfocia in una teoria chiamata connessionismo, owero la convinzione che si possa arrivare a riprodurre e quindi a comprendere il funzionamento del cervello umano attraverso una simulazione nello spazio tecnologico del computer. https://www.researchgate.net/profile/Marco_Follador/publication/46091624/figure/fig15/AS:457304949694479@1486041404837/1-Schema-di-una-rete-neurale-con-un-solo-strato-nascosto-Il-modello-PNNET-e-basato-su.png L'Intelligenza Artificiale classica si compone di due correnti: I'Al forte basata sulla convinzione che un calcolatore, con programmi opportuni, possa essere dotato di un'intelligenza vera, indistinguibile da quella umana, dal momento che il cervello produce pensiero sotto forma di un calcolo non diverso da quello usato per risolvere un problema e quindi riproponibile con una serie di algoritmi. L'altra corrente o Al debole, si basa sull'idea che un calcolatore può solo simulare alcuni dei processi mentali e eseguire al massimo una serie di operazioni pre-impostate che hanno lo scopo di fornire un risultato identico a quello che riprodurrebbe il cervello umano. https://slideplayer.it/slide/951981/3/images/34/Intelligenza+Artificiale.jpg

Da questo dibattito nasce anche il dibattito contemporaneo sulla natura della coscienza: tra le posizioni più importanti vi sono quella di Daniel Dennett (1942), John Searle (1932) e Roger Penrose (1931) rispettivamente: funzionalismo Dennett, monismo-materialismo Searle, dualismo Penrose.

Queste tre concezioni ancora una volta rispondono ai diversi approcci rispetto all’IA già espressi in precedenza. Dennett https://now.tufts.edu/sites/default/files/170420_dennett_lg.jpg si colloca tra i riduzionisti e gli epifenomenisti (IA forte). Innanzi tutto secondo Dennett vi è un problema legato alla consuetudine nell’utilizzo di determinate categorie concettuali. Esse sono spesso ricavate dalla nostra esperienza quotidiana per cui ci risulta ovvio che una braciola di manzo sia un alimento e al contempo ci risulterebbe orribile vedere una braciola di un cane. Siamo soliti attribuire coscienza ed intenzionalità ad un animale domestico, a noi stessi ed ad altri esseri viventi su cui la letteratura e la cultura hanno costruito particolari scenari (ad es. il delfino, l’aquila, il gufo, il pappagallo, il leone etc.), ci risulta molto più difficile attribuire coscienza ad un animale che fa parte della nostra dieta alimentare, o ad un animale di cui abbiamo timore o ribrezzo tipo un rettile o un aracnide.

Questi concetti, che sono legati ad una sorta di antropomorfizzazione di ciò che ci circonda in base alla consuetudine, sono ampiamente dibattuti da Dennett nel testo l’Io della mente, in particolare sul concetto di antropomorfizzazione è esplicativa la lettura del brano l’Anima dell’animale modello III. https://1.bp.blogspot.com/-PVjm2wfT2n0/VZqStdsgoqI/AAAAAAAABVQ/IuH4sWZwbYE/s1600/90aebd9f11c3174a4dbc8b302ff613d2.jpg

Questa prospettiva, dichiaratamente funzionalista, sostiene la possibilità di ridurre gli ‘stati’ di coscienza a degli ‘stati’ interni della macchina di Turing. Dennett annota nella sua opera Coscienza. Che cos’è? che la difficoltà nel far superare il test di Turing ad una macchina che lavora in serie, e non in parallelo come sembra fare il cervello umano, non è un problema ontologico, ma solo di potenzialità. La mente umana, tenuto conto della possibile evoluzione dei calcolatori elettronici, risulta essere una macchina di Turing obbligata a lavorare su un supporto hardware che ha strutture che agiscono in parallelo, la quale struttura determina gli innumerevoli errori di valutazione che ci danno la percezione della nostra libertà ed intenzionalità. La prospettiva di Dennett è riduzionista: la coscienza risulta essere un prodotto secondario del cervello, un epifenomeno, sulle orme di David Hume o Thomas Hobbes . Questa prospettiva che vede nell’IA il suo maggior alleato si poggia sulla possibilità teorica che un automa possa passare il test di Turing.

Uno degli argomenti più forti contro il test di Turing è rappresentato dall’esperimento della stanza cinese di John Searle. https://encrypted-tbn0.gstatic.com/images?q=tbn%3AANd9GcTeE1Xn_liFB5Wfj3mC_-aHY6x3YOgRgnKZSqHEiZFV6jz1HAHo&usqp=CAU Egli intende dimostrare che non è sufficiente simulare l’abilità umana di manipolare simboli linguistici per poter dichiarare di aver riprodotto una coscienza. In sostanza pur non rinunciando ad una prospettiva materialista Searle nega il funzionalismo e con esso l’idea dell’IA forte, sostenendo un IA debole, cioè che si possa simulare artificialmente una coscienza ma che la simulazione è diversa dalla coscienza stessa. Tenendo presente il test di Turing, l’argomento proposto è questo:

Immaginate che un uomo che non conosce il cinese sia chiuso a chiave in una stanza e abbia a disposizione una serie di ideogrammi e un programma per calcolatore in grado di rispondere a quesiti formulati in quella lingua. Gli input del sistema così costruito sarebbero costituiti da domande formulate in cinese, mentre gli output sarebbero risposte nella stessa lingua. Possiamo supporre che il programma a disposizione dell'uomo sia di tale qualità da far sì che le sue risposte siano indistinguibili da quelle che fornirebbe un parlante madrelingua. Ciò nonostante né la persona chiusa dentro la stanza, né alcuna parte del sistema comprende veramente il cinese; inoltre, visto che il calcolatore così programmato non ha alcuna proprietà addizionale rispetto al sistema nel suo complesso, esso stesso, in quanto calcolatore, non comprende affatto il cinese https://noushomeblog.files.wordpress.com/2019/01/stanza-cinese-1.jpeg?w=1060

Con questo contro-test di Turing, Searle vuole dimostrare che mentre un programma è il prodotto di un insieme di regole sintattiche, l’aver coscienza e comprensione di qualcosa dipende dalla semantica, e, tenuto conto che essa non è ricavabile dalla sintassi, un programma può simulare la coscienza, ma non avere coscienza. In questo senso egli aderisce alla prospettiva dell’IA debole che sostiene che l’IA è utile a studiare la mente, ma non può riprodurla con un modello basato sull’architettura di Von Neumann. In linea di principio tuttavia non nega la possibilità di produrre una mente artificiale se un domani fossimo capaci di costruire una struttura simile al cervello (purché lavori in parallelo e abbia la capacita plastica dei neuroni). Il problema è che, secondo Searle, non siamo in grado ad oggi di individuare in modo sufficientemente preciso quali strutture neuronali generano l’attività mentale, né siamo in grado di riprodurre le caratteristiche della soggettività.

La posizione di Roger Penrose https://www.preposterousuniverse.com/wp-content/uploads/roger-penrose-1024x1024.jpg afferma invece che è l’azione fisica del cervello a genera consapevolezza, ossia coscienza, e che tale consapevolezza non può mai essere tradotta con procedimenti algoritmici (computazioni); in questo senso è stata definita come posizione dualistica, perché sembra attribuire alla mente qualità che prescindono dalle strutture materiali che sono solitamente determinate.

Penrose ha iniziato ad esporre la sua tesi nell’opera La mente nuova dell’imperatore, ove sostiene che alcune operazioni matematiche non sono computabili, eppure la mente umana riesce a trattarle, o quantomeno a dimostrare che non sono computabili come la congettura di Riemman e che in generale vi sono verità indimostrabili come affermato dal teorema di Gödel.

Kurt Gödel (1906-1978) https://www.enzopennetta.it/wp-content/uploads/2018/01/godel.jpg che ci dice che: ogni sistema formale (compresa la teoria dei numeri) contiene sempre almeno un’affermazione che non può essere dimostrata né vera né falsa in base al sistema stesso, cioè un’affermazione indecidibile; ogni sistema non contraddittorio deve necessariamente contenere una proposizione del tipo “io non sono dimostrabile” e questa è vera (come si nota c’è un legame con il paradosso di Russell da cui effettivamente prende le mosse il ragionamento di Gödel). Godel dimostrò, in pratica, che la logica ha un limite come strumento per conoscere l’universo: e che in nessun sistema è possibile definire il concetto di verità in sé. https://slideplayer.it/slide/188159/1/images/7/Il+teorema+di+incompletezza+di+Godel+%281931%29.jpg

Penrose sostiene, recuperando in parte Popper che la matematica, che è al contempo un prodotto del mentale e un produttore del mondo fisico, diviene il mezzo attraverso il quale dimostrare l’irriducibilità della mente.

Per Penrose la mente umana può intuire cose che la macchina, fondandosi solo su procedimenti computabili e quindi decidibili, non può calcolare. Penrose sostiene che noi umani possiamo renderci conto che un teorema è vero, anche se nessuno strumento matematico (compreso il computer) potrebbe mai dimostrare che è vero (appunto perchè è matematicamente indecidibile). Questo riguarda la capacità umana di intuire le verità matematiche. Noi umani possiamo intuire la verità di un teorema (es. la congettura di Rimannn) anche se non lo possiamo dimostrare; ma il computer, che usa soltanto sistemi assiomatici e modelli algoritmici-computazionali, non riuscirebbe mai ad accettare tale verità senza un procedimento logico, dunque procederebbe all’infinito nei calcoli senza mai giungere a soluzione:

Il fenomeno della coscienza può nascere solo in presenza di qualche processo fisico non computazionale che avvenga nel cervello

Penrose si pone di risolvere il problema di dove abbia origine la coscienza, cioè quale struttura neurobiologica può generare processi non computabili. Per far ciò si è servito della meccanica quantistica: l’incoputabilità è dovuta al fatto che nella nostra mente si verificano degli effetti di tipo quantico, che in virtù del principio di indeterminazione e di altri comportamenti particolari come l’acausalità, risultano essere effettivamente non computabili.

Penrose sostiene che tali effetti potrebbero avere logo nel citoscheletro delle cellule neuronali, che secondo l’ipotesi proposta da Stuart Hameroff https://encrypted-tbn0.gstatic.com/images?q=tbn%3AANd9GcR40iejiUVdiVJGmk6TN3btCaeAMxKw9p3mdMbvWtNvR6ylJxFm&usqp=CAU nella sua opera del 1987, svolgerebbe una funzione di sotto “sistema nervoso” del neurone stesso. A suffragio di questa ipotesi viene portato ed esempio il funzionamento di organismo monocellulari come il paramecio o l’ameba, che pur in assenza di neuroni (è ovvio essendo appunto monocellulari) riescono a svolgere molte operazioni semplici. https://encrypted-tbn0.gstatic.com/images?q=tbn%3AANd9GcTGrnqvA9oqhbDMC9Coiy2iFaM_F33_QJUkqeOyhFWpJxG8XZo-&usqp=CAU

Il citoscheletro di una cellula è composto di varie strutture: astina, microtuboli e filamenti intermedi. In particolare i microtuboli sono composti da tubi cilindrici cavi, con un diametro esterno di circa 25 nanometro e un diametro interno di 14 nanometri. Ciascun microtubolo è un polimero formato da proteine di tuboline. Ciascuna tubolina è a sua volta un dirimero, cioè è formata da due parti essenzialmente separate chiamate ά-tubolina e β-tubolina, ciascuna delle quali è composta da circa 450 aminoacidi. È una coppia di proteine globulari, con una forma simile ad un arachide. In generale vi sono 13 colonne di dirimeri di tubolina per ciascun microtubolo. Ciascun dirimero può esistere in due conformazioni geometriche differenti in base alla disposizione del ά-tubolina e della β-tubolina. Nel modello più recente proposto da Tuszynski l’agitazione termica a temperatura ambiente scoordina i dimeri di tubulina e crea forze interne che causano l’aggiustamento della molecola. E stato dimostrato che tali oscillazioni ubbidiscono alla stessa matematica utilizzata per lo studio dei comportamenti delle particelle elettromagnetiche. Ogni molecola di tubulina porta una carica dipolare. Il dipolo salta continuamente in una delle due configurazioni favorevoli, a bassa energia, a seconda di dove è posto un certo elettrone mobile, che passa per effetto tunnel da una configurazione all’altra . https://www.altrogiornale.org/wp-content/uploads/2017/08/Microtubulo.jpg L’effetto tunnel è un classico della meccanica quantistica. Classicamente una particella può oltrepassare un ostacolo (o una barriera di potenziale) soltanto se possiede sufficiente energia. In campo umano una situazione simile può essere immaginata pensando ad un atleta impegnato in un salto in alto. Se dopo adeguata rincorsa, il nostro sportivo sarà in grado di esprimere sufficiente energia, riuscirà ad oltrepassare l’asticella che fissa il limite superiore del salto, viceversa rovinerà contro di essa. Tale situazione non è vera in meccanica quantistica. Il piccolissimo grado di indeterminazione esistente tra i vari livelli di energia e tempo, si traduce in rapidissime fluttuazioni dei sistemi microfisici. Per tempi che si aggirano intorno al miliardesimo di trilionesimo di secondo, un gruppo di elettroni può prendere a prestito dal nulla sufficiente energia e oltrepassare una barriera di potenziale altrimenti insuperabile. Il Principio di Indeterminazione vincola però la realizzazione di una tale transizione alla rapidissima restituzione dell'energia utilizzata nel prestito. Il nucleo di un atomo è normalmente circondato da una altissima “barriera” che non permette ai neutroni e ai protoni di allontanarsi da esso. Nonostante ciò (specialmente nei minerali di Uranio e Radio) in seguito a Effetto Tunnel, i nucleoni, possono “scavarsi profonde gallerie” e lasciarsi alle spalle le barriere di potenziale rappresentate dall’attrazione nucleare, dando così vita al fenomeno della radioattività.

Il polo occupato della proteina ha quindi una carica leggermente negativa. L’elettrone però è molto mobile, grazie alla temperatura fisiologica, e si sposta ad altissima velocità grazie all’effetto tunnel. La tubulina reagisce immediatamente allo spostamento dell’elettrone cambiando la sua conformazione. Ma poiché il dipolo ά risulta inclinato di 29° rispetto al dipolo β, i dipoli si allineano in un modo non perfettamente simmetrico, che rende la struttura instabile.

Questa instabilità attiva la capacità computazionale del microtubulo lungo il suo avvolgimento. L’energia elettromeccanica si manifesta invece longitudinalmente. https://mappingignorance.org/app/uploads/2015/06/Figure3-hameroff-penrose-640x255.jpg

La presenza di un campo elettrico allineato al tubulo attenua o rafforza l’ampiezza del fronte viaggiante: dunque il potenziale d’azione esercita un effetto sui microtubuli dei neuroni. Senza avere un progetto di riferimento, un algoritmo da seguire, le proteine trovano continuamente la configurazione adatta per le loro innumerevoli funzionalità. Una proteina può avere almeno 400 miliardi di conformazioni diverse. Le proteine possono assumere un numero altissimo di stati conformazionali, con moltissimi stati di minimo energetico relativo. E’ impossibile che giungano alla conformazione corretta attraverso un metodo di tentativo ed errore, perché impiegherebbero un tempo infinito. È ipotizzabile che per un certo tempo la proteina si trova in uno stato di sovrapposizione quantistica, al cui termine l’elettrone di scambio può venirsi a trovare anche molto lontano dal punto iniziale. La coscienza sarebbe quindi un fenomeno che pur non essendo materiale e legata alle strutture biologiche…generando ancora una volta il legame tra i tre diversi mondi (la scienza-matematica, la mente umana e la fisica del mondo). https://encrypted-tbn0.gstatic.com/images?q=tbn%3AANd9GcTe8Kfui61L7N4ZirDc4QSbq_7EO7IGss2hZDiQ_-LIo7p66jQ6&usqp=CAU

I cookie rendono più facile per noi fornirti i nostri servizi. Con l'utilizzo dei nostri servizi ci autorizzi a utilizzare i cookie.
Ok