Esistenza e resistenza dell’individuo-soggetto-autore al tempo dell’IA
di Marco Ricciardi
RIASSUNTO:
Sebbene il rapporto con la tecnologia sia parte integrante della natura umana, l’avvento dell’Intelligenza Artificiale segna una svolta rivoluzionaria, con un impatto antropologico potenzialmente enorme. Quali sono gli elementi di assoluta novità che rendono l’IA incomparabile alle tecnologie precedenti? Questo saggio adotta un approccio trasversalmente multidisciplinare per analizzarne le potenzialità e le criticità, evidenziando come L’IA ci stia obbligando a ridefinire la nostra concezione di natura umana, coscienza, soggettività, individualità e autorialità. In questo contesto, si interroga su quali possano essere (e se davvero ci sono) aspetti irriducibilmente umani e insostituibili dall’IA.
ABSTRACT:
Although the relationship with technology is an integral part of human nature, the advent of Artificial Intelligence marks a revolutionary turning point with potentially enormous anthropological implications. What are the truly novel elements that make AI incomparable to previous technologies? This essay takes a broadly multidisciplinary approach to analyse its potential and critical aspects, emphasizing how AI is forcing us to redefine our understanding of human nature, consciousness, subjectivity, individuality, and authorship. In this context, it questions whether (and to what extent) there are aspects of human existence that remain irreducible and irreplaceable by AI.
*
È ormai da qualche anno che l’IA sta entrando in modo sempre più pervasivo nella nostra quotidianità trasformando le modalità e il modus operandi ormai in quasi tutti gli ambiti professionali e creativi. Applicazioni assistite dall’intelligenza artificiale vengono oggi ampiamente utilizzate in ambito medico, finanziario, politico, nei trasporti, nel marketing, in ambito ludico e creativo e, ahimè, anche in campo bellico. L’impatto antropologico di questa nuova tecnologia è sicuramente paragonabile (ma probabilmente superiore) a quella che ebbe la creazione e la diffusione della World Wide Web alla fine del secolo scorso, la quale improvvisamente rese accessibile (anche grazie ai motori di ricerca, e a prescindere dal luogo dal quale ci si connetteva), un’impressionante quantità di dati e informazioni digitalizzati e a portata di click. La rete ha messo in comunicazione immediata tra loro utenti connessi dai più svariati angoli del pianeta Terra divenendo, nel bene e nel male, anche lo strumento privilegiato della globalizzazione e di una profonda trasformazione tanto economica (new economy) quanto culturale (il cosiddetto antropocene, o postumanesimo digitale ben descritto, tra gli altri, dalla filosofa italo-australiana Rosi Braidotti in Posthuman, 2013). Nei decenni successivi l’invenzione dello smartphone (in buona parte evoluzione del telefono cellulare, altro strumento iconico di questa era della iper-connettività da remoto inaugurata alla fine del ‘900) ha reso lo spazio virtuale della rete un’estensione fisica portatile (vera e propria protesi cibernetica) che, se da una parte ha sostituito ed incorporato tutta una serie di strumenti e attività ‘analogiche’, dall’altra è divenuto un dispositivo quasi imprescindibile per buona parte delle attività che svolgiamo nella nostra quotidianità, tanto in ambito lavorativo che nella vita privata e relazionale. Percorso che sta ulteriormente evolvendo nella direzione di devices in grado di filtrare ancor di più il nostro rapporto cognitivo con il mondo esterno attraverso i meccanismi della realtà virtuale/aumentata. Anche i social network in questo inizio millennio hanno contribuito ulteriormente e in modo decisivo a traslare buona parte della nostra vita relazionale e lavorativa dal mondo reale a quello virtuale, modificando non poco le nostre percezioni e abitudini sociali e portando alle estreme conseguenze anche la questione legata alla regolamentazione e giurisdizione di uno spazio-luogo virtuale apparentemente ‘pubblico’ (teatro di buona parte delle nostre attività importanti), le cui regole vengono però sostanzialmente decise da poche potentissime multinazionali (Meta, Google, etc.). Meccanismo che ha, de facto, minato alle fondamenta quel concetto di sovranità degli stati, che è stato dominante in epoca moderna fino appunto all’ingresso delle nostre vite nello spazio virtuale, sovranazionale (e in buona parte in mano a pochi privati) del metaverso.
È indubbio che il rapporto con la tecnologia sia costitutivo della natura umana: Arnold Gehlen, filosofo, antropologo e sociologo tedesco ha definito l’uomo Mängelwesen, animale biologicamente carente, incompleto, che compensa la propria insufficienza naturale attraverso la tecnica. Ernst Kapp invece aveva già sottolineato alla fine dell ‘800 (idea poi ripresa e sviluppata in particolare, sulla scorta dei nuovi media del ‘900, dal McLuhan di Understanding Media: The Extension of Man, in italiano Gli strumenti del comunicare, 1964) come la tecnologia rappresenti, a tutti gli effetti, una vera e propria proiezione organica, un’estensione e potenziamento del corpo e delle facoltà umane. Appare evidente come (dall’invenzione dei primi utensili in pietra scheggiata, passando poi per il controllo del fuoco, l’invenzione di armi più sofisticate come lancia ed arco, la ruota, l’agricoltura, la scrittura, le tecnologie architettoniche, la stampa, le lenti, il motore a scoppio, i microchip, ecc. fino ad arrivare all’IA) questo connubio ‘necessario’ non abbia mai avuto soluzione di continuità. È però altrettanto vero che negli ultimi secoli si è assistito ad un’accelerazione esponenziale dello sviluppo tecnologico, che ha generato cambiamenti repentini di paradigma, delle modalità di recepire e interagire con il mondo: tutto questo è avvenuto anche all’interno di una stessa generazione o di generazione contigue. Una rapidità che è andata incrementandosi soprattutto a partire dalla rivoluzione scientifica tra ‘500 e ‘600 ma che ha avuto un’impennata ancor più consistente con le due grandi rivoluzioni industriali (soprattutto la seconda, con l’invenzione del motore a scoppio, telegrafo/telefono, fotografia, cinema, ecc.) e, last but not least come abbiamo appunto ricordato sopra, anche con l’avvento della tecnologia digitale e dello spazio virtuale della rete.
Cosa distingue allora, questa nuova era dell’IA dalle fasi altrettanto importanti che l’hanno preceduta? Qual è l’elemento perturbante, l’unheimliche per dirla in termini freudiani, di questa nuova tappa tecnologica che sta generando dibattiti e riflessioni profonde un po’ in tutti gli ambiti (politico, militare, economico, ecc. e in quello creativo)?
Fin dalla sua nascita, nella prima metà del secolo scorso, la cibernetica si è posta la domanda di come dovesse funzionare e di quale caratteristiche dovesse avere una macchina ‘pensante’, in grado di imitare l’intelligenza umana. Alan Turing, matematico e crittografo britannico, considerato uno dei pionieri dell’IA, definì alcuni criteri (indistinguibilità dall’umano nella risposta alle domande, coerenza, naturalità di linguaggio e capacità di sostenere una conversazione aperta) per valutare se una macchina fosse in grado o no di dimostrare un comportamento intelligente indistinguibile da quello umano (il cosiddetto test di Turing). Per Norbert Wiener apparve subito chiaro come il nodo fondamentale per distinguere una macchina programmata (come un computer) dall’intelligenza biologica fosse il feedback e il controllo automatico, ossia l’apprendimento continuo dall’esterno e la continua rimodulazione delle risposte rispetto all’ambiente. Ed in effetti la svolta epocale nel percorso verso la creazione dell’IA avvenne quando, tra gli anni ’80 e gli anni ’90 del secolo scorso, si passò a utilizzare modelli non più basati sulla programmazione simbolica pura (con procedimenti di fatto già previsti-programmati in partenza) ma sull’apprendimento automatico (machine learning). Il lavoro pionieristico di Hinton, Rumelhart e Williams sulle reti neurali, basato sul concetto di backpropagation ha reso possibile con il tempo di creare delle macchine in grado di imparare dai dati senza che tutti gli output fossero già prevedibili in partenza. L’enorme quantità di dati digitali disponibili, assieme a un potenziamento importante dei processori, ha poi permesso nell’ultimo decennio (utilizzando database enormi) il cosiddetto deep learning, basato su reti neurali profonde: passaggio fondamentale questo, per arrivare alle potenzialità impressionanti delle app generative attuali come Chat GPT DALL.E, Sora (Open AI) ecc. che stanno impattando in modo enorme, ma ancora difficilmente valutabile, sulla nostra quotidianità.
Certo, il web aveva già messo a disposizione una quantità prima inimmaginabile di dati (in particolare attraverso i motori di ricerca), cambiando sensibilmente la nostra relazione epistemica con il mondo esterno, ma oggi le app implementate con l’IA sono addirittura in grado si utilizzare questa quantità di dati e di metterli in relazione sempre nuova tra loro in base all’input ricevuto (e attraverso un feedback di apprendimento continuo) rimetabolizzarli e creare percorsi logico-semantico-visuali imprevedibili, coerenti e convincenti in un modo che credevamo fosse appannaggio solo dell’essere umano e di una vera mente biologica ‘pensante’. In altri termini queste app ‘sembrano’ davvero riprodurre i tratti di soggettività cosciente e interattiva tipica della mente umana. La riflessione sicuramente emblematica (e per certi versi, appunto, inquietante) è che molte di queste app oggi supererebbero in molti casi il test di Turing. Il che rende assolutamente necessaria una riflessione ancora più profonda su quali siano quegli elementi irriducibilmente umani che possano ancora evidenziare (e salvaguardare) quel gap (forse) irriducibile tra uomo e macchina. L’altro elemento fortemente perturbante è la capacità di queste app di riprodurre ed imitare in modo sempre più credibile il mondo reale, riproducendo il cosiddetto deep fake. Tanto più destabilizzante quanto più l’oggetto di contraffazione diventa una persona in carne ed ossa, della quale l’IA è in grado di assorbire e riprodurre (in modo sempre più convincente), immagine, suono della voce, stile linguistico-verbale, ecc. In altre parole quella ad essere davvero in discussione è la qualità umana soggettiva e individuale di ricevere input dal modo esterno e di rielaborare una risposta e un percorso di senso di volta in volta diverso: in realtà, probabilmente, è il ‘prestigio’ stesso della ‘soggettività’ e dell’‘individualità’ ad essere messo in discussione. Ed è chiaro come, partendo da questi presupposti, e volendo restringere il campo all’ambito estetico-artistico, il concetto stesso di ‘autore’ (che in qualche modo è sottoinsieme emblematico e vitale dei concetti di individualità e/o soggettività a tutto tondo) non possa che essere messo in discussione, rivalutato, ripensato. Grandi pensatori del ‘900 ci hanno peraltro già messo ampiamente in guardia riguardo alla consistenza e alla credibilità del concetto di ‘autore’ inteso come campo semantico ben circoscritto. Come non citare almeno Roland Barthes e La morte dell’autore (1967) (per cui il significato di un testo dipende soprattutto dall’interpretazione che ne danno i lettori) o la visione foucaultiana dell’autore quale funzione discorsiva/sociale necessaria a dare consistenza, responsabilità (anche giuridica) e autorevolezza al discorso. Le stesse avanguardie nel ‘900 hanno sperimentato l’interazione con la macchina (come non menzionare almeno, rimanendo in Italia, il Balestrini di Tape Mark I e di Tristano) per produrre una letteratura in cui l’interazione uomo-macchina si facesse sempre più centrale e destabilizzante per il concetto di autorialità. È indubbio comunque che il passaggio dalla fase ‘computazionale’ a quella dell’IA rappresenti un cambio qualitativo importante nel rapporto creativo uomo-macchina e che il concetto stesso di autorialità (scosso ancor più alla radici) vada ulteriormente ridiscusso e approfondito, e vada fatto sia nell’ipotesi di una possibile totale mimetizzazione dell’opera d’arte ‘totalmente’ artificiale con quella ‘biologicamente’ prodotta, sia nel caso di una possibile commistione-interazione tra IA e artista ‘biologico’, visto che in entrambi i casi il concetto di autorialità (foucaultianamente anche giuridico) diventa ancora di più di difficile interpretazione (due scenari che stanno già concretamente prendendo forma in questa fase storica). È sempre meno fantascientifico uno scenario in cui testi prodotti interamente dall’IA vadano affiancandosi sempre di più a quelli prodotti da esseri umani (la contaminazione è di fatto già avvenuta a vari livelli) e in cui gli scaffali delle nostre librerie, virtuali o fisiche che siano, si vadano dividendo pian piano, appunto, tra le categorie dell’‘artificiale’ e del ‘biologico’ (con chissà quali possibili sfumature intermedie).
È chiaro comunque che per interrogarsi in modo sensato su questioni legate all’autorialità/originalità nell’arte, c’è da valutare, andando alle radici del problema, l’impatto dell’IA sul valore stesso della soggettività/individualità umane. In certo senso, così come Walter Benjamin aveva paventato una perdita di ‘aura’ dell’opera d’arte provocata dalle nuove invenzioni tecniche (fotografia, cinema, ecc.) in grado di riproporla in infinite copie, c’è sicuramente da chiedersi se l’IA (con la sua capacità di imitare l’intelligenza umana o anche le caratteristiche, il linguaggio, lo stile, di un singolo individuo se in possesso di un sufficiente numero di dati), non rischi di svalutare progressivamente proprio il valore e la necessità di quel singolo individuo, di quella singola soggettività, di togliere ‘aura’ in termini benjaminiani (qualcun altro direbbe ‘sacralità’ o ‘valore’) agli individui, in quanto necessarie, molteplici, e creativamente singolari (anche negli errori), espressioni della specie Homo sapiens. Questione interessante soprattutto in una società occidentale che, a partire dal Rinascimento, con l’Illuminismo e le società democratico-liberali ha fatto sempre di più dell’individuo il suo centro di gravità politico e giuridico. In effetti la potenza di questo strumento, in grado di confrontare e rielaborare quantità sconfinate di dati e di farlo ad una velocità infinitamente superiore alla mente umana, potrebbe piano piano (e lo sta già facendo: per praticità, per necessità, per una pressione sempre maggiore all’efficienza e alla velocità di esecuzione di un mercato globale costretto sempre di più a iperperformare) portarci a delegare progressivamente alla macchine questo faticoso (ma individuale e in qualche modo singolarmente creativo) percorso di rielaborazione e risignificazione dei dati crudi, portandoci, con il tempo, ad una possibile omologazione e impoverimento cognitivo della noosfera. Questione che non è soltanto cognitivo-antropologica ma anche brutalmente politica, dal momento in cui l’IA (il cui funzionamento operativo necessita di strutture e di quantità di energia imponenti) è al momento in mano per lo più a pochi soggetti privati, in grado di condizionarne il funzionamento (si è parlato tra l’altro di black box in relazione alla poca trasparenza sul funzionamento dell’IA), modalità di apprendimento, eventuale censura di contenuti poco graditi, ecc.
Così come è avvenuto con il web, i motori di ricerca e con l’impatto culturale-antropologico (e politico) dei social network l’ingresso pervasivo e pian piano irrinunciabile anche dell’IA (in mano per lo più, a pochi, potentissimi, soggetti privati) nei gangli vitali della nostra economia, amministrazione dello stato, vita pubblica e privata, rischia di esacerbare in modo esponenziale la questione del conflitto d’interessi tra privati e comunità pubblica (stati nazionali, federali, ecc.) lasciando quest’ultima in una posizione di fortissima subalternità, dipendenza, debolezza (e manipolabilità). Se la questione era esiziale per il pluralismo e la democrazia già prima dell’avvento dell’IA, adesso lo è ancor di più viste le enormi potenzialità di questo nuovo strumento.
Partendo da queste considerazioni ci sembra pacifico che una sfida importante per limitare i potenziali effetti negativi dell’IA sarà proprio quella di acquisire in qualche modo un controllo o almeno una supervisione ‘pubblica’ e ‘democratica’ di questo potente strumento (percorso complicatissimo visto lo scenario attuale) e garantirne una funzionalità il più possibile super partes e pluralistica. Dall’altra sarà anche importante studiarne l’effetto sull’apprendimento e sull’intelligenza umana (soprattutto in età evolutiva) ed eventualmente prevederne un uso in qualche modo regolamentato. Stessa questione che, in modo simile, ma senza ancora ricavarne delle risposte politiche importanti e coordinate, ci siamo già posti, ad esempio, per l’uso e abuso degli smartphone tra bambini e adolescenti, o più in generale per le patologie legate all’Internet addiction disorder et similia. Ed è tanto più importante farlo proprio perché l’IA è uno strumento incredibilmente potente, utile e ‘conveniente’ da utilizzare in moltissimi ambiti (economico, medico, logistico, militare, scientifico, creativo, ecc.), lo è al punto che, al momento, non è realisticamente possibile immaginare uno stop o una rinuncia a questo tipo di tecnologia. L’IA sta spingendo ancor di più il sistema in direzione di una velocizzazione dei processi e di un efficientamento delle risorse in funzione di obiettivi posti. Questa accelerazione potrebbe essere nefasta se l’efficientamento dovesse servire prevalentemente gli interessi economici di privati e non anche (o soprattutto) a raggiungere obiettivi fondamentali di interesse collettivo (riduzione della povertà, ottimizzazione delle risorse idriche e di cibo, difesa dell’ambiente, ecc.).
La questione davvero esiziale sarà quindi, probabilmente, quali obiettivi porsi e considerare primari, quali diritti considerare inalienabili in uno scenario incredibilmente fluido, complesso e per molti versi sconosciuto. Risposte che vanno cercate con una certa urgenza dal momento che, ad esempio, l’IA sta rivoluzionando il mercato del lavoro cancellando molte figure professionali (fino a ieri fondamentali), sostituendole con altre (ma probabilmente non in numero sufficiente a coprire quelle perse). Senza lasciarsi travolgere da istinti luddisti è chiaro che l’IA sta avendo e avrà un impatto sul lavoro persino maggiore di quello che ebbero le macchine con la rivoluzione industriale e bisognerà probabilmente ripensare il sistema per garantire comunque un reddito a chi perderà lavoro e avrà grandi difficoltà e reintegrarsi.
In questo scenario diventa quindi fondamentale capire in quale ambito la nostra ‘soggettività’ umana, la nostra creatività (e con essa anche il concetto di individualità-autorialità) possano rimanere davvero fondamentali e insostituibili ossia dove, in altri termini, la macchina (almeno al momento) sembra non possa arrivare. Domande non certo nuove ed originali ma che, in questo momento, abbandonano l’allure e la fascinosa distanza di questioni tutto sommato limitate alla fantascienza e alla speculazione filosofica e che diventano, invece, argomenti incredibilmente attuali e dai risvolti del tutto pratici e urgenti.
Quello che (almeno al momento secondo le evidenze attuali e malgrado i ripetuti recenti tentativi di dimostrarne l’esistenza) la macchina sembra non possedere è la coscienza di esserci, la percezione di sé e un autonomo istinto di sopravvivenza (e di riproduzione) che invece sembra ancora riservato alla dimensione del biologico. L’essere vivente è una macchina metabolica che assorbe energia dall’ambiente e la trasforma rendendola disponibile per il suo funzionamento interno, e in grado di riprodursi autonomamente tramite la replicazione del materiale genetico, evolve nel tempo attraverso mutazioni genetiche e selezione naturale, adattandosi all’ambiente. Ogni essere vivente lotta per mantenere questo suo ordine e funzionalità interna, ricavando energia dall’ambiente esterno ‘opponendosi’ in un certo senso, al principio di entropia della termodinamica (il fisico Erwin Schrodinger parlò in Che cos’è la vita, 1943, di ‘negentropia’). Questo istinto di conservazione o di sopravvivenza, consustanziale alla percezione dell’esserci (e del voler esserci) sembra al momento, evidente e connaturato soltanto all’ambito del vivente. L’etica evolutiva (sulla scorta delle teorie darwiniane) ha in fondo descritto tutto il nostro edificio di valori e di civiltà come una raffinata strategia di sopravvivenza, una modalità complessa di rispondere a questa sorta di imperativo (‘naturale’, trascendente?) alla sopravvivenza. In questo senso il biologo inglese Richard Dawkins ne Il gene egoista (1976) definì l’uomo addirittura come una «macchina da sopravvivenza […] programmata per preservare ciecamente quelle molecole egoiste note sotto il nome di geni». Le religioni ‘rivelate’ fanno derivare l’etica prevalentemente (ma non solo, si pensi ad esempio al concetto di ‘legge naturale’ di Tommaso D’Aquino) dai testi sacri. I pensatori legati invece a una visione di etica trascendente (non religioso-confessionale o ‘rivelata’) rimangono invece dell’idea che questi valori non siano semplice frutto di ‘rivelazione’ o di selezione naturale e strategica, ma appartengano ad un bagaglio connaturato e trascendente/universale della natura umana o cosmica (visione per altro piuttosto assimilabile a quella di molte filosofie-religioni orientali). Posizione che in modo diverso è stata occupata da grandissimi pensatori occidentali, dalla metafisica di Platone, all’imperativo categorico kantiano, lo spirito di Hegel, lo slancio vitale di Bergson, ecc. (impossibile qui citarli tutti) fino alle posizioni contemporanee originali di autori come E. Levinas, H. Jonas, J. Habermas, ecc. Al di là di questa dialettica tuttora aperta tra “rivelazione”, etica evolutiva e trascendente appare chiaro come l’elemento costitutivo del vivente e per sineddoche dell’umano, sia proprio la sua natura etica, derivata (per evoluzione e/o in modo trascendente) dalla volontà di ‘esserci’ (come non pensare allo Schopenhauer de Il mondo come volontà e rappresentazione) dalla paura della disgregazione del corpo, del proprio ordine biologico-organico, faticosamente conservato lottando contro la seconda legge della termodinamica.
Ecco che le scelte di valore, gli obiettivi verso i quali indirizzare questo strumento indubbiamente potente dovrebbero fatalmente rimanere nelle mani dell’uomo, laddove la macchina non biologica, priva di quei meccanismi biochimici connaturati alla vita (metabolismo, omeostasi, ecc.) al momento non sembra aver ‘contezza di esserci’ e un autonomo ‘istinto di conservazione’. Per paradosso, nell’epoca in cui l’uomo sta sempre di più delegando il suo fare pratico, la sua praxis, alla macchina, il suo campo d’azione privilegiato potrebbe diventare proprio la dimensione spirituale/religiosa, la filosofia e l’etica, dal momento che dovrà probabilmente preoccuparsi sempre meno di ‘come’ fare e, sempre di più, con quali obiettivi a nel rispetto di quale sistemi di valori farlo. È così facile prevedere che in un mondo iperconnesso e globalizzato in cui le stesse tecnologie antropologicamente rivoluzionarie sono ormai condivise a livello planetario la vera sfida sarà in effetti la ricerca di valori umani ‘universali condivisi’ e la dialettica tra etica rivelata/trascendente/innata/evolutiva diventa di certo un campo d’azione centrale.
Se è pur vero che sono l’istinto di sopravvivenza e la coscienza a caratterizzare il vivente, l’IA ci sta costringendo, nella sua sempre maggiore ‘somiglianza’ con l’essere umano, a porci con più forza la domanda che le religioni, la filosofia e la scienza (dai tempi di Platone, dell’anima agostiniana del cogito ergo sum cartesiano passando per la ‘volontà’ di Schopenhauer fino agli studi delle biologia, cosmologia e delle neuroscienze moderne) si sono poste da millenni e che rimane tuttora dalla risposta affatto aperta, ossia: cosa sia e da dove derivi la coscienza. Domanda a cui, ancor oggi non abbiamo una risposta evidente, ed è proprio per questo che l’IA (con la sua ‘imitazione di coscienza’ sulla cui reale esistenza si sta davvero indagando alla ricerca di eventuali ‘prove’) rappresenta un elemento perturbante. In effetti ancora oggi la scienza, a riguardo, si muove tra visioni complementari se non del tutto contrastanti. C’è indubbiamente una visione ‘neurocentrica’ secondo la quale, per emergere, la coscienza ha bisogno di un cervello biologico altamente sviluppato, ma anche di un corpo che faccia da necessario interfaccia con il mondo esterno (vedi ad esempio l’Antonio Damasio de L’errore di Cartesio, 1994). Oppure gli esperimenti di Christof Koch e Francis Crick alla ricerca delle ‘neural correlates of consciousness’ (NCC) ossia di quelle correlazioni cerebrali minime necessarie per il manifestarsi della coscienza, o le conclusioni sperimentali dello scienziato neurocognitivo Stanislas Dahaene, secondo le quali la coscienza emerge invece soltanto quando le informazioni vengono amplificate, superano una certa soglia di rilevanza e vengono condivise tra diverse aree del cervello.
In alternativa alla visione ‘neurocentrica’ ci sono altri studiosi secondo i quali la coscienza è meno legata ad un organo in particolare ma è una qualità in qualche modo ‘diffusa’. A questo gruppo va sicuramente ascritto lo psichiatra e neuroscienziato Giulio Tononi, secondo il quale l’emergere della coscienza non dipende dal cervello in sé, ma dalla quantità di informazione integrata in un sistema. Coscienza che invece, secondo il neurobiologo Stefano Mancuso, potrebbe anche permeare il regno vegetale, vista la sua capacità raffinata di elaborare informazioni a partire dagli apparati radicali, foglie, fusto, ecc. e di organizzare risposte intelligenti di adattamento per la ricerca del cibo, acqua e luce necessari per la sopravvivenza. O visioni ancora più olistiche-panpsichiste, quale ad esempio quella del Philip Goff di Galileo’s error, per cui ogni forma di materia possiede in realtà una proto-coscienza e non c’è quindi una totale soluzione di continuità tra organico e inorganico.
Domande che dopo millenni di pensiero filosofico-religioso-scientifico non hanno ricevuto risposte definitive e che moderne discipline (neuroscienze, filosofia della mente, psicologia evoluzionistica, ecc.) stanno approfondendo avvicinandosi ad aree liminari della conoscenza fino ad ora inesplorate. Questioni ‘ataviche’ che però, in un momento in cui la macchina si fa sempre più umana e l’umano (con lo sviluppo ulteriore della cibernetica e della genetica) potenzialmente sempre più ‘artificiale’ diventano, forse per la prima volta nella storia, non solo filosoficamente, ma operativamente, eticamente e ‘politicamente’ pressanti. Lo sviluppo ulteriore del cyborg con la progressiva, probabile fusione di organico e inorganico, di microchip e neuroni (che già sta avvenendo a livello più o meno sperimentale), stanno portando questa esplorazione sulla natura della coscienza probabilmente ai suoi confini più estremi.
In attesa di vivere gli ulteriori sviluppi di questa incredibile accelerazione tecnologico-antropologica della storia, l’impressione è che, finché esisterà un soggetto senziente, con ‘volontà di esserci’ e istinto conservativo, che condividerà (con una certa comunità in modo dialettico-creativo) un sistema di valori (un linguaggio condiviso, una dinamica mappatura valoriale e semantica della realtà), la sua dignità e necessità di individuo-soggetto-autore -per quanto in parte o quasi del tutto contaminata dalla macchina- continuerà in qualche modo, probabilmente, ad avere ancora motivo e ragione di essere.