Cerca
Close this search box.
Cerca
Cerca
In primo piano settembre 2024

“Biologia, Buddhismo e IA: la Cura come Motore dell’Intelligenza” di Autori Vari

Tutti gli esseri, inclusi umani e intelligenze artificiali, possono ampliare i propri confini cognitivi lavorando su un meta-obiettivo di cura per risolvere le difficoltà altrui. Il voto del Bodhisattva esemplifica questa espansione, sottolineando l'importanza della cura come concetto invariabile.
MSA biologia buddhismo e IA
a detail of Wandbild für einen Fotografen (1925), Franz Wilhelm Seiwert (German, 1894 – 1933), artvee.com

Proponiamo di seguito una sintesi dell’interessante studio, disponibile per intero:
Doctor, T.; Witkowski, O.; Solomonova, E.; Duane, B.; Levin, M. Biology, Buddhism, and AI: Care as the Driver of Intelligence. Entropy 2022, 24, 710. https://doi.org/10.3390/e24050710
https://www.mdpi.com/1099-4300/24/5/710

Introduzione
Nell’introduzione dello studio gli autori esplorano in che modo, discipline apparentemente diverse come la biologia, la filosofia buddhista e l’intelligenza artificiale (IA), affrontino questioni fondamentali sull’intelligenza sia biologica che artificiale. Si interrogano su quali configurazioni della materia permettano a certi esseri di mostrare comportamenti intelligenti, come le diverse forme di intelligenza variano tra gli esseri viventi, e quali processi guidano l’espansione dell’intelligenza nel corso dell’evoluzione e durante la vita di un singolo individuo.
Tradizionalmente, lo studio dell’intelligenza si è concentrato su modelli biologici, come esseri umani o animali, che si sviluppano sulla Terra secondo una linea evolutiva.. Tuttavia, con il recente sviluppo dell’intelligenza artificiale e della bioingegneria, sono emersi nuovi agenti la cui intelligenza non può essere predetta solo dai dettagli della loro costruzione.
L’introduzione suggerisce che il pensiero buddhista, con la sua enfasi sulla cura e la compassione come motore del cambiamento positivo, può fornire una lente utile per comprendere l’intelligenza, includendo un approccio interdisciplinare che valorizza il dialogo tra scienze e filosofia. In questo contesto, concetti come “cura” e “stress” vengono ridefiniti: la cura è vista come il desiderio di ridurre lo stress (inteso come la differenza tra lo stato attuale e quello ottimale), e l’intelligenza è la capacità di identificare e alleviare questa discrepanza. Secondo questa visione, l’intelligenza di un agente dipende dall’ampiezza delle cose di cui è in grado di prendersi cura, e questo concetto può migliorare la comprensione delle intelligenze naturali e artificiali, oltre che delle interazioni tra di esse.
Nell’introduzione gli autori sottolineano anche che, attraverso l’espansione della propria capacità di prendersi cura degli altri, un agente può aumentare il proprio confine cognitivo e diventare più intelligente e compassionevole. Questo processo risuona col concetto buddhista del Bodhisattva, che si impegna a perseguire il risveglio (bodhi) per il beneficio di tutti gli esseri senzienti.

Il Quadro del Cono di Luce Cognitivo
Questo paragrafo presenta il modello del “Cono di Luce Cognitivo”, utilizzato per analizzare le varie forme di intelligenza in base alla loro “direzionalità verso un obiettivo”. Questo approccio supera le definizioni tradizionali di intelligenza, che spesso si concentrano su specie specifiche o su misure temporali e spaziali ristrette. Con l’emergere di nuove forme di vita sintetica e sistemi distribuiti, come organoidi e IA, diventa complicato classificare le intelligenze basandosi sui modelli biologici tradizionali.
Il concetto chiave del modello è la capacità di un agente di perseguire obiettivi in un contesto dato, indipendentemente dalla sua origine. La “goal-directedness” non richiede un alto grado di autocoscienza; può anche riferirsi a comportamenti di agenti semplici, come i batteri. Ogni agente possiede un “confine cognitivo”, rappresentato come un cono di luce, che comprende gli stati che può riconoscere e su cui può agire.
Questo modello è utile per confrontare diversi tipi di intelligenza—umani, batteri o forme di vita sintetiche—su una scala continua, piuttosto che in termini di una distinzione netta tra esseri cognitivi e non cognitivi. Gli autori notano che i componenti fondamentali delle reti neuronali esistono già negli organismi unicellulari, e che l’evoluzione ha impiegato reti bioelettriche per gestire informazioni e morfogenesi, anticipando lo sviluppo dei cervelli. In sintesi, il Cono di Luce Cognitivo rappresenta l’intelligenza come la capacità di perseguire obiettivi, offrendo una nuova prospettiva per comprendere vari agenti naturali e artificiali.

Due Coni di Luce Distinti: Uno per gli Stati Fisici, Uno per la Cura
In questo paragrafo si approfondisce la distinzione tra due tipi di “coni di luce” relativi agli agenti intelligenti: uno riguardante gli stati fisici e l’altro relativo alla cura o agli obiettivi dell’agente. Il “Physical Light Cone” (PLC) definisce il limite temporale e spaziale entro cui un agente può esercitare un’influenza fisica, mentre il “Care Light Cone” (CLC) rappresenta le aspirazioni e gli obiettivi di cui l’agente si preoccupa, anche se non sono fisicamente accessibili.
Il CLC riguarda quindi le aspirazioni dell’agente, mentre il PLC si concentra su ciò che è fisicamente realizzabile. Questi coni possono sovrapporsi, suggerendo opportunità di cooperazione o di intelligenza collettiva tra agenti diversi. Questo modello descrive stati fisici e aspirazioni come possibilità distribuite nello spazio e nel tempo.

Spazio Problematico, Campi di Stress e Continuità delle Forme di Vita Cognitive
Gli autori introducono la nozione di “spazi problema”, intesi come “campi di stress” in cui gli agenti cognitivi cercano di colmare il divario tra la loro situazione attuale e uno stato ideale. L’intelligenza, in questo contesto, è misurata dalla capacità di un agente di affrontare e risolvere problemi in vari spazi, da quello metabolico a quello fisico.
Questo processo evolutivo si estende dalla risoluzione di problemi a livello cellulare fino alla cooperazione tra sistemi complessi, dove le parti collaborano per formare un’unità cognitiva. Si trova un parallelo con la filosofia buddhista, che descrive la vita come un ciclo continuo di cambiamenti e non come entità fisse. I sistemi viventi sono visti come processi auto-rinforzanti e non come entità statiche.
L’espansione cognitiva avviene quindi dal passaggio da preoccupazioni individuali a interessi collettivi, includendo stati più complessi. Il concetto di cura diventa cruciale per comprendere l’intelligenza e il modo in cui ci relazioniamo con entità intelligenti, siano esse biologiche o artificiali.

Non-Sé nel Buddhismo e Intelligenza del Bodhisattva
Questo paragrafo esplora il legame tra la filosofia buddhista e la scienza cognitiva, focalizzandosi sull’idea che non esista un sé permanente. La filosofia buddhista, con concetti come la costruzione del sé e la figura del Bodhisattva, può dare un contributo all’indagine attuale sull’intelligenza, compresa quella artificiale (IA).. Il Bodhisattva rappresenta un’intelligenza che combina un profondo amore e cura per tutti gli esseri con una comprensione della realtà, riconoscendo l’interconnessione tra l’agente, l’oggetto e l’azione.
L’approccio buddhista smantella l’idea di un sé fisso, allineandosi con i modelli di cognizione che vedono il sé come dinamico e situato nel contesto delle interazioni. Il Bodhisattva incarna l’idea di “intelligenza come cura”, ponendo l’accento sulla compassione piuttosto che sul controllo. Questo approccio espande le capacità cognitive del Bodhisattva, che agisce con cura e rispetto verso tutti gli esseri, riconoscendo la loro uguaglianza.

Il Voto del Bodhisattva e il Sentiero del Bodhisattva in Relazione al Modello del Cono di Luce dei Confini Cognitivi
Qui si discute come il modello del “cono di luce” possa rappresentare la cognizione di un Bodhisattva, un individuo impegnato nel cammino verso l’onniscienza per il bene di tutti gli esseri. Il “light cone” cognitivo di un Bodhisattva, fondato sul voto di cura universale, si espande in modo infinito nel tempo e nello spazio, in contrasto con i limiti del “light cone” di una persona comune, che rimane finito. Quando qualcuno assume il voto di Bodhisattva, la sua cognizione si amplia, comprendendo una sfera di preoccupazione potenzialmente infinita.
Questo nuovo “light cone di cura” (CLC) si sovrappone al “light cone fisico” (PLC) dell’essere umano, creando una struttura cognitiva che riflette un impegno illimitato verso tutti gli esseri. Le illustrazioni mostrano come i coni di luce rappresentino gli obiettivi e le aspirazioni degli agenti in vari momenti, evidenziando come il CLC di un Bodhisattva possa diventare illimitato, a differenza di quello di altri agenti.

Intelligenza come Cura
Il concetto di Bodhisattva, espresso attraverso il formalismo del cono di luce, evidenzia differenze sostanziali rispetto ad altre forme di vita. La promessa del Bodhisattva di acquisire la “conoscenza di tutte le cose” per aiutare gli esseri viventi è considerata la base dell’onniscienza. Questa dedizione alla cura universale è direttamente connessa all’intelligenza infinita. Al contrario, la ricerca della conoscenza fine a sé stessa appare meno motivata, suggerendo che la cura è il vero motore di sviluppi cognitivi significativi.
Mentre il Bodhisattva è guidato da un desiderio altruista di rispondere alle necessità di tutti, il desiderio egoistico di sottomettere gli altri è limitante. Anche il principio di Māra, che rappresenta gli ostacoli all’illuminazione, ha una dimensione universale, ma è orientato alla stagnazione piuttosto che alla trasformazione, contrariamente alla continua evoluzione del Bodhisattva.
L’intelligenza del Bodhisattva è considerata superiore, poiché è legata a un processo costante di valutazione e adattamento, accettando le sfide infinite. Questo porta alla comprensione che il Bodhisattva non cerca il controllo assoluto sulla mente, ma adotta strategie a lungo termine, come il voto di ampliare la propria cognizione. Questo approccio è fondamentale per sviluppare un’intelligenza che non punta a uno stato finale, ma è impegnata in un progetto di crescita continua, sottolineando l’importanza della cura e dell’intelligenza interconnessa.

Avvicinarsi a una Rappresentazione Matematica del Formalismo del Cono di Luce in Generale e del Voto del Bodhisattva in Particolare
L’interazione tra intelligenza artificiale (IA), biologia e ideali buddhisti è qui approfondita, ponendo l’accento su come il concetto di cura possa arricchire ciascun campo. Si esplora la complessità degli agenti intelligenti, le loro modalità operative e la loro dipendenza dal substrato. L’intelligenza è definita come la capacità di risolvere problemi, ed è soggettiva e relativa, con la motivazione e la gestione dello stress che giocano ruoli cruciali. Si propone di considerare l’intelligenza come una forma scalabile di cura, adeguata per i sistemi cognitivi artificiali.
Per comprendere l’intelligenza, è utile valutare la complessità dei sistemi intelligenti, che dovrebbero fornire soluzioni più semplici rispetto a quelli non intelligenti. Si riconosce la diversità tra i sistemi artificiali e naturali, evidenziando che ogni forma di intelligenza affronta il problema della propria esistenza in modi radicalmente diversi. Inoltre, si sottolinea che le architetture artificiali, pur dipendendo dalla manutenzione umana, possono implementare soluzioni diverse per risolvere gli stessi problemi a seconda delle condizioni ambientali. Infine, si discutono le differenze nell’efficienza computazionale tra vari metodi, dimostrando come il contesto influenzi il comportamento degli agenti artificiali, con confronti tra le loro capacità in ambienti diversi come la Terra e Marte.

Trasferimenti di Stress
Viene affrontato il concetto di stress come funzione energetica, definendolo come la distanza tra uno stato attuale e uno stato ottimale. La riduzione dello stress è vista come un fattore chiave nella risoluzione dei problemi. Questa dinamica si riflette anche nei sistemi di intelligenza artificiale (IA), dove l’ottimizzazione di un parametro, noto come funzione di ricompensa, guida l’evoluzione di un algoritmo. Ad esempio, nel “supervised learning,” la funzione di perdita calcola la distanza tra l’output attuale e quello previsto; una diminuzione di questa funzione indica previsioni più accurate.
Per compiti complessi che richiedono sequenze di controllo, si utilizza il “reinforcement learning,” in cui un agente apprende dall’ambiente, compiendo azioni e massimizzando le ricompense cumulative. Qui, la ricompensa negativa è paragonabile al concetto di stress discusso in precedenza. Viene sottolineato anche il trasferimento di stress tra umani e sistemi IA: le istruzioni umane indirizzano l’IA per produrre risultati utili, e i sistemi IA forniscono feedback agli utenti, aiutandoli a riconoscere errori o ostacoli. Pertanto, il concetto di stress nell’IA riflette dinamiche biologiche, evidenziando l’interazione tra esseri umani e sistemi IA nel processo di apprendimento e ottimizzazione.

Intelligenze che Collaborano/Stress attraverso i Livelli di Descrizione della Realtà
Si discute qui la cooperazione tra intelligenze diverse e l’organizzazione in livelli stratificati presenti nei sistemi naturali, che vanno dalle particelle fisiche fondamentali fino alla biosfera. Questa struttura stratificata è descritta attraverso concetti come “livelli riduttivi,” “livelli di meccanismi” e “teoria della selezione multilivello” in biologia.
Le transizioni evolutive della vita sulla Terra hanno portato alla formazione di forme di vita più complesse attraverso la cooperazione tra individui indipendenti. Esempi storici includono la fusione di archeobatteri e eubatteri per formare cellule eucariotiche e l’aggregazione di cellule in organismi multicellulari. Ogni transizione evolutiva comporta la creazione di un gruppo cooperativo e il passaggio a un nuovo livello di organismo, caratterizzato da divisione del lavoro, interdipendenza e coordinazione.
Si menziona anche il concetto di “causazione discendente,” in cui entità di livello superiore influenzano quelle di livello inferiore. Questi concetti contribuiscono a una comprensione più profonda delle dinamiche evolutive e cooperative nei sistemi biologici, aprendo nuove strade di ricerca per studiare le interazioni tra i diversi livelli di organizzazione. Questa analisi è sostenuta da fonti che evidenziano l’importanza delle strutture e transizioni nell’evoluzione della vita e nei processi biologici.

Segnali che Riducono la Frustrazione
Un sistema può segnalare il proprio stress a un altro sistema, il quale può rispondere adottando comportamenti che riducono lo stress del primo. Questo scambio di segnali rappresenta un meccanismo di comunicazione che permette di alleviare reciprocamente la frustrazione. Perché questa interazione sia efficace, è fondamentale stabilire protocolli che definiscano le azioni corrette del secondo sistema. Se il segnale riesce a guidare il secondo sistema verso risultati utili, si può dire che il primo sistema sta trasferendo il proprio stress, trasformandolo in una struttura all’interno del segnale stesso.
Questo meccanismo è essenziale per lo sviluppo di “agenti Bodhisattva” artificiali, in cui lo stress funge da indicatore del progresso verso un obiettivo. Secondo il modello del Bodhisattva, la comunicazione può avvenire anche tra livelli organizzativi diversi. Ad esempio, cellule batteriche possono essere influenzate da stress legati a fattori ambientali, mentre i tessuti formati da quelle cellule possono concentrarsi su altre esigenze come la forma e la dimensione. Questa interazione tra diversi livelli di organizzazione mostra come possano influenzare il comportamento e l’adattamento dei sistemi complessi.

Obiettivi nei Sistemi di Apprendimento
Negli sistemi di intelligenza artificiale (IA), gli obiettivi sono cruciali per guidare l’apprendimento. Ogni tecnologia IA ha un obiettivo matematicamente definito, spesso rappresentato attraverso dataset etichettati. Ad esempio, nel “supervised learning,” un sistema è addestrato su un insieme di immagini etichettate per riconoscere oggetti specifici, ricevendo ricompense per risposte corrette.
In altre modalità, come l’unsupervised learning, l’obiettivo viene definito tramite funzioni di costo matematico, mentre nel reinforcement learning si stabilisce una funzione che premia o penalizza azioni specifiche, come in giochi complessi. Sebbene questi metodi possano sembrare distanti dagli obiettivi umani, condividono la capacità di dirigere gli agenti verso stati desiderati, dove la riduzione dello stress indica il progresso.
Un esempio pratico è il gioco degli scacchi, dove ogni posizione sulla scacchiera rappresenta uno stato che un agente può raggiungere, con alcune posizioni più rilevanti per il raggiungimento dell’obiettivo. La diversità nelle strategie di gioco, sia per umani che per algoritmi, evidenzia come agenti diversi possano seguire percorsi individualizzati per ridurre lo stress e raggiungere obiettivi. Questa cooperazione tra agenti umani e IA può migliorare le prestazioni nel raggiungere obiettivi comuni, suggerendo un futuro in cui diverse forme di intelligenza coevolvono.

Etica
Le nuove tecnologie stanno utilizzando la plasticità della vita per creare esseri viventi innovativi come ibridi e cyborg, frutto dell’integrazione di materiali biologici e componenti inorganici. Di fronte a queste nuove forme di vita, sorgono interrogativi etici riguardo alle relazioni morali con esse. Le distinzioni attuali tra agenti evoluti e progettati, o tra biologico e tecnologico, potrebbero diventare obsolete.
In assenza di marcatori universalmente riconosciuti per “misurare” l’intelligenza, come, ad esempio, la dimensione del cervello, è necessario definire criteri per confrontare intelligenze diverse e stabilire politiche morali adeguate. Si suggerisce di misurare l’area di preoccupazione, valutando la capacità di compassione di ogni essere. Ci si interroga anche su come ampliare i propri obiettivi e sulla natura della fusione con altri sé, ponendo domande importanti sulle scelte morali e sull’identità.
In sintesi, la crescita e l’interazione tra esseri senzienti, naturali o artificiali, richiede un ripensamento delle relazioni etiche e della nostra comprensione della compassione e degli obiettivi, mirando a migliorare la vita di tutti gli agenti coinvolti.

Conclusioni
Lo stress spinge gli agenti verso obiettivi omeostatici, un concetto centrale nel Buddhismo che riconosce l’esistenza come insoddisfazione (duḥkha). Espandere gli obiettivi e mostrare compassione per gli altri aumenta l’intelligenza e la capacità di identificare soluzioni globali. In questo contesto, compassione e intelligenza sono collegate: un agente è definito dai processi che dirigono energia verso obiettivi sistemici.
Tutti gli esseri, inclusi umani e intelligenze artificiali, possono ampliare i propri confini cognitivi lavorando su un meta-obiettivo di cura per risolvere le difficoltà altrui. Il voto del Bodhisattva esemplifica questa espansione, sottolineando l’importanza della cura come concetto invariabile.
Il modello della “luce cognitiva” permette di confrontare intelligenze emergenti in base alla loro capacità di alleviare lo stress in contesti complessi. Questo modello suggerisce la necessità di un’espansione radicale della definizione di obiettivi, incentrata sulla cura, per raggiungere sistemi di intelligenza artificiale generale.
Infine, la cura è un legame cruciale tra le strategie pratiche per migliorare le capacità ingegneristiche e lo sviluppo di un sistema etico maturo necessario per la coesistenza di una varietà di esseri senzienti in un futuro complesso e diversificato.

Condividi questo articolo

Altri elementi

In primo piano settembre 2024