Cerca
Close this search box.
Cerca
Cerca
In primo piano settembre 2024

“Intelligenza artificiale: fondamenti e prospettive” di Mario Cimino

Proprio per preservare la società umana da una deriva tecnocentrica, asservita a professioni che portano sempre più l’essere umano al limite delle proprie capacità biologiche, l’intelligenza artificiale consentirà di sviluppare professioni e tecnologie più umane.
MSA intelligenza artificiale fondamenti e prospettive
a detail of Superimposed Forms (1938), Jessica Dismorr (English, 1885 – 1939), artvee.com

Per introdurre i fondamenti dell’intelligenza artificiale è opportuno fare alcune premesse. Gli esseri umani tendono ad avere una visione antropocentrica dell’intelligenza che è di ostacolo alla sua comprensione profonda. Di conseguenza, la prima preoccupazione è spesso quella di ribadire cosa non sarà mai in grado di fare una macchina, nell’intento di tracciare un confine chiaro tra ciò che può essere equivalente all’umano e ciò che non può esserlo. Negli ultimi tempi l’intelligenza artificiale sta offrendo un nuovo paradigma di progettazione delle macchine che, da sistemi in grado di svolgere compiti specifici e ripetitivi, stanno diventando sistemi capaci di svolgere diverse attività in modo coordinato, di adattarsi, e persino di evolvere. Del resto, la stessa intelligenza umana, che inizialmente è stata guidata esclusivamente dalla evoluzione naturale, nei diversi secoli si è man mano adattata per intercettare i bisogni e le aspirazioni delle civiltà, diventando sempre più “artificiale”, in quanto al servizio dei principi e dei valori delle società e della loro organizzazione in professioni, ciascuna delle quali basata su conoscenze, competenze e tecnologie specializzate. Pertanto, anche la distinzione tra naturale e artificiale è ambigua e può risultare di ostacolo alla comprensione profonda dell’intelligenza.

C’è poi un grosso problema di denominazione delle tecnologie, processo che richiederebbe esperti linguisti, e che invece nel caso dell’intelligenza artificiale è svolto con criteri arbitrari, diventando un altro fattore fuorviante. Termini come neurone, apprendimento e attenzione, sono spesso usati in modo metaforico per descrivere modelli computazionali che, pur ispirati dalla biologia, funzionano in modo molto diverso rispetto alle loro controparti biologiche. Nelle reti neurali artificiali più diffuse, il neurone artificiale corrisponde ad una procedura di calcolo che riceve valori numerici in ingresso, li aggrega con semplici operazioni aritmetiche, e produce un valore numerico in uscita. Sebbene il nome derivi dai neuroni biologici, le operazioni matematiche del neurone artificiale sono pensate anche per essere eseguite in parallelo dalle schede e circuiti integrati elettronici. Similmente, il concetto di apprendimento nelle macchine si riferisce all’algoritmo di ottimizzazione che permette a una rete neurale artificiale di migliorare la sua corrispondenza con un insieme di dati di ingresso e uscita, come il riconoscimento o la generazione di testo, immagini, suoni, odori, azioni meccaniche, e così via. Tale algoritmo è stato pensato anche per essere eseguito dai calcolatori elettronici. Si tratta quindi di procedure matematiche di natura diversa dall’apprendimento umano, che al contrario coinvolge processi cognitivi più articolati e complessi. L’ultimo esempio, il meccanismo di attenzione nelle reti neurali, è un metodo per dare diversa enfasi a parti diverse degli ingressi, migliorando la corrispondenza della rete con un insieme di dati di ingresso e uscita. Tale metodo non corrisponde all’attenzione biologica, che è un processo di focalizzazione molto più complesso e dinamico. In generale, i sistemi di intelligenza artificiale sviluppati per i prodotti e i servizi hanno una progettazione ingegnerizzata per comportarsi in modo efficace, ma non adoperano le strutture ed i processi interni della mente biologica, peraltro ben lungi dall’essere del tutto chiari. Ciò nonostante, è sorprendente pensare a come dei meccanismi artificiali così semplificati rispetto a quelli biologici possano manifestare un comportamento intelligente quando vengono collegati in grande numero. Infine, ma non da ultimo, gli esseri umani tendono a focalizzarsi troppo sul cervello quando studiano il comportamento intelligente, mentre l’intelligenza è un paradigma in grado di spiegare anche il comportamento di apparati come quello digerente, di sistemi come quello immunitario, di organismi cellulari, di microrganismi, e che ha reso possibile, ad esempio, lo sviluppo di nuovi algoritmi intelligenti a essi ispirati, di tessuti e materiali artificiali intelligenti.

Ci sono quindi intelligenze diverse che si sviluppano e si evolvono, in un ecosistema ibrido ispirato dalla biologia e dalle attività umane. In particolare, una branca, l’intelligenza artificiale umanoide, sviluppa sistemi di intelligenza artificiale progettati per imitare l’aspetto, il comportamento e le capacità cognitive degli esseri umani. I robot umanoidi, dotati di sembianze umane, sono in grado di interagire con l’ambiente e le persone in modo naturale e intuitivo, particolarmente utili in settori quali assistenza sanitaria, educazione, intrattenimento. In tale contesto, è sempre più importante sviluppare nuove discipline e professioni per armonizzare la coesistenza di questi diversi tipi di intelligenze, preservando la salute, la libertà, l’etica, e tanti altri valori irrinunciabili per gli esseri umani.

L’intelligenza è quindi una facoltà composta, che può esprimersi attraverso diversi mezzi fisici e con diverse combinazioni di caratteristiche. Un sistema intelligente non deve necessariamente avere una coscienza per manifestare l’abilità di comportarsi in modo efficace in situazioni nuove. I sistemi intelligenti attuali possono usare i dati e gli algoritmi di apprendimento automatico per sviluppare logiche proprie, senza fare affidamento alle regole definite da esperti umani con i medesimi dati.

Una delle qualità di maggior interesse della mente, in quanto considerata comunemente prerogativa degli esseri umani, è la coscienza, ossia la capacità di comprendere sé stessi e il mondo, di avere esperienze soggettive. Dal punto di vista anatomico/funzionale è noto che il cervello biologico è composto da sottosistemi, e dal punto di vista strutturale è possibile sviluppare un sottosistema artificiale che osserva le attività del sistema artificiale che lo contiene, allo scopo di supportarlo nel breve, medio e lungo termine. Tuttavia, dal punto di vista funzionale non è affatto semplice sviluppare modelli di questo tipo, in quanto si basano su rappresentazioni interne della mente non note.

Nell’ambito dei modelli della mente, lo sviluppo di sistemi di intelligenza artificiale costituiti da diverse reti neurali artificiali con il ruolo di agenti specializzati è un ambito relativamente nuovo e promettente, e pone diverse sfide scientifiche e ingegneristiche. Estremizzando tale paradigma di progettazione, di grande interesse è lo sviluppo di sistemi intelligenti multi-agenti, in grado di manifestare comportamenti emergenti. Un comportamento emergente si manifesta quando un grande numero di agenti caratterizzati da proprietà semplici e adattive, che operano in un ecosistema collaborativo e/o competitivo, danno origine a comportamenti che rappresentano un successivo livello di evoluzione del sistema, dove l’apprendimento è l’insieme degli adattamenti reciproci delle proprietà degli agenti, resi possibili dalle progressive interazioni tra di essi. In termini matematici, le proprietà degli agenti si possono rendere adattive attraverso una opportuna calibrazione di parametri. In matematica, un parametro può assumere valori numerici diversi al fine di modificare il comportamento dell’agente. Ad esempio, la messa a fuoco di un obiettivo fotografico corrisponde alla calibrazione di un parametro, e può essere svolta manualmente oppure da un sistema intelligente. La messa a fuoco può essere più o meno accurata, ed evolvere con l’esperienza. Fondamentale nei sistemi emergenti artificiali è proprio il meccanismo di evoluzione parametrica, che può essere guidato da algoritmi evolutivi, modelli matematici ispirati alle leggi della selezione naturale. Il paradigma emergente a sua volta può essere adoperato per sviluppare un modello connessionista della mente. L’approccio connessionista sostiene che per ottenere un comportamento intelligente da parte di un sistema occorre riprodurre il funzionamento del cervello a livello cellulare. Per fare ciò, l’approccio connessionista postula il ricorso alle reti neurali, sebbene, come già detto, in realtà i neuroni artificiali sono ben diversi da quelli biologici il cui funzionamento è tutt’altro che chiaro. Il paradigma connessionista è diventato predominante negli ultimi anni grazie ai progressi dell’apprendimento di reti profonde. Invece il paradigma simbolico intende costruire sistemi intelligenti attraverso simboli per rappresentare concetti e relazioni, e regole logiche per rappresentare ed elaborare la conoscenza. Il paradigma simbolico funziona molto bene nell’ambito delle attività organizzate e tecnologizzate dell’industria e dei servizi. Oggigiorno si cerca di coniugare i due approcci per realizzare maggiore interoperabilità tra esseri umani e intelligenze artificiali, attraverso intelligenze artificiali spiegabili, ossia intelligenze artificiali in grado di descrivere le proprie decisioni attraverso concetti e relazioni.

Nell’ambito della coscienza, vi sono diversi modelli, tra i quali un modello che si è fatto strada tra studiosi della mente di diverse discipline è il modello emergente della coscienza, il quale ipotizza che la coscienza non sia il risultato di un singolo processo o di una singola parte del cervello, ma piuttosto emerga dalle interazioni complesse tra molteplici componenti cerebrali. Questo approccio è in qualche misura adoperato nelle teorie in neuroscienze, intelligenza artificiale e filosofia della mente. In particolare, oggetto di attenzione sono le proprietà di auto-organizzazione degli agenti, che richiedono una minor guida esterna. A tal proposito, una tecnica nota come apprendimento per rinforzo consente a un agente di migliorare nel compiere azioni nel suo ambiente per massimizzare una ricompensa cumulativa. Nell’apprendimento per rinforzo, l’agente apprende attraverso tentativi ed errori. Si tratta di un paradigma ispirato dai processi con cui il cervello umano apprende da esperienze passate. Attraverso l’apprendimento per rinforzo, strategie complesse emergono dall’interazione tra l’agente e l’ambiente. Ben note sono le applicazioni dell’apprendimento per rinforzo nell’ambito di giochi da tavolo complessi, che dimostrano come l’apprendimento per rinforzo possa portare a comportamenti complessi emergenti e a superare le abilità umane. Sono state sviluppate teorie, come quella dell’Informazione Integrata, che cercano di spiegare come la coscienza possa emergere da reti neurali complesse e dalla capacità di integrazione unitaria. Un sistema altamente integrato non può essere ridotto a parti indipendenti senza perdere proprietà essenziali riguardo alla sua funzione.

Per quanto attiene alle potenzialità dell’intelligenza artificiale, si pongono importanti quesiti di ordine filosofico. L’intelligenza artificiale debole è l’assunzione secondo cui l’intelligenza artificiale potrà arrivare a riprodurre solo il comportamento della mente, ossia una simulazione esternamente convincente della mente umana. Ad esempio, quando interagiamo con i modelli linguistici moderni abbiamo l’impressione che essi capiscano ciò che diciamo, rispondendo accuratamente alle nostre domande, anche se di fatto non è così. Per contro, l’intelligenza artificiale forte è l’assunzione secondo cui l’intelligenza artificiale potrà arrivare prima o poi a sviluppare non solo simulazioni, ma vere e proprie menti, macchine consapevoli dotate di coscienza. È significativo come la distinzione tra le due assunzioni si fondi su una funzione specifica della mente, la coscienza, considerata in tal senso una caratteristica distintiva dell’umanità. L’intelligenza artificiale debole ha come prerogativa il miglioramento dell’efficienza operativa delle attività umane. Al contrario, l’intelligenza artificiale forte ha significative ripercussioni etiche, filosofiche, giuridiche, e così via, perché con essa la macchina diventa soggetto. Ma anche l’essere umano diventa oggetto, in quanto la sua mente biologica si distingue dalla mente artificiale per il solo fatto di funzionare con tessuti biologici invece che sintetici. Il cervello biologico diventa quindi oggetto di miglioramento in quanto equivalente a uno artificiale. L’intelligenza artificiale forte demolisce pertanto il principio di responsabilità quale prerogativa umana. Oppure, visto da un’altra prospettiva, lo fortifica. Perché anche l’intelligenza artificiale forte diventa oggetto di miglioramento, potendo essere potenziata oltre i limiti della biologia, per fornire un supporto cognitivo in grado di risolvere problemi non alla portata della mente umana, ma sempre secondo i principi della natura umana. L’essere umano diventa quindi in grado di capire e adottare soluzioni accurate a un numero maggiore di problemi, prendendo un numero maggiore di decisioni informate e diventando pertanto più consapevole e responsabile. Ad esempio, nell’ambito dell’impatto ambientale molte decisioni sono al momento poco responsabili perché le conseguenze non sono pienamente prevedibili e comprensibili. In molte società, in primis quella europea, è stato sancito il principio secondo cui l’intelligenza artificiale deve poter spiegare il modo in cui ottiene i propri risultati. Tuttavia, al momento i sistemi di intelligenza artificiale mancano di comprensione contestuale e di senso comune, non eguagliano l’essere umano in creatività e intuizione, emotività, socialità, etica e moralità, tutti aspetti fondamentali nelle decisioni umane consapevoli.

Le possibilità che una macchina diventi cosciente, ossia assuma uno stato di consapevolezza di sé e dell’ambiente circostante, dipendono dai modelli accettati dalle neuroscienze moderne, un ambito multidisciplinare relativamente recente. Altri mammiferi manifestano qualche tipo di consapevolezza, oltre agli esseri umani. Pertanto, sembra che l’architettura cognitiva in grado di fornire consapevolezza abbia qualche vantaggio evolutivo, in termini di autonomia, robustezza, resilienza, e così via. Alcuni sviluppi della coscienza artificiale si basano su una ipotesi di lavoro detta funzionalismo computazionale: la tesi secondo cui la realizzazione di opportune computazioni sia necessaria e sufficiente per la coscienza. Tra i modelli di coscienza, è degno di nota lo “spazio di lavoro globale” (global workspace), che fu proposto alla fine degli anni 80 ed è a tutt’oggi in fase di sviluppo. Tale spazio di lavoro, sebbene limitato, è a disposizione di molti processi specializzati del cervello, come la visione, il linguaggio o la memoria, alcuni dei quali sono inconsci. L’attenzione agisce come un riflettore, portando alcune di queste attività inconsce alla consapevolezza cosciente sullo spazio di lavoro globale. Lo spazio di lavoro globale funziona come un centro per la trasmissione e l’integrazione delle informazioni, che possono essere condivise ed elaborate da diversi moduli specializzati. Per realizzare tutto ciò, occorrono delle proprietà strutturali osservabili, ad esempio in termini di connessioni. Tali proprietà possono costituire degli indicatori di coscienza. Questo ci porta al problema della verifica delle capacità cognitive. Dal noto test di Alan Turing degli anni ‘50, che consente di misurare solo la capacità di imitare il comportamento umano, sono stati sviluppati molti altri test che valutano la consapevolezza di sé, la comprensione del contesto e la capacità di provare emozioni. Recentemente studiosi di diverse discipline hanno cercato di mettere a fattor comune le diverse teorie della mente, determinando una collezione di proprietà strutturali osservabili per ogni teoria, grazie anche alle moderne tecnologie di analisi dei segnali cellulari, tradotte in indicatori, al fine di valutare se un determinato sistema possa essere cosciente. Tali batterie di test vengono indirizzate a diversi agenti, da soggetti con disordini della coscienza a neonati, feti, animali, sistemi di intelligenza artificiale (AI), organoidi neurali e organismi creati con tessuto biologico. I test sono di vario tipo, e prevedono una registrazione dell’attività neurale e un confronto con le attività di soggetti di riferimento. In particolare, il soggetto può essere istruito a immaginare situazioni, a fruire di contenuti, a sentire odori piacevoli/spiacevoli, a recepire un impulso di stimolazione magnetica, ad ascoltare diverse sequenze di suoni una dopo l’altra con una divergenza progressiva, ad apprendere le relazioni tra stimoli composti e nuovi, separatamente nel tempo, al fine di valutare se è cosciente secondo diverse prospettive.

In conclusione, la ricerca continua nel campo dell’intelligenza artificiale può portare alla creazione di modelli della mente sempre più sofisticati, capaci di simulare aspetti della coscienza umana, e a ridefinire molti concetti portanti della nostra civiltà, influenzando il lavoro, le relazioni sociali e la struttura economica. Proprio per preservare la società umana da una deriva tecnocentrica, asservita a professioni che portano sempre più l’essere umano al limite delle proprie capacità biologiche, l’intelligenza artificiale consentirà di sviluppare professioni e tecnologie più umane. In tal senso, perseguire l’intelligenza artificiale forte è opportuno prima che possibile, poiché è una intelligenza artificiale pienamente comprensibile dagli esseri umani, dotata di coscienza e quindi in grado di migliorarne la responsabilità. Basti pensare ai contributi che l’intelligenza artificiale potrebbe dare nella biologia sintetica, una disciplina a cavallo tra ingegneria e biologia, per sviluppare componenti e sistemi biologici non ancora esistenti in natura, riprogettare e produrre sistemi biologici già presenti in natura, per immaginare un futuro caratterizzato da molti tipi di intelligenza, dove il confine tra biologico e sintetico, umano e non, sarà difficile da tracciare.

Condividi questo articolo

Altri elementi

In primo piano settembre 2024