IL PENSIERO MEDITERRANEO

Incontri di Culture sulle sponde del mediterraneo – Rivista Culturale online

Intelligenza Artificiale e Intelligenza Collettiva: automatismi v/s pensiero critico di Enrico Conte

Intelligenza artificiale

Prefazione

La conversazione con Andrea Prencipe, Professore di Organizzazione ed Innovazione, già Rettore Università Luiss Guido Carli e con Paolo Baldi, Ricercatore di logica e Filosofia della scienza, Unisalento, è stata registrata PRIMA che venisse diffusa sui social, partendo dalla piattaforma X,  il video con Gaza trasformata in una riviera, dove troneggia Trump vestito d’oro, in mezzo a grattacieli e bambini che giocano felici.

Immancabile, nel video, anche la figura di Musk, in un prodotto di massa dell’Intelligenza Artificiale, tanto scintillante, kitsch e verosimile quanto inquietante, a partire dalla  convergenza di interessi che lega i due potenti e ricchissimi committenti, che aprono un interrogativo ineludibile sulla tenuta delle società democratiche.

Guardando il video su Gaza viene da dire che la “Società dello spettacolo”,  teorizzata quando scoppiavano i consumi di massa negli anni ’60 del secolo scorso da Guy Debord, sembra essere una realtà ormai realizzatasi in pieno e in via di superamento, per sublimarsi in quella che Richard Sennet chiama “La società del palcoscenico”.

Dopo aver citato Shakespeare della commedia “Come vi piace”, nella quale Jacques dirà che “tutto il mondo è un palcoscenico”, Sennet sostiene che, ormai, il demagogo condivide con il ballerino e il musicista lo stesso regno, fatto di gesti non verbali, di illuminazione, costumi e scenografie, in una serie di performance, e di messe in scena, nelle quali, guardando nei nostri smartphone, siamo tutti coinvolti.

Il tema delle immagini, da inquadrare nel loro statuto, prodotte con la AI sarà argomento di una successiva conversazione. Ad oggi, quella che viene proposta, si concentra su ciò che rappresenta la base, potremmo dire l’abc, per entrare nel mondo sfuggente degli algoritmi dell’intelligenza generativa, partendo dal linguaggio cognitivo.

La paura del buio è una costante nei bambini ma, alle volte, persiste in età adulta.

Il  buio è anche potente metafora che può essere usata ogni qualvolta un passaggio venga percepito come un salto in un contesto del quale non si conoscano i connotati, e che appare come un “salto nel buio”.

Sembra rientrare in questo fenomeno un certo diffuso atteggiamento nei confronti dell’IA materia per apprendisti stregoni, quando complicata e oscura, o di inadeguata consapevolezza sul suo funzionamento.

Proviamo a partire da un primo assunto: l’IA si serve di informazioni già esistenti, elaborate da un autore umano, immesse in rete e accumulate dai Big Data. D’accordo?

Baldi: Sì, fondamentalmente l’IA generativa si basa su algoritmi di apprendimento, che vanno alla ricerca di schemi all’interno di dati già prodotti e già classificati da esseri umani.  Una volta appresi questi pattern profondi, gli algoritmi possono poi utilizzarli, nel caso dell’IA per produrre nuovi dati, testi, immagini, video.

Prencipe: gli algoritmi di IA generativa sono istruiti, addestrati, alimentati da dati esistenti e digitalizzati. Il processo di digitalizzazione dei dati è in corso; quindi, la ‘base di istruzione’ è in continuo allargamento.

Le informazioni elaborate dagli algoritmi partono da quelle esistenti, il primo rischio non è quello di un’assimilazione inconsapevole dei paradigmi culturali degli sviluppatori, con un esito conformistico sul modo di pensare?

Baldi – Giusto, c’è il rischio che l’apprendimento automatico riproduca pregiudizi. 

Questi problemi si possono affrontare migliorando i dati di addestramento. Ma ci sono caratteristiche del mondo che non è giusto utilizzare come base per le nostre decisioni, un esempio, potrebbe essere anche vero, sulla base dei dati disponibili, che persone di un certo gruppo delinquano di più, ma ciò non significa che si debba  decidere con un algoritmo il destino di una persona sulla base dell’appartenenza al gruppo. È necessario vigilare, sulla qualità dei dati di addestramento e sull’intero processo di applicazione degli strumenti algoritmici. Temi  dibattuti nelle comunità scientifiche.

Prencipe – il rischio di ‘persuasione occulta’ dell’IA esiste – per utilizzare il concetto degli anni ‘70 e ‘80 che descriveva l’influenza che la pubblicità aveva sui comportamenti dei consumatori. L’IA è addestrata su dataset con determinate inclinazioni e potrebbe influenzare le opinioni degli utenti in modo sottile, rafforzando determinate idee, guidando scelte in una direzione, incoraggiando la formazione di posizioni ideologiche.Tuttavia, queste dinamiche negative sono legate alla mancanza di consapevolezza dell’utente, quando lo stesso percepisce l’IA come fonte neutra.

E’ importante quindi trasparenza nei dati, nei modelli di addestramento e negli algoritmi decisionali e soprattutto sensibilizzazione tra gli utenti dei limiti, delle minaccie e delle opportunità dell’IA. La sensibilizzazione passa anche attraverso l’educazione e la formazione: è necessario essere in grado di governare l’IA e non adattarsi alla stessa.

Dopo oltre un decennio di reti social, arriva la notizia, la gratuità del loro utilizzo è compensata dal fatto che chi risponde “vende” attenzione e desideri. Ci sarà  anche per l’IA un momento della verità?

Baldi- Stiamo vivendo proprio in questi giorni un momento verità, il “momento Sputnik”, in analogia con quanto avvenuto nella corsa allo spazio tra Stati Uniti e Unione Sovietica. Oggi gli attori principali nella corsa all’IA sono Stati Uniti e Cina (Europa in posizione marginale). DeepSeek, prodotto cinese, ha mostrato che è possibile ottenere risultati paragonabili ai modelli di IA delle grandi aziende americane come Open AI e Google con costi ridotti, soprattutto dal punto di vista degli hardware. Il modello cinese è stato rilasciato con licenza aperta e sono stati pubblicati alcuni dettagli sui meccanismi di apprendimento, così da permettere ad altri ricercatori e aziende di costruire a partire dai loro risultati. Una  normale prassi scientifica, ma in contrasto, ironicamente, con quanto fa, ad esempio, “Open” AI.

Prencipe – Il momento è già arrivato: siamo consapevoli che il semplice (!) utilizzo degli LLM innesca processi di addestramento degli LLM stessi.

“Pensare presuppone un’emozione….e intelligenza significa scegliere tra possibilità alternative. L’IA non è in grado di produrre possibilità completamente diverse, solo il pensiero umano ci permette di vedere le complessità contestando le soluzioni esistenti offerteci”( Byung-Chul Han). Perchè viene chiamata “Intelligenza” ?

Baldi- In realtà non  abbiamo una nozione condivisa di cosa significhi  intelligenza, né tanto meno di coscienza. 

Intelligenza è, per dirla con Marvin Minsky, una “parola valigia”, in cui ritroviamo di tutto. Siamo quindi costretti a scomporre questa nozione e ricomporla in termini più precisi.  Per fare un esempio, due ricercatori nell’ambito dell’IA nel 2007 hanno classificato 70 diverse definizioni di intelligenza! Ovviamente dire che gli algoritmi siano o meno intelligenti dipende dal tipo di nozione adoperata. Potremmo quindi chiederci se sia utile scegliere tra le diverse nozioni di intelligenza, una che in linea di principio possa includere anche gli algoritmi. In realtà, l’espressione IA è stata usata agli albori della disciplina nel 1956,  anche come un’operazione di marketing, in un certo senso, per richiedere finanziamenti  e per distinguere un certo ambito di ricerca da filoni attigui e  preesistenti (cibernetica).

Prencipe – ignoro, nel senso latino del termine, le motivazioni alla base dell’uso del termine intelligenza che, come sappiamo, ha diverse accezioni e  significati. Al di là delle definizioni dell’IA rimarco l’importanza di imparare a saperla utilizzare.

E se l’IA  si rivelasse  una bufala?

Baldi – Non mi sento di dire che sia una bufala, stiamo ancora elaborando  possibilità e rischi. C’è sicuramente un eccesso di entusiasmo (e di clamori apocalittici), ma questo è dovuto al fatto che la ricerca di frontiera è sempre più appannaggio di grandi aziende che uniscono la vendita, quindi la pubblicità di un prodotto, e la ricerca scientifica. Districare questi due aspetti in un ambito come l’IA, anche alla luce della natura opaca dei risultati del machine learning, è estremamente difficile.

C’ è un altro aspetto: una volta che una tecnologia di IA diventa parte integrante del nostro uso quotidiano, smettiamo di considerarla “intelligente”. Pensiamo al navigatore: ormai viene dato per scontato, tanto da non colpirci più come “intelligente”, contrariamente ai chatbot.

Prencipe –  l’IA è una tecnologia che offre opportunità in numerosi ambiti, anche creativi ed umanistici. È importante considerarla come strumento a supporto dei processi lavorativi – più o meno routinari, più o meno creativi. Pertanto, l’utilizzo dipende dalla nostra capacità di imparare a saper governare l’IA, saper estrarre contenuti dalla stessa attraverso la formulazione di domande – ars interrogandi – e vagliare criticamente le risposte – ars dubitandi.

Gli applicativi sembrano pensati per un uso individuale, ma il pensiero collettivo è come un grande contenitore amniotico, dove i nessi vengono alimentati dai valori umanistici. Se sarà dominante il pensiero computazionale, che ne sarà del pensiero critico?

Baldi – Gli ultimi strumenti di IA hanno però colpito l’immaginazione collettiva proprio per la loro efficacia anche in ambiti umanistici!

ChatGPT ha una particolare capacità di fornire risposte a tema, conversare e produrre testi di diverso tipo, fino alla poesia. Per risolvere complessi calcoli matematici o equazioni differenziali ritengo che in realtà altri strumenti siano più affidabili.

In generale, non amo la contrapposizione tra un sapere umanistico “critico” e un sapere scientifico-tecnologico “calcolante”. Uno degli aspetti che mi sembrano più interessanti dell’IA è il rimescolamento a cui sono sottoposti  questi saperi. Analisi computazionali e statistiche dei prodotti culturali e d’altro lato analisi etiche, logiche ed epistemologiche degli algoritmi sono ormai la norma nella ricerca.Colgo l’occasione per menzionare che all’Università del Salento abbiamo un centro di ricerca in “Digital Humanities” che si occupa proprio di questi temi di confine. 

Prencipe – sono un convinto sostenitore dell’approccio interdisciplinare. In un recente saggio Due Culture?, Filippo La Porta, critico letterario, e Giuseppe Mussardo, fisico teorico, hanno riavviato il dialogo tra scienze e studi umanistici partendo dalla domanda che il fisico Paul Adrien Maurice Dirac fece a J. Robert Oppenheimer, il fisico studioso di letterature, a capo del progetto Manhattan, ‘Mio caro Oppie, ma come fai a conciliare la fisica con la poesia? Lo scienziato è colui che trova una soluzione ad un enigma, viceversa l’artista è quello che, da una soluzione, crea invece un enigma’. L’incontro – dove il prefisso “in” invita ad andare verso, mentre “contro” incoraggia a essere respingenti – della prospettiva scientifica e di quella umanistica è alla base della interdisciplinarità e rimarca la necessità dell’intelligenza collettiva.

A chi spetta il compito di fornire questi mezzi educativi? Alla scuola, all’università, ai genitori?

Baldi –  E’ sicuramente importante il ruolo della famiglie, ma non credo sia giusto demandare loro completamente l’educazione all’uso delle tecnologie.

Le migliori menti studiano strumenti per legarci compulsivamente ai nostri device e ai social, e pochi sono attrezzati per gestirli in maniera consapevole.

Per fare un esempio, vedo che già tra gli adulti della mia generazione, che tutto sommato sono cresciuti con lo smartphone, ci sono difficoltà ad utilizzarli in maniera equilibrata.

La mia impressione è che si sia in un periodo di transizione, finché non capiremo gli effetti profondi di alcune tecnologie. Magari inorridiremo tra 20 anni all’idea dello smartphone in mano ai bambini, o prima di dormire, come inorridiamo oggi all’idea del fumo nei cinema e nei treni. 

Prencipe – alla luce della diffusione e delle potenzialità dell’IA, è necessario che il patto educativo sia distribuito tra vari attori sociali (scuola e università in primis, in collaborazione con famiglie, imprese, ed istituzioni): la consapevolezza dell’utilizzo dell’IA si diffonde con programmi educativi, attraverso un ripensamento dei percorsi formativi ed una ridefinizione del ruolo dei docenti, che oltre ad “instruere”, nel senso di suggerire e non imporre chiavi interpretative della realtà, dovranno essere sempre più formati ad accendere il fuoco per l’apprendimento e quindi “educere”, nel senso di tirare fuori, condurre verso. Il docente guida i processi di apprendimento di ragazzi che, oltre a imparare contenuti umani, imparano anche il linguaggio di interazione e di interrogazione delle macchine, per saperle governare e non respingere.

Enrico Conte

Trieste-Lecce 27 febbraio 2025


Rivista online Il Pensiero Mediterraneo - Redazioni all'estero: Atene - Parigi - America Latina. Redazioni in Italia: Ancona - BAT - Catania - Cuneo - Firenze - Genova - Lecce - Marsala - Milano - Palermo - Roma - Trieste. Copyright © All rights reserved. | Newsphere di AF themes.