IL CASTORO | L’intelligenza artificiale: un problema di governance

Romagna | 19 Giugno 2023 Blog Settesere
il-castoro--lintelligenza-artificiale-un-problema-di-governance
Asia Ronchi
L’IA (Intelligenza Artificiale) viaggia tra reale e virtuale, vero e verosimile. Reali sono i materiali che consuma, per incrementare la sua potenza di calcolo, reale è la forza lavoro che sfrutta, per mantenere l’illusione dell’automazione. Virtuale è il campo in cui agisce e dal quale assorbe i nostri dati.
Dell’IA sappiamo ben poco, come ci fa notare Kate Crawford nel suo libro Né intelligente né artificiale. Il lato oscuro dell’IA. Si tratta, infatti, di una rivoluzione tecnologica sfuggevole, perché viaggia alla velocità della luce, e oscura, perché i suoi fini appaiono ancora non manifesti. Questo alone di mistero e la violazione della privacy hanno portato, infatti, l’Italia a bloccare ChatGpt, un software di intelligenza artificiale ormai ben noto. Ci siamo interrogati sul tema con Silvia Montobbio, docente di storia e filosofia del liceo scientifico Gobetti di Torino.
L’intelligenza artificiale è davvero intelligente?
«Se per intelligenza si intende la capacità di elaborare dei dati e applicare degli schemi di elaborazione logica allora l’IA è intelligente. Tuttavia il campo dell’intelligenza è più vasto, complesso e creativo (non a caso intelligente viene da intelligere, guardare dentro, capire in profondità). Le macchine oggi sembrano intelligenti in tutti i sensi perché è enorme la quantità di dati di cui possono disporre, che sono in grado di processare velocemente».
L’IA è in grado di pensare?
«Alan Turing, che è un po’ il padre dell’intelligenza artificiale, aveva già riflettuto su questo e sosteneva che in primis dobbiamo distinguere fra il comportamento pensante e l’essenza pensante. L’IA non è un essere pensante, può però riprodurre dei comportamenti del pensiero o di una parte di esso, cioè tutto ciò che ha a che fare con l’elaborazione attiva dei dati».
L’IA è creativa?
«Non possiamo parlare di creatività, si tratta solo della possibilità di disporre in tempi brevissimi di una quantità di dati e di schemi di correlazione fra essi, per cui, incrociandoli velocemente, si riesce a ricreare, ad esempio, un dipinto nello stile di Van Gogh. Non solo, creatività significa anche problem solving e attribuzione di significati e l’IA, nonostante la crescente capacità di imparare, non è in grado di risolvere attivamente un problema imprevisto totalmente, per il quale cioè non disponga di dati e di schemi precostituiti».
L’IA rappresenta una rivoluzione o un’involuzione?
«Sono molto ostile ai pregiudizi. Quando si tratta di intelligenza umana, credo che sia giusto svilupparla e, per quanto siamo consapevoli dei rischi dell’IA, penso che sia una rivoluzione. Tuttavia è più una evoluzione. Non è che ci troviamo davanti a un essere alla nostra altezza, dotato di autonomia, però sicuramente la nostra vita è cambiata, in quanto non è uno strumento staccato da noi. Se sia buona o cattiva dipende soprattutto da chi c’è dietro».
Qual è il principale problema dell’IA?
«L’aspetto meno dibattuto, ma secondo me cruciale, è a chi abbiamo lasciato la responsabilità di ideare, progettare e anche finalizzare l’intelligenza artificiale. La sua pericolosità non dipende tanto dalla sua potenzialità, quanto dal soggetto che la governa. Potremmo definirlo un problema di governance. Sappiamo solo che la controllano principalmente dei soggetti privati, che si autofinanziano e che quindi hanno spesso come fine il profitto. C’è una cosa che potrebbe tutelarci dai rischi, cioè la capacità degli stati e delle autorità pubbliche di regolamentare la sfera dell’intelligenza artificiale».
Come vede la posizione dell’Italia nei confronti di ChatGpt?
«Una manovra di prevenzione. L’IA è nata e si è sviluppata in modo veloce e un po’ anarchico, secondo - potremmo dire - il detto degli americani: “Move fast and apologize later”, che significa “muoviti veloce e giustifica dopo”. ChatGpt non è stata bloccata dal governo italiano perché è pericolosa o si sostituisce all’uomo, ma per ragioni legate alla privacy e alla raccolta dei dati. La prudenza italiana è dovuta alla particolare attenzione che abbiamo sviluppato negli ultimi anni nei confronti della raccolta dei dati personali e della tutela dei minori. Anche l’Europa si è già data dei regolamenti, nonostante siano ancora da armonizzare».
Pensa che si stia trattando il tema in modo superficiale?
«Il modo in cui siamo costretti a parlare dell’IA assomiglia molto a quello che Martin Heidegger identifica come la chiacchiera o la curiosità. Il filosofo dice che nel relazionarci con gli altri usiamo il linguaggio non per capire ma per chiacchierare e siamo più curiosi che determinati a capire in profondità».
L’IA minaccia la democrazia?
«Sì, ne minaccia le basi. Ci dovrebbe essere un controllo pubblico di ciò che accade, in quanto la democrazia si basa sulla partecipazione. Il cittadino deve essere consapevole, informato e partecipe. Tuttavia, quando siamo governati dall’intelligenza artificiale ci chiudiamo in una bolla».
Quanto siamo consapevoli dei rischi connessi all’interazione tra uomo e IA?
«Forse è la prima volta nella storia che c’è una rivoluzione tecnologica così pervasiva, che sta trasformando l’uomo e il suo rapporto con la realtà, senza che ci sia stata la possibilità di assimilarla poco a poco, ma anche senza che noi ci interessassimo a capire come funziona. Dovremmo essere tutti più consapevoli delle sue implicazioni, non essere solo l’utente e il consumatore finale, che non ha idea di che cosa ci sia dietro».
Come cambia il nostro modo di vedere il mondo?
«Tutti i concetti di realtà, relazione umana cambiano. Tutto è scardinato e posto su nuove basi. Si sta trasformando perfino il concetto di essere umano, non perché esiste un cyborg che prende il nostro posto, ma proprio perché anche le relazioni sentimentali sono gestite in un altro modo. La stessa parola verosimile comincia a scricchiolare filosoficamente, perché diamo per scontato che sia vero l’essere umano in carne e ossa, con la sua fisicità e sia meno vero l’essere umano con cui si sta discutendo, attraverso un apparecchio elettronico. Stiamo insomma entrando in un mondo che è virtuale e reale allo stesso tempo. Il virtuale non è verosimile, ma al pari del reale. Viviamo in questa mescolanza inestricabile e quindi la nostra mente deve fare un salto di qualità».
Cosa ne pensa dell’utilizzo di ChatGpt a scuola?
«Finché la scuola chiede delle nozioni e quindi si aspetta come risposta delle descrizioni, allora è giusto che lo studente non risponda in modo personale ma con ChatGpt. La capacità di esporre ordinatamente un argomento è una cosa che la macchina può già fare meglio di noi. Gli studenti non devono essere, come l’intelligenza artificiale, soldatini che applicano un modello già preconfezionato, ma trovare da soli la strada per risolvere un problema. Non mi preoccuperei tanto di ChatGpt quanto di come la scuola e i professori gestiscono l’apprendimento».

Illustrazione di Asia Ronchi
Compila questo modulo per scrivere un commento
Nome:
Commento:
Settesere Community
Abbonati on-line
al settimanale Setteserequi!

SCOPRI COME
Scarica la nostra App!
Scarica la nostra APP
Follow Us
Facebook
Instagram
Youtube
Appuntamenti
Buon Appetito
Progetto intimo
FuoriClasse
Centenari
Mappamondo
Lab 25
Fata Storia
Blog Settesere
Logo Settesere
Facebook  Twitter   Youtube
Redazione di Faenza

Via Severoli, 16 A
Tel. +39 0546/20535
E-mail: direttore@settesere.it
Privacy & Cookie Policy - Preferenze Cookie
Redazione di Ravenna

via Arcivescovo Gerberto 17
Tel 0544/1880790
E-mail direttore@settesere.it

Pubblicità

Per la pubblicità su SettesereQui e Settesere.it potete rivolgervi a: Media Romagna
Ravenna - tel. 0544/1880790
Faenza - tel. 0546/20535
E-mail: pubblicita@settesere.it

Credits TITANKA! Spa
Setteserequi è una testata registrata presso il Tribunale di Ravenna al n.457 del 03/10/1964 - Numero iscrizione al Registro degli Operatori di Comunicazione:
23201- Direttore responsabile Manuel Poletti - Editore “Media Romagna” cooperativa di giornalisti con sede a Ravenna, Arcivescovo Gerberto 17.
La testata fruisce dei contributi diretti editoria L. 198/2016 e d.lgs. 70/2017 (ex L. 250/90).
Contributi incassati

settesere it notizie-romagna-il-castoro-lintelligenza-artificiale-un-problema-di-governance-n39077 005
Licenza contenuti Tutti i contenuti del sito sono disponibili in licenza Creative Commons Attribuzione