Tentativo di riflessione su cosa si intenda per Intelligenza Artificiale; apertura di prospettive per la cittadinanza.
Cos’hanno in comune il riconoscimento facciale, i filtri che si adattano ai visi, Siri che scrive ciò che le si detta, le tastiere degli smartphone che offrono suggerimenti di testo, i chatbot con cui possiamo conversare e quelli che generano immagini, ChatGPT a cui possiamo chiedere di fare ricerche universitarie e di scrivere tesine, i sistemi di previsioni meteorologiche e di diagnosi mediche, i consigliati di Netflix, le offerte pensate per te di Amazon, le automobili a guida autonoma? L’uso dell’Intelligenza Artificiale.
Oggi giorno, l’Intelligenza Artificiale si applica progressivamente in sempre più ambiti della vita degli individui, dal contesto lavorativo alla dimensione domestica, dalla creazione artistica all’implementazione di sistemi di gestione e pianificazione, così come di sistemi di previsione e raccomandazione. Tuttavia, un velo di opacità ricopre la definizione dell’Intelligenza Artificiale e il futuro dell’umano in relazione a essa: quale futuro spetta agli individui in un mondo in cui l’intelligenza, elemento che si considera da sempre specifico e unico degli individui, smette di essere appannaggio solo dell’umano? Si diffondono, a tal proposito, narrazioni sulle possibili maniere in cui si articolerà la progressiva interazione e la maggiore condivisione degli spazi tra l’essere umano e l’Intelligenza Artificiale. In un contesto in cui le macchine informatiche sembrano avere sempre più potere e in cui i loro meccanismi sembrano essere progressivamente più complessi e sfuggenti, tanto da essere denominati con qualcosa che normalmente caratterizza l’umano, da un lato si delineano scenari in cui l’IA sfugge al controllo umano, arrivando a sostituire l’intera razza umana, dall’altra ve ne sono alcuni in cui si mostra una progressiva condivisione e grado di alleanza tra l’umano e l’IA. A fronte della pluralità di scenari che rivelano sentimenti contrastanti nei confronti dell’IA, provare a fare un po’ di chiarezza sulla definizione di Intelligenza Artificiale risulta estremamente importante.
L’Intelligenza Artificiale nasce, in continuità con una visione meccanicistica della realtà, all’interno di una teoria escatologica più ampia: la cibernetica, ramo della scienza che si prefigge lo studio e la realizzazione di dispositivi e macchine, capaci di simulare le funzioni del cervello umano, autoregolandosi per mezzo di segnali di comando e di controllo in circuiti elettrici o in sistemi meccanici. L’IA è dunque una disciplina che si occupa di studiare l’implementazione di algoritmi e sistemi che permettono a software (e possibilmente anche ad hardware) di eseguire compiti che, quando sono svolti da esseri umani, richiedono l’uso dell’intelligenza.
Questi compiti includono l’apprendimento, il ragionamento, la percezione, il linguaggio naturale e l’interazione con altri agenti cognitivi all’interno dell’ambiente digitale. In altri termini, si tratta di sistemi che, come afferma il rapporto sull’IA della Commissione Europea [1]:
«dato un obiettivo complesso, agiscono in una dimensione fisica o digitale, percependo il loro ambiente attraverso l’acquisizione di dati, interpretando i dati raccolti e ragionando sulle conoscenze pregresse o sull’elaborazione delle informazioni raccolte, per decidere la migliore azione da intraprendere per raggiungere l’obiettivo dato. I sistemi di intelligenza artificiale possono utilizzare regole simboliche o imparare un modello numerico e possono anche adattare il loro comportamento a partire dall’analisi dell’influenza che le loro azioni hanno sull’ambiente»
Sebbene si tratti di una disciplina, oggi si parla di IA come di un ente particolare singolarizzato, la cui definizione è cambiata in parallelo alle evoluzioni tecnologiche. Lo studioso Minsky [2] ha inizialmente definito l’IA come la scienza che si occupa di far fare alle macchine procedimenti che richiederebbero l’uso dell’intelligenza se fossero fatti dagli uomini (IA debole). Oggi, invece, per IA si intende una macchina informatica capace di pensare come pensa l’uomo (IA forte). L’obiettivo dei recenti studi in ambito tecnologico è proprio quello di realizzare un’IA forte, in grado di sviluppare una coscienza autonoma, ispirata al funzionamento del cervello umano.
Queste due definizioni riprendo una distinzione fatta in seno alla definizione di intelligenza. Anche nel caso dell’intelligenza ci troviamo, infatti, in un contesto di pluralità di definizioni. Si assuma in questo contesto per intelligenza la capacità di imparare dall’esperienza e di essere in grado di risolvere un problema, senza che vi sia bisogno di un intervento esterno. A questo punto possiamo delineare due tipi di intelligenza: un’intelligenza forte e una debole. La differenza tra le due risiede nella dimensionalità a cui hanno accesso e il livello di consapevolezza di sé che hanno. L’intelligenza forte è quella propria della nostre mente, capace di aver coscienza e consapevolezza di sé: non si limita a eseguire certi compiti ma è in grado di riflettere su ciò che fa, avendone consapevolezza e applicandosi a una pluralità di dimensioni, anche contemporaneamente, in modo autonomo. Mentre, l’intelligenza debole, propria dell’IA, è monodimensionale: si tratta di un’intelligenza computazionale che si limita a una raffinata ed efficiente capacità di calcolo, messa in atto senza averne consapevolezza.
Se inizialmente, in una prima fase, l’IA funzionava sulla base di algoritmi, per cui data un’istruzione x ne seguiva necessariamente l’effetto y, oggi con l’implementazione di sistemi di Machine Learning, essa risulta in grado di imparare dai dati raccolti e di eseguire calcoli dai risultati inattesi, lasciando intuire una sua certa dose di autonomia. Ora, se intendiamo per autonomia il fatto di non essere eteronormati, ovvero il fatto di agire secondo leggi imposte dall’esterno, allora l’IA risulterebbe capace di darsi da sola le proprie regole di moto. Ma affermare l’autonomia dell’IA quali conseguenze porta? Ci farebbe forse dire che l’IA può avere accesso a una forma di intelligenza forte? Per potersi dare le leggi del proprio moto è necessario aver coscienza di sé e consapevolezza di ciò che si fa oppure è sufficiente, in un certo senso, imparare dall’esperienza e ripetere meccanismi già messi in atto? In altre parole, autonomia coincide con autocoscienza? Uno è condizione necessaria e sufficiente dell’altra?
Senza pretendere di avere una risposta a questi quesiti, presenterò un’osservazione, tratta dall'articolo "Persone elettroniche: quid jus?" di C. Alvisi. Oggi si considera che l’IA sia sempre più autonoma, tanto che si delineano proposte normative di riconoscimento della personalità giuridica ai sistemi di Intelligenza Artificiale, in nome della sua capacita di autodeterminarsi. Tuttavia, benché l’IA faccia calcoli dai risultati inattesi, agisce sempre seguendo gli interessi dei programmatori. Infatti essa è subordinata, almeno a uno stato iniziale, agli input esterni. Questo ci può rassicurare sul fatto che nonostante sembri che l’IA abbia un certo grado di autonomia, essa è in realtà subordinata alle decisioni e ai programmi umani. In questo senso, per quanto essa possa dare risultati inaspettati, questi non sono il prodotto di una volontà propria dell’IA. Si apre quindi un quesito: cos’è che ci interroga? La capacità dell’IA di diventare autonoma o l’uso che l’umano può fare di questa efficientissima tecnologia? È la possibilità che l’IA sfugga al controllo umano raggiungendo l’auto-coscienza che ci dà tanto da pensare o ciò che l’uomo può fare con questi dispositivi? Tanto più che solo una ristretta e specializzata parte dell’umanità ha le competenze digitali adatte per capire come funzioni l’IA.
Per ridurre il livello di paura e di sospetto che sembriamo nutrire nei confronti dell’IA è sicuramente necessario aumentare il livello di conoscenza che le persone hanno dell’Intelligenza Artificiale, dei suoi funzionamenti, dei vantaggi che essa può portare alle nostre vite e dei suoi limiti. Dotare le persone di abilità digitali è oggi una sfida civica cruciale, così come evitare che la comprensione delle evoluzioni informatiche resti nelle mani di una parte ridotta della cittadinanza; fattore che incrementerebbe ancora di più le diseguaglianze sociali vigenti. Interrogarsi su questi problemi e su come si possa migliorare l’educazione alle nuove tecnologie e la data literacy della cittadinanza, in modo da aumentare la consapevolezza dei cambiamenti sociali dovuti all’innovazione digitale e alla rivoluzione dei dati, sarà una delle riflessioni centrali dell’hackathon di Bologna InnovAttiva. Questa riflessione è oggi importante, tanto più a Bologna, che, tramite il Tecnopolo e l’associato Osservatorio sulle trasformazioni tecnologiche, è città nucleo della data valley hub, dotato di Leonardo, il quarto supercomputer più potente del mondo, e di GenBee, intelligenza generativa dell’Osservatorio ufficiale del Tecnopolo, addestrata su un corpus di materiali affidabili e aggiornati e al servizio di tutt*. Bologna quindi sarà luogo di snodo centrale di una trasformazione digitale su ampia scala, che ci auguriamo possa essere anche l’occasione di un’attiva e partecipata riflessione civica.
[1] European Commission (2018), A definition of AI: Main capabilities and scientific disciplines. High-Level Expert Group on Artificial Intelligence
[2] Marvin Lee Minsky, matematico, informatico e ricercatore statunitense specializzato nel campo dell'intelligenza artificiale (IA), cofondatore dell'Artificial Intelligence Project (divenuto, in seguito, Artificial Intelligence Laboratory) presso il Massachusetts Institute of Technology (MIT) di Cambridge (Massachusetts)]
Comments ()