Lavorare ad un’etica dell’intelligenza artificiale, è possibile?

Se potessimo far tornare indietro il tempo a quando l’uomo ha scoperto le prime armi, ci renderemmo subito conto di quanto sia importante valorizzare uno strumento rispetto al suo utilizzo.

Si tratta di un prodotto per sostenere la vita, per difendersi o per aggredire gli altri umani?

Davanti a un prodotto innovativo abbiamo il diritto e il dovere di bilanciarne il potenziale rispetto a un obiettivo ben preciso: come può esserci d’aiuto?

Quando parlo di intelligenza artificiale ai miei clienti (o potenziali tali) mi capita spesso di riavere indietro due tipologie di reazioni.

La prima è relativa alla preoccupazione che un sistema di questo tipo possa in un certo senso rivoluzionare e distruggere il lavoro così come lo conosciamo. Creare una guida turistica gestita da IA, come avviene con la nostra app Glooci, toglierebbe il lavoro alle guide vere senza pensare al potenziale che un prodotto di questo tipo possa donare alle guide stesse.

La possibilità di diventare sviluppatori delle intelligenze aumenterebbe di gran lunga le opportunità di lavoro, semplicemente avremo bisogno di professioni diverse.

La seconda reazione è quella di interpretare l’intelligenza artificiale come qualcosa di paragonabile all’essere umano. Una IA, di tipo elementare o basata su tecnologie a reti neurali, resta uno strumento a disposizione dell’uomo ma non un sostituto. Possiamo lavorare sull’empatia, sul rendere la voce e le reazioni dei nostri assistenti casalinghi simili a quelli umani, potremo progettare IA capaci di svolgere lavori ripetitivi o di estrarre grandi quantità di dati ma resteranno uno strumento a disposizione dell’uomo.

Nonostante ciò è particolarmente evidente che, davanti a un cambiamento tecnologico, ci troviamo davanti alla sfida di riuscire a comprendere la direzione che tale tecnologia potrà avere nel corso dei prossimi decenni.

I contenuti che l’IA riesce a gestire, le potenzialità di calcolo, la capacità di sequenziare una serie di dati, sono argomenti che ci portano a un altro livello.

Qualunque sia il futuro che ci aspetta, possiamo certamente capire che siamo NOI il futuro e, in base alle nostre scelte, potremo programmare l’etica delle nostre intelligenze artificiali.

Per questo motivo ho particolarmente apprezzato l’ultimo volume del Prof. Luciano Floridi,  una delle voci più autorevoli della filosofia contemporanea, professore ordinario di Filosofia ed Etica dell’informazione all’Università di Oxford, dove dirige il Digital Ethics Lab, e chairman del Data Ethics Group dell’Alan Turing Institute, l’istituto britannico per la data science.

In Etica dell’intelligenza artificiale, il Prof. Floridi indaga sulle potenzialità delle nostre scelte in una fase particolarmente delicata dello sviluppo dell’intelligenza artificiale. Così, tra la ricerca di un quadro unificato di un’etica per l’IA e il tracciamento di una serie di preoccupazioni, riceviamo un’analisi complessiva di quello che è il concetto fondamentale di questo studio: provare ad avere una migliore comprensione delle nostre tecnologie digitali e identificare una strada da intraprendere.

Non manca una precisa analisi delle minacce fornite dalla AI ma, se devo esprimere una preferenza, il mio capitolo preferito è stato quello sulle buone pratiche per l’uso della IA per il bene sociale (AI4SG). In questo capitolo si definiscono dei concetti importanti che consentono di comprendere se un AI4SG è capace di ridurre, mitigare o eliminare un determinato problema sociale o ambientale, senza introdurre nuvi danni o amplificare quelli esistenti.

Altro capitolo importante, che mi sento di consigliarvi è quello sull’impatto che l’IA può avere sul cambiamento climatico. Si tratta di un problema con un impatto potenzialmente distruttivo sulla nostra vita che ci consentirà di trovare il giusto programma non soltanto per la resa etica delle macchine ma, soprattutto, per la sfida più importante dell’umanità.

Etica dell’intelligenza artificiale è disponibile su Amazon a questo link