Hack the AI. Esercizi per rendere l’AI più umana, equa e responsabile | by Debora Bottà | UXlab.it | Nov, 2020

Una proposta per incoporare l’etica nella progettazione dell’AI mescolando design speculativo, inclusivo, equo e sistemico.

Foto di Amanda Dalbjörn da Unsplash

Il 12 novembre 2020 è stata la giornata mondiale dell’usabilità, il World Usability Day, dedicata quest’anno al tema della progettazione di intelligenze artificiali incentrate sull’uomo. Ho avuto l’onore di partecipare come speaker al WUD di Torino (potete vedere la registrazione dell’evento, io parlo circa dopo 2 ore e 54 minuti) in cui ho raccontato alcune riflessioni frutto di un lavoro di ricerca sul tema. Mentre al WUD di Roma ho tenuto un workshop in cui ho unito alcuni strumenti e approcci per sperimentare l’inserimento di valori etici all’interno del processo di progettazione di sistemi di AI.

Il tema del WUD 2020 è sicuramente molto attuale perché il dibattito sul fatto se l’intelligenza artificiale migliorerà o peggiorerà l’umanità, cioé se saprà tirar fuori il suo meglio o il suo peggio, è più acceso che mai. Come designer, più queste discussioni si espandono, più ci si rende conto che progettare non è mai un atto neutrale perché ha sempre un impatto sulla vita delle persone, persino sui loro comportamenti, di cui si diventa responsabili.

Se non vogliamo che l’AI ci hackeri, dobbiamo hackerare l’AI. Come?Acquisendo conoscenza e consapevolezza sui valori umani ed etici al fine di iniettarli nel processo di progettazione e di sviluppo dell’AI. Per generare reali vantaggi alle persone a cui ci si rivolge è necessario andare oltre gli obiettivi funzionali e le questioni tecniche, per trovare nuovi metodi per progettare un’AI più umana, equa e responsabile.

Gli esercizi del workshop che trovate di seguito sono un punto di partenza per avviare questa riflessione. Vi invito a provarli per arricchire le riflessioni su questo tema fondamentale per il design dell’AI, per il design che include tecnologie emergenti nonché per il design in generale.

Molti organismi internazionali e nazionali, tra cui anche l’Unione Europea, hanno definito delle linee guida e dei princìpi per la creazione di sistemi di intelligenza artificiale. Su questo tema sono intervenute anche le più grandi aziende nel campo tecnologico, tra cui IBM e Microsoft, grandi studi di design, come Frog e IDEO, e di consulenza, come Deloitte o PwC. A una grande quantità di linee guida si sommano anche i lavori di associazioni e organizzazioni come l’Institute of Electrical and Electronics Engineers (IEEE) o il Center For Humane Technology.

Considerando gli strumenti per la progettazione etica dell’AI forniti da questi soggetti e ampliando la ricerca nell’ambito del design, ho cercato di costruire degli esercizi utili per acquisire consapevolezza riguardo alle diverse sfumature che l’etica puà assumere in questo contesto e anche riguardo le responsabilità di chi progetta o sviluppa sistemi di AI.

“Design is applied ethics. Every act of design is a statement about the future.” Cennydd Bowles

Esercizio 1 — Pre-mortem etico

Scegli uno dei seguenti scenari:

  1. Salute — È stata lanciata un’AI per accelerare la ricerca medica al fine di far progredire la prevenzione, la diagnosi e la cura delle malattie.
  2. B. Lavoro — È stata lanciata un’AI per accelerare il reclutamento di personale, per filtrare i curricula e progettare domande personalizzate al colloquio.
  3. C. Istruzione — È stata lanciata un’AI per aiutare a identificare gli studenti in difficoltà o annoiati e personalizzare la loro esperienza.

Ora immagina: sono passati 5 anni dal lancio dell’AI ed è andato tutto male, soprattutto dal punto di vista etico. Che cosa è successo? Descrivi brevemente lo scenario peggiore che potrebbe mai accadere.

L’obiettivo di questo esercizio è quello di mappare tutte le possibili cause di fallimento del sistema di AI. Individuare in anticipo, cioè prima che avvengano, tutte le conseguenze indesiderate che potrebbero verificarsi, anche quelle dal punto di vista etico e morale, consente di intervenire sin da subito sul progetto per eliminarle.

Partire dalla definizione di uno scenario negativo o distopico del futuro utilizzo dell’AI, aiuta a considerare molte più implicazioni e possibili conseguenze rispetto che partire dal costruire un’elenco di cose positive che il sistema dovrebbe fare e assicurare. Il pre-mortem mette nella condizione mentale di considerare che il progetto potrebbe fallire o causare dei danni, in molti modi diversi.

Infatti non basta pensare ai benefici che l’AI potrebbe portare nella vita delle persone. L’esercizio del pre-mortem aiuta ad ampliare la visione iniziale del progetto e favorisce una maggiore consapevolezza riguardo ai problemi che potrebbe causare, anche in modo non intenzionale.
Consiglio questo approfondimento sull’utilità del pre-mortem o del design fiction.

Avete difficoltà ad immaginare i danni che la tecnolgia potrebbe portare nella vita delle persone? Potete affidarvi ai The Tarot Cards of Tech.

Esercizio 2 — Dalle caratteristiche nocive a quelle benefiche

In che modo l’AI potrebbe incoraggiare o causare situazioni dannose per le persone? Pensa a diversi livelli in cui potrebbero essere colpite:

  • fisico: incidenti, privazione del sonno, violenza, morte incidenti dovuti a distrazione, morte, sfruttamento del lavoro, esposizione dei dati personali, inattività, stress muscolare o altre lesioni, insicurezza finanziaria, trascuratezza della cura di sé, privazione del sonno, violenza, ecc.;
  • emotivo: dipendenza, ansia, tradimento della fiducia o della privacy, depressione, esclusione, danneggiamento delle relazioni, immagine negativa di sé, danni psicologici ai bambini, abuso verbale, ecc.;
  • sociale: esclusione di un gruppo di persone, sovra- o sotto- rappresentanza, polarizzazione politica, rafforzamento di stereotipi, disparità di opportunità o di qualità del servizio, ecc.

Individua tutte le caratteristiche o funzionalità dannose del sistema di AI che hai descritto nello scenario precedente.
Terminata questa operazione, cerca di trasformare ogni caratteristica o funzionalità da dannosa in un risultato benefico che dovrebbe derivare dall’AI.

Per una human-centered AI bisogna mettere le persone al centro. Ovvero focalizzarsi sugli effetti che l’AI potrebbe avere nelle loro vite considerando diversi livelli di benessere: benessere fisico, che sembra scontato ma può assumere diverse sfumature; benessere emotivo, spesso non esplorato fino in fondo; benessere sociale, per non dimenticare le relazioni che le persone hanno tra loro e ampliare la visione dalle persone all’umanità a cui si intende rivolgersi.

Gli effetti potrebbero essere davvero molti. Ad esempio, stiamo considerando un’AI poco intrusiva e rispettosa dell’attenzione delle persone? Questo è un tema molto importante, definito molto bene dalla human o calm technology, perché più tecnologia inseriremo nella vita quotidiana più dovremo evitare che competano per l’attenzione delle persone progettando invece modalità di interazione più calme e adeguate al contesto. A questo proposito è molto interessante il lavoro del Center For Humane Technology, autori anche del documentario “The Social Dilemma”, che propongono una guida per considerare diverse sensibilità umane, tra cui anche l’attenzione, particolarmente vulnerabili nei confronti delle nuove tecnologie.

Questo esercizio aiuta ad analizzare ogni singola funzionalità. Può essere effettuato nelle fasi preliminari ma anche a un livello più avanzato di progettazione per effetturare una verifica costante degli effetti che ciascuna funzionalità potrebbe causare: nel caso di effetti nocivi si potrà intervenire trasformandoli in benefici.

Esercizio 3 — Verifica dei valori

Considera i seguenti valori e per ciascuno individua ulteriori caratteristiche che l’AI che stai progettando dovrebbe considerare al fine di promuoverli e preservarli:

1. inclusività: l’AI dovrebbe garantire benefici a tutti, evitando discriminazioni e favorendo equità.
2. trasparenza: l’AI dovrebbe garantire sia chiarezza del suo funzionamento sia accessibilità alle informazioni raccolte.
3. autonomia: l’AI dovrebbe permettere alle persone di prendere decisioni libere da controllo o condizionamento.
4. sicurezza: l’AI dovrebbe essere sicura, senza rischi o pericoli, e rispettare la privacy.

Per progettare un sistema di AI dal punto di vista etico, è necessario iniettare sin da subito nel processo di progettazione i valori universali o ampiamente condivisi che sono stati definiti dalle molte linee guida. Come punto di partenza si possono considerare quelle definite dall’Unione Europea e i suoi gruppi di ricerca, quelle dell’IEEE o di altri organi governativi e non di tutto il mondo.
Tra i valori universalmente riconosciuti ne ho selezionati 4: inclusività, trasparenza, autonomia e sicurezza. Per riuscire a iniettare dei valori in un sistema di AI serve una profonda conoscenza del loro significato.

Siamo certi di avere una visione corretta di questi valori? Ad esempio, cosa vuol dire inclusività? Per avere una visione di questo termine è necessario avere consapevolezza di cosa significa diversità: non c’è soltanto quella fisica, ma anche la diversità economica, culturale, cognitiva, ecc.,. Le diversità si differenziano anche per il loro carattere permanente, temporaneo o determinato dalla situazione: bisogna conoscere e considerare lo spettro della diversità. Kat Holmes ha definito che “la diversità è una mancata corrispondenza tra una persona e la società in cui agisce”.

Ma non dimentichiamoci che non basta considerare i valori universalmente riconosciuti. Quando progettiamo generalmente ci riferiamo a un contesto specifico che avrà certamente i propri valori etici, morali, culturali. Per questo sono indispensabili attività di ricerca con le persone sin dalle prime fasi del progetto per individuarli, permetterne la comprensione e la considerazione all’interno del sistema di AI.

Esercizio 4 — Questioni sistemiche

Ampliamo ancora di più lo scenario. Le principali questioni etiche e morali associate allo sviluppo e all’implementazione dell’AI sono legate a:

  • il suo impatto sulla psicologia umana;
  • il suo impatto sulla società;
  • il suo impatto sul sistema economico-finanziario;
  • il suo impatto sul sistema giuridico;
  • il suo impatto sull’ambiente o sul pianeta.

Quali possibili implicazioni negative o positive potrebbero verificarsi in questi ambiti rispetto al sistema di AI che hai immaginato? Quali dovrebbero essere evitate e quali invece incentivate?

Considerare questi ambiti significa adottare una visione sistemica volta alla ricerca delle connessioni e delle relazioni esistenti tra le varie parti. Fermarsi a considerare le persone e la società significa, infatti, osservare soltanto una parte in cui si potrebbero verificare dei problemi. Per affrontare le complesse e ampie questioni sociali, ambientali ed economiche che l’AI comporta, bisogna dotarsi di nuovi strumenti e strategie: serve un pensiero sistemico.

Mappare le relazioni e le interdipendenze tra le parti che possono essere coinvolte dal sistema di AI che si sta progettando consente di avere una visione completa del contesto all’interno del quale sarà fondamentale assicurare equilibrio e rispetto dei valori etici. Unire questa visione allo speculative design consente di individuare uno scenario sistemico futuro del sistema di AI non soltanto preferibile ma anche plausibile da e verso il quale tendere.

Esercizio 5— Giuramento di Ippocrate

Qual è la più grande lezione che avete imparato con questi esercizi e che intendete utilizzare per hackerare l’AI con l’etica?
Scegliete un valore (inclusività, sicurezza, trasparenza, ecc.), considerate un’elemento del sistema (società, ambiente, eocnomia, ecc.) e dichiarate attraverso quale azione intendete assicurarne il rispetto.

Gli esercizi proposti sono da considerarsi un insieme di pratiche per riflettere e acquisire una maggiore consapevolezza riguardo la progettazione dell’AI e i numerosi risvolti etici e sociali che può assumere. Non vi resta che provarli e costruire il vostro giuramento di Ippocrate, qui un esempio molto dettagliato.

Progettare e creare un sistema di AI è qualcosa di complesso che richiede sicuramente un team multidisciplinare, comprensivo di moltediversità e che unisca design e sviluppo. Questa è una grande sfida a cui il design in generale è chiamato da tempo al fine di essere inclusivo, equo e responsabile, ma che diventa ancora più grande per la necessità di creazione di un unico team di design e sviluppo.

Il designer può portare alla progettazione etica di sistemi di AI la sua forte capacità di passare rapidamente e continuamente da una visione ampia a una di dettaglio. Essendo molti gli aspetti da considerare è necessario un continuo zoom-in e zoom-out di quello che si sta creando. Portare l’etica all’interno dei sistemi di AI è un processo costante e continuo nel tempo che richiede di fermarsi più volte a riflettere, valutare e rifinire quanto si sta realizzando.

Gli sviluppatori dovranno essere supportati riguardo un’importante aspetto: evitare che i dati utilizzati nel sistema di AI contengano bias cognitivi. Questo lavoro deve essere fatto a quattro mani, quattro occhi e due teste, design e sviluppo devono unirsi per condividere, da un lato, informazioni tecniche e, dall’altro, quelle legate ad aspetti cognitivi. Questo soprattutto perché lo spettro dei bias è davvero molto ampio. Come assicurare l’etica del dato? Potete iniziare da qui.

Per essere certi di risolvere problemi tramite l’AI, ma anche di non crearne dei nuovi, è fondamentale adottare un pensiero e una visione sistemica. Questo consente di superare l’antropocentrismo, di andare oltre l’uomo, oltre l’umanità e considerare l’ambiente e il pianeta. Questo consente anche di superare il centrismo a tutti i costi di qualcuno o qualcosa, per andare verso la considerazione di eco-sistemi e sistemi complessi in cui ogni parte è importante perché contribuisce al mantenimento dell’equilibrio del tutto.

Se volete rimanere aggiornati sugli articoli dello UXlab e su altri contenuti potete iscrivervi alla newsletter , seguire questa pubblicazione, seguire i canali Instagram e Facebook.

Linee guida

  • Ethics guidelines for trustworthy AI, Unione Europea, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
  • The ethics of artificial intelligence: Issues and initiatives, Unione Europea, Marzo 2020, https://www.europarl.europa.eu/RegData/etudes/STUD/2020/634452/EPRS_STU(2020)634452_EN.pdf
  • AI4People’s Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, AI4People, https://www.eismd.eu/wp-content/uploads/2019/03/AI4People%E2%80%99s-Ethical-Framework-for-a-Good-AI-Society.pdf
  • Ethically Aligned Design, Institute of Electrical and Electronics Engineers (IEEE), 2019, https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e-overview.pdf
  • AI design ethics overview, IBM, https://www.ibm.com/design/ai/ethics/
  • AI for Good, Microsoft, https://www.microsoft.com/en-us/ai/ai-for-good

Articoli correlati

Strumenti

  • Ethics for designers, Jet Gispen, https://www.ethicsfordesigners.com/
  • Design Ethically, Kat Zhou, https://www.designethically.com/
  • Ethics Kit, http://ethicskit.org/
  • Systemic Design Toolkit, https://www.systemicdesigntoolkit.org/
  • The Tarot Cards of Tech, Artefact, http://tarotcardsoftech.artefactgroup.com/
  • Investigating Consequences with Our Ethics Assessment, settembre 2020, Spotify Design Team, https://spotify.design/article/investigating-consequences-with-our-ethics-assessment
  • What is the Data Ethics Canvas?, Open Data Institute (ODI), https://theodi.org/article/data-ethics-canvas/
  • Humane Design Guide, Center For Humane Technology, https://assets.website-files.com/5f0e1294f002b15080e1f2ff/5f0e1294f002b1f8b2e1f482_Design-Guide-Alpha.pdf

Share:

More Posts

Send Us A Message