Sono anni che l’Intelligenza Artificiale è entrata a far parte del nostro linguaggio quotidiano. Eppure, ancora oggi, facciamo riferimento a questa tecnologia umanizzandola. La domanda “l’Intelligenza Artificiale è etica?” è un interrogativo mal posto in quanto presuppone che la tecnologia sia dotata di coscienza. Si tratta, invece, di uno strumento i cui effetti dipendono esclusivamente dalla programmazione fatta dagli umani. Tuttavia, capire quali sono i confini progettuali che non bisognerebbe superare è utile per limitarne i rischi. Soprattutto, quando si utilizzano i dati personali o sensibili che circolano in rete.
Vuoi ascoltare l’audio dell’articolo? Clicca play ⇓
Letto da: Linda Grasso
Gli algoritmi e la privacy: quali dovrebbero essere i limiti
Il concetto della privacy non è mai stato tanto dibattuto e rilevante come in questo periodo. La motivazione è semplice: nel mondo digitale si producono una quantità di dati enorme. Non tutti sono funzionali alle attività che vogliamo digitalizzare; molti sono legati, ad esempio, alla personalizzazione del customer journey per ottenere una buona customer experience. Mi spiego meglio.
Per vendere un prodotto o servizio è importante conoscere il nostro target. Inizialmente ci bastava studiare il comportamento di consumo nel punto vendita, ma oggi non più. Con l’Intelligenza Artificiale incorporata nelle tecnologie e nei media digitali è possibile raccogliere dati, ad esempio, sull’intero percorso di acquisto di un potenziale consumatore. Sapere cosa fa quando si collega al nostro e-commerce, quali prodotti preferisce e quali sono le App che utilizza per i pagamenti.
Come fanno le aziende a raccogliere questi dati? Attraverso il consenso espresso quando accettiamo i banner presenti sui siti che visitiamo. Tra le righe, c’è scritto che i nostri dati saranno tracciati. Per la fretta di accedere ai contenuti del sito, spesso consentiamo il trattamento dei nostri dati senza leggere le specifiche. Da quel momento, ogni click del mouse, sul sito che stiamo utilizzando, sarà rilevato e registrato.
Se questo comportamento è etico o non lo è, non dipende certo dalla tecnologia o dai software utilizzati. Inoltre, la responsabilità dell’azienda è solo quella di garantire la massima trasparenza sulla raccolta e gestione dei dati. Siamo noi, in quanto utenti, che dobbiamo prestare attenzione.
La sfida delle istituzioni come la Commissione Europea e la Federal Trade Commission è proprio quella di proteggere le persone dagli effetti negativi derivanti dall’uso delle loro informazioni personali. L’attacco, che avviene attraverso leggi stringenti sull’uso della privacy, è indirizzato alle aziende e ai programmatori e non all’Intelligenza Artificiale.
Quali potrebbero essere degli usi immorali dell’AI?
Quando abbiamo tra le mani uno strumento potente come l’Intelligenza Artificiale, il rischio di utilizzarlo per scopi non etici e che danneggino altre persone è molto forte. Non sempre, infatti, i responsabili aziendali, prima di programmare un algoritmo di AI, valutano le possibili implicazioni etiche.
Si incorre, per questo, ad usi immorali che minano la credibilità aziendale. Tali utilizzi impropri possono avvenire in vari ambiti:
- L’ apprendimento dell’AI può essere utilizzato dai cybercriminal per ricreare modelli di e-mail automatizzate simili a quelle reali. Ad esempio, nel corpo della mail il testo riprende frasi utilizzate dal CEO con lo stesso stile in modo da rendere impossibile il riconoscimento. In questi casi può salvarci conoscere come proteggere la nostra identità digitale.
- Un altro utilizzo eticamente scorretto dell’AI è per diffondere propaganda e disinformazione. Ci sono movimenti online che, soprattutto attraverso i social, agganciano adepti tramite fake news e immagini fuorvianti e inesatte. Oppure, video reali con volti modificati dall’AI, come nel caso del Deepfake.
- Impiegare algoritmi di AI per la selezione del personale non è del tutto scorretto eticamente ma può diventarlo a causa dei dati di input. Per addestrare gli algoritmi si utilizzano dati precedenti che, spesso, riflettono un panorama lavorativo molto diverso da quello attuale. Nell’era digitale, le professioni e le skill richieste sono in continua evoluzione. Pertanto, capita che l’algoritmo diventi discriminatorio e immorale per carenza di dati aggiornati che possano includere tutte le variabili necessarie a garantire un equo trattamento.
Progettare eticamente un algoritmo dotato di Intelligenza Artificiale significa promuovere obiettivi migliorativi ed equi per le persone e per la società Condividi il Tweet
Quali, invece, potrebbero essere degli impieghi etici dell’Intelligenza Artificiale?
Programmare dei software che abbiano un impatto positivo sulla società, significa perseguire obiettivi che puntino al miglioramento della vita privata e professionale delle persone.
Ecco alcuni usi che hanno un impatto etico sulla società:
- L’AI utilizzata in ambito medico per salvare vite umane. In questo caso l’apprendimento, ad esempio, permette di velocizzare i tempi di diagnosi di una patologia. Solo un software così potente, infatti, può scansionare e combinare rapidamente un’enorme quantità di dati provenienti da tutto il mondo.
- Gli algoritmi utilizzati per migliorare l’apprendimento dei bambini con difficoltà cognitivo-comportamentali attraverso dei programmi studiati su misura. In questo caso, l’algoritmo si adatta alle capacità e ai miglioramenti dei bambini.
- Il monitoraggio intelligente delle colture è un altro impiego etico dell’AI che permette di controllare, con la computer vision, vaste aree di coltivazioni. Tale impiego permette, ad esempio, un monitoraggio per prevenire eventuali danni o incendi che potrebbero compromettere i raccolti.
Come progettare un software di Intelligenza Artificiale etico?
Quando si decide di implementare un software dotato di Intelligenza Artificiale in azienda la fase più delicata in assoluto è quella della progettazione. Sia perché impatta sui risultati che vogliamo ottenere; sia perché è in questo passaggio che si rischia di urtare i valori etici dei soggetti coinvolti.
Se l’organizzazione vuole creare un algoritmo di Machine learning economicamente redditizio ma che preservi, al tempo stesso, l’autonomia delle persone, potrà progettarlo basandosi su principi etici.
Cosa bisogna considerare quando si progetta un software dotato di Intelligenza Artificiale:
- Innanzitutto fare molta attenzione ai dati di input sui quali si baserà l’addestramento. Bisogna valutarne la provenienza, che dovrà essere affidabile, e le interferenze subite durante la lavorazione del dato.
- Utilizzare un volume sufficientemente ampio di dati che prenda in considerazione le variabili e tutti i possibili scenari dei contesti in cui saranno implementati.
- Puntare ad obiettivi che promuovano il benessere delle persone e del pianeta. In generale, lo scopo dell’AI dovrebbe essere quello di offrire un supporto alle risorse, ridurre le disuguaglianze e garantire un equo trattamento.
- Formare le risorse affinché conoscano a fondo la tecnologia e possano comprendere anche le implicazioni etiche che potrebbero generarsi dalla sua applicazione.
- Valutare l’impatto dell’algoritmo. Il sistema di controllo e la definizione delle responsabilità sono passaggi fondamentali per limitare i rischi generati inconsapevolmente.
Il vero problema è che spesso, chi progetta gli algoritmi non riesce ad essere obiettivo. Nelle sue scelte c’è sempre un velo dei pregiudizi radicati nella nostra società. L’importante è prestare attenzione e, nel caso, modificare i modelli al primo accenno di danno etico o morale. I progettisti dell’AI dovrebbero assicurare che l’uso di tale tecnologia persegua valori come il rispetto, l’equità, la trasparenza.