Macchine che parlano ad altre macchine, che imparano e agiscono senza alcuna necessità dell’intervento dell’uomo: siamo nel regno dell’“Internet of Things”, il punto in cui il mondo fisico e quello virtuale collidono. Il futuro è già qui, ma è fondamentale che alla rivoluzione tecnologica corrisponda una rivoluzione culturale consapevole e un’adeguata attenzione alle implicazioni etiche.
Visto che il progresso non si può e non si deve fermare, con buona pace dei “luddisti”, cosa dobbiamo fare? Cogliere le opportunità e minimizzare i rischi, indicando delle linee guida che preservino anche le future implicazioni morali e sociali. Le applicazioni del “Machine Learning” sono innumerevoli: sicurezza, intrattenimento, elettrodomestici, energia, salute. Dalla domotica, che consente risparmi economici e di tempo, alle Smart Cities: con soluzioni per risolvere i problemi delle città, come il risparmio energetico o i flussi di traffico, dall’Industrial IoT che consente aumento della produzione, abbattimento dei costi e una maggiore personalizzazione, agli Smart Stores che forniscono shopping personalizzati, esperienze originali fatte su misura per ogni cliente, alle automobili che si guidano da sole. A prima vista potrebbe sembrare uno scenario futuribile, in realtà molte persone interagiscono, in modo più o meno consapevole, ogni giorno con sistemi basati sul Machine Learning come per esempio i sistemi di riconoscimento delle immagini usate sui social media oppure di riconoscimento vocale degli assistenti virtuali o i sistemi che raccomandano prodotti o servizi usati nei negozi online e per promuovere contenuti sui social media. Viviamo in un mondo in cui l’informazione sta diventando la moneta corrente, il nuovo petrolio, una risorsa per supportare la nuova rivoluzione industriale. Un fattore chiave per l’economia digitale i cui benefici sono autoevidenti, ma quali sono i rischi? La Machine Learning è lo strumento che consente di dare un significato ai dati, di estrarre informazioni che hanno un valore e questo pone nuove sfide per la gestione di questa tecnologia. Se da una parte abbiamo la possibilità di salvare vite, grazie a nuove e più accurate diagnosi, così come di aiutare gli insegnanti con attività su misura che facilitino l’apprendimento, di supportare sistemi di trasporto intelligenti e facilitare nuove scoperte in campo della fisica, dell’astronomia e delle neuroscienze, vista la capacità di analizzare grandi quantità di dati; dall’altra è opportuno interrogarsi, di fronte ad un cambiamento di scenario epocale, sui cambiamenti per la società e sulle conseguenze sociali ed etiche. La capacità di accedere ai dati diventa sempre più importante, e chi accede per primo può trarne vantaggi significativi, dunque sarà necessario gestire le fonti dei dati in maniera strategica. Un altro rischio etico potrebbe essere quello di nuove asimmetrie di potere in cui gli individui rinunciano volontariamente alla propria privacy in cambio di maggiore efficienza, convenienza o accessi a servizi. E’ notizia di questi giorni (http://www.bbc.com/news/world-asia-china-34592186) che nel 2020 in Cina partirà un Social Credit System che darà un voto alle persone in base alla loro reputazione online e i cittadini che offriranno i loro dati avranno notevoli vantaggi come prestiti e tasse più basse. I ricercatori dovranno considerare i futuri potenziali utilizzi dei dati e costruire il più ampio consenso che sia eticamente accettabile, riformulando i tradizionali concetti di privacy e di consenso. I dati, infatti, vengono usati in modo sempre più dinamico e combinati in modo innovativo creando maggiori informazioni: con un considerevole aumento dei rischi per la privacy. In merito a questa tematica il Parlamento Europeo ha approvato la nuova legislazione in materia di protezione delle informazioni (EU GDPR) che dovrà essere applicata entro il 25 maggio 2018. Il nuovo regolamento definisce importanti responsabilità legali per le organizzazioni che raccolgono, conservano e processano dati e include ulteriori misure per proteggere le informazioni dei cittadini. Viene introdotto il principio di Privacy by Design che riconosce l’importanza fondamentale dell’integrazione, della protezione delle informazioni e della gestione della privacy. BSI (British Standards Institution) lavora con le aziende per identificare le potenziali minacce o violazioni all’attuale regolamento. Nel campo dell’Intelligenza Artificiale, il rapporto uomo-macchina solleva un numero considerevole di domande sulle possibili conseguenze a livello sociale. Le persone sono favorevoli all’utilizzo di robots in situazioni che possono essere pericolose o difficili per l’uomo, ma lo sono molto meno se il ruolo dell’automa diventa di maggior rilievo, soprattutto per la paura di perdere il contatto umano. Le preoccupazioni principali sono legate alla paura che i robot possano causare danni, al timore di essere rimpiazzati dalle macchine, di fare esperienze spersonalizzanti, di esser costretti a restringere le scelte e la libertà dell’individuo, principalmente alla paura di perdere il controllo. La paura di perdersi in vere e proprie “bolle”, micro mondi creati da una sempre maggiore personalizzazione delle informazioni proposte all’utente tali da ridurre il suo orizzonte conoscitivo e da minare la consapevolezza di differenti prospettive. Nel giro di pochi decenni le nuove tecnologie potrebbero conferire all’uomo capacità fisiche e cerebrali potenzialmente illimitate, grazie all’interazione tra AI e biotecnologie. Il rischio potrebbe essere quello di trovarci di fronte ad un “superuomo” disumanizzato. L’uomo rischia cioè di “ridursi” semplicemente alla somma delle proprie estensioni artificiali come afferma Michael Bess, docente di storia alla Vanderbilt University che si occupa dell’impatto culturale delle nuove tecnologie. (https://aeon.co/ideas/why-upgrading-your-brain- could-make-you-less-human). Come gestire, dunque, l’interazione uomo- macchina? Come combinare al meglio l’intelligenza umana e i sistemi di AI così che possano lavorare insieme in modo efficace e sicuro? Dando delle linee guida che tengano in considerazione tutti gli aspetti.
Questa è la direzione seguita dai nuovi standard, sviluppati per coprire i diversi aspetti legati all’interazione uomo-robot, sia dal lato della sicurezza fisica delle persone che li utilizzano, sia con un’impronta etica. Sul primo aspetto due esempi sono dati dagli standard ISO 10218-1: 2011 e 13482:2014. Lo standard ISO 10218-1: 2011, attualmente in aggiornamento, specifica i requisiti e le linee guida per una progettazione sicura, le misure di protezione e le informazioni per l’uso dei robot industriali: descrive i rischi di base associati ai robot e fornisce requisiti per eliminare o ridurre adeguatamente i rischi associati a tali pericoli.
La norma ISO 13482:2014 ‘Personal care robot safety’ specifica i requisiti e le linee guida per la progettazione intrinsecamente sicura di robot abilitati a fornire servizi alla persona, quali robot che compiono attività domestiche (trasporto di oggetti, pulizia, recupero oggetti), che forniscono assistenza all’essere umano (apparecchi per alzarsi da una sedia o dal letto, per entrare o uscire da una doccia ) o che aiutano il trasporto di persone all’interno di spazi definiti (casa, edifici pubblici).
Dall’esigenza di dare una definizione anche dal punto di vista “etico” è nata invece la BS 8611 “Ethics design and application robots” che mette in evidenza come i rischi etici abbiano implicazioni di portata più ampia rispetto ai pericoli fisici. L’utilizzo di robot e tecniche di automazione rende i processi più efficienti, ma è fondamentale che le questioni etiche e i rischi come la disumanizzazione o la dipendenza dai robot siano identificati e indirizzati. Con questo standard vengono date le linee guida per trattare questo nuovo ambito. BS 8611 è stato sviluppato grazie ad un approccio collaborativo a cui hanno contribuito professionisti di vari settori: dagli esperti di ingegneria, robotica e sicurezza, agli scienziati, ai filosofi ed esperti di etica. Questa metodologia si rivela fondamentale affinché nessun aspetto venga sottovalutato.
https://www.istockphoto.com/it/foto/code-of-ethics- in-technology-gm817338718-132203337
https://www.istockphoto.com/it/foto/human-and- robot-shaking-hands-gm856484032-141097391