Governare l'Intelligenza Artificiale
eBook - ePub

Governare l'Intelligenza Artificiale

Spunti per la progettazione di sistemi di Intelligenza Artificiale legali, etici e robusti

Valentina Cavosi

  1. 80 pagine
  2. Italian
  3. ePUB (disponibile sull'app)
  4. Disponibile su iOS e Android
eBook - ePub

Governare l'Intelligenza Artificiale

Spunti per la progettazione di sistemi di Intelligenza Artificiale legali, etici e robusti

Valentina Cavosi

Dettagli del libro
Anteprima del libro
Indice dei contenuti
Citazioni

Informazioni sul libro

Il volume intende facilitare la conoscenza e l'approfondimento di un tema che sta tuttora alimentando discussioni e conversazioni nei contesti giuridici, governativi e industriali sia in Italia che all'estero: l'Intelligenza Artificiale e il suo uso.È fondamentale avere consapevolezza dell'impatto che l'Intelligenza Artificiale ha e potrà avere nella vita quotidiana dal punto di vista della trasformazione digitale già in corso da anni, con conseguenze sulla privacy dell'individuo, sugli iter normativi nazionali e internazionali e sul governo delle tecniche decisionali; proprio per questo motivo il lavoro, pensato anche per i lettori meno esperti, è utile per chi vuole comprendere i principi fondamentali dell'IA e di conseguenza poter seguire e approfondire le evoluzioni in corso.

Domande frequenti

È semplicissimo: basta accedere alla sezione Account nelle Impostazioni e cliccare su "Annulla abbonamento". Dopo la cancellazione, l'abbonamento rimarrà attivo per il periodo rimanente già pagato. Per maggiori informazioni, clicca qui
Al momento è possibile scaricare tramite l'app tutti i nostri libri ePub mobile-friendly. Anche la maggior parte dei nostri PDF è scaricabile e stiamo lavorando per rendere disponibile quanto prima il download di tutti gli altri file. Per maggiori informazioni, clicca qui
Entrambi i piani ti danno accesso illimitato alla libreria e a tutte le funzionalità di Perlego. Le uniche differenze sono il prezzo e il periodo di abbonamento: con il piano annuale risparmierai circa il 30% rispetto a 12 rate con quello mensile.
Perlego è un servizio di abbonamento a testi accademici, che ti permette di accedere a un'intera libreria online a un prezzo inferiore rispetto a quello che pagheresti per acquistare un singolo libro al mese. Con oltre 1 milione di testi suddivisi in più di 1.000 categorie, troverai sicuramente ciò che fa per te! Per maggiori informazioni, clicca qui.
Cerca l'icona Sintesi vocale nel prossimo libro che leggerai per verificare se è possibile riprodurre l'audio. Questo strumento permette di leggere il testo a voce alta, evidenziandolo man mano che la lettura procede. Puoi aumentare o diminuire la velocità della sintesi vocale, oppure sospendere la riproduzione. Per maggiori informazioni, clicca qui.
Sì, puoi accedere a Governare l'Intelligenza Artificiale di Valentina Cavosi in formato PDF e/o ePub, così come ad altri libri molto apprezzati nelle sezioni relative a Derecho e Derecho científico y tecnológico. Scopri oltre 1 milione di libri disponibili nel nostro catalogo.

Informazioni

Editore
Ledizioni
Anno
2022
ISBN
9788855266567
1. Opportunità e sfide dell’Intelligenza Artificiale
I sistemi di Intelligenza Artificiale (IA), ovvero sistemi informatici che automatizzano compiti complessi che richiedono agli esseri umani capacità cognitive superiori, quali il riconoscimento di schemi e forme e il ragionamento logico-deduttivo, sono considerati tra le principali tecnologie che caratterizzano la quarta rivoluzione industriale e la distinguono dalle precedenti. Grazie alle recenti tecniche di apprendimento automatico, agli algoritmi sempre più sofisticati, alla concentrazione di sempre maggiori capacità di calcolo e alla crescente disponibilità di grandi quantità di dati (big data), sono stati raggiunti risultati impressionanti nei campi in cui l’IA si è potuta applicare, soprattutto quando a questi risultati si confrontano i medesimi conseguiti invece dagli esseri umani (in condizioni controllate e sperimentali). L’Intelligenza Artificiale è utilizzata in un sempre crescente numero di settori, tra cui quello della pubblica amministrazione (aiutando ad esempio a velocizzare i processi di assunzione, di assistenza domiciliare, di indennità di malattia o di disoccupazione), della sanità (supportando i medici nelle decisioni che riguardano la previsione, la diagnosi e la caratterizzazione di condizioni patologiche con accuratezza ed efficienza) e dell’agricoltura (aumentandone l’efficienza al fine di ridurre l’uso di acqua, fertilizzanti e pesticidi).
Sebbene i vantaggi dell’IA siano ampiamente riconosciuti sia per il settore pubblico sia per quello privato, il suo utilizzo solleva anche alcune preoccupazioni e timori, soprattutto dal punto di vista etico, legale e sociale, in termini di responsabilità, sicurezza, privacy, restrizioni alla libertà di espressione, pregiudizi ingiusti, violazioni della dignità umana o discriminazioni. Se non progettata correttamente, infatti, l’IA può portare a decisioni distorte nei procedimenti penali, nel diritto a determinati benefici sociali, nelle assunzioni o nei licenziamenti. L’Intelligenza Artificiale può anche compromettere gravemente il diritto alla privacy e protezione dei dati, ad esempio quando viene utilizzata per il riconoscimento facciale, il monitoraggio o la profilazione online degli individui; può anche essere utilizzata per creare video, audio o immagini falsi (deep fake), con conseguenti rischi finanziari e reputazionali. Si possono leggere molti casi reali, infatti, dove queste tecnologie comportano un forte rischio di uso improprio intenzionale o accidentale che minaccia i diritti fondamentali. Pensiamo ad esempio al noto caso del progetto della chatbot Tay di Microsoft: nato per raccontare barzellette, rispondere a domande oppure offrire commenti su fotografie inviate dagli utenti, ha imparato presto ad essere razzista (per esempio molti tweet di Tay hanno fatto riferimento a Hitler, negato l’Olocausto o sostenuto i piani di immigrazione di Trump). Oppure pensiamo al caso del sistema di reclutamento di Amazon, che ha imparato da solo a preferire i candidati maschi penalizzando tutti i curriculum che includevano la parola “donna” e declassando i diplomati di due college femminili; all’algoritmo utilizzato per categorizzare in modo automatico le fotografie in Google Photo, che aveva iniziato a identificare le persone di colore come gorilla; oppure al filtro di FaceApp che faceva apparire le persone di colore come più bianche quando invece dovevano apparire semplicemente più belle. Joy Buolamwini e Timnit Gebru in uno studio1 sull’accuratezza dei prodotti di classificazione di genere basati sull’IA e offerti da aziende quali IBM, Microsoft e Face ++, hanno dimostrato che questi prodotti riescono a classificare in modo più accurato gli uomini bianchi rispetto alle donne di colore. Questi tassi di errore in contesti di pubblica sicurezza possono portare persone innocenti ad essere segnalate: nel 2020 è accaduto che un sistema di riconoscimento facciale ha portato un uomo di colore all’arresto per un crimine non commesso.
Anche nel contesto della pubblica amministrazione emergono non poche preoccupazioni: come possiamo leggere nel rapporto del servizio di conoscenza della Commissione Europea2, vari paesi dell’Olanda, per rilevare con più efficacia le frodi sul welfare, hanno utilizzato il sistema “System Risk Indication” (SyRI). Sviluppato dal Governo olandese, esso utilizza grandi quantità di dati personali per rilevare rischi di frodi o uso improprio delle prestazioni sociali. A inizio 2020 la Corte internazionale di giustizia ha dichiarato che l’uso di SyRI è illegale, in quanto interferisce in modo sproporzionato sulla vita privata dei cittadini. Anche l’algoritmo utilizzato dal Governo italiano per assumere gli insegnanti in seguito alla riforma conosciuta come “Buona scuola” è stato dichiarato anticostituzionale: la decisione dell’algoritmo di assegnazione delle cattedre, infatti, non ha tutelato i diritti dei precari che venivano mandati a insegnare presso scuole lontane nonostante fossero disponibili posti di lavoro più vicini a casa loro. Come si legge nel rapporto Getting the future right: artificial intelligence and fundamental rights della FRA3, la digitalizzazione dei sistemi di welfare è spesso accompagnata da riduzioni di budget, numero di beneficiari o altre misure che riducono il benessere sociale. La digitalizzazione, inoltre, offrendo la possibilità di controllare le persone, aumenta il potere degli stati e questo è particolarmente grave quando accade in paesi con deficit nello Stato di diritto. Sempre secondo il rapporto, l’utilizzo di algoritmi per gestire il welfare da parte della pubblica amministrazione desta non poche preoccupazioni rispetto all’impatto negativo che può avere sulle povertà e le disuguaglianze (pensiamo ai servizi di assistenza per l’infanzia o ai sussidi di disoccupazione). Attualmente, a livello globale, le nuove tecnologie vengono utilizzate in molti modi per amministrare sistemi di welfare (verifica dell’identità, valutazioni di ammissione, calcoli di benefici, prevenzione e rilevamento delle frodi ecc.) ed è quindi necessaria una riflessione sull’eticità e la legalità di queste tecnologie.
L’Intelligenza Artificiale avrà un notevole impatto anche sul mondo del lavoro. Secondo una stima del Parlamento Europeo, il 14% dei posti di lavoro nei paesi OCSE sono automatizzabili e il 32% potrebbe subire cambiamenti sostanziali nei prossimi anni4. Esistono anche problemi di concorrenza: se pensiamo che il dato ha acquisito valore economico è facile pensare che le società che possiedono più dati possono ottenere un grande vantaggio competitivo. In termini di sicurezza, invece, le applicazioni di IA che sono ad esempio a stretto contatto fisico con gli esseri umani possono comportare dei rischi se progettate male o utilizzate in modo inappropriato. Criticità emergono anche quando si considera la responsabilità legale: nel caso di incidenti con un’auto a guida autonoma o errori nell’ambito sanitario sarà difficile determinare se la responsabilità sia da attribuire al programmatore, al guidatore o al medico, oppure alla macchina in sé, soprattutto nel caso in cui il programmatore riesca a dimostrare che non sono stati fatti errori nella programmazione.
Viste le sfide poste dai sistemi IA, emerge il bisogno di un nuovo tipo di educazione e sensibilizzazione per i rischi associati a questi sistemi. Come vedremo in seguito, il quadro normativo attuale non è sufficiente per mitigare tutte le sfide etiche, legali e sociali sollevate dall’uso ormai pervasivo dell’Intelligenza Artificiale. Per porre rimedio all’ampio divario tra la velocità di avanzamento di queste tecnologie e la lentezza nello sviluppo normativo, negli ultimi anni alcune organizzazioni nazionali ed internazionali hanno sollevato la questione sull’eticità dell’IA, provando a definire alcuni principi etici. Anche l’Unione Europea si è posta l’obiettivo di promuovere un’IA antropocentrica delineando i suoi principi etici e pubblicando, ad aprile 2021, la sua prima bozza di regolamentazione dell’IA, nella quale viene proposto un approccio basato sul livello di rischio: i sistemi considerati con un livello di rischio alto dovranno sottostare ad una serie di obblighi, come l’essere sottoposti a sistemi di valutazione e mitigazione del rischio, prima di essere immessi sul mercato.
1.1. Quadro giuridico di riferimento
L’Intelligenza Artificiale non è una nuova tecnologia e, sebbene attualmente non esista un regolamento interamente dedicato ad essa, sono già in vigore alcuni provvedimenti normativi (il Regolamento generale sulla protezione dei dati e il Regolamento UE 2016/679 sulla libera circolazione dei dati non personali), la Convenzione 108/81, alcune direttive (ad esempio la direttiva macchine, la direttiva sulla responsabilità dei prodotti, il diritto dei consumatori, le direttive in materia di sicurezza e salute sul lavoro o norme specifiche come il regolamento sui dispositivi medici nel settore sanitario) e numerose leggi degli Stati membri dell’UE che la disciplinano almeno in parte. Anche nell’ambito del diritto primario dell’UE esiste un corpus normativo giuridicamente vincolante per lo sviluppo, la distribuzione e l’utilizzo di IA: si tratta dei tra...

Indice dei contenuti

  1. Indice
  2. Introduzione
  3. Guida alla lettura
  4. 1. Opportunità e sfide dell’Intelligenza Artificiale
  5. 2. Principi etici e requisiti chiave per un’IA affidabile
  6. 3. La proposta di regolamentazione dell’IA della Commissione Europea
  7. 4. Sistemi di valutazione dell’impatto dell’IA
  8. Postfazione