NEWS

Autorità Regolazione Trasporti: Relazione 2020.

24 Luglio 2020
Rapporto annuale 2020. Con questo documento l’Autorità presenta al Parlamento il suo settimo rapporto annuale e riferisce sui risultati delle attività svolte, illustra le prospettive della regolazione del settore e indica gli interventi necessari a rimuovere gli ostacoli che si frappongono al miglior funzionamento dei mercati e dei servizi... [continua]

Banca d'Italia in relazione all'emergenza Covid-19.

23 Luglio 2020
Questa sezione raccoglie i contributi della Banca d’Italia, le comunicazioni per il pubblico, per gli intermediari e per gli operatori, le misure e i provvedimenti adottati, gli studi e le analisi, gli interventi della BCE in relazione all’emergenza da Covid-19. [continua]

Investire sul trasporto pubblico per la ripresa economica e la vita quotidiana di milioni di persone: lo chiedono l’Associazione Trasporti ASSTRA e Consumers' Forum

26 Giugno 2020
Si è tenuto oggi un webinar organizzato dall’Associazione Trasporti ASSTRA e Consumers’ Forum sul tema “Il trasporto pubblico locale nello stato di emergenza sanitaria: questioni aperte e prospettive future. Dialogo tra imprese ed utenti” al quale sono intervenuti i rappresentanti del mondo delle imprese del trasporto pubblico locale ed i... [continua]

L’intelligenza artificiale e i processi decisionali automatizzati possono comportare dei rischi per i consumatori. Scopri in che modo il Parlamento Europeo intende proteggerli. Lo sviluppo dei processi decisionali automatizzati presenta delle sfide per la tutela dei consumatori. 


Cos’è l’intelligenza artificiale e perché può essere pericolosa.
Gli algoritmi di apprendimento sono in grado di elaborare serie di dati con una precisione e una velocità superiori alle capacità umane, ecco perché le applicazioni di intelligenza artificiale (IA) sono diventate sempre più comuni in tutti i settori: dalla finanza alla salute, dall’istruzione al sistema giuridico, e oltre.

Ma affidarsi all’intelligenza artificiale comporta dei rischi, specialmente quando questa ha la facoltà di prendere decisioni senza la supervisione umana. L’apprendimento automatico (noto in inglese come machine learning) si basa sul riconoscimento di modelli (tecnicamente chiamati pattern) all’interno di set di dati. I dati forniti dagli uomini alle macchine possono però riflettere pregiudizi sociali, e in quel caso l’intelligenza artificiale incorporerà gli stessi pregiudizi nel proprio processo decisionale.

L’intelligenza artificiale nei processi decisionali
L’intelligenza artificiale viene utilizzata sempre di più nella progettazione di algoritmi decisionali. Le decisioni prese dagli algoritmi possono avere un impatto significativo nella vita dei cittadini: dalla concessione di credito, all’ottenimento di un lavoro o di cure mediche fino ad influire sull'esito di sentenze giudiziarie.

In alcuni casi i processi decisionali automatizzati rischiano di perpetuare il divario sociale.
Alcuni algoritmi, ad esempio, si sono dimostrati discriminatori nei confronti delle donne: si tratta di sistemi di intelligenza artificiale utilizzati negli uffici risorse umane di alcune aziende che a causa di distorsioni storiche nei dati che utilizzano per elaborare una decisione - privilegiano le assunzioni (o le promozioni) maschili rispetto a quelle femminili.

Proteggere i consumatori nell’era dell’intelligenza artificiale
Lo sviluppo dell’intelligenza artificiale e dei processi decisionali automatizzati presenta delle sfide anche per la fiducia e il benessere dei consumatori: quando interagiscono con questi sistemi, i consumatori dovrebbero essere adeguatamente informati sul loro funzionamento, per poter prendere decisioni consapevoli sul loro utilizzo.

La posizione del Parlamento Europeo
Il Parlamento chiede alla Commissione di valutare la necessità di attuare misure supplementari per garantire una tutela solida dei diritti dei consumatori nell’ambito dell’intelligenza artificiale e dei sistemi decisionali automatizzati.

La Commissione dovrà chiarire come prevede di:
- garantire la protezione dei consumatori da pratiche commerciali sleali e/o discriminatorie, o da rischi derivanti da servizi commerciali di intelligenza artificiale;
- garantire maggiore trasparenza in questi processi;
- assicurare che soltanto dati non discriminatori e di alta qualità vengano utilizzati nei sistemi decisionali automatizzati.

"Dobbiamo assicurarci che la protezione e la fiducia dei consumatori venga garantita, che le norme dell’UE in materia di sicurezza e responsabilità su prodotti e servizi siano adeguate all’era digitale ", così Petra De Sutter, Presidente della Commissione per il mercato interno e la protezione dei consumatori.

Il 20 febbraio 2020 la Commissione Europea ha presentato le "Strategie per i dati e l'intelligenza Artificiale".

DIALOGO APERTO
LA NEWSLETTER
Archivio