Image

Per le aziende è arrivato il momento di adottare e espandere l’uso dell'intelligenza artificiale (IA) in nuovi ambiti e settori. L’IA ha dimostrato di essere una forza trasformativa, rivoluzionando il modo in cui le aziende operano nel mondo di oggi, caratterizzato da ritmi frenetici e in costante evoluzione. Sfruttando la potenza dell'IA, le aziende possono adottare ora algoritmi avanzati di analisi e apprendimento automatico, ottenendo una comprensione più profonda del comportamento dei clienti, delle tendenze di mercato e dei modelli operativi. Questo approccio guidato dai dati offre alle aziende un vantaggio competitivo, consentendo loro di prendere decisioni e di ottimizzare i processi in modo efficiente. Inoltre, l'intelligenza artificiale consente alle aziende di fornire ai clienti esperienze altamente personalizzate, come ad esempio campagne di marketing su misura. Questo approccio personalizzato favorisce il coinvolgimento e la fidelizzazione dei clienti, generando al contempo tassi di conversione più elevati, con conseguente aumento dei ricavi e della redditività. Inoltre, l'IA generativa offre prospettive interessanti per le aziende: può creare rapidamente contenuti, design visivamente coinvolgenti e persino interi concetti di branding. Non c’è dubbio che l'integrazione dell'IA nelle operazioni commerciali ha già rivoluzionato il modo in cui le aziende operano, e continuerà di certo a farlo in futuro. 


Sfide etiche e legali

Se da un lato l'IA offre immense opportunità, dall'altro presenta anche sfide etiche e legali. Questioni come le discriminazioni alimentate dagli algoritmi e le violazioni della privacy sollevano dilemmi etici che rendono necessarie normative e leggi per definire linee guida e standard che garantiscano equità, trasparenza e responsabilità nell’uso dei sistemi di IA. Linee guida etiche, come i Principi di Asilomar, sono state diffuse già nel 2017. Negli anni successivi il loro numero si è rapidamente moltiplicato, con oltre 80 pubblicazioni prima del 2020. Le linee guida etiche, radicate nelle aspettative sociali e nei principi e valori morali, non hanno dirette conseguenze legali, ma la loro violazione spesso preoccupa e scatena la reazione dell'opinione pubblica e dei media, influenzando così le decisioni dei clienti e degli stakeholder. La violazione dei doveri etici può danneggiare in modo significativo la reputazione di un'azienda, diminuire la fiducia dei clienti, suscitare reazioni da parte dell'opinione pubblica e potenzialmente provocare boicottaggi o proteste. La pubblicità negativa, soprattutto se amplificata dai social media, può avere un impatto profondo sui profitti a medio e lungo termine di un'azienda.

Nell’aprile del 2021, la Commissione Europea ha presentato una proposta di regolamento per l'intelligenza artificiale, che dovrebbe essere ratificata nei prossimi mesi. Si tratta dell'EU AI Act, una proposta legislativa che adotta un approccio basato sul rischio e stabilisce un quadro normativo per lo sviluppo e l'utilizzo dei sistemi di intelligenza artificiale in Europa. La proposta di regolamento classifica i sistemi di IA in quattro gruppi di rischio: inaccettabile, elevato, limitato e minimo. La classificazione dipende dal potenziale impatto del sistema sulla salute, la sicurezza e i diritti fondamentali delle persone. I sistemi di IA ad alto rischio, che presentano gravi rischi in queste aree, sono ammessi nel mercato europeo solo se soddisfano requisiti specifici e superano una valutazione di conformità prima di essere distribuiti. Tali requisiti vanno dalla gestione del rischio, alla qualità dei dati, la governance, la trasparenza, la supervisione umana, l'accuratezza e la sicurezza informatica. L'AI Act mira a garantire l'uso e lo sviluppo responsabile dell'IA, con misure e protocolli progettati per ridurre al minimo i danni e difendere i diritti degli individui. Le aziende si devono velocemente adattare all’arrivo di queste legislazioni e creare un sistema di governance che assicuri la fiducia dei consumatori.

 

La fallacia della “compliance”

L'adempimento degli obblighi di legge costituisce il minimo indispensabile delle responsabilità di un'azienda. Ignorare questi obblighi rappresenta un rischio significativo per il successo dell'impresa, con potenziali sanzioni che possono ostacolare il raggiungimento degli obiettivi. Detto ciò, ci preoccupa che l'emergere di un quadro normativo sempre più vincolante attorno a queste nuove tecnologie possa inavvertitamente mascherare l’importanza e il peso dei vincoli che vanno oltre la compliance. Il panorama aziendale si è evoluto, con una crescente aspettativa che le aziende facciano fede a una serie di obblighi non strettamente legati a norme in vigore. Concetti emergenti come responsabilità sociale d'impresa (CSR), governance sociale e ambientale (ESG), ricerca e innovazione responsabile (RRI), licenze sociali e sviluppo sostenibile, sono emersi come strategie e pratiche che rispondono a questi obblighi. Questi principi guida, che si distinguono dagli obblighi legali vincolanti, possono essere definiti "obblighi etici".

Erroneamente si pensa che gli obblighi legali sostituiscano o superino quelli etici e che, una volta adempiuti i propri obblighi legali, le aziende siano esenti da considerazioni etiche. Possiamo chiamare questo errore comune la fallacia della “compliance”.  La "fallacia della compliance" nasce dalla convinzione, erronea, che i requisiti legali racchiudano e soddisfino tutte le aspettative etiche, mentre la realtà è che gli obblighi etici spesso si estendono al di là dei requisiti legali.

 

Essere etici

La fallacia della compliance evidenzia la necessità essenziale di riconoscere e sostenere gli obblighi etici come distinti e indipendenti dagli obblighi legali. Anche se le imprese destinano una parte sostanziale delle loro spese alla compliance e ai servizi legali per adempiere agli obblighi di legge, esitano a fare investimenti simili per soddisfare gli obblighi etici. Eppure investire nell'etica e in un sistema di governance che assicuri la fiducia dei consumatori spesso contribuisce a ridurre i costi per le aziende e ne aumenta il fatturato. Purtroppo, mentre i rischi associati alla compliance e alle questioni legali sono considerati componenti intrinseche da inserire in qualsiasi solida strategia di gestione del rischio, non si può dire lo stesso per i rischi legati all'etica e all'impatto sociale. Questi ultimi tipi di rischio sono spesso trascurati e raramente influenzano le decisioni aziendali.

Le implicazioni della fallacia della compliance diventano ancora più gravi nei settori in cui le normative non tengono il passo con lo sviluppo della tecnologia, o dove tali normative non esistono affatto. Quando un'azienda si sente vincolata solo agli obblighi legali e mette da parte quelli etici, agire in un vuoto normativo può produrre conseguenze dannose per gli individui e la società e, a lungo andare, per l'azienda stessa. Prendiamo il caso delle criptovalute. Il vuoto normativo in cui sono emerse è stato preso da vari attori come un “tutto è permesso”. Questo, tuttavia, ha favorito attività illegali, tra cui il riciclaggio di denaro, le frodi e i crimini informatici. Mentre questi usi violano chiaramente la legge, altre aree rimangono più ambigue. Per esempio, si consideri l'impatto ambientale delle criptovalute, in particolare di quelle che si basano su processi ad alta intensità energetica come il proof-of-work per il loro funzionamento. Sebbene non sia illegale consumare grandi quantità di energia in questo modo, molti sostengono che non sia etico, visto lo stato attuale del cambiamento climatico globale e l'urgente necessità di ridurre le emissioni di carbonio.

Visti i suoi vantaggi, non c'è da stupirsi che ora l'IA sia diventata uno strumento vitale per le aziende che cercano di ottenere un vantaggio competitivo nel mercato di oggi. Nel frattempo, stanno emergendo nuovi regolamenti e le aziende devono attrezzarsi per far fronte alle richieste sempre più pressanti delle autorità legislative. Allo stesso tempo, devono anche assicurarsi di utilizzare l'IA in modo etico e socialmente responsabile. Poiché la mera conformità alle regole non è e non sarà sufficiente per ottenere la fiducia dei consumatori, le aziende devono concentrarsi anche sulle questioni etiche e sociali nell'adozione dell'intelligenza artificiale per garantire la loro competitività in questo mercato sempre più esigente.

Autori
Marianna Ganapini
Marianna Ganapini
Logica.now
Marianna Ganapini è assistant professor presso il Dipartimento di Filosofia dell'Union College (NY). Dal 2020 collabora con IBM, e nel 2023 è Visiting Scholar presso il Center of Bioethics della NYU.
Enrico Panai
Enrico Panai
Logica.now
Enrico Panai è un eticista dell’IA ed esperto in interazione uomo-informazione.
Alessio Tartaro
Alessio Tartaro
Logica.now
Alessio Tartaro è studente di dottorato presso l’Università di Sassari, dove si occupa di etica e governance dell’intelligenza artificiale.

Poiché la mera conformità alle regole non è e non sarà sufficiente per ottenere la fiducia dei consumatori, le aziende devono concentrarsi anche sulle questioni etiche e sociali nell'adozione dell'intelligenza artificiale per garantire la loro competitività in questo mercato sempre più esigente

10 luglio 2023

Oltre la compliance: come guadagnare la fiducia dei consumatori nell’uso dell’IA

Anitec-Assinform - Associazione Italiana per l’Information and Communication Technology (ICT)  
P.IVA: 10053550967 C.F.: 10053550967 - Privacy

segreteria@anitec-assinform.it

anitec-assinform@pec.it