
Jaymin Kim
Managing Director, Emerging Technologies, Global Cyber Insurance Center
-
United States
Dal lancio nel 2022 di ChatGPT e di altre tecnologie di intelligenza artificiale generativa, il panorama dell'IA non ha mai smesso di evolvere, con nuove varianti di IA, tecnologie multimodali, umanoidi e basate su agenti.
Spesso confusa con l'IA tradizionale, l'IA generativa è solo una sottocategoria dell'IA che impiega principalmente modelli di deep learning per generare nuovi contenuti in vari ambiti.
Per le aziende che devono gestire i rischi associati all'IA generativa, è importante comprendere come l’IA può amplificare i rischi esistenti e quali sono le nuove implicazioni giuridiche, normative e assicurative legate al suo utilizzo. Negli ultimi anni si sono diffuse alcune best practice e sono emerse esperienze utili per affrontare questa fase formativa.
*Disponibile solo in lingua Inglese
L'intelligenza artificiale corrisponde a un campo variegato di tecnologie nate a partire dagli anni '50. Generalmente ci si riferisce a tutti i sistemi informatici in grado di simulare l'intelligenza umana, ma ci sono differenze nelle modalità di funzionamento di questi sistemi e nel modo in cui vengono utilizzati. Per esempio:
Tra queste sottocategorie di IA ci sono alcune somiglianze, ma anche differenze fondamentali per quanto riguarda la gestione dei rischi e le soluzioni di trasferimento del rischio utilizzabili per mitigare i rischi. Altre distinzioni importanti sono fatte in base a chi utilizza l’intelligenza artificiale, quale tipo e per quale scopo. Per esempio, i rischi possono essere diversi per uno sviluppatore di intelligenza artificiale rispetto a un utente finale.
Questo articolo si concentrerà in particolare sull'IA generativa, poiché si tratta di una forma relativamente nuova di IA che le aziende stanno rapidamente adottando su vasta scala. L'IA agentica e l’IA umanoide sono forme ancora più recenti di intelligenza artificiale, per le quali andrà monitorato il tasso e la portata dell'adozione da parte delle imprese.
In base alle analisi e agli studi condotti da Marsh fino ad oggi, non si osserva ancora una categoria di rischio completamente nuova relativa all'IA generativa. Emerge tuttavia che l'IA generativa può amplificare i rischi esistenti, per esempio gli attacchi cyber, la privacy dei dati, la proprietà intellettuale e la diffusione della disinformazione.
Tra le prime manifestazioni di rischio dell'IA generativa possiamo citare:
Con lo sviluppo del panorama dell'intelligenza artificiale, evolve anche il contesto legale e normativo ed emergono nuove tematiche relative alla proprietà intellettuale, la concorrenza sleale, la privacy dei dati e la diffamazione, in alcuni casi con precedenti limitati. Per esempio, un problema diffuso è stabilire se un modello di intelligenza artificiale generativa addestrato su materiale protetto da copyright costituisca una violazione o un uso scorretto. Negli Stati Uniti, diverse sentenze di tribunale hanno preso in considerazione questo aspetto, alcune a favore, altre contro mentre molte sono ancora in sospeso. Il Copyright and Artificial Intelligence Report dell'Ufficio per il Copyright degli Stati Uniti offre un quadro preliminare utile per comprendere il panorama emergente della proprietà intellettuale negli Stati Uniti e non solo. È importante tenere presente che esistono anche leggi e normative non specifiche all'IA che continuano ad applicarsi nel contesto dell'IA, per esempio le normative sulla privacy dei dati.
A livello globale, alcuni casi hanno fatto clamore e portato la questione al centro dell'attenzione, come la multa di 250 milioni di euro comminata a Google dall'Autorità della concorrenza francese per avere utilizzato i contenuti degli editori di notizie per addestrare un modello di intelligenza artificiale generativa. In futuro si prevedono altri casi come questo che si aggiungeranno al dibattito giuridico sul copyright e la proprietà intellettuale.
Nel frattempo, le autorità di regolamentazione di tutto il mondo stanno iniziando a distinguere tra IA e IA generativa: un trend positivo che riconosce sia le somiglianze che le differenze fondamentali ai fini della riduzione dei rischi. Nell'IA tradizionale, la mitigazione dei rischi spesso si concentra sulla possibilità di spiegare il modello e la ripetibilità degli output, attività tecnicamente impegnative nel contesto dell'IA generativa, nella quale la mitigazione del rischio riguarda principalmente la supervisione umana e i test iterativi come il red teaming.
Sussistono inoltre differenze giuridiche per la gestione dei rischi legati all'IA. I quadri giuridici basati soprattutto sui principi pongono l’accento sulle linee guida etiche generali e la flessibilità, mentre i quadri giuridici più basati sulle regole, come l'AI Act dell'UE, stabiliscono norme specifiche e dettagliate a cui attenersi, fornendo requisiti di compliance più chiari. Questa distinzione evidenzia quanto sia complesso trovare un equilibrio tra supervisione normativa e progresso tecnologico.
È opportuno che i leader aziendali siano sempre aggiornati sulle modifiche legislative e normative per evitare errori in un contesto che cambia in tempo reale.
Utilizzare l'IA generativa o sviluppare modelli di IA generativa solleva una serie di considerazioni anche in ambito assicurativo per le aziende. Per esempio, è essenziale valutare bene quali usi si fanno dell’IA, sapere se la copertura esistente lascia potenzialmente esposti, se è necessario modificare i massimali e le franchigie su alcune linee per lasciarli invariati su altre, ecc.
Dal punto di vista assicurativo, molti prodotti esistenti, come le assicurazioni casualty, media, cyber e first-party, offrono copertura per gli eventi legati all'IA generativa; per esempio un infortunio rimane un infortunio anche se è coinvolta una nuova tecnologia. Detto ciò, si stanno diffondendo polizze circoscritte e clausole specifiche per l'IA generativa, ma anche domande specifiche sull'IA nei questionari di sottoscrizione. Questa nuova tendenza suggerisce che disporre di una solida governance dell'IA potrebbe essere sempre più importante, negli Stati Uniti e a livello globale.
Per quanto riguarda i sinistri, a oggi quelli specifici all'IA generativa sono un numero molto limitato, anche se alcuni eventi isolati hanno attirato l'attenzione, tra cui un caso riguardante la tecnologia deepfake utilizzata tramite videocall per portare a termine una truffa di 25 milioni di dollari a danni di un'azienda multinazionale.
Da gennaio 2020, la proliferazione delle esclusioni cyber nelle assicurazioni ha creato significative lacune di protezione, note come silent cyber risk, il rischio relativo alle polizze non concepite per coprire in modo specifico il rischio cyber e che quindi escludono alcuni sinistri dovuti a eventi tecnologici. Per evitare una situazione simile con l'IA, le aziende dovrebbero essere consapevoli che l'IA generativa può amplificare i rischi e introdurre nuove complessità all'interno delle polizze assicurative esistenti.
È importante confermare che gli eventi tecnologici trigger non eliminano la copertura prevista dalla polizza, come succede per esempio con l’eliminazione della copertura sulla proprietà intellettuale nell'ambito di una polizza di IP, semplicemente perché l'IA o l'IA generativa fanno parte integrante del nesso causale del sinistro. Modificare i contratti assicurativi esistenti prima di crearne di nuovi evitando anche la complessità linguistica può aiutare assicurati e assicuratori a convergere sulla chiarezza della copertura e la certezza dei contratti.
Per cominciare a ridurre i rischi associati all'IA generativa, le aziende devono avere una visione completa sullo sviluppo, l’implementazione e l’utilizzo di questa tecnologia. Un utile punto di partenza per l'implementazione dei controlli può essere offerto dalle tre categorie seguenti:
Prevedere controlli in queste tre categorie permette alle aziende di ridurre e gestire in modo più completo i rischi associati all'IA generativa e quindi di fare un uso più efficace e sostenibile di questa tecnologia per conseguire i risultati aziendali.
È in corso un esteso dibattito normativo sull'uso di dati di addestramento protetti da copyright nell'IA generativa. In teoria è possibile sviluppare modelli di IA generativa senza utilizzare dati protetti da copyright oppure ottenendo le licenze necessarie. Se l'uso di dati di addestramento protetti da copyright senza un’apposita licenza dovesse essere considerato illegale, potrebbero essere previste multe e sanzioni per chi viola queste normative. Tuttavia, è importante sottolineare che questa tecnologia è qui per restare, pertanto questo genere di questioni merita grande attenzione poiché le leggi e i regolamenti possono cambiare nel tempo.
L'IA generativa, così come altre nuove tecnologie, solleva numerosi rischi legati al clima. I senior leader dovrebbero assicurare un’adeguata supervisione discutendo attivamente di questi aspetti e integrandoli nel processo decisionale. In tal modo, oltre a ridurre i potenziali rischi di responsabilità del management, le aziende potrebbero anche rispondere meglio alle crescenti aspettative in materia di responsabilità aziendale sulle questioni climatiche. L'IA generativa è qui per restare, così come i rischi ambientali ad essa associati; pertanto, questi aspetti devono essere affrontati e discussi quanto prima possibile.
Poiché l'IA generativa continua a presentare sempre nuove opportunità per le aziende, i leader devono prestare attenzione ai rischi che la accompagnano. Sebbene ci sia ancora molto da imparare sull'IA generativa, le aziende possono intraprendere tre azioni oggi per ridurre più efficacemente i rischi.
Managing Director, Emerging Technologies, Global Cyber Insurance Center
United States
Global Cyber Product Leader and Head, Global Cyber Insurance Center
United States
Head of Business Resilience & Digital Risk, Marsh Advisory
Italy
Head of Business Resilience, Marsh Advisory
Italy