Skip to main content

Webcast

Due anni dopo ChatGPT: il mondo in evoluzione dell’IA generativa, del rischio e delle assicurazioni

E' fondamentale comprendere come l’IA può amplificare i rischi esistenti e le nuove implicazioni giuridiche, normative e assicurative legate al suo utilizzo.

Dal lancio nel 2022 di ChatGPT e di altre tecnologie di intelligenza artificiale generativa, il panorama dell'IA non ha mai smesso di evolvere, con nuove varianti di IA, tecnologie multimodali, umanoidi e basate su agenti.

Spesso confusa con l'IA tradizionale, l'IA generativa è solo una sottocategoria dell'IA che impiega principalmente modelli di deep learning per generare nuovi contenuti in vari ambiti.

Per le aziende che devono gestire i rischi associati all'IA generativa, è importante comprendere come l’IA può amplificare i rischi esistenti e quali sono le nuove implicazioni giuridiche, normative e assicurative legate al suo utilizzo. Negli ultimi anni si sono diffuse alcune best practice e sono emerse esperienze utili per affrontare questa fase formativa.

*Disponibile solo in lingua Inglese

Non tutta l'IA è uguale e non esiste una definizione univoca

L'intelligenza artificiale corrisponde a un campo variegato di tecnologie nate a partire dagli anni '50. Generalmente ci si riferisce a tutti i sistemi informatici in grado di simulare l'intelligenza umana, ma ci sono differenze nelle modalità di funzionamento di questi sistemi e nel modo in cui vengono utilizzati. Per esempio:

  • L'IA predittiva utilizza il machine learning e le tecniche statistiche per analizzare dati storici e in tempo reale al fine di prevedere risultati, eventi o comportamenti futuri.  
  • L'IA generativa utilizza tecniche avanzate di deep learning per creare contenuti nuovi e originali in diversi campi, come l'analisi e la sintesi dei dati, la creazione di contenuti e la simulazione di scenari.
  • L'IA “agentica” esegue compiti e prende decisioni in modo autonomo, senza regole fisse o risultati predefiniti, è adottata per esempio negli assistenti personali di IA o in alcune operazioni aziendali automatizzate.
  • L'IA umanoide interagisce con il mondo fisico e si adatta autonomamente ad esso o si basa su un'entità fisica, come i robot assistenti, la robotica sanitaria o l'automazione industriale.

Tra queste sottocategorie di IA ci sono alcune somiglianze, ma anche differenze fondamentali per quanto riguarda la gestione dei rischi e le soluzioni di trasferimento del rischio utilizzabili per mitigare i rischi. Altre distinzioni importanti sono fatte in base a chi utilizza l’intelligenza artificiale, quale tipo e per quale scopo. Per esempio, i rischi possono essere diversi per uno sviluppatore di intelligenza artificiale rispetto a un utente finale.

Questo articolo si concentrerà in particolare sull'IA generativa, poiché si tratta di una forma relativamente nuova di IA che le aziende stanno rapidamente adottando su vasta scala. L'IA agentica e l’IA umanoide sono forme ancora più recenti di intelligenza artificiale, per le quali andrà monitorato il tasso e la portata dell'adozione da parte delle imprese.

L'IA generativa come amplificatore di rischio

In base alle analisi e agli studi condotti da Marsh fino ad oggi, non si osserva ancora una categoria di rischio completamente nuova relativa all'IA generativa. Emerge tuttavia che l'IA generativa può amplificare i rischi esistenti, per esempio gli attacchi cyber, la privacy dei dati, la proprietà intellettuale e la diffusione della disinformazione.

Tra le prime manifestazioni di rischio dell'IA generativa possiamo citare:

  • Deepfake iperrealistici che portano a frodi con bonifici bancari.
  • Violazioni della privacy dei clienti nell'addestramento di sistemi di IA generativa con i dati dei clienti, senza il consenso appropriato.
  • Fuga di dati quando gli utenti finali trasmettono inavvertitamente dati sensibili nei prompt.
  • Violazione involontaria della proprietà intellettuale di terze parti nella produzione di contenuti tramite strumenti di IA generativa.
  • Chatbot che hanno allucinazioni o producono output errati, fornendo informazioni sbagliate ai clienti sui diversi prodotti e servizi

Nuovi scenari giuridici e normativi

Con lo sviluppo del panorama dell'intelligenza artificiale, evolve anche il contesto legale e normativo ed emergono nuove tematiche relative alla proprietà intellettuale, la concorrenza sleale, la privacy dei dati e la diffamazione, in alcuni casi con precedenti limitati. Per esempio, un problema diffuso è stabilire se un modello di intelligenza artificiale generativa addestrato su materiale protetto da copyright costituisca una violazione o un uso scorretto. Negli Stati Uniti, diverse sentenze di tribunale hanno preso in considerazione questo aspetto, alcune a favore, altre contro mentre molte sono ancora in sospeso. Il Copyright and Artificial Intelligence Report dell'Ufficio per il Copyright degli Stati Uniti offre un quadro preliminare utile per comprendere il panorama emergente della proprietà intellettuale negli Stati Uniti e non solo. È importante tenere presente che esistono anche leggi e normative non specifiche all'IA che continuano ad applicarsi nel contesto dell'IA, per esempio le normative sulla privacy dei dati.

A livello globale, alcuni casi hanno fatto clamore e portato la questione al centro dell'attenzione, come la multa di 250 milioni di euro comminata a Google dall'Autorità della concorrenza francese per avere utilizzato i contenuti degli editori di notizie per addestrare un modello di intelligenza artificiale generativa. In futuro si prevedono altri casi come questo che si aggiungeranno al dibattito giuridico sul copyright e la proprietà intellettuale.

Nel frattempo, le autorità di regolamentazione di tutto il mondo stanno iniziando a distinguere tra IA e IA generativa: un trend positivo che riconosce sia le somiglianze che le differenze fondamentali ai fini della riduzione dei rischi. Nell'IA tradizionale, la mitigazione dei rischi spesso si concentra sulla possibilità di spiegare il modello e la ripetibilità degli output, attività tecnicamente impegnative nel contesto dell'IA generativa, nella quale la mitigazione del rischio riguarda principalmente la supervisione umana e i test iterativi come il red teaming.

Sussistono inoltre differenze giuridiche per la gestione dei rischi legati all'IA. I quadri giuridici basati soprattutto sui principi pongono l’accento sulle linee guida etiche generali e la flessibilità, mentre i quadri giuridici più basati sulle regole, come l'AI Act dell'UE, stabiliscono norme specifiche e dettagliate a cui attenersi, fornendo requisiti di compliance più chiari. Questa distinzione evidenzia quanto sia complesso trovare un equilibrio tra supervisione normativa e progresso tecnologico.

È opportuno che i leader aziendali siano sempre aggiornati sulle modifiche legislative e normative per evitare errori in un contesto che cambia in tempo reale.

Implicazioni in ambito assicurativo

Utilizzare l'IA generativa o sviluppare modelli di IA generativa solleva una serie di considerazioni anche in ambito assicurativo per le aziende. Per esempio, è essenziale valutare bene quali usi si fanno dell’IA, sapere se la copertura esistente lascia potenzialmente esposti, se è necessario modificare i massimali e le franchigie su alcune linee per lasciarli invariati su altre, ecc.

Dal punto di vista assicurativo, molti prodotti esistenti, come le assicurazioni casualty, media, cyber e first-party, offrono copertura per gli eventi legati all'IA generativa; per esempio un infortunio rimane un infortunio anche se è coinvolta una nuova tecnologia. Detto ciò, si stanno diffondendo polizze circoscritte e clausole specifiche per l'IA generativa, ma anche domande specifiche sull'IA nei questionari di sottoscrizione. Questa nuova tendenza suggerisce che disporre di una solida governance dell'IA potrebbe essere sempre più importante, negli Stati Uniti e a livello globale.

Per quanto riguarda i sinistri, a oggi quelli specifici all'IA generativa sono un numero molto limitato, anche se alcuni eventi isolati hanno attirato l'attenzione, tra cui un caso riguardante la tecnologia deepfake utilizzata tramite videocall per portare a termine una truffa di 25 milioni di dollari a danni di un'azienda multinazionale.

Evitare la silent AI

Da gennaio 2020, la proliferazione delle esclusioni cyber nelle assicurazioni ha creato significative lacune di protezione, note come silent cyber risk, il rischio relativo alle polizze non concepite per coprire in modo specifico il rischio cyber e che quindi escludono alcuni sinistri dovuti a eventi tecnologici. Per evitare una situazione simile con l'IA, le aziende dovrebbero essere consapevoli che l'IA generativa può amplificare i rischi e introdurre nuove complessità all'interno delle polizze assicurative esistenti.

È importante confermare che gli eventi tecnologici trigger non eliminano la copertura prevista dalla polizza, come succede per esempio con l’eliminazione della copertura sulla proprietà intellettuale nell'ambito di una polizza di IP, semplicemente perché l'IA o l'IA generativa fanno parte integrante del nesso causale del sinistro. Modificare i contratti assicurativi esistenti prima di crearne di nuovi evitando anche la complessità linguistica può aiutare assicurati e assicuratori a convergere sulla chiarezza della copertura e la certezza dei contratti.

Tre categorie di controlli

Per cominciare a ridurre i rischi associati all'IA generativa, le aziende devono avere una visione completa sullo sviluppo, l’implementazione e l’utilizzo di questa tecnologia. Un utile punto di partenza per l'implementazione dei controlli può essere offerto dalle tre categorie seguenti:

  • Aspetti tecnici: progettazione, implementazione e aspetti operativi delle tecnologie di IA generativa, inclusi standard di sviluppo, misure di sicurezza, monitoraggio e valutazione, data governance.
  • Processi: quadro di governance generale e processi per definire chi è responsabile di cosa e quando, inclusi politiche di utilizzo accettabile, protocolli di valutazione del rischio, processi normativi e di compliance, documentazione e reportistica.
  • Persone: fattori umani legati a una integrazione positiva delle tecnologie di IA generativa, inclusi il coinvolgimento degli stakeholder, meccanismi di feedback, formazione e istruzione su come utilizzare e non utilizzare i tool di IA generativa nel lavoro.

Prevedere controlli in queste tre categorie permette alle aziende di ridurre e gestire in modo più completo i rischi associati all'IA generativa e quindi di fare un uso più efficace e sostenibile di questa tecnologia per conseguire i risultati aziendali.

Q&A del webcast live

  • Tutti gli LLM utilizzano dati di addestramento protetti da copyright nella fase di sviluppo iniziale? Quali potrebbero essere le conseguenze sull'IA generativa se l'uso di dati di addestramento protetti da copyright diventasse illegale?

È in corso un esteso dibattito normativo sull'uso di dati di addestramento protetti da copyright nell'IA generativa. In teoria è possibile sviluppare modelli di IA generativa senza utilizzare dati protetti da copyright oppure ottenendo le licenze necessarie. Se l'uso di dati di addestramento protetti da copyright senza un’apposita licenza dovesse essere considerato illegale, potrebbero essere previste multe e sanzioni per chi viola queste normative. Tuttavia, è importante sottolineare che questa tecnologia è qui per restare, pertanto questo genere di questioni merita grande attenzione poiché le leggi e i regolamenti possono cambiare nel tempo.

  • L'addestramento dei modelli di IA generativa richiede quantità significative di elettricità e acqua per raffreddare i data center e questo può essere oneroso per le società che erogano questi servizi e le comunità locali. In che modo dirigenti e amministratori dovrebbero valutare i rischi, tenuto conto del numero crescente di contenziosi contro le aziende che non affrontano adeguatamente le preoccupazioni climatiche?

L'IA generativa, così come altre nuove tecnologie, solleva numerosi rischi legati al clima. I senior leader dovrebbero assicurare un’adeguata supervisione discutendo attivamente di questi aspetti e integrandoli nel processo decisionale. In tal modo, oltre a ridurre i potenziali rischi di responsabilità del management, le aziende potrebbero anche rispondere meglio alle crescenti aspettative in materia di responsabilità aziendale sulle questioni climatiche. L'IA generativa è qui per restare, così come i rischi ambientali ad essa associati; pertanto, questi aspetti devono essere affrontati e discussi quanto prima possibile.

Tre opportunità per ridurre i rischi dell'IA generativa

Poiché l'IA generativa continua a presentare sempre nuove opportunità per le aziende, i leader devono prestare attenzione ai rischi che la accompagnano. Sebbene ci sia ancora molto da imparare sull'IA generativa, le aziende possono intraprendere tre azioni oggi per ridurre più efficacemente i rischi.

  1. Comprendere bene la differenza tra l'IA generativa e altre forme di IA. Le aziende dovrebbero informarsi sulle differenze tra intelligenza artificiale generativa e altre forme di intelligenza artificiale per comprendere meglio come utilizzarle efficacemente e ottenere risultati aziendali. Inoltre, i senior leader e i risk manager dovrebbero valutare attentamente quali azioni di mitigazione del rischio attuare a seconda del tipo di tecnologia utilizzata e dello scopo per la quale è utilizzata.
  2. Sviluppare framework di governance dell'IA generativa centralizzati e multi-stakeholder. La creazione e l'implementazione di una solida governance dell'IA richiede che tutti gli stakeholder in ambito tecnico, HR, legal/compliance e delle funzioni aziendali siano allineati sulle stesse linee guida operative e standard etici. Un approccio collaborativo e interfunzionale può favorire una maggiore responsabilizzazione e trasparenza nell'implementazione dell'intelligenza artificiale, dai senior leader fino a tutti i dipendenti che utilizzano la tecnologia.
  3. Valutare l'impatto dell'evoluzione degli aspetti tech, assicurativi e giuridici. Le aziende dovrebbero monitorare attentamente i cambiamenti riguardanti gli aspetti tecnologici, assicurativi e normativi che influenzano lo sviluppo, l'implementazione e l'utilizzo dell'IA generativa. L’evoluzione costante del panorama dell’IA richiede una valutazione continua e proattiva.

I nostri esperti

Jaymin Kim

Jaymin Kim

Managing Director, Emerging Technologies, Global Cyber Insurance Center

  • United States

Greg Eskins

Greg Eskins

Global Cyber Product Leader and Head, Global Cyber Insurance Center

  • United States

Carlo Drioli

Carlo Drioli

Head of Business Resilience & Digital Risk, Marsh Advisory

  • Italy

Placeholder Image

Matteo Mancini

Head of Business Resilience, Marsh Advisory

  • Italy

Contatta un consulente Marsh

Per saperne di più sui rischi e le opportunità associati all'IA generativa, compila il form sottostante.