Skip to main content

Webcast

Dos años después de ChatGPT: El mundo en evolución de la IA generativa, el riesgo y el seguro

Es importante entender cómo la IA generativa puede amplificar los riesgos existentes, así como las implicaciones legales, regulatorias y de seguros que están cambiando.

Desde el lanzamiento de ChatGPT y otras tecnologías de inteligencia artificial (IA) generativa en 2022, el panorama de la IA ha seguido desarrollándose, con nuevas variaciones de IA, incluidas tecnologías multimodales, agénticas y humanoides.

Aunque a menudo se confunde con la IA tradicional, la IA generativa es solo una subcategoría de la IA que emplea principalmente modelos de aprendizaje profundo para generar nuevo contenido en varios dominios.

A medida que las organizaciones buscan gestionar los riesgos asociados con la IA generativa, es importante comprender las formas en que puede amplificar los riesgos existentes, así como las implicaciones legales, regulatorias y de seguros cambiantes relacionadas con su uso. Algunas ideas sobre mejores prácticas y lecciones han surgido en los últimos años para ayudar a las organizaciones a navegar esta fase formativa.

* Disponible solo en inglés

No toda la IA es igual, ni se define de manera consistente

La IA se refiere a un campo diverso de tecnologías que han existido desde la década de 1950. La IA se define ampliamente como sistemas informáticos que pueden simular la inteligencia humana, pero hay variación en cómo funcionan y se utilizan estos sistemas. Por ejemplo:

  • La IA predictiva utiliza técnicas de aprendizaje automático y estadísticas para analizar datos históricos y en tiempo real para pronosticar resultados futuros, eventos o comportamientos. 
  • La IA generativa utiliza técnicas avanzadas de aprendizaje profundo para crear contenido nuevo y original en varios dominios, incluida el análisis y la síntesis de datos, la creación de contenido y la simulación de escenarios.
  • La IA agéntica ejecuta tareas y toma decisiones de manera autónoma, sin reglas fijas ni resultados predefinidos, como asistentes personales de IA o ciertas operaciones comerciales automatizadas. 
  • La IA humanoide interactúa y se adapta de manera autónoma al mundo físico, o tiene una entidad física, como robots asistenciales, robótica en el cuidado de la salud o automatización industrial.

A través de estas diversas subcategorías de IA, hay algunas similitudes, pero también diferencias críticas en el tipo de soluciones de gestión y transferencia de riesgos que pueden utilizarse para mitigar los riesgos correspondientes. Otra consideración importante es quién está utilizando qué tipo de IA y para qué propósito. Por ejemplo, los riesgos pueden diferir para un desarrollador de IA frente a un usuario final.

Este artículo se centrará específicamente en la IA generativa, ya que es una forma relativamente nueva de IA que las organizaciones están adoptando rápidamente a gran escala. La IA agéntica y la IA humanoide son formas aún más nuevas de IA, para las cuales la tasa y escala de adopción empresarial aún está por verse.

La IA generativa como amplificador de riesgos

Los extensos análisis de Marsh hasta la fecha sugieren que el mundo aún no ha observado una categoría completamente nueva de riesgo que surja de la IA generativa. Más bien, la IA generativa puede amplificar riesgos existentes, incluidos los ciberataques, la privacidad de los datos, la propiedad intelectual (PI) y la difusión de desinformación.

Algunas de las primeras manifestaciones de los riesgos de la IA generativa incluyen:

  • Deepfakes hiperrealistas que conducen a fraudes de transferencias bancarias.
  • Infracción de la privacidad del cliente al entrenar sistemas de IA generativa con datos de clientes, sin el consentimiento adecuado.
  • Fugas de datos cuando los usuarios finales transmiten inadvertidamente datos sensibles en las indicaciones.
  • Infracción involuntaria de PI al utilizar herramientas de IA generativa que pueden producir contenido que supuestamente infringe los derechos de PI de terceros.
  • Chatbots que alucinan o producen resultados erróneos, proporcionando información incorrecta a los clientes sobre varios productos y servicios.

Paisajes legales y regulatorios incipientes

A medida que se desarrolla el panorama de la IA, también lo hace el entorno legal y regulatorio, incluyendo preguntas emergentes sobre PI, competencia desleal, privacidad de datos y difamación, en algunos casos con precedentes limitados. Por ejemplo, una cuestión común es si un modelo de IA generativa entrenado con material protegido por derechos de autor constituye una infracción o un uso injusto. En los EE. UU., varios fallos judiciales han considerado esta cuestión, con algunos casos desestimados, otros confirmados y muchos pendientes. El Informe sobre Derechos de Autor e Inteligencia Artificial de la Oficina de Derechos de Autor de EE. UU. ofrece un marco inicial útil para comprender el emergente panorama de PI en los EE. UU. y más allá. Es importante reconocer que también existen leyes y regulaciones no específicas de IA relevantes que continúan aplicándose en el contexto de la IA, incluidas las regulaciones de privacidad de datos.

A nivel mundial, algunos casos de alto perfil han puesto el tema más en foco, como la multa de 250 millones de euros impuesta por la Autoridad de la Competencia de Francia a Google por usar contenido de editores de noticias para entrenar un modelo de IA generativa. De cara al futuro, se espera que más casos como este añadan a la conversación legal en torno a los derechos de autor y la PI.

Mientras tanto, los reguladores de todo el mundo están comenzando a distinguir entre la IA y la IA generativa; una tendencia positiva que reconoce tanto las similitudes como las diferencias críticas en la mitigación de riesgos correspondiente. Mitigar los riesgos tradicionales de la IA a menudo incluye un enfoque en la explicabilidad del modelo y la repetibilidad de los resultados; esto es técnicamente desafiante en el contexto de la IA generativa, para la cual la mitigación de riesgos se desplaza hacia la supervisión humana y las pruebas iterativas como el red teaming.

También hay una tensión continua entre los marcos para abordar los riesgos relacionados con la IA. Los marcos más basados en principios enfatizan pautas éticas amplias y flexibilidad, mientras que los marcos más basados en reglas, como la Ley de IA de la UE, establecen regulaciones específicas y detalladas que deben seguirse, proporcionando requisitos de cumplimiento más claros. Esta distinción resalta el desafío de equilibrar la supervisión regulatoria y el avance tecnológico.

Los líderes deben estar atentos a los cambios en las leyes y regulaciones para evitar pasos en falso no intencionados en un entorno que está cambiando en tiempo real.

Implicaciones de suscripción

Para cualquier organización que utilice inteligencia artificial generativa o desarrolle modelos de inteligencia artificial generativa, las consideraciones clave de seguros pueden incluir: ¿Cómo la estamos utilizando y nuestra cobertura existente nos deja potencialmente expuestos? Por ejemplo, ¿necesitamos cambiar los límites y retenciones en algunas líneas, mientras dejamos otras sin tocar?

Desde una perspectiva de cobertura, muchos productos de seguros existentes, incluidos los de responsabilidad civil, medios, cibernéticos y productos de seguros de primera parte, entre otros, ofrecen cobertura para eventos relacionados con la inteligencia artificial generativa. Por ejemplo, un evento de lesión corporal sigue siendo un evento de lesión corporal independientemente de si se involucró una nueva tecnología. Dicho esto, están surgiendo algunas pólizas limitadas y endosos específicos para la inteligencia artificial generativa, así como más preguntas de suscripción específicas de IA, lo que sugiere que tener una gobernanza sólida de IA podría volverse cada vez más importante, en los EE. UU. y a nivel mundial.

En el lado de los reclamos, ha habido pocos reclamos específicos de IA generativa hasta la fecha. Dicho esto, algunos incidentes aislados han llamado la atención, incluido uno que involucró tecnología deepfake en una videollamada utilizada para defraudar a una empresa multinacional de 25 millones de dólares.

Evitando la IA silenciosa

Desde enero de 2020, la proliferación de exclusiones cibernéticas en los seguros ha creado brechas de protección significativas, conocidas como ciber silencioso, al excluir algunas pérdidas provocadas por eventos tecnológicos. Para evitar una situación similar con la IA silenciosa, las organizaciones deben reconocer que la IA generativa puede amplificar riesgos e introducir nuevas complejidades dentro de las líneas de seguros existentes.

Es importante confirmar que los desencadenantes tecnológicos no eliminen la cobertura prevista por la póliza, como eliminar la cobertura de propiedad intelectual bajo una póliza de propiedad intelectual simplemente porque la IA o la IA generativa es parte del vínculo causal de la pérdida. Evolucionar los contratos de seguros existentes antes de crear nuevos, y evitar la complejidad en el lenguaje, puede ayudar a los asegurados y aseguradores a alinearse en la claridad de la cobertura y la certeza del contrato.

Tres categorías de controles

Para comenzar a mitigar los riesgos asociados con la IA generativa, las organizaciones deben pensar de manera integral sobre cómo desarrollan, implementan y utilizan esta tecnología. Las siguientes tres categorías pueden ofrecer un punto de partida útil para implementar controles:

  • Técnico: Los aspectos de diseño, implementación y operación de las tecnologías de IA generativa, incluidos los estándares de desarrollo, medidas de seguridad, monitoreo y evaluación, y gobernanza de datos.
  • Proceso: Marco de gobernanza general y procesos que aclaran quién es responsable de qué y cuándo. Esto incluye políticas de uso aceptable, protocolos de evaluación de riesgos, procesos de cumplimiento y regulación, así como documentación e informes. 
  • Personas: Los factores humanos relacionados con la integración exitosa de tecnologías de IA generativa, incluida la participación de las partes interesadas, mecanismos de retroalimentación, así como capacitación y educación sobre cómo usar, y cómo no usar, herramientas de IA generativa para fines laborales.

Al implementar controles en estas tres categorías, las organizaciones pueden mitigar y gestionar de manera más integral los riesgos asociados con la IA generativa, con el objetivo de llevar a un uso más efectivo y sostenible de la tecnología para lograr resultados empresariales.

Transmisión en vivo de preguntas y respuestas:

  • ¿Todos los modelos de lenguaje grandes utilizan datos de entrenamiento con derechos de autor como parte de su base? ¿Cómo espera que se vea afectada la IA generativa si el uso de datos de entrenamiento con derechos de autor se vuelve ilegal?

Hay un considerable debate regulatorio en torno al uso de datos de entrenamiento con derechos de autor en la IA generativa. En teoría, es posible desarrollar modelos de IA generativa sin usar datos con derechos de autor, o obteniendo las licencias necesarias. Si el uso de datos de entrenamiento con derechos de autor sin las licencias apropiadas se considerara ilegal, podríamos ver varias multas y sanciones impuestas a quienes violen estas regulaciones. Sin embargo, es importante señalar que esta tecnología ha llegado para quedarse, y este tipo de preguntas son las que deberíamos estar monitoreando de cerca, ya que las leyes y regulaciones pueden cambiar con el tiempo.

  • Entrenar modelos de IA generativa requiere cantidades significativas de electricidad y recursos hídricos para enfriar los centros de datos, lo que puede suponer una carga para los servicios públicos y las comunidades locales. ¿Cómo deberían los directores y oficiales sopesar los riesgos a medida que observamos un aumento en los litigios contra empresas por no abordar adecuadamente las preocupaciones relacionadas con el clima?

Hay numerosos riesgos relacionados con el clima que acompañan a la IA generativa, al igual que con muchas tecnologías nuevas. Los líderes senior deberían proporcionar una supervisión adecuada discutiendo activamente estos temas e integrándolos en su proceso de toma de decisiones. Esto no solo podría ayudar a mitigar los posibles riesgos de responsabilidad de gestión, sino también a alinear mejor a la organización con las crecientes expectativas de responsabilidad corporativa en la atención a las preocupaciones climáticas. La IA generativa ha llegado para quedarse, al igual que los riesgos ambientales asociados con ella, por lo que cuanto antes se produzcan estas discusiones, mejor.

Tres oportunidades para ayudar a mitigar los riesgos de la IA generativa

A medida que la IA generativa continúa presentando nuevas oportunidades para las organizaciones, los líderes deben estar atentos a los riesgos que la acompañan. Aunque todavía hay mucho que aprender sobre la IA generativa, a continuación, se presentan tres pasos que las organizaciones pueden tomar hoy para ayudar a fortalecer sus esfuerzos de mitigación de riesgos. 

  1. Comprender la diferencia entre la IA generativa y otras formas de IA. Las organizaciones deberían considerar educarse sobre las distinciones entre la IA generativa y otras formas de IA para comprender mejor cómo pueden usarse efectivamente para lograr resultados comerciales. Además, los líderes senior y los gerentes de riesgos deberían considerar cuidadosamente cómo deberían ser los esfuerzos de mitigación de riesgos dependiendo del tipo de tecnología que se esté utilizando y para qué propósito.
  2. Desarrollar marcos de gobernanza de IA generativa centralizados y de múltiples partes interesadas. Crear e implementar una gobernanza robusta de IA requiere que todas las partes interesadas relevantes en funciones técnicas, de recursos humanos, legales/compliance y de negocios estén alineadas en estándares éticos y directrices operativas. Un enfoque colaborativo y multifuncional puede fomentar más responsabilidad y transparencia en el despliegue de la IA, desde los líderes senior hasta cada empleado que use la tecnología.
  3. Evaluar el impacto de los entornos tecnológicos, de seguros y legales en evolución. Las organizaciones deben permanecer atentas a los entornos tecnológicos, de seguros y regulatorios cambiantes que informarán el desarrollo, implementación y uso de la IA generativa. Una evaluación continua y proactiva es necesaria dado el panorama en evolución.

Contacta con un representante de Marsh

Para obtener más información sobre los riesgos y oportunidades asociados con la inteligencia artificial generativa, por favor completa el formulario a continuación.