Skip to main content

Webcast

Dos años después de ChatGPT: El mundo en evolución de la inteligencia artificial generativa, riesgos y seguros

Es importante entender cómo la inteligencia artificial generativa puede amplificar los riesgos existentes, así como las implicaciones legales, regulatorias y de seguros relacionadas que están en constante cambio.

Desde el lanzamiento de ChatGPT y otras tecnologías de inteligencia artificial (IA) generativa en 2022, el panorama de la IA ha seguido desarrollándose, con nuevas variaciones de IA, incluyendo tecnologías multimodales, agenticas y humanoides.

Aunque a menudo se confunden con la IA tradicional, la IA generativa es solo una subcategoría de la IA que emplea principalmente modelos de aprendizaje profundo para generar contenido nuevo en diversos ámbitos.

A medida que las organizaciones buscan gestionar los riesgos asociados con la IA generativa, es importante entender las formas en que puede amplificar riesgos existentes, así como las implicaciones legales, regulatorias y de seguros que están en constante cambio en relación con su uso. En los últimos años, han surgido ideas sobre mejores prácticas y lecciones para ayudar a las organizaciones a navegar esta fase formativa.

No toda IA es igual, ni se define de manera consistente

La IA se refiere a un campo diverso de tecnologías que existen desde los años 50. Se define ampliamente como sistemas informáticos que pueden simular la inteligencia humana, pero hay variaciones en cómo funcionan y se utilizan estos sistemas. Por ejemplo:

  • La IA predictiva utiliza aprendizaje automático y técnicas estadísticas para analizar datos históricos y en tiempo real, con el fin de pronosticar resultados, eventos o comportamientos futuros.
  • La IA generativa emplea técnicas avanzadas de aprendizaje profundo para crear contenido nuevo y original en diferentes ámbitos, incluyendo análisis y síntesis de datos, creación de contenido y simulación de escenarios.
  • La IA agentica ejecuta tareas y toma decisiones de forma autónoma, sin reglas fijas ni resultados predefinidos, como asistentes personales de IA o ciertas operaciones automatizadas de negocio.
  • La IA humanoide interactúa con el mundo físico y se adapta de manera autónoma a él, o tiene una entidad física, como robots asistenciales, robótica en salud o automatización industrial

A través de estas diversas subcategorías, existen similitudes, pero también diferencias críticas en el tipo de soluciones de gestión y transferencia de riesgos que pueden usarse para mitigar los riesgos correspondientes. Otro aspecto importante es quién usa qué tipo de IA y con qué propósito. Por ejemplo, los riesgos pueden variar para un desarrollador de IA frente a un usuario final.

Este artículo se centrará específicamente en la IA generativa, ya que es una forma relativamente nueva que las organizaciones están adoptando rápidamente a gran escala. La IA agentica y la humanoide son incluso formas más recientes, cuya tasa y escala de adopción empresarial aún están por verse.

La IA generativa como amplificador de riesgos

Los análisis exhaustivos de Marsh hasta la fecha sugieren que el mundo aún no ha observado una categoría completamente nueva de riesgo que surja de la IA generativa. Más bien, la IA generativa puede amplificar riesgos existentes, como ciberataques, privacidad de datos, propiedad intelectual (PI) y la propagación de desinformación.

Algunas de las manifestaciones tempranas de riesgos asociados con la IA generativa incluyen:

  • Deepfakes hiperrealistas que conducen a fraudes por transferencia bancaria
  • Infracción de la privacidad del cliente al entrenar sistemas de IA generativa con datos de clientes sin el consentimiento adecuado
  • Filtración de datos cuando los usuarios transmiten inadvertidamente información sensible en las solicitudes
  • Infracción involuntaria de la PI al usar herramientas de IA generativa que pueden producir contenido que supuestamente infringe derechos de terceros
  • Chatbots que hallucinan o generan resultados erróneos, proporcionando información incorrecta a los clientes sobre diversos productos y servicios

Entornos legales y regulatorios emergentes

A medida que evoluciona el panorama de la IA, también lo hace el entorno legal y regulatorio, incluyendo preguntas emergentes sobre PI, competencia desleal, privacidad de datos y difamación, en algunos casos con precedentes limitados. Por ejemplo, una cuestión común es si un modelo de IA generativa entrenado con material protegido por derechos de autor constituye infracción o uso indebido. En EE. UU., varias decisiones judiciales han abordado esta cuestión, con algunas desestimadas, otras confirmadas y muchas pendientes. El informe del Copyright Office de EE. UU. sobre Derechos de Autor y IA ofrece un marco inicial útil para entender el panorama emergente de la PI en EE. UU. y más allá. Es importante reconocer que también existen leyes y regulaciones no específicas de la IA que siguen aplicándose en este contexto, incluyendo las relacionadas con la privacidad de datos.

A nivel global, algunos casos de alto perfil han puesto el tema aún más en foco, como la multa de €250 millones que la Autorité de la Concurrence de Francia impuso a Google por usar contenido de editores de noticias para entrenar un modelo de IA generativa. De cara al futuro, se espera que más casos como este enriquezcan la discusión legal sobre derechos de autor y PI.

Mientras tanto, los reguladores en todo el mundo comienzan a distinguir entre IA y IA generativa; una tendencia positiva que reconoce tanto las similitudes como las diferencias críticas en la mitigación de riesgos correspondiente. La mitigación de riesgos tradicionales de IA suele centrarse en la explicación del modelo y la repetibilidad de los resultados; esto resulta técnicamente desafiante en el caso de la IA generativa, donde la mitigación de riesgos se desplaza hacia la supervisión humana y pruebas iterativas, como el red teaming.

También existe una tensión constante entre los marcos para abordar los riesgos relacionados con la IA. Los marcos basados en principios enfatizan directrices éticas amplias y flexibilidad, mientras que los marcos más normativos, como la Ley de IA de la UE, establecen regulaciones específicas y detalladas que deben cumplirse, ofreciendo requisitos de cumplimiento más claros. Esta distinción resalta el desafío de equilibrar la supervisión regulatoria y el avance tecnológico.

Los líderes deben estar atentos a los cambios en leyes y regulaciones para evitar errores no intencionados en un entorno que cambia en tiempo real.

Implicaciones para la suscripción de seguros

Para cualquier organización que use o desarrolle modelos de IA generativa, las consideraciones clave de seguros pueden incluir: ¿Cómo la estamos usando y nuestra cobertura actual nos deja expuestos? Por ejemplo, ¿necesitamos modificar límites y retenciones en algunas líneas, dejando otras intactas?

Desde la perspectiva de la cobertura, muchos productos de seguros existentes, incluyendo seguros de responsabilidad civil, medios, ciberseguros y seguros de primera parte, entre otros, ofrecen protección para eventos relacionados con la IA generativa. Por ejemplo, un evento de lesión corporal sigue siendo un evento de lesión corporal, independientemente de si una tecnología nueva estuvo involucrada. Sin embargo, están surgiendo algunas pólizas y endosos específicos para la IA generativa, así como preguntas de suscripción más específicas, lo que sugiere que contar con una gobernanza sólida en IA podría volverse cada vez más importante, tanto en EE. UU. como a nivel global.

En cuanto a reclamaciones, hasta ahora ha habido pocas reclamaciones específicas relacionadas con IA generativa. Sin embargo, algunos incidentes aislados han llamado la atención, incluido uno que involucró tecnología deepfake en una videollamada utilizada para fraude a una empresa multinacional por US$25 millones.

Evitar la IA silenciosa

Desde enero de 2020, la proliferación de exclusiones por ciber riesgos en los seguros ha creado brechas de protección significativas —conocidas como ciber silencioso— al excluir algunas pérdidas provocadas por eventos tecnológicos. Para evitar una situación similar con la IA silenciosa, las organizaciones deben reconocer que la IA generativa puede amplificar riesgos e introducir nuevas complejidades en las líneas de seguro existentes.

Es importante confirmar que los desencadenantes tecnológicos no eliminen coberturas previstas en la póliza, como eliminar la cobertura de PI bajo una póliza de PI simplemente porque la IA o la IA generativa forman parte del vínculo causal con la pérdida. Evolucionar los contratos de seguros existentes antes de crear otros nuevos —y evitar ambigüedades en el lenguaje—puede ayudar a que los asegurados y las aseguradoras alineen la claridad en la cobertura y la certeza contractual.

Tres categorías de controles

Para comenzar a mitigar los riesgos asociados con la IA generativa, las organizaciones deben pensar de manera integral en cómo desarrollan, implementan y usan esta tecnología. Las siguientes tres categorías pueden ofrecer un punto de partida útil para implementar controles:

  • Técnico: El diseño, la implementación y los aspectos operativos de las tecnologías de IA generativa, incluyendo estándares de desarrollo, medidas de seguridad, monitoreo y evaluación, y gobernanza de datos.
  • Proceso: Marco de gobernanza general y procesos que aclaran quién es responsable de qué y cuándo. Esto incluye políticas de uso aceptable, protocolos de evaluación de riesgos, procesos de cumplimiento y regulación, así como documentación e informes.
  • Personas: Los factores humanos relacionados con la integración exitosa de las tecnologías de IA generativa, incluyendo la participación de las partes interesadas, mecanismos de retroalimentación, así como capacitación y educación sobre cómo usar —y cómo no usar— las herramientas de IA generativa para fines laborales.

Al implementar controles en estas tres categorías, las organizaciones podrán mitigar y gestionar de manera más integral los riesgos asociados con la IA generativa, con el objetivo de lograr un uso más efectivo y sostenible de la tecnología para alcanzar resultados empresariales.

Webcast en vivo de preguntas y respuestas

  • ¿Todos los modelos de lenguaje grande usan datos con derechos de autor como parte de su base? ¿Cómo espera que se vea afectada la IA generativa si el uso de datos con derechos de autor se vuelve ilegal?

Existe un debate regulatorio considerable sobre el uso de datos con derechos de autor en la IA generativa. En teoría, es posible desarrollar modelos de IA generativa sin usar datos protegidos por derechos de autor, o mediante la obtención de las licencias necesarias. Si el uso de datos con derechos de autor sin licencias apropiadas se considerara ilegal, podríamos ver multas y sanciones para quienes violen estas regulaciones. Sin embargo, es importante destacar que esta tecnología llegó para quedarse, y estas preguntas deben ser monitoreadas de cerca, ya que las leyes y regulaciones pueden cambiar con el tiempo.

  • Entrenar modelos de IA generativa requiere cantidades significativas de electricidad y recursos hídricos para enfriar los centros de datos, lo que puede afectar a las utilities y comunidades locales. ¿Cómo deben ponderar los directores y ejecutivos los riesgos ante el aumento de litigios contra empresas por no abordar adecuadamente las preocupaciones climáticas?

Existen numerosos riesgos relacionados con el clima que acompañan a la IA generativa, al igual que con muchas tecnologías nuevas. Los líderes senior deben proporcionar una supervisión adecuada, discutiendo activamente estos temas e integrándolos en su proceso de toma de decisiones. Esto no solo puede ayudar a mitigar riesgos potenciales de responsabilidad gerencial, sino también a alinear mejor a la organización con las crecientes expectativas de responsabilidad corporativa en temas climáticos. La IA generativa llegó para quedarse, al igual que los riesgos ambientales asociados, por lo que cuanto antes se aborden estos temas, mejor.

Tres oportunidades para ayudar a mitigar los riesgos de la IA generativa

A medida que la IA generativa continúa presentando nuevas oportunidades, los líderes deben estar atentos a sus riesgos asociados. Aunque aún hay mucho por aprender sobre la IA generativa, a continuación, se presentan tres pasos que las organizaciones pueden tomar hoy para fortalecer sus esfuerzos de mitigación de riesgos:

  1. Entender la diferencia entre IA generativa y otras formas de IA. Las organizaciones deben considerarse educar sobre las distinciones entre la IA generativa y otras formas, para comprender mejor cómo pueden usarse eficazmente para lograr resultados empresariales. Además, los líderes y gestores de riesgos deben evaluar cuidadosamente cómo deben ser las estrategias de mitigación según el tipo de tecnología y su propósito.
  2. Desarrollar marcos de gobernanza centralizados y con participación de múltiples partes interesadas para la IA generativa. Crear e implementar una gobernanza sólida requiere que todos los actores relevantes en áreas técnicas, recursos humanos, legal/cumplimiento y negocio estén alineados en estándares éticos y directrices operativas. Un enfoque colaborativo y transversal puede fomentar mayor responsabilidad y transparencia en el despliegue de la IA, desde los líderes senior hasta cada empleado que la utilice.
  3. Evaluar el impacto de los entornos tecnológicos, de seguros y legales en evolución. Las organizaciones deben mantenerse atentas a los cambios en estos entornos, que influirán en el desarrollo, implementación y uso de la IA generativa. La evaluación continua y proactiva es necesaria dada la naturaleza dinámica del panorama

Nuestro equipo

Placeholder Image

Edson Villar

Cyber Risk Leader, Marsh Advisory - Latin America

  • Peru

Hable con un especialista de Marsh

Comencemos una conversación sobre cómo navegar los riesgos climáticos. Proporcione algunos detalles a continuación y conectemos.