
Edson Villar
Cyber Risk Leader, Marsh Advisory - Latin America
-
Peru
Desde el lanzamiento de ChatGPT y otras tecnologías de inteligencia artificial (IA) generativa en 2022, el panorama de la IA ha seguido desarrollándose, con nuevas variaciones de IA, incluyendo tecnologías multimodales, agenticas y humanoides.
Aunque a menudo se confunden con la IA tradicional, la IA generativa es solo una subcategoría de la IA que emplea principalmente modelos de aprendizaje profundo para generar contenido nuevo en diversos ámbitos.
A medida que las organizaciones buscan gestionar los riesgos asociados con la IA generativa, es importante entender las formas en que puede amplificar riesgos existentes, así como las implicaciones legales, regulatorias y de seguros que están en constante cambio en relación con su uso. En los últimos años, han surgido ideas sobre mejores prácticas y lecciones para ayudar a las organizaciones a navegar esta fase formativa.
La IA se refiere a un campo diverso de tecnologías que existen desde los años 50. Se define ampliamente como sistemas informáticos que pueden simular la inteligencia humana, pero hay variaciones en cómo funcionan y se utilizan estos sistemas. Por ejemplo:
A través de estas diversas subcategorías, existen similitudes, pero también diferencias críticas en el tipo de soluciones de gestión y transferencia de riesgos que pueden usarse para mitigar los riesgos correspondientes. Otro aspecto importante es quién usa qué tipo de IA y con qué propósito. Por ejemplo, los riesgos pueden variar para un desarrollador de IA frente a un usuario final.
Este artículo se centrará específicamente en la IA generativa, ya que es una forma relativamente nueva que las organizaciones están adoptando rápidamente a gran escala. La IA agentica y la humanoide son incluso formas más recientes, cuya tasa y escala de adopción empresarial aún están por verse.
Los análisis exhaustivos de Marsh hasta la fecha sugieren que el mundo aún no ha observado una categoría completamente nueva de riesgo que surja de la IA generativa. Más bien, la IA generativa puede amplificar riesgos existentes, como ciberataques, privacidad de datos, propiedad intelectual (PI) y la propagación de desinformación.
Algunas de las manifestaciones tempranas de riesgos asociados con la IA generativa incluyen:
A medida que evoluciona el panorama de la IA, también lo hace el entorno legal y regulatorio, incluyendo preguntas emergentes sobre PI, competencia desleal, privacidad de datos y difamación, en algunos casos con precedentes limitados. Por ejemplo, una cuestión común es si un modelo de IA generativa entrenado con material protegido por derechos de autor constituye infracción o uso indebido. En EE. UU., varias decisiones judiciales han abordado esta cuestión, con algunas desestimadas, otras confirmadas y muchas pendientes. El informe del Copyright Office de EE. UU. sobre Derechos de Autor y IA ofrece un marco inicial útil para entender el panorama emergente de la PI en EE. UU. y más allá. Es importante reconocer que también existen leyes y regulaciones no específicas de la IA que siguen aplicándose en este contexto, incluyendo las relacionadas con la privacidad de datos.
A nivel global, algunos casos de alto perfil han puesto el tema aún más en foco, como la multa de €250 millones que la Autorité de la Concurrence de Francia impuso a Google por usar contenido de editores de noticias para entrenar un modelo de IA generativa. De cara al futuro, se espera que más casos como este enriquezcan la discusión legal sobre derechos de autor y PI.
Mientras tanto, los reguladores en todo el mundo comienzan a distinguir entre IA y IA generativa; una tendencia positiva que reconoce tanto las similitudes como las diferencias críticas en la mitigación de riesgos correspondiente. La mitigación de riesgos tradicionales de IA suele centrarse en la explicación del modelo y la repetibilidad de los resultados; esto resulta técnicamente desafiante en el caso de la IA generativa, donde la mitigación de riesgos se desplaza hacia la supervisión humana y pruebas iterativas, como el red teaming.
También existe una tensión constante entre los marcos para abordar los riesgos relacionados con la IA. Los marcos basados en principios enfatizan directrices éticas amplias y flexibilidad, mientras que los marcos más normativos, como la Ley de IA de la UE, establecen regulaciones específicas y detalladas que deben cumplirse, ofreciendo requisitos de cumplimiento más claros. Esta distinción resalta el desafío de equilibrar la supervisión regulatoria y el avance tecnológico.
Los líderes deben estar atentos a los cambios en leyes y regulaciones para evitar errores no intencionados en un entorno que cambia en tiempo real.
Para cualquier organización que use o desarrolle modelos de IA generativa, las consideraciones clave de seguros pueden incluir: ¿Cómo la estamos usando y nuestra cobertura actual nos deja expuestos? Por ejemplo, ¿necesitamos modificar límites y retenciones en algunas líneas, dejando otras intactas?
Desde la perspectiva de la cobertura, muchos productos de seguros existentes, incluyendo seguros de responsabilidad civil, medios, ciberseguros y seguros de primera parte, entre otros, ofrecen protección para eventos relacionados con la IA generativa. Por ejemplo, un evento de lesión corporal sigue siendo un evento de lesión corporal, independientemente de si una tecnología nueva estuvo involucrada. Sin embargo, están surgiendo algunas pólizas y endosos específicos para la IA generativa, así como preguntas de suscripción más específicas, lo que sugiere que contar con una gobernanza sólida en IA podría volverse cada vez más importante, tanto en EE. UU. como a nivel global.
En cuanto a reclamaciones, hasta ahora ha habido pocas reclamaciones específicas relacionadas con IA generativa. Sin embargo, algunos incidentes aislados han llamado la atención, incluido uno que involucró tecnología deepfake en una videollamada utilizada para fraude a una empresa multinacional por US$25 millones.
Desde enero de 2020, la proliferación de exclusiones por ciber riesgos en los seguros ha creado brechas de protección significativas —conocidas como ciber silencioso— al excluir algunas pérdidas provocadas por eventos tecnológicos. Para evitar una situación similar con la IA silenciosa, las organizaciones deben reconocer que la IA generativa puede amplificar riesgos e introducir nuevas complejidades en las líneas de seguro existentes.
Es importante confirmar que los desencadenantes tecnológicos no eliminen coberturas previstas en la póliza, como eliminar la cobertura de PI bajo una póliza de PI simplemente porque la IA o la IA generativa forman parte del vínculo causal con la pérdida. Evolucionar los contratos de seguros existentes antes de crear otros nuevos —y evitar ambigüedades en el lenguaje—puede ayudar a que los asegurados y las aseguradoras alineen la claridad en la cobertura y la certeza contractual.
Para comenzar a mitigar los riesgos asociados con la IA generativa, las organizaciones deben pensar de manera integral en cómo desarrollan, implementan y usan esta tecnología. Las siguientes tres categorías pueden ofrecer un punto de partida útil para implementar controles:
Al implementar controles en estas tres categorías, las organizaciones podrán mitigar y gestionar de manera más integral los riesgos asociados con la IA generativa, con el objetivo de lograr un uso más efectivo y sostenible de la tecnología para alcanzar resultados empresariales.
Existe un debate regulatorio considerable sobre el uso de datos con derechos de autor en la IA generativa. En teoría, es posible desarrollar modelos de IA generativa sin usar datos protegidos por derechos de autor, o mediante la obtención de las licencias necesarias. Si el uso de datos con derechos de autor sin licencias apropiadas se considerara ilegal, podríamos ver multas y sanciones para quienes violen estas regulaciones. Sin embargo, es importante destacar que esta tecnología llegó para quedarse, y estas preguntas deben ser monitoreadas de cerca, ya que las leyes y regulaciones pueden cambiar con el tiempo.
Existen numerosos riesgos relacionados con el clima que acompañan a la IA generativa, al igual que con muchas tecnologías nuevas. Los líderes senior deben proporcionar una supervisión adecuada, discutiendo activamente estos temas e integrándolos en su proceso de toma de decisiones. Esto no solo puede ayudar a mitigar riesgos potenciales de responsabilidad gerencial, sino también a alinear mejor a la organización con las crecientes expectativas de responsabilidad corporativa en temas climáticos. La IA generativa llegó para quedarse, al igual que los riesgos ambientales asociados, por lo que cuanto antes se aborden estos temas, mejor.
A medida que la IA generativa continúa presentando nuevas oportunidades, los líderes deben estar atentos a sus riesgos asociados. Aunque aún hay mucho por aprender sobre la IA generativa, a continuación, se presentan tres pasos que las organizaciones pueden tomar hoy para fortalecer sus esfuerzos de mitigación de riesgos:
Cyber Risk Leader, Marsh Advisory - Latin America
Peru