
Автор Грегори ван ден Топ ,
Руководитель подразделения по работе с ИИ, Marsh Advisory Europe
01/10/2025 · 5 минут чтения
Искусственный интеллект (ИИ) имеет богатую историю, которая восходит к середине XX века, когда такие пионеры, как Алан Тьюринг и Джон Маккарти, заложили основу машинного обучения и интеллектуальных систем. С тех пор искусственный интеллект прошел путь от простых систем, основанных на правилах, до сложных алгоритмов, способных обучаться на основе огромных объемов данных. В Европе применение ИИ в бизнесе имеет огромное значение. Компании используют ИИ для повышения своей операционной эффективности, улучшения качества обслуживания клиентов и внедрения инноваций.
Однако применение ИИ в бизнесе также поднимает важные вопросы, касающиеся конфиденциальности данных, этичного использования и соответствия нормативным требованиям. При внедрении технологий искусственного интеллекта организациям приходится разбираться в сложностях правовой базы ЕС, которая делает акцент на прозрачность, подотчетность и защиту прав личности.
Для успешной реализации стратегии применения искусственного интеллекта и управления связанными с этим рисками можно предпринять несколько шагов, в том числе следующие:
1. Разъяснение того, кто несет ответственность за применение ИИ
Управление рисками ИИ в организациях часто может быть неоднозначным (см. рисунок 1). Ответственность за риски, связанные с ИИ, может быть распределена между различными отделами, такими как ИТ, отдел нормативно-правового соответствия и производственный отдел, без четкого определения того, кто в конечном итоге несет ответственность. Отсутствие ясности может привести к фрагментарному общению, когда разные команды имеют конфликтующие приоритеты или не могут эффективно сотрудничать.
*Доступно только на английском языке
Источник: Airmic (опрос участников Airmic, проведенный 27 августа 2024 г.).
Для решения этих проблем риск-менеджерам следует определить ответственность и подотчетность по вопросам управления рисками применения ИИ. Этого можно достичь путем создания межфункциональной группы по управлению ИИ, в которую должны войти представители ключевых департаментов, что позволит обеспечить учет всех соответствующих точек зрения в процессе принятия решений.
2. Оценка потенциальных рисков применения ИИ
Крайне важно осознавать риски, связанные с внедрением ИИ, в том числе:
Организациям необходимо понимать влияние искусственного интеллекта на их профиль рисков. Например, использование больших наборов данных для обучения моделей ИИ может повысить риск несоблюдения законодательства в области защиты данных, особенно если конфиденциальная информация обрабатывается неправильно или защищена в недостаточной степени.
Кроме того, алгоритмическая предвзятость может привести к несправедливым или дискриминационным результатам, что может нанести ущерб репутации организации и повлечь за собой правовые последствия. Несоблюдение нормативных требований становится серьезной проблемой, поскольку организациям приходится учитывать меняющиеся законы и руководящие принципы, касающиеся использования искусственного интеллекта, особенно в регионах со строгими правилами защиты данных, таких как ЕС. Эти изменения, вызванные ИИ, требуют комплексной переоценки существующих стратегий управления рисками для решения уникальных проблем, возникающих в связи с применением технологий ИИ.
Для эффективного снижения и перераспределения рисков, связанных с внедрением ИИ, риск-менеджеры должны сначала провести тщательную оценку рисков применения ИИ, которая включает в себя методы обработки данных, алгоритмическую справедливость и соответствие нормативным требованиям. Им следует выполнить оценку влияния этих рисков на их существующий страховой портфель, убедившись в достаточности покрытия и лимитов. Затем им следует рассмотреть возможность передачи оставшихся рисков посредством страхования. Заблаговременное устранение рисков применения ИИ, риск-менеджеры могут помочь своим организациям в использовании преимуществ ИИ, минимизируя при этом их потенциальные недостатки.
3. Реализация программ обучения работе с ИИ и стратегии коммуникации
Комплексная программа обучения и коммуникации необходима для разъяснения преимуществ и ожидаемых результатов инициатив в области ИИ, а также для оснащения персонала навыками, необходимыми для работы с системами ИИ. Между тем, механизмы обратной связи позволяют поддерживать постоянный диалог и корректировку действий между управлением рисками и бизнесом.
Отсутствие обучения и коммуникации может помешать инициативам в области искусственного интеллекта, вызывая путаницу, сопротивление и отсутствие вовлеченности среди сотрудников. Если сотрудники не в полной мере информированы о целях применения искусственного интеллекта, они могут воспринимать его как угрозу своей работе, а не как возможность. А если сотрудники не знают, как использовать ИИ, они могут вернуться к устаревшим процессам, что приведет к неэффективности и упущенным возможностям для инноваций.
Комплексная кросс-функциональная программа обучения и коммуникации должна обеспечить сотрудников знаниями и навыками, необходимыми для успешной работы в среде, усовершенствованной с помощью искусственного интеллекта. Эта программа должна включать вводные сессии, на которых объясняются основы искусственного интеллекта, его применение в организации и конкретные преимущества, которые он приносит сотрудникам.
4. Мониторинг воздействия ИИ
Установление показателей для мониторинга влияния искусственного интеллекта на бизнес имеет важное значение для оценки его эффективности и принятия обоснованных решений с соблюдением требований законодательства ЕС в области защиты данных и этические аспекты использования ИИ.
Оценка использования и эффективности ИИ в организациях имеет решающее значение для гарантии того, что эти технологии будут обеспечивать предполагаемые преимущества и соответствовать применимым нормам.
Без надлежащей оценки организации рискуют внедрить системы искусственного интеллекта, которые не соответствуют целям бизнеса или не обеспечивают окупаемость инвестиций. Например, для улучшения пользовательского опыта можно внедрить чат-бот для обслуживания клиентов на основе искусственного интеллекта. Однако при отсутствии эффективного обучения или мониторинга это может привести к разочарованию и неудовлетворенности клиентов, что в конечном итоге нанесет ущерб репутации бренда. Более того, если организации не проводят оценку эффективности алгоритмов ИИ, они могут непреднамеренно закреплять предвзятость или принимать решения на основе устаревших данных, что приведет к проблемам этического характера и потенциальным юридическим последствиям.
Прежде чем разрабатывать надежную программу мониторинга инициатив в области искусственного интеллекта, организациям следует определить ключевые показатели эффективности (КПЭ), соответствующие их стратегическим целям. КПЭ могут включать в себя:
Затем риск-менеджеры могут сотрудничать с аналитиками данных и ИТ-отделами для разработки структуры для сбора и анализа данных с целью мониторинга программы. Эта структура должна предусматривать регулярную отчетность, например, ежемесячные или ежеквартальные обзоры, для оценки эффективности услуг искусственного интеллекта по ключевым показателям эффективности. Риск-менеджеры также должны призывать к интеграции циклов обратной связи, которые позволяют осуществлять постоянное совершенствование на основе информации, полученной в ходе мониторинга.
Риск-менеджерам необходимо воспользоваться возможностью провести свою организацию через трансформирующий путь внедрения искусственного интеллекта и получить его потенциальные преимущества для бизнеса и общества в целом. Внедряя структуру управления ИИ, распознавая потенциальные риски, предоставляя сотрудникам обучение и отслеживая показатели эффективности, они могут эффективно управлять сопутствующими проблемами и минимизировать риски, связанные с конфиденциальностью данных в системах ИИ, алгоритмической предвзятостью и соответствием нормативным требованиям.