Цюрих
+41 435 50 73 23Киев
+38 094 712 03 54Лондон
+44 203 868 34 37Таллин
+372 880 41 85Вильнюс
+370 52 11 14 32Нью-Йорк
+1 (888) 647 05 40Искусственный интеллект уже вышел за пределы инструмента для простого анализа данных; сегодня он участвует в формировании корпоративной стратегии на уровне совета директоров. Подобные изменения порождают сложные вопросы для системы корпоративного управления. Ключевая дилемма сосредоточена на юридических последствиях решений, сгенерированных ИИ, через призму фидуциарного права, где традиционные обязанности осмотрительности и лояльности вступают во взаимодействие с новейшими технологиями. Отныне советы директоров должны найти способ ответственно интегрировать инструменты ИИ, не нарушая при этом своих обязательств перед компанией и ее акционерами. Это создает новые вызовы для директоров во всем мире.
Фидуциарные обязанности возлагают на директоров требование действовать в лучших интересах корпорации, что, в свою очередь, предполагает принятие обоснованных и лояльных решений. С внедрением ИИ меняется и сам подход к выполнению этих обязанностей. Директора не могут бесспорно полагаться на результаты, предоставленные искусственным интеллектом. Для надлежащего выполнения своих обязательств они должны активно взаимодействовать с технологией. Хотя фундаментальные принципы остаются неизменными, их применение должно эволюционировать. Так, обязанность осмотрительности требует от директоров глубокой информированности перед принятием бизнес-решений. В контексте ИИ это означает совершенное понимание самого инструмента.
Обязанность лояльности, со своей стороны, требует от директоров действовать при отсутствии личного конфликта интересов. ИИ создает новый тип такого конфликта. Модель искусственного интеллекта может содержать предубеждения, заложенные ее разработчиками или данными, на которых она тренировалась. Если эти предубеждения способствуют результатам, не соответствующим интересам компании, обязанность лояльности может быть нарушена, даже непреднамеренно. Советы директоров обязаны гарантировать, что системы ИИ функционируют исключительно на благо компании.
Эффективный надзор со стороны совета директоров является фундаментом корпоративного управления. Когда компании начинают применять ИИ для принятия решений стратегического уровня, надзорная роль совета приобретает еще большее значение. В конце концов, именно директора несут ответственность за решения, независимо от того, были ли они приняты с помощью ИИ. Это означает, что делегировать свои полномочия по суждениям алгоритма недопустимо. Поэтому возникает необходимость в четкой системе управления использованием ИИ.
Подобная система должна регламентировать, как компания выбирает, тестирует и контролирует свои ИИ-системы. Совет должен установить стандарты использования искусственного интеллекта и следить за их соблюдением со стороны менеджмента. Это включает определение четких границ ответственности. Кто будет нести ответственность, если система ИИ выйдет из строя или ее действия нанесут ущерб? Совет должен иметь ответы на эти вопросы еще до наступления кризиса. Регулярная отчетность об эффективности и рисках, связанных с ИИ, должна стать стандартным элементом повестки дня заседаний совета. Это обеспечит постоянную вовлеченность и не позволит технологии превратиться в неконтролируемый «черный ящик».
Одним из самых больших вызовов, связанных с современным ИИ, является его непрозрачность. Некоторые модели настолько сложны, что даже их создатели не всегда могут объяснить, почему был получен тот или иной вывод. Эта проблема «черного ящика» представляет прямую угрозу для надлежащего корпоративного управления. Если совет не способен объяснить логику, лежащую в основе важного стратегического решения, он рискует не выполнить свой долг осмотрительности. Следует помнить, что акционеры, регуляторы и другие заинтересованные лица имеют вполне законное право требовать четких объяснений относительно действий компании.
Выходом из этой ситуации становится требование объяснимости. Это означает, что советы директоров должны настаивать на внедрении таких ИИ-систем, которые способны понятно аргументировать свои рекомендации. Такой подход дает директорам возможность анализировать логику алгоритма, выявлять его слабые места и, как результат, принимать действительно взвешенные решения. Не менее важно и то, что это формирует доказательную базу для ее возможной защиты в суде. Если кто-то впоследствии обжалует принятое решение, совет сможет продемонстрировать рациональность своих действий, опираясь как на человеческий контроль, так и на данные технологического анализа. Когда же принцип объяснимости игнорируется, директора рискуют нести персональную ответственность за решения, механизм принятия которых они не понимали в полной мере.
Использование искусственного интеллекта без надлежащего контроля грозит компании серьезными юридическими и финансовыми потерями. В такой ситуации директора могут получить иски от акционеров по обвинению в нарушении фидуциарных обязанностей. С распространением этой технологии становятся заметными несколько типичных сценариев, ведущих к риску. Каждый из них является следствием определенной управленческой халатности, которая и может стать причиной привлечения совета к ответственности. Вот несколько практических примеров:
Правовое поле вокруг искусственного интеллекта все еще активно формируется. И регуляторы, и суды пытаются адаптироваться к стремительному технологическому прогрессу. На данный момент у нас нет большого количества судебных дел, которые касались бы именно использования ИИ на уровне советов директоров. Однако можно предположить, что суды будут применять к новым обстоятельствам уже существующие правовые конструкции, например, «Правило делового суждения». Это правило защищает директоров от ответственности за добросовестные ошибки, но работает только тогда, когда они действовали осознанно, честно и без конфликта интересов.
Регулирующие органы также не остаются в стороне. Новые законодательные инициативы, такие как Акт об искусственном интеллекте в ЕС, закладывают фундамент для регулирования ИИ-систем с высоким риском. Хотя эти правила могут и не быть прямо адресованы советам директоров, они создают определенные стандарты осмотрительности, которые суды, вероятно, будут учитывать в будущем. Поэтому советам стоит внимательно следить за этими тенденциями. Если компания заблаговременно внедрит надежные практики управления ИИ, это не только поможет защитить директоров от потенциальной ответственности, но и станет свидетельством ответственного подхода к инновациям.
Интеграция ИИ в работу совета директоров предоставляет подходящие возможности, а также они не должны закрывать глаза на правовые риски. Основы, а именно принципы фидуциарных обязанностей, не меняются. Директора, как и всегда, призваны проявлять осторожность, преданность и делать все с максимальными интересами для компании. Изменился лишь способ их исполнения в новую эпоху технологий. Поэтому советам директоров стоит рассматривать ИИ как инструмент, обладающий немалыми возможностями, а также как основание для осмысленной оценки и стороной взвешенного подхода без человеческого интуитивного и опытного мышления. Именно проактивный надзор, требование прозрачности и здоровый скептицизм позволят успешно внедрять новые технологии, минимизируя риски.
Международная компания Eternity Law International предоставляет профессиональные услуги в области международного консалтинга, аудиторских услуг, юридических и налоговых услуг.