Цюрих
+41 435 50 73 23Киев
+38 094 712 03 54Лондон
+44 203 868 34 37Таллин
+372 880 41 85Вильнюс
+370 52 11 14 32Нью-Йорк
+1 (888) 647 05 40Как юридическая фирма, погруженная в регулирование технологий, мы констатировали бесконечные возможности ИИ и автономных систем, и в то же время — юридические проблемы, удерживающие вполне серьезные аспекты. Основная цель настоящей работы — дать практический взгляд на ответственность в сфере искусственного интеллекта, снижение рисков, связанных с ним, и обеспечение соблюдения требований в различных юрисдикциях с точки зрения действующего законодательства. Эта работа информационного характера. Если Вас интересует помощь по поводу правовых решений, специально разработанных для управления ИИ, проведения оценки рисков для систем обеспечения соответствия, либо создания надежных систем обеспечения соответствия, пожалуйста, обращайтесь к нам.
Во всем мире индустрии действительно вступали в свои периоды светлых часов под влиянием таких предметов, как машинное обучение, виртуальные среды, программное обеспечение генеративного решения и автономное принятие решений. Однако перед этим оперативно ставятся фундаментальные вопросы о том, кто несет ответственность за злоупотребления вследствие применения таких технологий. Разработка ответственности: все возможные претензии могут быть направлены к программистам и продавцам программного обеспечения, если вдруг системы искусственного интеллекта выдают неверные результаты, принимают предвзятые решения или наносят кому-либо ущерб.
Это делает крайне важным наличие четкой стратегии рисков ИИ для снижения воздействия. Далее следует двухуровневый подход:
Сформировать внутренний совет, отвечающий за управление ИИ, который должен регулировать вопросы правильного использования, аудита предвзятости и процедуры эскалации. Установите юридическую ответственность и категории рисков, например, отклонение от путей принятия решений или обработка конфиденциальных наборов данных.
Вероятно, если внимательно изучить все соответствующие нормативные акты, окажется, что в отношении профилирования, создаваемого ИИ, необходимо применять GDPR и очень строгие режимы конфиденциальности, основанные на минимизации данных, прозрачности и согласии.
Обновите вашу Политику конфиденциальности, Условия обслуживания и пользовательские соглашения, включив в них информацию об автоматизированном принятии решений.
Обязательно убедитесь, что журналы аудита находятся в процессе проверки человеком на наличие генеративных результатов или автономных решений.
Убедитесь, что обучающие наборы данных, архитектура модели и критерии валидации сохраняются для аудита и проверки регулирующими органами.
Убедитесь, что если речь идет о сторонней модели или поставщике виртуальной реальности, подотчетность, возмещение ущерба и соблюдение требований регламентируются договорными положениями.
Проверьте открытый исходный код, лицензирование, предвзятость, соответствие системе управления — Аудит.
Уточните наличие страховых продуктов, связанных с технологиями и профессиональной ответственностью.
Смоделируйте сценарии сбоев, например, алгоритмическую ошибку, приводящую к финансовым потерям, или неправомерный отказ в обслуживании, и разработайте протоколы для противодействия им.
Поскольку инструменты ИИ работают глобально — будь то через облако, веб-приложения или виртуальные платформы — они влекут за собой множество нормативных обязательств:
Всякий раз, когда персональные данные передаются через границы ЕС, стандарты, связанные с анонимизацией, ведением учета и уведомлением о нарушениях, применяются даже к тем операторам, которые не входят в ЕС, но обслуживают пользователей из ЕС.
На региональном и национальном уровнях в ЕС и Великобритании появляются специальные правила, которые, вероятно, направлены на повышение прозрачности и контролируемости, а не на требования безопасности для систем высокого риска, таких как биометрическая идентификация или медицинская диагностика. Местные отраслевые нормативные акты, касающиеся финансовых услуг, здравоохранения, автономных транспортных средств и безопасности на рабочем месте, могут регулировать внедрение ИИ, и в таких случаях это будет означать, что компании должны будут соблюдать эти требования при работе в разных юрисдикциях.
Убедитесь, что пользователи полностью информированы об источнике контента, созданного искусственным интеллектом, методе обработки, механизмах отказа от использования и доступе к объяснениям при необходимости.
Документируйте, как были приняты решения с использованием ИИ; это может пригодиться в конфликтных ситуациях и любых проверках регулирующих органов.
Обратите внимание на репозиторий соглашений между заказчиками и исполнителями, четко определяющих, какие пункты регламентируют лимит ответственности, компенсацию убытков и пути обжалования в случае трансграничных рабочих процессов с несколькими исполнителями.
Попытайтесь заранее разработать стратегии смягчения последствий для различных вариантов сбоев, которые могут быть вызваны алгоритмами: дискриминационное кредитование, нежелательный контент, сбои в функциональности автономных систем и так далее. Советы по публичным выступлениям должны быть заложены в планы, а также протоколы отчетности.
Руководители продуктов, специалисты по анализу данных и специалисты по комплаенсу должны быть обучены понимать риски, связанные с ИИ, правовые ожидания и цепочки эскалации. Такое обучение и настольное моделирование должны проводиться регулярно.
Справедливость самой модели, согласованность с обработкой данных по GDPR и защита прав граждан в разных юрисдикциях — это, так сказать, только первые проблемы, с которыми может столкнуться финтех-компания при внедрении алгоритмических решений по кредитам. В Европе могло бы потребоваться, чтобы такой автономный сервис логистики соответствовал не только стандарту безопасности транспортных средств, но и закону по защите данных, в частности при трансграничной передаче отслеживанных данных о пользователях.
Маркетинговая платформа, создающая персонализированный контент, должна вести журналы для объяснения логики ИИ, обеспечивать соблюдение согласия на отказ от участия и обновлять политику конфиденциальности, особенно актуальную для автоматической генерации.
Компании, занимающие ИИ-разработкой, обычно сильно недооценивают сложность. Не только за точностью модели стоит ответственность: на практике она бывает за качество товара, штрафы за утечку данных, обвинение в дискриминации и нарушение договора. Среда норм становится чрезвычайно быстро меняющейся: в каждой стране ежемесячно появляются новые правила относительно соответствия высокорискованных приложений ИИ.
Юридическая консультация гарантирует, что ваши политики, контракты, системы обеспечения конфиденциальности и операционные механизмы будут объединены в целостную и устойчивую организацию. При правильном подходе правовая ответственность есть ваша защита и конкурентное преимущество, а не препятствие.
Разделение ответственности и распределение рисков в применении ИИ — иногда трансграничные операции — одновременно выполняются и одновременно важны. Умелое правовое планирование возвращает ИИ из сферы кмлева и двойственности в эффектный масштабируемый актив.
Если вам интересно получить дополнительные сведения или же вам нужна комплексная юридическая поддержка при разработке системы соответствия ИИ, работы по GDPR, разработке процедур соответствия Политике конфиденциальности и нормативным актам или по оценке трансграничного использования программного обеспечения как стратегия управления рисками, связанными с ИИ, пожалуйста, не стесняйтесь связаться с нами.Наша фирма специализируется на консалтинге, удовлетворяющем юридические потребности современных бизнесов, взаимодействующих с ИИ.
Международная компания Eternity Law International предоставляет профессиональные услуги в области международного консалтинга, аудиторских услуг, юридических и налоговых услуг.