ЕС, похоже, намерен запретить некоторые из наиболее вызывающих беспокойство форм искусственного интеллекта (ИИ), такие как система наблюдения «социального кредита», используемая в Китае. Предлагаемые правила, которые будут рассмотрены выборными представителями перед принятием закона, также принесут некоторое утешение тем, кто возмущен случаями предвзятости и дискриминации, порождаемыми ИИ. К ним относятся алгоритмы найма, систематически снижающие профессиональный уровень женщин, и некорректная технология распознавания лиц, из-за которой полиция незаконно арестовывала чернокожих в США.
Фото: https://telemetr.me/
Такие приложения ИИ рассматриваются ЕС как высокорисковые, и на них будут распространяться строгие правила, с большими штрафами за нарушение. Это последний шаг в европейской дискуссии о том, как сбалансировать риски и преимущества ИИ. Похоже, что целью является защита основных прав граждан при сохранении конкурентоспособных инноваций, чтобы конкурировать с отраслями искусственного интеллекта в Китае и США.
Эти правила будут распространяться на граждан ЕС и компании, ведущие бизнес в ЕС, и, вероятно, будут иметь далеко идущие последствия, как это было в случае, когда ЕС ввел правила обработки данных в 2018 году. Предложения также могут информировать и влиять на Великобританию, которая в настоящее время разрабатывает собственный стратегический подход в этой области.
Самое поразительное, что законопроект поставит вне закона некоторые формы ИИ, которые правозащитные группы считают наиболее агрессивными и неэтичными. Это включает в себя широкий спектр ИИ, который может манипулировать нашим поведением или использовать наши психические уязвимости – например, когда алгоритмы машинного обучения используются для нацеливания на нас политических сообщений в Интернете.
Точно так же не будут разрешены системы неизбирательного наблюдения и социальной оценки на основе искусственного интеллекта. Версии этой технологии в настоящее время используются в Китае, где граждане в общественных местах отслеживаются и оцениваются для получения «балла» надежности, который определяет, могут ли они получить доступ к таким услугам, как общественный транспорт.
ЕС также, похоже, намерен осторожно подходить к ряду приложений искусственного интеллекта, которые определены как высокорисковые. Среди этих технологий – крупномасштабные системы распознавания лиц, которые, как считается, легко развернуть с использованием существующих камер наблюдения, для развертывания которых потребуется специальное разрешение регулирующих органов ЕС.
Фото: https://faceter.cam/
Многие системы, которые, как известно, содержат предвзятость, также относятся к группе высокого риска. Искусственный интеллект, который оценивает студентов и определяет их доступ к образованию, будет жестко регулироваться – такая технология получила известность после того, как алгоритм несправедливо определял оценки британских студентов в 2020 году.
Такое же предостережение будет применяться к ИИ, используемому для целей найма, например, к алгоритмам, которые фильтруют приложения или оценивают кандидатов, а также к финансовым системам, которые определяют кредитные рейтинги. Точно так же системы, которые оценивают право граждан на получение пособия или судебную поддержку, потребуют от организаций проведения детальных оценок, чтобы убедиться, что они соответствуют новому набору требований ЕС.
Чтобы придать ему определенности, и в соответствии с существующим наказанием ЕС за серьезное неправомерное использование данных, правила AI включают штрафы за нарушения в размере до 20 миллионов евро или 4% от мирового оборота, в зависимости от того, что больше.
Предлагаемый регламент, являющийся уникальным в мировом масштабе и широким по своему применению, является четким заявлением Европы о том, что он ставит фундаментальные права граждан выше технической автономии и экономических интересов. Но есть и опасения. Некоторые будут утверждать, что меры зашли слишком далеко, подавляя европейские инновации в области искусственного интеллекта. Белый дом фактически предостерег Европу от чрезмерного регулирования ИИ в 2020 году, поскольку США осознавали, что относительное отсутствие защиты Китая может привести к достижению им конкурентного преимущества над своими соперниками.
С другой стороны, защитники конфиденциальности и участники кампании против предвзятого отношения к ИИ могут остаться разочарованными. Некоторые из наиболее проблемных систем искусственного интеллекта исключены из регулирования, особенно те, которые используются в военных целях, такие как дроны и другое автоматическое оружие, что снова говорит об опасениях китайского доминирования в вооруженном искусственном интеллекте.
Фото: http://dynamic-security.ca/
Также возможно, что другие приложения, такие как слияние ИИ с существующими возможностями массового наблюдения, могут быть разрешены там, где это разрешено законом. Это оставит открытой дверь для их использования в правоохранительных органах, а это как раз та область, которая больше всего беспокоит некоторых наблюдателей. Такие лазейки для государственных систем наблюдения, основанных на искусственном интеллекте, будут беспокоить защитников прав человека и конфиденциальности.
Критики подчеркнули расплывчатое определение ИИ, подробно изложенное в законопроекте, в котором основное внимание уделяется, в частности, машинному обучению, но может не применяться к вычислительным технологиям следующего поколения, таким как квантовые или периферийные вычисления. Точно так же есть открытые вопросы о различии между ИИ высокого и низкого риска. Правила применяются только к первому, но неясно, всегда ли возможно определить природу рисков ИИ во время цикла разработки. Риск – это континуум, и дихотомия между высоким и низким всегда требует произвольного различия, которое может вызвать проблемы в будущем.
Это регулирование, несомненно, является смелым шагом в правильном направлении. Теперь он будет рассмотрен Советом Европы и Европейским парламентом. Процесс чтения, рассмотрения и согласования, вероятно, займет некоторое время, в течение которого можно будет изучить и рассмотреть поднятые здесь вопросы. Но само собой разумеется, что многие строительные блоки регулирования сохранятся. Решительно выступая против форм инвазивного наблюдения и систем искусственного интеллекта, склонных к предвзятости, этот закон является убедительным напоминанием о том, что Европа серьезно относится к своим обязательствам по защите основных прав человека своих граждан в период революционных технологических изменений.