Главная / Технологии

Разработчики ИИ часто игнорируют безопасность в погоне за прорывом. Как регулировать их, не блокируя прогресс?

Антон Пальцев - 21.03.21 (обновлено 21.03.21)

С тех пор, как искусственный интеллект (ИИ) перешел от теории к реальности, научно-исследовательские центры по всему миру спешат сделать следующий большой прорыв в области ИИ. Это соревнование иногда называют «гонкой ИИ». На практике, однако, существуют сотни «рас ИИ», стремящихся к различным целям. Некоторые исследовательские центры стремятся создать ИИ для цифрового маркетинга, в то время как другие стремятся сочетать ИИ с военной техникой. Некоторые гонки проводятся между частными компаниями, а другие – между странами.

Фото: https://smallbiztrends.com/

Поскольку исследователи ИИ соревнуются за победу в выбранной гонке, они могут игнорировать проблемы безопасности, чтобы опередить своих соперников. Но обеспечение безопасности с помощью нормативных требований не разработано, и нежелание регулировать ИИ может быть оправдано: оно может задушить инновации, уменьшая те преимущества, которые ИИ может принести человечеству.

Недавнее исследование, проведенное командой во главе с испанским математиком Франсиско С. Сантосом, было направлено на определение того, какие расы ИИ следует регулировать по соображениям безопасности, а какие оставить нерегулируемыми, чтобы не сдерживать инновации. Сделано это было с помощью моделирования теории игр.

Превосходство ИИ

Регулирование ИИ должно учитывать вред и преимущества технологии. Вред, который регулирование может пресекать законодательно, включает в себя возможность ИИ дискриминировать неблагополучные сообщества и разработку автономного оружия. Но преимуществ ИИ, таких как лучшая диагностика рака и интеллектуальное моделирование климата, могло бы не существовать, если бы регулирование ИИ было слишком жестким. Разумное регулирование ИИ позволит максимизировать его преимущества и уменьшить его вред.

Но поскольку США конкурируют с Китаем и Россией за «превосходство ИИ» – явное технологическое преимущество перед конкурентами – правила пока что отошли на второй план. Это, по мнению ООН, загнало нас на «неприемлемую моральную территорию». Исследователи ИИ и органы управления, такие как ЕС, призвали к безотлагательному регулированию, чтобы предотвратить развитие неэтичного ИИ. Тем не менее, в официальном документе ЕС по этому вопросу признается, что руководящим органам трудно знать, какая гонка закончится неэтичным, а какая – полезным ИИ.

Фото: https://www.filmstories.co.uk/

Ученые хотели знать, какие расы ИИ должны быть приоритетными для регулирования, поэтому команда исследователей создала теоретическую модель для моделирования гипотетических гонок ИИ. Затем это моделирование было выполнено в сотнях итераций, настраивая переменные, чтобы предсказать, как могут развиваться реальные гонки ИИ. Модель включает в себя несколько виртуальных агентов, представляющих конкурентов в гонке ИИ – например, различные технологические компании. Каждому агенту случайным образом назначали поведение, имитирующее поведение этих конкурентов в реальной гонке. Например, некоторые агенты внимательно рассматривают все данные и подводные камни ИИ, но другие идут на чрезмерный риск, пропуская эти тесты.

Сама модель была основана на эволюционной теории игр, которая использовалась в прошлом, чтобы понять, как поведение развивается в масштабе общества, людей или даже наших генов. Модель предполагает, что победители в конкретной игре – в нашем случае в гонке ИИ – получают все преимущества, поскольку биологи утверждают, что это происходит в процессе эволюции. Вводя правила в эту симуляцию – санкционируя небезопасное поведение и поощряя безопасное поведение – ученые могли затем наблюдать, какие правила были успешными в максимизации выгод, а какие в конечном итоге сдерживали инновации.

Уроки управления

Переменная, которую обнаружили особенно важной, это «длина» гонки – время, которое потребовалось смоделированным гонкам для достижения своей цели (функциональный продукт ИИ). Когда соревнования с искусственным интеллектом быстро достигли своей цели, было обнаружено, что конкуренты, которых исследователи закодировали, чтобы всегда игнорировать меры безопасности, всегда побеждали. То есть, в этих быстрых ИИ-гонках или «ИИ-спринтах» конкурентное преимущество достигается за счет скорости, и те, кто делает паузу, чтобы подумать о безопасности и этике, всегда проигрывают. Было бы разумно регулировать эти спринты ИИ, чтобы продукты, которыми они завершаются, были безопасными и этичными.

С другой стороны, моделирование показало, что долгосрочные проекты ИИ, или «марафоны ИИ», требуют регулирования менее срочно. Причина в том, что победителями марафонов по ИИ не всегда оказывались те, кто упускал из виду безопасность. Кроме того, было обнаружено, что регулирование марафонов ИИ не позволяет им реализовать свой потенциал. Это выглядело как удушающее чрезмерное регулирование – такое, которое на самом деле могло работать против интересов общества.

Фото: https://cgarchives.com/

Учитывая эти результаты, регулирующим органам будет важно установить, как долго продлятся разные гонки ИИ, применяя разные правила в зависимости от их ожидаемых сроков. Результаты же исследования показывают, что одно правило для всех гонок с искусственным интеллектом – от спринтов до марафонов – приведет к некоторым результатам, которые далеки от идеала. Но еще не поздно разработать разумные и гибкие правила, чтобы избежать неэтичного и опасного ИИ, одновременно поддерживая ИИ, который может принести пользу человечеству. Но такие правила могут быть срочными: моделирование предполагает, что те гонки ИИ, которые должны закончиться как можно скорее, будут наиболее важными для регулирования.

Добавить комментарий

* Обязательные поля
1000
изображение Captcha

Комментарии

Комментариев пока нет. Будьте первым!

Последние материалы из раздела "Технологии"

Выбор редакции