Следите за нами в социальных сетях:

Единая отраслевая платформа по электронике, микроэлектронике и новым технологиям
Новости электроники и микроэлектроники
Подпишитесь на еженедельную рассылку сегодня, чтобы не пропустить самые интересные новости и события отрасли, анонсы выставок, конференций и семинаров, а также информацию о пополнении нашей Базы знаний. Это бесплатно и вы сможете отказаться в любой момент!

В Европе предложили ограничить использование искусственного интеллекта

| 226

Еврокомиссия предложила новые правила использования искусственного интеллекта, ограничив его внедрение в сферах, где он может стать причиной какого-либо вреда или опасности для общества. Эти правила будут применяться во всех государствах-членах ЕС на основе оценки возможного риска.

 

Неприемлемый риск

Системы искусственного интеллекта, которые считаются явной угрозой безопасности, средствам к существованию и правам людей, будут запрещены. В эту категорию входят программы, манипулирующие поведением человека, ограничивающие свободу воли пользователей (например, игрушки, поощряющие опасное поведение), а также системы, которые позволяют правительствам проводить «социальную оценку».

 

Высокий риск

К этой категории относятся системы искусственного интеллекта, которые будут использоваться в следующих сферах:

  • Критические инфраструктуры, которые могут поставить под угрозу жизнь и здоровье граждан. К таким сферам можно отнести транспорт;
  • Образовательная или профессиональная подготовка, которая может определять доступ к образованию и получению профессионального навыка в чьей-либо жизни. Например, при оценке экзаменов;
  • Компоненты безопасности продуктов. Будет ограничено применение искусственного интеллекта в роботизированной хирургии;
  • Управление работниками и доступ к самостоятельной занятости. Например, использование программного обеспечения для сортировки резюме для процедур найма;
  • Основные частные и государственные услуги. В качестве примера приводится кредитный скоринг;
  • Правоохранительные органы. При оценке надёжности доказательств ИИ может ошибиться, нарушив основные права людей;
  • Управление миграцией, убежищем и пограничным контролем. Например, при проверке подлинности документов;
  • Отправление правосудия и демократические процессы. В Еврокомиссии отметили ограниченность искусственного интеллекта при применении закона к конкретному набору фактов.

В частности, регулятор также предложил ограничить использование распознавания лиц в общественных местах, кроме особых случаев. Например, при поиске пропавших детей или преступников и предотвращения терактов.

Согласно предложению Еврокомиссии, чтобы попасть на рынок, системы искусственного интеллекта с высоким уровнем риска должны соответствовать требованиям качества, надежности, безопасности и точности. Кроме того, они должны сопровождаться подробной документацией, содержащей всю информацию о системе и её назначении, а также чёткой и адекватной информацией для пользователя.

 

Ограниченный риск

Системы искусственного интеллекта с конкретными обязательствами по обеспечению прозрачности. К ним относятся, например, чат-боты. При их использовании пользователи должны знать, что они взаимодействуют с машиной.

 

Минимальный риск

В эту категорию попадает подавляющее большинство систем ИИ, например, видеоигры с поддержкой AI или спам-фильтры. Их Еврокомиссия предлагает никак не регулировать, поскольку они практически не несут никакой опасности.


Как пишет The Wall Street Journal, новые правила сделают разработку ИИ в Европе непомерно дорогой или даже технологически невозможной. Таким образом, США и Китай будут развивать технологию, пока ЕС ограничивает свои собственные стартапы. Тем не менее, предложение Еврокомиссии ещё должно быть одобрено в Европейском совете и Европарламенте, а это может занять целые годы.

 

 

Источник: https://kod.ru/europe-ii-ograni4it-apr2021/

 

Подписаться на рассылку

Вернуться к ленте новостей