В ЕС принимают закон для роботов и искусственного интеллекта. И это – не фейк

В ЧЕМ ДЕЛО?

Будущее, каким мы его знаем из фантастических фильмов, уже наступило. В Европейском Союзе подготовили директиву об этическом подходе к разработке в области искусственного интеллекта. Над документом несколько месяцев работала группа из 52 независимых экспертов.

ЭТО ЧТО-ТО ТИПА «ТРЕХ ЗАКОНОВ РОБОТОТЕХНИКИ» АЙЗЕКА АЗИМОВА?

Нет. Проект директивы Еврокомиссии – это не «моральный кодекс робота» и не свод правил поведения для искусственного интеллекта. Речь идет о наборе юридических и этических правил, которые возникают в обществе из-за появления «умных» технологий. Дело в том, что искусственный интеллект внедряется в такие сферы, как, например, здравоохранение, образование или потребление. Следовательно, это уже не просто технологическая, а этическая проблема.

ЕСЛИ ЭТО ПРОБЛЕМА, МОЖЕТ, ЛУЧШЕ ВООБЩЕ БЕЗ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?

Европейцы так не думают. В Еврокомиссии уверены, что искусственный интеллект может принести значительную пользу человечеству. Например, в сферах медицины, энергетики, автомобильной безопасности и сельского хозяйства. Кроме того, «умные» машины способны помочь решить проблему изменения климата и просчитывать финансовые риски. Наконец, искусственный интеллект даст возможность правоохранительным органам эффективнее бороться с кибер-преступностью.

О ЧЕМ ГОВОРИТСЯ В ДИРЕКТИВЕ?

Окончательный текст директивы еще не подготовили. Пока эксперты только определили семь главных требований, которым должны соответствовать будущие системы искусственного интеллекта. Вот они:

человеческое содействие и надзор: искусственный интеллект не должен ограничивать самостоятельность человека, манипулировать людьми или принуждать их к чему-то. В свою очередь, люди должны иметь возможность вмешиваться и контролировать каждое решение, принимаемое программой;

надежность и безопасность: алгоритмы и системы искусственного интеллекта должны справляться с ошибками и несоответствиями на всех этапах и быть устойчивыми к внешним атакам;

конфиденциальность данных: личные данные человека, которые используются машинами, должны оставаться конфиденциальными и не использоваться во вред людям;

прозрачность:все решения, принимаемые программой, должны быть понятными и контролироваться людьми;

— разнообразие, отсутствие дискриминации и справедливость: услуги, предоставляемые системами искусственного интеллекта, должны обеспечивать доступность для всех и учитывать весь спектр человеческих способностей, навыков и требований;

социальное благополучие и экологическая безопасность: системы искусственного интеллекта должны использоваться для позитивных социальных изменений и соответствовать экологическим нормам;

— подотчетность: должны быть созданы механизмы, обеспечивающие ответственность за системы искусственного интеллекта и результаты их работы.

КОГДА ДИРЕКТИВА ВСТУПИТ В СИЛУ?

Судя по всему, не скоро. Разработанные экспертами принципы не имеют юридической силы, но они могут способствовать появлению новых европейских законов. Кроме того, помимо этических принципов, эксперты разработали список вопросов для достоверной оценки искусственного интеллекта. Такая оценка поможет выявить потенциальные слабые места и опасности в программах, использующих алгоритмы искусственного интеллекта. Еврокомиссия уже предложила промышленным компаниям, исследовательским институтам и государственным администрациям протестировать этот перечень. После этого (не раньше начала 2020 года) ЕС планирует инициировать формирование международного консенсуса в отношении искусственного интеллекта, ориентированного на человека.

Поделиться
Выразить свое впечатление
Love
Haha
Wow
Sad
Angry

Добавить комментарий

Войти используя социальный аккаунт
опрос

Самое важное — в одном письме. Новости, реформы, аналитика — коротко и по сути.

Подпишись, чтобы быть в курсе.

Узнавай всё самое интересное первым — следи за нашими новостями в соцсетях

Спасибо, я уже с вами