В вашей корзине
(пусто)
 

Требования к ИИ

15 Апр 19
15 Апреля 2019, 16:07
Евросоюз опубликовал черновик Директивы об этичном подходе к разработке искусственного интеллекта. В документе указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка.

В 41-страничном документе Директивы указывается, что именно сейчас существует возможность удостовериться, что системы искусственного интеллекта будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».

Директива выделяет семь основных факторов этической разработки ИИ, среди которых: создаваться в поддержку субъектности человека, а не наоборот; быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

В документе также указывается, что общественность должна иметь полное представление о том, какие работы по созданию ИИ ведутся, и что всякая его разработка должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Также должны учитываться справедливость и многообразие; плюс к этому должны создаваться механизмы, обеспечивающие «ответственность ИИ-систем» за результаты их работы.

Нынешняя версия директивных указаний носит сугубо черновой характер. Теперь их будут изучать представители индустрии, и по итогам консультаций с ними предлагаемые правила могут существенно поменяться. В конечном счете ЕС планирует выработать набор конкретных правил, обязательных для исполнения всеми игроками рынка.

Возврат к списку