журнал стратегия

#журнал стратегия

Контроль над невидимым

Подошли ли мы к тому моменту, когда искусственный интеллект нуждается в регулировании, угрожает ли нам его развитие и опыт каких стран можно считать показательным в этой сфере? Своим независимым взглядом на эти вопросы с Журналом Стратегия поделился Алексей Лукацкий, бизнес-консультант компании Cisco, специалист в области информационной безопасности.

Насколько важно государственное регулирование в развитии искусственного интеллекта и так ли оно необходимо? Какие проблемы поможет решить?

Для начала ответим на вопрос, что такое искусственный интеллект (ИИ) и чем он отличается от обычного интеллекта или обычной программы, которую мы можем купить в Интернете или магазине. Следуя неформальному определению, ИИ — это способ использования компьютеров для выполнения творческих задач, что традиционно считается свойством человека. Но в общем смысле искусственный интеллект пока не существует, и поэтому сегодня он имеет очень узкое применение — игра в шахматы, распознавание и классификация образов, синтез человеческой речи и прочее. А как можно законодательно регулировать игру в шахматы, диагностику болезней на рентгенографических снимках или обнаружение компьютерных вирусов с помощью машинного обучения? Искусственный интеллект в этих применениях всего лишь позволяет видеть то, что недоступно человеку, или делать это гораздо быстрее, чем могли бы сделать мы. Но значит ли это, что нужно закрывать глаза на возможности, которые дает искусственный интеллект? Конечно, нет. Допустим, «плохие парни» используют ИИ, чтобы создавать компьютерные вирусы или программы, способные обходить системы защиты. Это, безусловно, плохо. Но это плохо и без искусственного интеллекта, и такая деятельность уже регулируется действующим российским законодательством. А теперь представим, что врач воспользовался ИИ, распознающим рак, и интеллектуальная система приняла неверное решение. Это врачебная ошибка и отвечает за нее врач, независимо от того, что его стимулировало ее сделать. Врач, не распознавший рак в начале XX века, и врач, не сделавший это в XXI, одинаково виноваты, и именно им отвечать за ошибку. В обоих случаях в рамках действующего законодательства отвечает человек, который использует помогающий ему искусственный интеллект.

Но есть ситуации, когда интеллектуальная система принимает решение самостоятельно, и вот тут начинается самое интересное. Вспомним недавние печальные истории с беспилотными автомобилями, которые становились причинами дорожно-транспортных происшествий или даже смертей людей. Именно системы искусственного интеллекта в них, неспособные в определенных условиях (в том числе и специально созданных) распознавать дорожные знаки, препятствия или пешеходов, привели к тяжелым последствиям. Но на кого в этом случае должно возложить ответственность государство? Логичный ответ: на автопроизводителей, если ИИ дал сбой по их вине. Но есть и противоположная точка зрения: автовладелец осознает риск использования беспилотного автомобиля, значит, именно он должен нести всю полноту ответственности. Можно провести аналогию с законом «О персональных данных», в статье 16 которого есть такие пункты: «1. Запрещается принятие на основании исключительно автоматизированной обработки персональных данных решений, порождающих юридические последствия в отношении субъекта персональных данных или иным образом затрагивающих его права и законные интересы, за исключением случаев, предусмотренных частью 2 настоящей статьи. 2. Решение, порождающее юридические последствия в отношении субъекта персональных данных или иным образом затрагивающее его права и законные интересы, может быть принято на основании исключительно автоматизированной обработки его персональных данных только при наличии согласия в письменной форме субъекта персональных данных или в случаях, предусмотренных федеральными законами, устанавливающими также меры по обеспечению соблюдения прав и законных интересов субъекта персональных данных. 3. Оператор обязан разъяснить субъекту персональных данных порядок принятия решения на основании исключительно автоматизированной обработки его персональных данных и возможные юридические последствия такого решения, предоставить возможность заявить возражение против такого решения, а также разъяснить порядок защиты субъектом персональных данных своих прав и законных интересов».

В этой статье используется схожая идеология. Системе запрещено принимать решение без участия человека, за исключением ситуации, когда человек понимает все риски и дает на это письменное согласие. Возможно, подобная норма должна действовать и в случаях применения ИИ без участия человека. Разве что необходимо добавить пункт об ответственности производителей, если искусственный интеллект наносит ущерб по вине именно разработчика. В случаях когда ИИ только помогает человеку, именно последний несет ответственность в рамках действующего законодательства.

Опыт каких стран в разработке программ регулирования ИИ вы считаете успешным? Какие примеры законодательных актов в этой сфере могли бы назвать?

В рамках программы «Цифровая экономика» предусмотрена разработка концепции развития искусственного интеллекта, которая по планам должна появиться в пределах одного года. Однако не стоит ждать от нее ничего конкретного и жестко регулирующего. По данным экспертов Центра компетенций по нормативному регулированию, в рамках «Цифровой экономики» искусственный интеллект — это неближайшее будущее, и поэтому оно «В рамках программы «Цифровая экономика» предусмотрена разработка концепции развития искусственного интеллекта, которая по планам должна появиться в пределах одного года» 46 47 Журнал Стратегия №3 (32) Бит или кубит Государство и общество Текст: Алина Куликовская не требует немедленной реакции законодателей. Пока речь может идти о законопроекте о статусе роботов (его даже обещали внести в Госдуму уже в эту осеннюю сессию) и определении сфер возможного применения ИИ, требующих регулирования. Но гораздо больше сейчас размышляют об этических нормах и саморегулировании ИИ. Об этом преимущественно говорит и мировое сообщество, которое предпринимало неоднократные попытки создать некий этический кодекс разработчиков искусственного интеллекта. Если не рассматривать классические законы робототехники Айзека Азимова и правила Лиги гуманности из научно-фантастической пьесы Карела Чапека, то одну из первых попыток предприняла Южная Корея, составившая в 2007 году Этический устав роботов, за которым последовал закон о содействии развитию «умных» роботов, носящий, скорее, рамочный характер, чем описывающий жесткие ограничения. Но основные попытки стали предприниматься недавно. Например, Азиломарские принципы искусственного интеллекта (2017 год), их подписали около 4 000 экспертов по всему миру. Отказ от гонки вооружений (хотя это маловероятно, учитывая использование ИИ в Министерстве обороны России, Агентстве перспективных исследований и разработок Минобороны США), ответственность разработчиков, нацеленность на принесение пользы людям — достаточно классический набор принципов, который должен применяться к любой новой технологии, особенно к искусственному интеллекту.

В 2017 году руководитель Microsoft Сатья Наделла предложил десять законов ИИ, а чуть позже была создана некоммерческая ассоциация Partnership on AI, в которую вошли Microsoft, Facebook, Amazon, Google, Apple, IBM, Nvidia, Intel, PayPal, SAP и другие. Но и в случае с этой инициативой пока рано говорить о каких-то результатах и правилах. Основные усилия направлены на оценку и формирование этических норм в области ИИ. Кстати, Google тоже выступила инициатором создания своих этических принципов, которых она будет придерживаться при разработке всех решений. В Германии был принят свод этических правил для автопроизводителей, которые работают в области беспилотных автомобилей. Это всего лишь рекомендации, но и это уже неплохо. Тем более что Германия уже приняла закон, регулирующий вполне конкретную и узкую сферу — дорожное движение. Немецкие законодатели выделили новый класс автотранспортных средств со значительно или полностью автоматизированной функцией вождения и разрешили им двигаться по дорогам, но при условии увеличения лимита ответственности для водителей и обязательной установки черного ящика для отслеживания всех действий автопилота. Это, кстати, одна из рекомендаций, которой советуют придерживаться эксперты, — фиксация действий ИИ, чтобы в случае инцидента можно было понять его причины и отыскать виновного. Один из лидеров по развитию технологий искусственного интеллекта — Китай — тоже пока не имеет законодательства в этой сфере, хотя и занимает, по оценкам экспертов, первое место по числу инноваций в области ИИ. В разработанном в Поднебесной плане развития технологий ИИ первые нормативные акты в этой сфере запланированы только на 2020 год. Европа пока тоже далека от полноценного правового регулирования: в 2016 году Европарламент принял к рассмотрению проект резолюции о правовом статусе роботов, но и он пока касается базовых вещей — классификации роботов, этического кодекса разработчиков, а также их ответственности.

Какие законодательные акты в России вы считаете основой для разработки госрегулирования ИИ?

Для начала стоит понять, насколько вообще в России сильны позиции разработчиков искусственного интеллекта, чтобы можно было говорить о необходимости регулирования их деятельности, и насколько проекты опасны, чтобы их нужно было вводить в законодательные рамки. Мне кажется, мы отстаем от лидеров в этой отрасли — США и Китая, которые тоже пока не разработали всеобъемлющих нормативов, ограничившись либо этическими нормами, либо узкими сферами регулирования. У нас нет основы для такого законодательства. Даже поправки в закон «Об информации, информационных технологиях и защите информации» ничем не помогут. Нужен абсолютно новый документ, который сначала бы установил рекомендации для разработчиков гражданского искусственного интеллекта. Именно гражданского, поскольку говорить об этике в случае с военным ИИ не приходится. Но и отпускать эту сферу тоже не совсем правильно. В конце августа в ООН прошли переговоры экспертов более 80 стран и международных организаций, которые должны были определиться с развитием автономных систем вооружения, часто называемых боевыми роботами. Германия и Франция выступили с инициативой регулирования этой сферы на уровне ООН, подчеркнув важность сохранения человеческого контроля над ней. Россия готова поддержать эту идею, но выступает категорически против юридически обязывающих ограничений, ссылаясь на то, что полноценного искусственного интеллекта до сих пор не существует, и поэтому регулировать его не надо. Кроме того, Россия считает, что международное право способно регулировать так называемые смертоносные автономные системы вооружения.

Такой отказ говорит о том, что и внутри страны мы пока не готовы к юридически обязывающим ограничениям (как провести грань между военными и гражданскими разработками в этой сфере?). Однако в России уже есть определенные наработки в регулировании ИИ и робототехники. Например, в 2016 году сооснователь Mail.ru Дмитрий Гришин разработал концепцию закона о робототехнике. А в начале 2018-го в России был представлен проект конвенции по робототехнике и искусственному интеллекту. Среди ключевых положений документа — непричинение вреда людям и животным, защита от несанкционированного доступа со стороны третьих лиц, фиксация всех действий с помощью черного ящика, наличие красной кнопки для моментального отключения и прочее.

Какова позиция вашей компании в этом вопросе? Какие способы регулирования ИИ вы считаете оптимальными?

В Cisco мы не занимаемся военными роботами, не производим автомобили, не выпускаем медицинские системы, принимающие решения о наличии или отсутствии онкологических заболеваний. Мы занимаемся данными и понимаем, как они обрабатываются, хранятся, передаются, что в совокупности с технологиями искусственного интеллекта позволяет нам раскрыть все возможности сетевых технологий, с которых начиналась компания Cisco, защитить наших заказчиков и ускорить инновации. Поэтому мы применяем технологии машинного обучения, нейросетей и иных математических дисциплин, составляющих основу ИИ, чтобы решать целый класс задач — обнаруживать и блокировать вредоносные программы, хакеров и различные атаки; предсказывать проблемы в Сети и предвосхищать их, не снижая тем самым пропускной способности и надежности Интернета и корпоративных сетей; оптимизировать хранение информации в центрах обработки данных и на облачных платформах; обнаруживать слабые места в работе приложений и уведомлять об этом соответствующий персонал, который может устранять их; распознавать лица в видеопотоках и принимать на основе этого решения; распознавать голос и помогать создавать голосовых ассистентов и чат-ботов, решающих различные повседневные задачи.

По описанным сценариям применения искусственного интеллекта в Cisco можно понять, что мы практически не занимаемся автономными системами, действия которых порождали бы юридически значимые последствия для граждан или корпоративных пользователей. Наши технологии помогают автоматизировать и ускорять решение задач в области корпоративных сетей и Интернета. Отсюда и отсутствие необходимости отдельного регулирования ИИ, который мы разрабатываем и применяем. Речь может идти об этических нормах, которым должны следовать наши разработчики, занимаясь искусственным интеллектом.

анонсы
мероприятий
инновации

Мошенники похищают данные россиян с Госуслуг с помощью пуш-уведомлений

 

#, ,
инновации

В Госдуме обсудили стратегические инициативы по развитию робототехники

 

#, , , , ,