Минцифры разрабатывает план регулирования искусственного интеллекта

Минцифры готовит концепцию развития регулирования отношений в сфере технологий искусственного интеллекта. В документе представлены основные факторы развития и внедрения ИИ в различных отраслях, а также принципы будущего регулирования.
Проект разработан совместно с Альянсом в сфере ИИ, который объединяюет крупные компании, заинтересованные в развитии данных технологий. Сейчас стратегический документ проходит экспертное обсуждение и консультации с представителями индустрии и отраслей, активно внедряющих ИИ-технологии. Затем его отправят на межведомственное согласование, пишут Ведомости.
Согласно концепции, в основу будущего регулирования должны быть положены:
- человекоориентированный подход;
- доверенность технологий;
- принцип технологического суверенитета;
- уважение автономии и свободы воли человека;
- запрет на причинение вреда человеку и недопущение антропоморфизации («очеловечения») технологий.
В разработке концепции участвовало экспертное сообщество АНО «Цифровая экономика», сообщил директор направления «Искусственный интеллект» организации Евгений Осадчук. По его словам, главный принцип при регулировании нейросетей – это создание условий, при которых ИИ-технологии смогут развиваться без избыточных барьеров и с четкими правилами, защищающими интересы общества.
Тем временем на Западе эксперты пошли дальше и дискутируют уже о том, какими правами должны обладать модели ИИ, когда смогут развить в себе субъективный опыт, подобный опыту живых существ, и если смогут, то какими правами они должны обладать. Эта дискуссия уже получила название «благополучия ИИ». Между тем гендиректор по ИИ компании Microsoft Мустафа Сулейман свою точку зрения изложил в посте в соцсетях. Он считает, что заниматься изучением благополучия ИИ преждевременно и даже опасно.
Поддерживая идею о том, что ИИ однажды может обрести сознание, ученые лишь усугубляют вред, который наносят людям психотические расстройства, вызванные технологией ИИ и нездоровой привязанностью к чат-ботам, уверен топ-менеджер. Эти проблемы мы только начинаем наблюдать вокруг, но их становится всё больше. По его словам, обсуждение вопросов благополучия ИИ создает новый раскол в обществе по поводу прав ИИ в «мире, уже бурлящем поляризованными спорами об идентичности и правах».
Взгляд Сулеймана расходится с мнением многих других представителей отрасли. В частности, компания Anthropic уже нанимает исследователей для изучения благополучия ИИ и недавно запустила специальную исследовательскую программу, посвященную данной теме. На прошлой неделе Anthropic дала некоторым моделям компании новую функцию: теперь чат-бот «Клод» может завершать разговоры с людьми, которые ведут себя неприятно и оскорбительно, пишет hightech.plus.
Также изучением благополучия ИИ занимаются в OpenAI. А Google DeepMind недавно опубликовала вакансию для исследователя, который будет анализировать, среди прочего, «передовые социальные вопросы, связанные с машинным восприятием, сознанием и многоагентными системами». Даже если благополучие ИИ не является официальной политикой этих компаний, их руководители, в отличие от Сулеймана, публично не осуждают данные принципы.
Фото: Kandinsky 4.1