журнал стратегия

#журнал стратегия

Минцифры разрабатывает план регулирования искусственного интеллекта

Минцифры готовит концепцию развития регулирования отношений в сфере технологий искусственного интеллекта. В документе представлены основные факторы развития и внедрения ИИ в различных отраслях, а также принципы будущего регулирования.

Проект разработан совместно с Альянсом в сфере ИИ, который объединяюет крупные компании, заинтересованные в развитии данных технологий. Сейчас стратегический документ проходит экспертное обсуждение и консультации с представителями индустрии и отраслей, активно внедряющих ИИ-технологии. Затем его отправят на межведомственное согласование, пишут Ведомости.

Согласно концепции, в основу будущего регулирования должны быть положены:

- человекоориентированный подход; 

- доверенность технологий; 

- принцип технологического суверенитета; 

- уважение автономии и свободы воли человека; 

- запрет на причинение вреда человеку и недопущение антропоморфизации («очеловечения») технологий.

В разработке концепции участвовало экспертное сообщество АНО «Цифровая экономика», сообщил директор направления «Искусственный интеллект» организации Евгений Осадчук. По его словам, главный принцип при регулировании нейросетей – это создание условий, при которых ИИ-технологии смогут развиваться без избыточных барьеров и с четкими правилами, защищающими интересы общества.

Тем временем на Западе эксперты пошли дальше и дискутируют уже о том, какими правами должны обладать модели ИИ, когда смогут развить в себе субъективный опыт, подобный опыту живых существ, и если смогут, то какими правами они должны обладать. Эта дискуссия уже получила название «благополучия ИИ». Между тем гендиректор по ИИ компании Microsoft Мустафа Сулейман свою точку зрения изложил в посте в соцсетях. Он считает, что заниматься изучением благополучия ИИ преждевременно и даже опасно.

Поддерживая идею о том, что ИИ однажды может обрести сознание, ученые лишь усугубляют вред, который наносят людям психотические расстройства, вызванные технологией ИИ и нездоровой привязанностью к чат-ботам, уверен топ-менеджер. Эти проблемы мы только начинаем наблюдать вокруг, но их становится всё больше. По его словам, обсуждение вопросов благополучия ИИ создает новый раскол в обществе по поводу прав ИИ в «мире, уже бурлящем поляризованными спорами об идентичности и правах».

Взгляд Сулеймана расходится с мнением многих других представителей отрасли. В частности, компания Anthropic уже нанимает исследователей для изучения благополучия ИИ и недавно запустила специальную исследовательскую программу, посвященную данной теме. На прошлой неделе Anthropic дала некоторым моделям компании новую функцию: теперь чат-бот «Клод» может завершать разговоры с людьми, которые ведут себя неприятно и оскорбительно, пишет hightech.plus.

Также изучением благополучия ИИ занимаются в OpenAI. А Google DeepMind недавно опубликовала вакансию для исследователя, который будет анализировать, среди прочего, «передовые социальные вопросы, связанные с машинным восприятием, сознанием и многоагентными системами». Даже если благополучие ИИ не является официальной политикой этих компаний, их руководители, в отличие от Сулеймана, публично не осуждают данные принципы.

Фото: Kandinsky 4.1

анонсы
мероприятий
инновации

Мошенники перекочевали в приложение Google Meet

 

#, ,
инновации

В 2ГИС появился детский профиль для отслеживания геопозиции в реальном времени

 

#, , ,