ИИ-модели уже умеют договариваться и самоорганизовываться

Современные ИИ-модели способны не только поддерживать разговор, но и формировать собственные сообщества с поведенческими нормами по аналогии с тем, как это происходит в нашем обществе, выяснили английские и датские ученые.
Ученые Лондонского университета Сити и Сент-Джорджа и Копенгагенского университета информационных технологий провели исследование, которое показало, что, когда ИИ-агенты на основе больших языковых моделей (LLM), такие как ChatGPT, взаимодействуют в группах без вмешательства извне, они начинают перенимать лингвистические формы и социальные нормы так же, как это делают люди в процессе общения, пишет журнал Science Advances.
«Большинство исследований до сих пор изучали LLM изолированно, но в реальном мире системы ИИ все чаще будут включать множество взаимодействующих агентов. Мы хотели выяснить: могут ли эти модели координировать свое поведение, формируя конвенции — строительные блоки общества? Ответ — да, и их коллективные действия нельзя свести к индивидуальным», — отметил британский математик Ариэль Флинт Эшери из Лондонского университета Сити.
В научной работе применялись группы LLM-агентов численностью от 24 до 100. В каждом эксперименте два случайно выбранных агента должны были выбрать «имя» (букву или строку символов) из предложенных вариантов. Если оба агента выбирали одно имя, то им полагалось «вознаграждение», а при разных выборах — «штраф» с демонстрацией варианта партнера. При этом агенты не знали о существовании группы и имели доступ только к своим последним взаимодействиям, в популяции спонтанно возникла общая система именования без предопределенного решения — подобно нормам человеческого общения. Профессор науки о сложных системах Андреа Баронкелли сравнил данное явление с возникновением новых слов в обществе.
«Агенты не копируют лидера. Они активно пытаются координироваться исключительно в парах. Каждое взаимодействие — это попытка договориться об обозначении без глобального видения. Это как слово "спам". Никто его формально не определял, но благодаря повторяющимся попыткам согласования оно стало универсальным термином для нежелательной почты», — прокомментировал эксперт.
Также исследователи обратили внимание на возникновение коллективных предубеждений, не сводимых к индивидуальным предпочтениям агентов. В заключительном опыте небольшие группы ИИ-агентов смогли направить большую группу к принятию новой системы именования. Результат опыта говорит о динамике критической массы, когда небольшая, но решительная группа может вызвать быстрый сдвиг в поведении общества после достижения определенного порога, всё как у людей.
Андрея Баронкелли считает, что эта научная работа открывает новые горизонты для изучения безопасности ИИ, демонстрируя глубину последствий появления этого нового вида агентов, которые начали взаимодействовать с нами и будут формировать наше будущее.
Специалисты заявляют, что согласованность среди ИИ может быть крайне нестабильной. Один сбой, одно изменение входных данных — и вся система начнёт вести себя по-другому. Это особенно критично, если такие ИИ используются для модерации контента, управления логистикой или рекомендаций в медицинской сфере. В связи с этим возникает вопрос: нужно ли устанавливать правила для общения между ИИ, и если да, то кто будет арбитром — искусственный интеллект или человек? Без серьезного контроля цифровые агенты способны не только усилить уже существующие предвзятости, но и создать новые — уже в масштабе автоматизированных систем.
Фото: Kandinsky
мероприятий