
Искусственный интеллект может спонтанно вырабатывать социальные конвенции, подобные человеческим, обнаружили ученые. Это открытие свидетельствует о возросшей самостоятельности ИИ.
Исследование провели совместно Лондонский университет Сити и Сент-Джорджа и Копенгагенский университет информационных технологий, его результаты обнародованы журналом Science Advances. Оно показало, что когда ИИ-агенты на основе больших языковых моделей (LLM), такие как ChatGPT, взаимодействуют в группах без вмешательства извне, они начинают перенимать лингвистические формы и социальные нормы так же, как это делают люди в процессе общения.
«Большинство исследований до сих пор изучали LLM изолированно, но в реальном мире системы ИИ все чаще будут включать множество взаимодействующих агентов. Мы хотели выяснить: могут ли эти модели координировать свое поведение, формируя конвенции — строительные блоки общества? Ответ — да, и их коллективные действия нельзя свести к индивидуальным», — рассказал математик Ариэль Флинт Эшери из Лондонского городского университета.
В исследовании использовались группы LLM-агентов численностью от 24 до 100. В каждом эксперименте два случайно выбранных агента должны были выбрать «имя» (букву или строку символов) из предложенных вариантов. Если оба агента выбирали одно имя, они получали «вознаграждение», а при разных выборах — «штраф» с демонстрацией варианта партнера.
Несмотря на то, что агенты не знали о существовании группы и имели доступ только к своим последним взаимодействиям, в популяции спонтанно возникла общая система именования без предопределенного решения — подобно нормам человеческого общения.
Профессор науки о сложных системах Андреа Баронкелли сравнил это явление с возникновением новых слов в обществе.
«Агенты не копируют лидера. Они активно пытаются координироваться исключительно в парах. Каждое взаимодействие — это попытка договориться об обозначении без глобального видения, — пояснил он. — Это как слово "спам". Никто его формально не определял, но благодаря повторяющимся попыткам согласования оно стало универсальным термином для нежелательной почты».
Кроме того, ученые зафиксировали возникновение коллективных предубеждений, не сводимых к индивидуальным предпочтениям агентов. В финальном эксперименте небольшие группы ИИ-агентов смогли направить большую группу к принятию новой системы именования. Это свидетельствует о динамике критической массы, когда небольшая, но решительная группа может вызвать быстрый сдвиг в поведении общества после достижения определенного порога — как и у людей.
По мнению Баронкелли, исследование «открывает новые горизонты для изучения безопасности ИИ, демонстрируя глубину последствий появления этого нового вида агентов, которые начали взаимодействовать с нами и будут формировать наше будущее».
«Понимание их работы — ключ к гармоничному сосуществованию с ИИ, а не подчинению ему. Мы вступаем в мир, где ИИ не просто говорит — он ведет переговоры, согласовывает и иногда оспаривает общие нормы поведения, совсем как мы», — заключил он.