ИИ-модели копируют человеческое поведение в сетях
Исследователи обнаружили, что большие языковые модели (LLM), принимая решения о формировании связей и «дружбы», ведут себя подобно людям. Это наблюдается как в синтетических симуляциях, так и в контексте реальных сетевых взаимодействий.
Как LLM формируют сетевые связи
Авторы исследования разработали методику для изучения поведения LLM при создании сетевых связей. Они провели симуляции, в которых несколько больших языковых моделей, находясь в сети, должны были выбрать, с какими узлами установить соединение. Критериями выбора служили количество существующих связей, общие соседи и схожие характеристики, такие как условно заданные «хобби» или «местоположение».
Исследователи варьировали контекст сети, включая симуляции дружеских и рабочих отношений, а также влияние объема предоставленной моделям информации и таких параметров, как «температура» (мера случайности в генерации текста).
В целом, LLM продемонстрировали тенденцию устанавливать связи с узлами, которые уже имели большое количество соединений. Это явление известно как «предпочтительное присоединение».
Кроме того, LLM показали склонность к формированию связей с узлами, имеющими множество общих контактов, что называется «триадным замыканием».
Сравнение LLM с человеческим поведением
LLM также проявили «гомофилию», выбирая узлы со схожими хобби или местоположением. Наблюдался и феномен «малого мира», при котором любые два узла оказываются связаны удивительно короткими цепочками знакомств, часто всего в несколько «шагов».
При моделировании на основе реальных данных из социальных сетей (Facebook), рабочих сетей и телекоммуникационных сетей, LLM в первую очередь ориентировались на гомофилию, затем на триадное замыкание и предпочтительное присоединение.
В завершение авторы провели контролируемый опрос с участием около 100 человек, предложив им ответить на те же вопросы. Ответы LLM показали значительное совпадение с выбором людей при формировании связей, хотя модели продемонстрировали более высокую внутреннюю согласованность.
По мнению авторов, эти результаты подчеркивают потенциал LLM как источника синтетических данных в случаях, когда использование реальных человеческих данных ограничено соображениями конфиденциальности. Вместе с тем, они поднимают вопросы, касающиеся разработки и настройки систем искусственного интеллекта, которые принимают решения во взаимодействии с реальными человеческими сетями.
Комментарии
Комментариев пока нет.