Исследовательская группа из Кембриджского университета и Google DeepMind разработала первый научно обоснованный метод оценки и формирования «личности» у больших языковых моделей (LLM), лежащих в основе популярных чат-ботов, таких как ChatGPT. Используя психологические тесты, обычно применяемые для оценки личности человека, учёные показали, что ИИ не только имитирует человеческие черты характера, но и что его «личность» можно надёжно измерить и точно сформировать.
В ходе исследования было установлено, что крупные модели наиболее точно эмулируют человеческие черты личности. Эти черты можно изменять с помощью запросов, влияя на то, как ИИ выполняет конкретные задачи.
Авторы работы предупреждают, что формирование личности у модели может сделать чат-ботов более убедительными, что вызывает опасения по поводу манипуляций. Они призывают к срочному регулированию ИИ-систем для обеспечения прозрачности и предотвращения злоупотреблений.