Сегодняшние языковые модели, такие как ChatGPT и Gemini, умеют вести беседу с поразительной беглостью — почти как человек. Но внутренние механизмы, обеспечивающие эту беглость, по-прежнему остаются во многом загадкой. Новое исследование проливает свет на то, как нейросети учатся понимать язык — и обнаруживает в этом процессе неожиданный скачок, схожий с фазовым переходом в физике.
Учёные рассмотрели упрощённую модель ключевого элемента современных языковых моделей — механизма внимания, лежащего в основе архитектуры трансформеров. Эти модели анализируют текст как последовательность символов и слов, оценивая важность каждого слова относительно других. Именно трансформеры используются в большинстве популярных ИИ — от ChatGPT до Gemini.