Развитие искусственного интеллекта всё сильнее упирается в ограничения аппаратуры. Современные нейросетевые ускорители — Neural Processing Units (NPU) — выполняют колоссальное число операций с числами с плавающей запятой. Однако стандарт IEEE 754, лежащий в основе большинства таких вычислений, оказался не слишком удобным для специализированных ИИ-процессоров: он требует сравнительно сложной логики и увеличивает энергопотребление чипов. Для дата-центров даже небольшая экономия энергии на каждой операции становится заметной на уровне всего кластера.
Эта проблема особенно заметна при переходе к низкобитным форматам — например, 8-битному FP8 или OCP MX. Чтобы избежать переполнений при работе нейросетей, такие форматы обычно используют механизм блокового масштабирования (AMAX), который усложняет аппаратную реализацию и увеличивает задержки. По сути, процессору приходится постоянно отслеживать максимальные значения в блоках данных и пересчитывать масштаб чисел.
Автор новой работы, Кэйта Морисаки (Keita Morisaki), предложил альтернативный подход — семейство форматов чисел AetherFloat, специально разработанное для ускорителей ИИ. В основе архитектуры лежит использование четырёхзначной шкалы экспоненты (Base-4) и явной мантиссы. Такая схема позволяет отказаться от скрытого бита и сложных процедур нормализации, которые обычно применяются в классических форматах с плавающей запятой.
По расчётам, это заметно упрощает аппаратную реализацию вычислительных блоков. В частности, площадь ядра умножения-накопления (MAC) уменьшается примерно на 33%, энергопотребление — на 22%, а задержка критического пути сокращается примерно на 12% по сравнению с типичными реализациями FP8. Поскольку именно MAC-блоки составляют основу вычислений нейросетей, такие изменения могут заметно повлиять на эффективность всего ускорителя.