Ученые из Бристольской школы компьютерных наук достигли значительных успехов в решении проблемы «галлюцинаций» моделей искусственного интеллекта и повышении надёжности алгоритмов обнаружения аномалий в критически важных национальных инфраструктурах (CNI).
Недавние достижения продемонстрировали потенциал технологии в обнаружении аномалий, особенно в данных датчиков и механизмов для CNI. Однако эти алгоритмы часто требуют длительного времени обучения и испытывают трудности с определением конкретных компонентов в аномальном состоянии. Кроме того, процессы принятия решений ИИ часто непрозрачны, что приводит к проблемам с доверием и подотчётностью.
Чтобы преодолеть эти проблемы, исследователи приняли ряд мер по повышению эффективности. Для улучшенного обнаружения аномалий команда использовала два передовых алгоритма со значительно более коротким временем обучения и более быстрыми возможностями обнаружения, сохраняя при этом сопоставимые показатели эффективности. Эти алгоритмы были протестированы с использованием набора данных из испытательного стенда оперативной очистки воды, SWaT, в Сингапурском университете технологий и дизайна.
Для повышения прозрачности и доверия исследователи интегрировали модели eXplainable AI (XAI) с детекторами аномалий. Такой подход позволяет лучше интерпретировать решения, предлагаемые моделью, позволяя людям понимать и проверять рекомендации перед принятием критических решений. Также оценивалась эффективность различных моделей XAI, что дало представление о том, какие модели лучше всего помогают человеческому пониманию.