Что такое байесовские нейронные сети?
Байесовские нейронные поля (Bayesian Neural Fields, Bayes NF) нужны для моделирования сложных непрерывных функций, которые выражают трехмерные формы, поля света и всякие физические явления.
Но в ML их используют другим образом.
Параметры модели не фиксированы, а рассматриваются как случайные величины с вероятностными распределениями. Мы строим прогнозы и учитываем неопределенность.
Это полезно, когда данные неполные или содержат шум, что делает работу с неопределенностью критически важной.
Bayes NF нужно обучать не как классические детерминированные модели, а как стохастические модели. Веса и другие параметры сети не имеют фиксированных значений, а описываются вероятностными распределениями.
Мы не просто минимизируем ошибку на обучающих данных, но и получаем распределение возможных решений для каждой точки этих данных, что обеспечивает учет неопределенности в прогнозах.
Тут еще важно упомянуть вариационный вывод. Он позволяет приближаться к сложным апостериорным распределениям параметров модели.
Мы пытаемся найти более простое распределение, которое приближает истинное апостериорное распределение, и минимизируем расхождение между этими распределениями.
Истинные апостериорные распределения обычно слишком сложны для точного вычисления. Аппроксимация — это компромисс между скоростью и упрощением.
Есть еще метод Монте-Карло с цепями Маркова (Markov Chain Monte Carlo, MCMC). Он используется для сэмплирования из сложных апостериорных распределений.
Напоминаем, что сэмплирование — это такое предсказание на основе небольшой выборки о свойствах данных.
Например, если у нас есть 1000 шариков и мы вытащили три, и два из них оказались синими, значит, около 66 шариков — синие, условно.
Цепь Маркова сэмплирует значения параметров из апостериорного распределения с каждым новым шагом. Происходит "уточнение". С каждым новым шагом мы производим все более точную выборку и получаем все более точные оценки.
Однако MCMC требует больше вычислительных ресурсов, поэтому выбор между вариационным выводом и Монте-Карло зависит от задачи и доступных вычислительных мощностей.
Применение байесовских нейронных полей особенно ценно в задачах, где необходимо учитывать сложную пространственно-временную динамику или высокую степень неопределенности.
Например, при реконструкции трехмерных объектов на основе ограниченного набора данных можно получить множество возможных форм, каждая из которых имеет свою степень вероятности.
Методы Байеса дают нам разные варианты решений. Если мы проверяем, какие фигуры у нас получатся, мы получаем их вариации, а не абстрактную "примерную" эталонную модель.