Яка різниця між байєсівським висновком і нейронними мережами?

Класичні нейронні мережі використовують максимальну ймовірність для визначення параметрів мережі (ваги та зміщення) і, отже, роблять прогнози. Байєсовські нейронні мережі маргіналізують розподіл параметрів, щоб робити прогнози.19 червня 2015 р

Модель байєсівської нейронної мережі (BNN) є розширенням традиційної моделі нейронної мережі. Кожна вага є розподілом, а не одним числом. Це означає, що кожен нейрон розглядає діапазон значень для кожного вхідного сигналу, додаючи рівень імовірнісних міркувань.

Байєсівський висновок дозволяє нам вивчити розподіл ймовірностей за можливими нейронними мережами. Ми можемо приблизно вирішити висновок за допомогою простої модифікації стандартних інструментів нейронної мережі.

Коротко про байєсівське глибоке навчання. Традиційні моделі глибокого навчання надають точкові оцінки, що означає, що вони дають єдиний прогноз для певного вхідного даних. На відміну від цього, Байєсівське глибоке навчання виходить за рамки цього, надаючи розподіл ймовірностей за можливими результатами.

ШНМ добре моделюють складні нелінійні зв’язки між входами та виходами та є стійкими до перешкод, але вони можуть бути дорогими з обчислювальної точки зору та можуть потребувати великої кількості даних для навчання. Байєсовські мережі, з іншого боку, є типом імовірнісної графічної моделі.

Однак CNN потребують величезних обсягів даних для регулярізації та швидко перевиконують невеликі дані. Навпаки, байєсівські нейронні мережі (НМ) стійкі до надмірного підгонки, пропонують оцінки невизначеності та можуть легко навчатися на невеликих наборах даних.

Однією з головних переваг байєсівських нейронних мереж є їх здатність оцінювати невизначеність у прогнозах. У традиційних нейронних мережах ваги фіксуються після навчання, що означає, що мережа надає точкові оцінки без будь-яких ознак впевненості.