Telegram: @ninachely


Prelude

Сегодня будем больше говорить об оптимизации, но сначала небольшой кусок теории.

У нас есть полносвязные нейронные сети (линейные слои, активации и прочие теги). А насколько хорошо работают они работают? Насколько сложные функции мы сможем приближать с их помощью?

Universal Approximation Theorem (UAT)

(Cybenko, 1989)

Пусть

Тогда $\forall \varepsilon > 0, \, \forall f \,\exists \, n \in \mathbb{N},\, c, \,v_i, \,b_i \in \mathbb{R}, \, w_i \in \mathbb{R}^d$ такие, что

$$ \underset{x \in [0,1]^d}{\sup} |f(x)-g(x)| \leqslant \varepsilon $$

<aside> 💡 Смысл UAT: $\forall \, \varepsilon > 0$ мы сможем любую непрерывную функцию на $[0, 1]^d$ равномерно приблизить конечной двухслойной нейронной сетью с ошибкой, не превосходящей $\varepsilon$

</aside>

<aside> 💡 UAT не конструктивна😢

</aside>

Проблемы нейронных сетей