Nevíte-li si rady s jakýmkoliv matematickým problémem, toto místo je pro vás jako dělané.
Nástěnka
❗22. 8. 2021 (L) Přecházíme zpět na doménu forum.matweb.cz!
❗04.11.2016 (Jel.) Čtete, prosím, před vložení dotazu, děkuji!
❗23.10.2013 (Jel.) Zkuste před zadáním dotazu použít některý z online-nástrojů, konzultovat použití můžete v sekci CAS.
Nejste přihlášen(a). Přihlásit
Ahoj mám dotaz na následující úlohu.
Uvažuju model měření:
[mathjax]y_k = \theta^0 + v_k\,~~~~k=0,1,\dots N[/mathjax],
kde [mathjax]y_k[/mathjax] je měřený výstup, [mathjax]\theta^0[/mathjax] je neznámý parametr a [mathjax]v_k \in \mathbb{R}[/mathjax] je šum měření reprezentovaný bílým stochastickým procesem s rovnoměrným rozdělením s nulovou střední hodnotou a známou variancí [mathjax]\sigma^2[/mathjax].
Na základě měření [mathjax]y_1, y_2,\dots,y_N[/mathjax] je neznámý parametr [mathjax]\theta^0[/mathjax] odhadnut dle vztahu [mathjax]\hat{\theta} = \frac{1}{N+1}\sum_{k=0}^N y_k[/mathjax].
Mám rozhodnout, zda tento odhad minimalizuje kritérium nejmenších čtverců [mathjax]J(\theta) = \sum_{k=0}^{N} \frac{(y_k-\theta)^2}{\sigma^2}[/mathjax].
Opravdu nevím jak s tím pohnout, každá nápověda bude fajn. Určitě nechci, aby to tady za mě někdo vypočítal.
Děkuji.
Offline
žabí hněv napsal(a):
Mám rozhodnout, zda tento odhad minimalizuje kritérium nejmenších čtverců [mathjax]J(\theta) = \sum_{k=0}^{N} \frac{(y_k-\theta)^2}{\sigma^2}[/mathjax].
Řekl byc, že pokud funkce [mathjax]J(\theta)[/mathjax] nabývá v nějakém bodě minima (a je spojitá a hladká) tak v tomto bodě musí být [mathjax]\frac{d}{d \theta}J(\theta)=0[/mathjax]
Offline
↑ MichalAld:
Děkuji za reakci. Ano trochu jsem se leknul derivace té sumy.
Zkusil jsem si to rozepsat takto:
[mathjax]\sum_{k=0}^{N}(\frac{y_k-\theta}{\sigma})^2 = (\frac{y_0-\theta}{\sigma})^2 + (\frac{y_1-\theta}{\sigma})^2 + \dots + (\frac{y_N-\theta}{\sigma})^2[/mathjax]
Umocnil jsem pravou stranu
[mathjax]\sum_{k=0}^{N}(\frac{y_k-\theta}{\sigma})^2 = \frac{y_0^2-2y_0\theta+\theta^2}{\sigma^2}+\frac{y_1^2-2y_1\theta+\theta^2}{\sigma^2} + \dots + \frac{y_N^2-2y_N\theta+\theta^2}{\sigma^2}[/mathjax]
A zderivoval dle [mathjax]\theta[/mathjax] a položil rovno nule, abych našel stacionární bod.
[mathjax]\frac{-2y_0}{\sigma^2}+\frac{2\theta}{\sigma^2} + \frac{-2y_1}{\sigma^2}+\frac{2\theta}{\sigma^2}+\dots + \frac{-2y_N}{\sigma^2}+\frac{2\theta}{\sigma^2} =0[/mathjax]
vyšlo mi
[mathjax]\theta = \frac{1}{N+1}\sum_{k=0}^{N}y_k[/mathjax]
takže stačí ověřit, že druhá derivace je větší něž nula a další derivace jsou nulové, čímž jsem našel minimum, tedy nejlepší odhad ve smyslu nejmenších čtverců.
Za připomínky budu rád. Děkuji
Offline