Maximale waarschijnlijkheidsschatting

Inhoudsopgave:

Anonim

De Maximum Likelihood Estimate (VLE) is een algemeen model voor het schatten van parameters van een kansverdeling die afhankelijk is van de waarnemingen in de steekproef.

Met andere woorden, de EMV maximaliseert de waarschijnlijkheid van de parameters van de dichtheidsfuncties die afhankelijk zijn van de kansverdeling en de waarnemingen in de steekproef.

Als we het hebben over de schatting van de maximale waarschijnlijkheid, moeten we het hebben over de functie maximale kans. Wiskundig, gegeven een steekproef x = (x1,…, Xnee) en parameters, θ = (θ1,…,nee) dan,

Geen paniek! Dit symbool betekent hetzelfde als de optelling voor sommen. In dit geval is het de vermenigvuldiging van alle dichtheidsfuncties die afhankelijk zijn van de steekproefwaarnemingen (xik) en de parameters θ.

Hoe groter de waarde van L (θ | x), dat wil zeggen de waarde van de maximum-waarschijnlijkheidsfunctie, hoe groter de kans dat de steekproefgebaseerde parameters zullen zijn.

Logaritmische functie van EMV

Om de maximale waarschijnlijkheidsschattingen te vinden, moeten we de producten van dichtheidsfuncties differentiëren (afleiden) en dit is niet de meest comfortabele manier om dit te doen.

Als we ingewikkelde functies tegenkomen, kunnen we een monotone transformatie doen. Met andere woorden, het zou hetzelfde zijn als Europa op ware schaal willen tekenen. We moeten het verkleinen zodat het op een vel papier past.

In dit geval doen we de monotone transformatie met behulp van natuurlijke logaritmen, omdat ze monotone en toenemende functies zijn. wiskundig,

De eigenschappen van logaritmen stellen ons in staat om de bovenstaande vermenigvuldiging uit te drukken als de som van natuurlijke logaritmen toegepast op de dichtheidsfuncties.

Dus de monotone transformatie door logaritmen is gewoon een "schaalverandering" naar kleinere getallen.

De geschatte waarde van de parameters die de waarschijnlijkheid van de parameters van de maximum-waarschijnlijkheidsfunctie met logaritmen maximaliseren, is gelijk aan de geschatte waarde van de parameters die de waarschijnlijkheid van de parameters van de oorspronkelijke maximum-waarschijnlijkheidsfunctie maximaliseren.

We hebben dus altijd te maken met de monotone wijziging van de maximum-waarschijnlijkheidsfunctie, gezien het grotere rekengemak.

Nieuwsgierigheid

Hoe complex en vreemd EMV ook mag lijken, we passen het voortdurend toe zonder het te beseffen.

Wanneer?

In alle schattingen van de parameters van een lineaire regressie onder klassieke veronderstellingen. Beter bekend als de gewone kleinste kwadraten (OLS).

Met andere woorden, wanneer we OLS toepassen, passen we EMV impliciet toe, aangezien beide gelijkwaardig zijn in termen van consistentie.

App

Net als andere methoden is EMV gebaseerd op iteratie. Dat wil zeggen, een bepaalde bewerking zo vaak herhalen als nodig is om de maximale of minimale waarde van een functie te vinden. Dit proces kan onderhevig zijn aan beperkingen op de uiteindelijke waarden van de parameters. Bijvoorbeeld dat het resultaat groter of gelijk is aan nul of dat de som van twee parameters kleiner dan één moet zijn.

Het symmetrische GARCH-model en zijn verschillende uitbreidingen passen de EMV toe om de geschatte waarde van de parameters te vinden die de waarschijnlijkheid van de parameters van de dichtheidsfuncties maximaliseert.