De verwachte waarde van een willekeurige variabele is het concept analoog aan wiskundige algebra dat het rekenkundig gemiddelde van de reeks waarnemingen van genoemde variabele overweegt.
Met andere woorden, de verwachte waarde van een willekeurige variabele is de waarde die het vaakst voorkomt tijdens het vele malen herhalen van een experiment.
Eigenschappen van verwachte waarden van een willekeurige variabele
De verwachte waarde van een willekeurige variabele heeft drie eigenschappen die we hieronder ontwikkelen:
Eigendom 1
Voor elke constante g zal de verwachte waarde van deze constante worden uitgedrukt als E (g) en zal dezelfde constante g zijn. Wiskundig:
E (g) = g
Omdat g een constante is, dat wil zeggen dat het niet afhankelijk is van een variabele, blijft de waarde hetzelfde.
Voorbeeld
Wat is de verwachte waarde van 1? Met andere woorden, welke waarde kennen we toe aan het getal 1?
E (1) =?
Precies, we kennen de waarde van 1 toe aan het getal 1 en de waarde ervan zal niet veranderen, ongeacht hoeveel de jaren verstrijken of er zich natuurrampen voordoen. We hebben dus te maken met een constante variabele en daarom:
E (1) = 1 of E (g) = g
Ze kunnen andere nummers proberen.
Eigendom 2
Voor elke constante h en k is de verwachte waarde van de lijn h · X + k gelijk aan de constante h vermenigvuldigd met de verwachting van de willekeurige variabele X plus de constante k. Wiskundig:
E (h X + k) = h E (X) + k
Kijk goed, doet het je niet denken aan een zeer beroemde hetero? Precies, de regressielijn.
Als we vervangen:
E (hX + k) = Y
E (X) = X
k = B0
h = B1
Hebben:
Y = B0 + B1X
Wanneer de coëfficiënten B worden geschat0 , B1 , dat wil zeggen, B0 , B1 , deze blijven hetzelfde voor het hele monster. We passen dus eigenschap 1 toe:
E (B0) = B0
E (B1) = B1
Hier vinden we ook de eigenschap van onbevooroordeeldheid, dat wil zeggen dat de verwachte waarde van de schatter gelijk is aan zijn populatiewaarde.
Terugkerend naar E (h · X + k) = h · E (X) + k, is het belangrijk om in gedachten te houden dat Y E (h · X + k) is bij het trekken van conclusies uit de regressielijnen. Met andere woorden, het zou zijn om te zeggen dat wanneer X met één toeneemt, Y met toeneemt voor de helft h eenheden, aangezien Y de verwachte waarde is van de lijn h · X + k.
Eigenschap 3
Als H een vector van constanten is en X een vector van willekeurige variabelen, dan kan de verwachte waarde worden uitgedrukt als de som van de verwachte waarden.
H = (h1 , h2, , …, hnee)
X = (X1 , X2, ,…, Xnee)
Hallo1X1 + h2X2 +… + HneeXnee) = h1·VOORMALIG1) + h2·VOORMALIG2) +… + Hnee·VOORMALIGnee)
Uitgedrukt in sommen:
Deze eigenschap is erg handig voor afleidingen op het gebied van wiskundige statistiek.