In der Stochastik ist eine Zufallsvariable eine Größe, deren Wert vom Zufall abhängig ist.[1] Formal ist eine Zufallsvariable eine Funktion, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zuordnet.[2] Ist diese Größe eine reelle Zahl, so spricht man von einer reellen Zufallsvariablen oder Zufallsgröße[3]. Beispiele für reelle Zufallsvariablen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einem Glücksspiel. Zufallsvariablen können aber auch komplexere mathematische Objekte sein, wie Zufallsfelder, Zufallsbewegungen, Zufallspermutationen oder Zufallsgraphen. Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden.[2]
Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt man Realisierung[4] oder im Falle eines stochastischen Prozesses einen Pfad. Bei der Zufallszahlenerzeugung werden Realisierungen spezieller Zufallsexperimente als Zufallszahlen bezeichnet.
Heutzutage ist Zufallsvariable die gängigste Bezeichnung; in älterer Literatur finden sich aber auch zufällige Variable[3], zufällige Größe[2], zufällige Veränderliche[3], zufälliges Element[3], Zufallselement[5] und Zufallsveränderliche[6][7]
Während A. N. Kolmogorow zunächst von durch den Zufall bestimmten Größen sprach[8][9], führte er 1933 den Begriff zufällige Größe ein[10] und sprach später von Zufallsgrößen.[11] Im Jahr 1933 ist auch schon der Begriff Zufallsvariable in Gebrauch.[12] Bereits 1935 ist der Begriff zufällige Variable nachweisbar.[13] Später hat sich (ausgehend vom englischen random variable, das sich gegen chance variable und stochastic Variable durchsetzte[14]) der etwas irreführende Begriff[15] Zufallsvariable durchgesetzt.
Die Grundidee hinter der Zufallsvariable ist es, den Zufall mit Hilfe des Begriffes der Funktion zu modellieren. Dies wird einige Vorteile mit sich bringen. Angenommen, wir betrachten ein Zufallsexperiment, welches nur zwei Ausgänge hat, welche wir mit ω 1 {\displaystyle \omega _{1}} und ω 2 {\displaystyle \omega _{2}} notieren. Mit Hilfe der Funktion können wir nun eine „zufällige Variable“ definieren, die berücksichtigt, ob ω 1 {\displaystyle \omega _{1}} oder ω 2 {\displaystyle \omega _{2}} eingetroffen ist.
Dies geschieht durch die Funktion
wobei die Werte a 1 {\displaystyle a_{1}} und a 2 {\displaystyle a_{2}} vom Experiment abhängen, welches man modelliert. Man nennt
Wir notieren die Menge der Realisierungen mit E = { a 1 , a 2 } {\displaystyle E=\{a_{1},a_{2}\}} . In den meisten Fällen wählt man für E {\displaystyle E} entweder die reellen Zahlen R {\displaystyle \mathbb {R} } oder eine diskrete Menge wie zum Beispiel N {\displaystyle \mathbb {N} } oder Z {\displaystyle \mathbb {Z} } . Allgemeiner kann E {\displaystyle E} aber auch R n {\displaystyle \mathbb {R} ^{n}} , ein Banach-Raum oder ein topologischer Vektorraum sein.
Eine Zufallsvariable ist somit eine Abbildung der Form X : Ω → E {\displaystyle X\colon \Omega \to E} .
Zufallsvariablen werden üblicherweise mit einem Großbuchstaben bezeichnet (hier X , X 1 , X 2 , S {\displaystyle X,X_{1},X_{2},S} ), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (zum Beispiel x = 0 {\displaystyle x=0} , x 1 = 1 {\displaystyle x_{1}=1} , x 2 = 0 {\displaystyle x_{2}=0} , s = 1 {\displaystyle s=1} ).
Im Münzwurf-Beispiel hat die Menge Ω = { Kopf , Zahl } {\displaystyle \Omega =\{{\text{Kopf}},{\text{Zahl}}\}} eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente von Ω {\displaystyle \Omega } als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.
Häufig verzichtet man auf die Schreibweise X ( ω i ) = a i {\displaystyle X(\omega _{i})=a_{i}} und benützt stattdessen die Kurzschreibweise X = a i {\displaystyle X=a_{i}} . Dies sollte aber nicht falsch verstanden werden, denn es handelt sich hier nur um eine Abkürzung für X ( ω i ) = a i {\displaystyle X(\omega _{i})=a_{i}} respektive für die Menge aller ω {\displaystyle \omega } , so dass X ( ω ) = a i {\displaystyle X(\omega )=a_{i}} .
Damit man über Wahrscheinlichkeiten sprechen kann, müssen die Räume Ω {\displaystyle \Omega } und E {\displaystyle E} noch mit zusätzlichen Strukturen ausgestattet sein. Für Ω {\displaystyle \Omega } brauchen wir
Aus technischer Sicht verwendet man hierfür die Maßtheorie, was zum Begriff des Wahrscheinlichkeitsraumes ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} führt, wobei Σ {\displaystyle \Sigma } eine sogenannte σ-Algebra und P {\displaystyle P} ein Wahrscheinlichkeitsmaß ist. Für E {\displaystyle E} brauchen wir etwas ähnliches, welches mit der Struktur auf Ω {\displaystyle \Omega } verträglich ist.
Konkret brauchen wir für E {\displaystyle E} ein System Σ ′ {\displaystyle \Sigma '} , welches mit dem System Σ {\displaystyle \Sigma } von Ω {\displaystyle \Omega } verträglich ist. Dies führt zum Begriff der Messbarkeit. Es soll gelten
Wenn diese Eigenschaft gilt, dann nennen wir X {\displaystyle X} eine ( Σ , Σ ′ ) {\displaystyle (\Sigma ,\Sigma ')} -messbare Funktion. Zufallsvariablen erfüllen diese Eigenschaft (für ein Σ {\displaystyle \Sigma } und Σ ′ {\displaystyle \Sigma '} ) und sind messbare Funktionen.
Als Letztes ermöglicht uns die Messbarkeit, das Wahrscheinlichkeitsmaß P {\displaystyle P} auf den Raum ( E , Σ ′ ) {\displaystyle (E,\Sigma ')} zu übertragen. Dies führt zum Begriff der Wahrscheinlichkeitsverteilung, welche als sogenanntes Bildmaß unter der Zufallsvariable X {\displaystyle X} durch P X ( A ) = P ( X − 1 ( A ) ) {\displaystyle P^{X}(A)=P\left(X^{-1}(A)\right)} für alle A ∈ Σ ′ {\displaystyle A\in \Sigma '} definiert ist.
Als Zufallsvariable bezeichnet man eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Messraum.
Eine formale mathematische Definition lässt sich wie folgt geben:[16]
Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} modellieren:
Die Zufallsvariablen X 1 {\displaystyle X_{1}} (gewürfelte Zahl des ersten Würfels), X 2 {\displaystyle X_{2}} (gewürfelte Zahl des zweiten Würfels) und S {\displaystyle S} (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:
wobei für Σ ′ {\displaystyle \Sigma '} die borelsche σ-Algebra auf den reellen Zahlen gewählt wird.
In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum auf Ω {\displaystyle \Omega } und welcher Messraum auf E {\displaystyle E} gemeint ist.
Bei einer endlichen Ergebnismenge Ω {\displaystyle \Omega } wird Σ {\displaystyle \Sigma } meistens als die Potenzmenge von Ω {\displaystyle \Omega } gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die Ergebnismenge Ω {\displaystyle \Omega } überabzählbar viele Elemente enthält.
Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:
Bei reellen Zufallsvariablen ist der Bildraum die Menge R {\displaystyle \mathbb {R} } der reellen Zahlen versehen mit der borelschen σ {\displaystyle \sigma } -Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:
Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.
Im Beispiel des zweimaligen Würfelns sind X 1 {\displaystyle X_{1}} , X 2 {\displaystyle X_{2}} und S {\displaystyle S} jeweils reelle Zufallsvariablen.
Eine mehrdimensionale Zufallsvariable ist eine messbare Abbildung X : Ω → R n {\displaystyle X\colon \Omega \to \mathbb {R} ^{n}} für eine Dimension n ∈ N {\displaystyle n\in \mathbb {N} } . Sie wird auch als Zufallsvektor bezeichnet. Damit ist X = ( X 1 , … , X n ) {\displaystyle X=(X_{1},\dotsc ,X_{n})} gleichzeitig ein Vektor von einzelnen reellen Zufallsvariablen X i : Ω → R {\displaystyle X_{i}\colon \Omega \to \mathbb {R} } , die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung von X {\displaystyle X} wird als multivariat bezeichnet, die Verteilungen der Komponenten X i {\displaystyle X_{i}} nennt man auch Randverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind der Erwartungswertvektor und die Kovarianzmatrix.
Im Beispiel des zweimaligen Würfelns ist X = ( X 1 , X 2 ) {\displaystyle X=(X_{1},X_{2})} eine zweidimensionale Zufallsvariable.
Zufallsvektoren sollten nicht mit Wahrscheinlichkeitsvektoren (auch stochastische Vektoren genannt) verwechselt werden. Diese sind Elemente des R n {\displaystyle \mathbb {R} ^{n}} , deren Komponenten positiv sind und deren Summe 1 ergibt. Sie beschreiben die Wahrscheinlichkeitsmaße auf Mengen mit n {\displaystyle n} Elementen.
Bei komplexen Zufallsvariablen ist der Bildraum die Menge C {\displaystyle \mathbb {C} } der komplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischen C {\displaystyle \mathbb {C} } und R 2 {\displaystyle \mathbb {R} ^{2}} „geerbten“ borelschen σ-Algebra. X {\displaystyle X} ist genau dann eine Zufallsvariable, wenn Realteil Re ( X ) {\displaystyle \operatorname {Re} (X)} und Imaginärteil Im ( X ) {\displaystyle \operatorname {Im} (X)} jeweils reelle Zufallsvariablen sind.
Der Begriff Zufallsvariable ohne weitere Charakterisierung bedeutet meistens – und fast immer in anwendungsnahen Darstellungen – reelle Zufallsvariable. Zur Unterscheidung von einer solchen wird eine Zufallsvariable mit Werten in den erweiterten reellen Zahlen R ∪ { − ∞ , ∞ } {\displaystyle \mathbb {R} \cup \{-\infty ,\infty \}} als numerische Zufallsvariable[17] – entsprechend der Terminologie der numerischen Funktion – oder als erweiterte Zufallsvariable[17] (engl. extended random variable[18]) bezeichnet. Es gibt aber auch eine abweichende Terminologie, bei der Zufallsvariable eine numerische Zufallsvariable bezeichnet und eine reelle Zufallsvariable immer als solche bezeichnet wird.[19]
In der Literatur wird die obige Definition der Zufallsvariable manchmal für den Begriff Zufallselement oder zufälliges Element (resp. englisch random element) verwendet, um reelle Zufallsvariablen Ω → R {\displaystyle \Omega \to \mathbb {R} } von allgemeineren Objekten wie dem Zufallsvektor, dem zufälligen Maß, der Zufallsfunktion, der Zufallsmenge, der Zufallsmatrix usw. zu unterscheiden.
Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum von X {\displaystyle X} induzierten Wahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die Verteilung P X {\displaystyle P^{X}} einer Zufallsvariablen X {\displaystyle X} als das Bildmaß des Wahrscheinlichkeitsmaßes P {\displaystyle P} definiert, also
Statt P X {\displaystyle P^{X}} werden in der Literatur für die Verteilung von X {\displaystyle X} auch die Schreibweisen P X , X ( P ) {\displaystyle P_{X},X(P)} oder P ∘ X − 1 {\displaystyle P\circ X^{-1}} verwendet.
Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einer Normalverteilung entspricht.
Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auch wahrscheinlichkeitstheoretisch genannt.[20] Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.
Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweise Ω = R {\displaystyle \Omega =\mathbb {R} } , Σ {\displaystyle \Sigma } als die Borelsche σ-Algebra auf den reellen Zahlen und P {\displaystyle P} als das durch die Verteilungsfunktion induzierte Lebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann die identische Abbildung X : R → R {\displaystyle X\colon \mathbb {R} \to \mathbb {R} } mit X ( ω ) = ω {\displaystyle X(\omega )=\omega } gewählt werden.[21]
Wenn eine Familie von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.
Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Familie von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz von É. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelte Bernoulli-Folgen betrachten lassen (ähnlich Hilberts Hotel).[22]
Verschiedene mathematische Attribute, die teilweise denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:
Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt, oder etwas allgemeiner, wenn ihre Verteilung eine diskrete Wahrscheinlichkeitsverteilung ist.[23] Im obigen Beispiel des zweimaligen Würfelns sind alle drei Zufallsvariablen X 1 {\displaystyle X_{1}} , X 2 {\displaystyle X_{2}} und S {\displaystyle S} diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sind zufällige Permutationen.
Eine Zufallsvariable wird als konstant bezeichnet, wenn sie nur einen Wert annimmt: X ( ω ) = c {\displaystyle X(\omega )=c} für alle ω ∈ Ω {\displaystyle \omega \in \Omega } . Sie ist ein Spezialfall einer diskreten Zufallsvariable.
Es gilt
die Umkehrung gilt im Allgemeinen nicht. Eine Zufallsvariable, die nur die rechte Seite erfüllt, heißt fast sicher konstant.
Zwei reelle Zufallsvariablen X , Y {\displaystyle X,Y} heißen unabhängig, wenn für je zwei Intervalle [ a 1 , b 1 ] {\displaystyle [a_{1},b_{1}]} und [ a 2 , b 2 ] {\displaystyle [a_{2},b_{2}]} die Ereignisse E X := { ω | X ( ω ) ∈ [ a 1 , b 1 ] } {\displaystyle E_{X}:=\{\omega |X(\omega )\in [a_{1},b_{1}]\}} und E Y := { ω | Y ( ω ) ∈ [ a 2 , b 2 ] } {\displaystyle E_{Y}:=\{\omega |Y(\omega )\in [a_{2},b_{2}]\}} stochastisch unabhängig sind. Das sind sie, wenn gilt: P ( E X ∩ E Y ) = P ( E X ) P ( E Y ) {\displaystyle P(E_{X}\cap E_{Y})=P(E_{X})P(E_{Y})} .
In obigem Beispiel sind X 1 {\displaystyle X_{1}} und X 2 {\displaystyle X_{2}} unabhängig voneinander; die Zufallsvariablen X 1 {\displaystyle X_{1}} und S {\displaystyle S} hingegen nicht.
Unabhängigkeit mehrerer Zufallsvariablen X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dotsc ,X_{n}} bedeutet, dass das Wahrscheinlichkeitsmaß P X {\displaystyle P_{X}} des Zufallsvektors X = ( X 1 , X 2 , … , X n ) {\displaystyle X=\left(X_{1},X_{2},\dotsc ,X_{n}\right)} dem Produktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß von P X 1 , P X 2 , … , P X n {\displaystyle P_{X_{1}},P_{X_{2}},\dotsc ,P_{X_{n}}} entspricht.[25] So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} mit
modellieren; die Zufallsvariable „Ergebnis des k {\displaystyle k} -ten Wurfes“ ist dann
Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.[26]
Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw. i.d. für identically distributed), wenn ihre induzierten Wahrscheinlichkeitsverteilungen gleich sind. In Beispiel des zweimaligen Würfelns sind X 1 {\displaystyle X_{1}} , X 2 {\displaystyle X_{2}} identisch verteilt; die Zufallsvariablen X 1 {\displaystyle X_{1}} und S {\displaystyle S} hingegen nicht.
Häufig werden Folgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; demnach spricht man von unabhängigen, identisch verteilten Zufallsvariablen, üblicherweise mit u.i.v. bzw. i.i.d. (für independent and identically distributed) abgekürzt.
In obigem Beispiel des dreimaligen Würfelns sind X 1 {\displaystyle X_{1}} , X 2 {\displaystyle X_{2}} und X 3 {\displaystyle X_{3}} u.i.v. Die Summe der ersten beiden Würfe S 1 , 2 = X 1 + X 2 {\displaystyle S_{1,2}=X_{1}+X_{2}} und die Summe des zweiten und dritten Wurfs S 2 , 3 = X 2 + X 3 {\displaystyle S_{2,3}=X_{2}+X_{3}} sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sind S 1 , 2 {\displaystyle S_{1,2}} und X 3 {\displaystyle X_{3}} unabhängig, aber nicht identisch verteilt.
Austauschbare Familien von Zufallsvariablen sind Familien, deren Verteilung sich nicht ändert, wenn man endlich viele Zufallsvariablen in der Familie vertauscht. Austauschbare Familien sind stets identisch verteilt, aber nicht notwendigerweise unabhängig.
Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist die Verteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch die Wahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmten Intervalls liegen. Des Weiteren sind Kennzahlen wie der Erwartungswert, die Varianz oder höhere mathematische Momente von Interesse.
Das Attribut stetig wird für unterschiedliche Eigenschaften verwendet.
Eine reelle Zufallsvariable X {\displaystyle X} mit der Wahrscheinlichkeitsverteilung P X {\displaystyle P_{X}} hat die Verteilungsfunktion
Wenn eine reelle Zufallsvariable X {\displaystyle X} auf dem Ergebnisraum Ω {\displaystyle \Omega } und eine messbare Funktion g : R → R {\displaystyle g\colon \mathbb {R} \to \mathbb {R} } gegeben ist, dann ist auch Y = g ( X ) {\displaystyle Y=g(X)} eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist. g ( X ) {\displaystyle g(X)} wird auch als Transformation der Zufallsvariablen X {\displaystyle X} unter g {\displaystyle g} bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} nach ( R , B ( R ) , P X ) {\displaystyle (\mathbb {R} ,{\mathcal {B}}(\mathbb {R} ),P^{X})} gelangt, kann benutzt werden, um die Verteilung von Y {\displaystyle Y} zu erhalten.
Die Verteilungsfunktion F Y {\displaystyle F_{Y}} der transformierten Zufallsvariablen Y = g ( X ) {\displaystyle Y=g(X)} kann mit der Wahrscheinlichkeitsverteilung P X {\displaystyle P_{X}} bestimmt werden
Es sei X {\displaystyle X} eine reelle Zufallsvariable mit stetiger Verteilungsfunktion F X {\displaystyle F_{X}} . Dann ist die Verteilungsfunktion F Y {\displaystyle F_{Y}} der Zufallsvariablen Y = X 2 {\displaystyle Y=X^{2}} durch
gegeben.[29]
Der Erwartungswert einer quasi-integrierbaren Zufallsgröße X {\displaystyle X} von ( Ω , Σ , P ) {\displaystyle (\Omega ,\Sigma ,P)} nach ( R ¯ , B ( R ¯ ) ) {\displaystyle ({\bar {\mathbb {R} }},{\mathcal {B}}({\bar {\mathbb {R} }}))} mit der Verteilung P X {\displaystyle P_{X}} ist
Eine Zufallsvariable heißt integrierbar, wenn der Erwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißt quasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.
Eine Zufallsvariable nennt man standardisiert, wenn ihr Erwartungswert 0 und ihre Varianz 1 ist. Die Transformation einer Zufallsvariable Y {\displaystyle Y} in eine standardisierte Zufallsvariable
bezeichnet man als Standardisierung der Zufallsvariable Y {\displaystyle Y} .