Zurück

Wahrscheinlichkeitsrechnung 2

Stand: 16.02.2017. Bitte beachten, nur Materialsammlung, Ergänzung zum Buch, nicht vollständig !

Zufallsvariable und Verteilungsfunktion

Viele Zufallsexperimente sind eigentlich gleich von der mathematischen Struktur, liefern aber je nach Wahl der Bezeichnungen für die Ergebnisse auf den ersten Blick unterschiedliche Wahrscheinlichkeitsräume.
Beispiele: Mehrfacher Münzwurf hintereinander (W oder Z) , mehrfacher Zug aus einer Urne in der es nur 2 Kugelsorten (Blau /Rot ) gibt, Ziehen einer k-Stichprobe aus einer Menge von defekten und nichtdefekten Bauteilen (defekt /nicht defekt ) , die eine Maschine produziert hat, Auswahl von Menschen als einem Kollektiv aus kranken und nichtkranken Menschen, Würfeln mit einem Würfel, wenn wir nur auf gerade und ungerade Augenzahlen achten usw. An einem Baumdiagramm sieht man sofort, dass diese Experimente dieselbe Struktur besitzen.


Da es für die mathematische Erfassung gleichgültig ist, ob ein Wappen, eine blaue Kugel oder ein defektes Bauteil gezogen wird und auch um für die Wahrscheinlichkeiten Verteilungsfunktionen über Zahlenmengen aufstellen zu können, ordnet man jedem Element der Ergebnismenge eine reelle Zahl zu. Die so definierte Abbildung nennt man Zufallsvariable (ZV).
Oft ist auch gar nicht das Ergebnis eines einzelnen Experimentes interessant, sondern das kumulierte Ergebnis aus mehreren Experimenten, etwa die Anzahl defekter Teile in einer Stichprobe oder die Augensumme beim Würfeln mit mehreren Würfeln. Dann definiert man eine ZV für diese kumulierten Größen und versucht ihre Verteilungsfunktion zu bestimmen.
Definition Zufallsvariable und Verteilungsfunktion
Zufallsvariable (ZV, dies ist eigentlich eine Funktion!) $$ X : \Omega \to I\!\! R $$ $X(\omega) $ bezeichnet man als Realisierung der Zufallsvariablen.
Für das Wahrscheinlichkeitsmaß zu $X$ vereinbaren wir die folgenden Kurzschreibweisen, $M$ sei dabei eine Teilmenge der reellen Zahlen: $$ P(X\in M ) = P( \{ \omega \in \Omega | X(\omega) \in M \} ) $$ also beispielsweise: $$ P( X \le x) = P( \{ \omega \in \Omega | X(\omega) \le x \} ) , \quad P(X=x) = P( \{ \omega \in \Omega | X(\omega) = x \} ) $$ $$ P( a \le X \le b ) = P( \{ \omega \in \Omega | X(\omega) \in [a;b] \} ) , $$ $$ P( X \gt x ) = P( \{ \omega \in \Omega | X(\omega) \gt x \} ) $$ Wir definieren die Verteilungsfunktion der Zufallsvariablen $X$ als $$ F_X(x) = P( X \le x) = P( \{ \omega \in \Omega | X(\omega) \le x \} ) $$


Es gibt nun zwei Standardsituationen:
1. Diskrete Zufallsvariable : Die Werte der Zufallsvariablen bilden eine abzählbare Menge. Beispiel Münzwurf, Urnenmodell, Augenzahlen beim Würfeln ...
2. Kontinuierliche (stetige) Zufallsvariable: Die Werte bilden eine überabzählbare Menge, z.B. Intervalle , Beispiel Getränkeabfüllung, Messergebnisse phyliskalischer Größen wie Volumen, Fläche, Strecke, Geschwindigkeit.

Beispiele diskrete Zufallsvariable und ihre Verteilungsfunktion
Beipiel 1
Wir werfen dreimal nacheinander eine Münze und interessieren uns für die Zahl der auftretenden Wappen. Dies definieren wir also als ZV $X$. $$ \Omega= \{W, Z\}^3 , \quad X : \Omega \to I\!\! R, \quad X: \mbox{ Anzahl der Wappen bei dreimaligem Münzwurf } $$ $ X $ kann genau $4$ Werte annehmen, nämlich 0,1,2,3. Wir gehen diese nacheinander durch und bestimmen die Urbilder, also die zu der Realisierung gehörige Ereignisse. Zur Bestimmung der Verteilungsfunktion über die Wahrscheinlichkeiten der zugehörigen Ereignisse beachten wir $|\Omega | = 8 $ und ermitteln die Wahrscheinlichkeiten für jeweils 0,1,2,3-mal Wappen. $$ X(\omega) = 0 \mbox{ wenn } \omega \in \{ (Z, Z, Z) \} , \quad F_X(0) = P(X=0) = P(\{(Z,Z,Z\} ) = 1/8 = 1/2^3 = 1/8 $$ $$ X(\omega) = 1 \mbox{ wenn } \omega \in A= \{(W, Z, Z) , (Z, W, Z) , (Z, Z, W) \}, \quad P(X=1) = 3/8 $$ $$ X(\omega) = 2 \mbox{ wenn } \omega \in \{(W, W, Z) , (W, Z, W) , (Z, Z, W) , \} \quad P(X=2) = 3/8 $$ $$ X(\omega) = 3 \mbox{ wenn } \omega \in \{(W, W, W) \} , \quad P(X=3) = 1/8 $$ Damit ist die Verteilung von $X$ vollständig ermittelt. $$ P(X\le 1 ) = P(X=0) + P(X=1), \quad P(X \le 2) = P(X\le 1) + P(X=2) $$ da die Ereignisse $ X=0, X=1, X=2 $ jeweils disjunkt sind. Somit $$ F_X (x) = P(X\le x) = \left\{ \begin{array}{l} 0 , \quad x\lt 0 \\ 1/8 , \quad x=0 \\ (1+3)/8 = 1/2 , \quad x=1 \\ 7/8 , \quad x=2, \\ 1 , \quad x\ge 3 \end{array} \right. $$ Die Verteilungsfunktion ist also eine Treppenfunktion.
Die Funktion $ f_X(x) = P(X=x)$ bezeichnet man als Dichte der Zvar $X$.

Ziehen wir aus einer Menge von Bauteilen, von denen eines mit Wahrscheinlichkeit $p$ defekt ist, ($ P(D) = p , P(\bar{D}) = 1-p$ ) hintereinander 3 Bauteile, so können wir ganz analog vorgehen. $ X $ sei die Summe der defekten Bauteile. $$ P(X=0) = P(\{( \bar{D},\bar{D},\bar{D} ) \} ) = (1-p)^3 $$ $$ P(X=1) = P(\{ ( \bar{D},\bar{D},D ) , ( \bar{D},D, \bar{D} ), ( \bar{D},\bar{D},D ) \} ) = 3 (1-p)^2 p $$ $$ P(X=2) = P(\{(\bar{D},D,D), (D, \bar{D},D),(D, D, \bar{D} ), \} ) = 3p^2 (1-p), $$ $$ P(X=3) = P( \{ (D, D, D) \} ) = p^3 $$ Baumdiagramm dazu

Binomialverteilung Ziehen wir allgemein $n$ Bauteile, dann sind die Wahrscheinlichkeiten beschrieben durch die sog. Binomialverteilung $B(n,k) $ mit den Parametern $n,k $ (Vgl Urnenmodell, Tupel zu Menge) : $$ P(X=0) = (1-p)^n , \quad P(X=1) = { n \choose 1 } p^1 (1-p)^{n-1} , \quad P(X=2) = { n \choose 2 } p^2 (1-p)^{n-2} , ....$$ $$ B(n,k) = P(X=k) = { n \choose k } p^k (1-p)^{n-k} , \qquad \mbox{Binomialkoeff. } { n \choose k } = { n! \over (n-k)! k! } $$ mit der Verteilungsfunktion $$ F_X (l) = P( X \le l ) = \sum_{k=0}^l B(n,k) , \quad 0\le l \le n, \quad l\lt 0: F_X(l) = 0 \quad l \gt n: F_X (l) = 1 $$

Verteilungsfunktion einer diskreten ZVar allgemein:

$X$ sei eine diskrete ZVar mit den Werten $ x_1, x_2 .. \in R. $. Dann nennt man $ f(x_k) = P(X=x_k) $ die Dichte und $$ X P(X \le x) = F_X (x) = \sum_{x_k \le x} f(x_k) $$ die Verteilungsfunktion von $X$. Der Erwartungswert ist definiert als $$ E(X) = \sum_{x_k } x_k f(x_k) $$ Die Varianz ist $$ VAR(X) = E( (X-E(X))^2 ) = \sum_{x_k } ((x_k - E(X) )^2 f(x_k) $$ Beispiel: 6-flächiger Würfel einmal geworfen. $X$ sei die Augenzahl. Realisierungen/Werte von $X$: $ x_k = k , k=1, ..6 $.
$$ f(x_k) = P(X=k) = {1 \over 6 } , \quad F(x) = \sum_{x_k=k \le x} f(x_k) $$ $$ P(X\le 5) = \sum_{x_k=k \le 5} { 1 \over 6 } = { 5 \over 6 } $$ $$ E(X) = \sum_{k =1}^6 k { 1 \over 6 } = {21 \over 6 } = 3,5 $$
Für eine binomialverteilte ZV $X$ gilt die Aussage: $$ E(X) = np, \qquad VAR(X)= np(1-p) $$

Stetige Zufallsvariable

Stetige Zufallsvariable Definition
$ X \Omega \to I\!\!R $ heißt stetig verteilt mit der stetigen Verteilungsfunktion $F$, wenn es eine integrierbare Funktion $f$ gibt mit $$ F(x) = F_X (x) = P(X \le x) = \int_{- \infty }^x f_X(t) dt $$ Die Funktion $f = f_X$ heißt Dichte der Verteilung. Die Normiertheitsbedingung $$ F(\infty) = P( X \in R) = \int_{- \infty }^{\infty} f(t) dt =1 $$ muss dabei nach den Axiomen von Kolmogorov stets erfüllt sein.

Dazu muss man ggf, eine geeignete Normierungskonstante bestimmen.
Beispiel "linear" : Gegeben ist eine Schar von Funktionen, die von einem Parameter $p$ abhängt. Für welches $p$ liegt gerade die Dichte einer stetigen Zufallsvariablen vor? $$ f(x)= \left\{ \begin{array}{l} px , \quad 0\le x \le 3 \\ 0 \quad x \gt 3 \mbox{ oder } x \lt 0 \ \end{array} \right. $$ $$ 1 = \int_{- \infty }^{\infty} f(t) dt = \int_{ 0 }^{3} p t dt = {p \over 2 } (3^2 - 0^2) = {9p \over 2 } $$ Für $p=2/9 $ liegt also gerade die Dichte einer stetigen ZVar vor.


Verteilungsfunktionen werden neben der Funktionsabbildung durch folgende Parameter /Kenngrößen festgelegt.

Der Erwartungswert (auch Mittelwert) der Verteilung/Zufallsvariable: $$ \mu_X = E(X) = \int_{- \infty }^{\infty} t f(t) dt $$ Die Varianz der Verteilung/Zufallsvariable $$ \sigma^2_X = VAR(X) = E((X-\mu)^2 ) = \int_{- \infty }^{\infty} (t- \mu )^2 f(t) dt = E(X^2) - E(X)^2 $$ Standardabweichung $$ \sigma_X = \sqrt{ E((X-\mu)^2 ) } $$ Es gilt der zur Berechnung der Varianz nützliche Satz : $$ E((X-\mu)^2 ) = E(X^2) - (E(X))^2 $$ Diese Gleichung kann man sofort aus der Definition des Erwartungswerts beweisen, durch Zerlegung des Integrals : $$ E((X-\mu)^2 ) = \int_R (x- \mu)^2 f(x) dx = \int_R (x^2 - 2x \mu + \mu^2) f(x) dx $$ $$ = \int_R (x)^2 f(x) dx - 2 \mu \int_R x f(x) dx + \mu^2 \int_R f(x) dx = E(X^2) - E(X)^2 $$ Die Größen $$ E(X^k) = \int_{- \infty }^{\infty} t^k f(t) dt $ $$ (vorausgesetzt die Integrale existieren) heißen auch $k$-te Momente der ZVar. Diese Bezeichnungen wie auch die Dichte sind analog zu denen der Mechanik. Integration der Dichte über den Körper gibt die Masse, Integration der Lastdichte über die Balkengeometrie die Gesamtlast usw.

Beispiel/Übungsaufgabe: Berechne Erwartungswert und Varianz oben im Beispiel "Linear".

Berechnung von Wahrscheinlichkeiten für stetig verteilte ZVar

Mit Hilfe der Verteilungsfunktion einer Zufallsvariablen können wie im diskreten Fall Wahrscheinlichkeiten berechnet werden.
Beispiele: $F$ sei dabei immer die Verteilungsfunktion zur ZVar $X$. Beachte die Stetigkeit von $F$ und die Definition über ein Integral. $$ P( X=x) = \int_x^x f(t) dt = F(x) - F(x) = 0 \mbox{ Unterschied zu diskreten ZVar! } $$ $$ P(X \lt x) = P(X\le x) = F(x), \quad P(X\ge x) = P(X\gt x) = 1- F(x) $$ $$ P(a \le X \le b ) = P( X \in [a,b] ) = P(a \lt X \lt b ) = F(b) - F(a) $$ $$ P( X-a \ge c ) = P( X \ge a+c ) = 1 - P( X \lt a+c ) = 1 - F(a+c) $$ $$ P(|X-a|\ge c ) = P(X-a \ge c) + P( -(X-a) \ge c ) $$ denn $ |X-a|\ge c$ ist äquivalent zu $ X-a \ge c $ oder $ -(X-a) \ge c. $

Nullmengeneigenschaft, ablesen am Integral : $ \int_a^a f(t) dt = 0 $: $$ P(X=a) = 0, \mbox{allgemeiner: } P(X\in \{ a_1, a_2 , .... \} ) = 0 $$


Man kann Zufallsvariablen normieren/zentrieren zu einer standartisierten ZVar: Ist $X$ eine ZVar mit Mittelwert $ \mu_X $ und Standardabweichung $ \sigma_X $ dann ist $$ Y = {X- \mu \over \sigma } $$ eine ZVar mit $E(Y) =0, VAR(Y) = 1$.
Mit dieser Eigenschaft genügt es bei einer Familie von ZVar, deren Dichten derselben Funktionenschar mit Parametern $ \mu, \sigma $ angehören, die Verteilung einer speziellen zu kennen, die anderen kann man dann daraus berechenen. (siehe auch Normalverteilung unten) $$ F_X (x) = P(X \le x) = P( {X-\mu \over \sigma } \le {x-\mu \over \sigma } ) = F_Y( {x-\mu \over \sigma } ) $$


Rechenregeln für den Erwartungswert (Sätze)
Der Erwartungswert Linearität: $$ E(aX +bY) = aE(x) + b E(Y) $$ Sind $X$ und $Y$ stochastisch unabhängig, so ist der Erwartungswert des Produkts das Produkt der einzelnen Erwartungswerte $$ E(X\cdot Y) = E(X)\cdot E(Y) $$ Erwartungswert eine konstanten ZVAr $ X(\omega)= C , \omega \in \Omega $ ist die Konstante $ E(X)=C$
Transformationssatz: Funktion gegeben, $ g : I\!\! R \to I\!\! R $, $X$ stetig verteilte ZVar mit Dichte $f$. $$ E(g(X)) = \int_{ - \infty }^{\infty } g(t) f(t) dt $$

Ungleichung von Tschebyscheff

Dies ist eine verteilungsunabhängige Schranke für Abweichungen der Werte einer ZVar vom Mittelwert/Erwartungswert. Ist X eine ZVar mit Erwartungswert $\mu $ und Varianz $\sigma^2 $ dann gelten für jede positive Zahl $ c \gt 0 $ die folgenden Ungleichungen: $$ P(|X- \mu| \ge c \sigma ) \le { 1 \over c^2 } , \quad P(|X- \mu| \le c \sigma ) \ge 1- { 1 \over c^2 } . $$ Diese Schranken sind allerdings recht grob. Bei Vorliegen oder Annahme einer konkreten Verteilung kann man die Abweichungswahrscheinlichkeiten aus der Verteilung erheblich genauer ermitteln.

Beispiel Gauß'sche Nomalverteilung

Eine ZVar X genügt einer $N(\mu, \sigma ) -$Verteilung, $ \sigma \gt 0 $ , wenn sie folgende Dichte besitzt. $$ f(x) = { 1 \over \sigma \sqrt{ 2\pi } } \exp \left( - { (x- \mu )^2 \over 2 \sigma^2 } \right) , x \in I\!\! R $$ Die Verteilungsfunktion ist dann $$ P(X \le x) = F(x) = \int_{-\infty }^x f(t) dt $$ $$ E(X) = \mu, \quad VAR(X) = \sigma^2 $$ Für praktische Rechnungen benutzt man Tabellen für die $N(0,1)$ Verteilung, deren Verteilungsfunktion meist mit $\Phi $ bezeichnet wird. Ist die ZVar $X$ $N(\mu, \sigma ) -$ verteilt , dann ist die ZVar $$ Y = {X- \mu \over \sigma } $$ $ N(0,1) $ verteilt. Diese Verteilung ist tabelliert. Da deren Dichte symmetrisch zur y-Achse ist, muss man nur die Werte für postiven $x$ tabellieren, die für negative erhält man aus $$ \Phi(-x) = 1- \Phi(X) $$
Beispiel1.
Die ZVar $X $ sei $N(3,2) $ verteilt. Gesucht ist die Wahrscheinlichkeit $ P( 1 \le X \le 5) . $ Normierung/Zentrierung ergibt $$ 1 \le X \le 5 \quad \Leftrightarrow \quad -1 = { 1-3 \over 2 } \le Y = { X-3 \over 2 } \le { 5-3 \over 2 } = 1 $$ $Y$ ist nun $N(0,1) $ -verteilt , somit $$ P( 1 \le X \le 5) = P ( -1 \le Y \le 1) = F_Y(1) - F_Y(-1) = \Phi(1) - \Phi(-1) $$ Aus der Tabelle der standartisierten Normalverteilung mit 5 Dezimalen $ \Phi(1) \approx 0,84134 $, ferner $ \Phi(-1) = 1 - \Phi(1) $ somit $$ P( 1 \le X \le 5) = 2 \Phi(1) - 1 \approx 0,68268 . $$
Beispiel2. Riesen und Zwerge.
In einem Land wurde festgestellt, dass die Männer einer bestimmten Altersklasse im Durchschnitt $ \mu =1,80m $ groß sind mit der Standardabweichung $ \sigma = 0,1 m $ ist. Wir nehmen an, die Körpergröße sei normalverteilt mit den genannten Parametern. Die Zufallsvariable $X $ sei die Körpergröße in Metern.
(a) Wie groß ist die Wahrscheinlichkeit, dass ein Mann der Altersklasse mindestens 2m groß ist?
(b) Wie groß ist die Wahrscheinlichkeit, dass ein Mann der Altersklasse kleiner als 1,60 m ist?

$$(a): P(X \ge 2) = P( (X-1,8)/0,1 \ge (2-1,8)/0,1 ) = 1 - \Phi( (2-1,8)/0,1 ) = 1 - Phi(2) \approx 0,02275 $$ (Interpretation: unter 1000 Männern der Altersklasse sind also im Schnitt 22-23 "Riesen" mit mind. 2m. ) Müssen wir bei (b) denn überhaupt noch rechnen? Eigentlich nicht, da die Dichte symmetrisch um den Mittelwert, bei mind 20 cm Abweichung nach oben oder unten dasselbe Ergebnis. $$ (b): P(X \lt 1,6) = P (X-1,8)/0,1 \lt (1,6-1,8)/0,1 ) = \Phi(-2) = 1 - \Phi(2) \approx 0,02275 $$ Anmerkung: Wie statistische Daten nahelegen (Wikipedia - Körpergröße Deutschland ) ist über alle Altersklassen hinweg betrachtet die Verteilung nicht ganz symmetrisch und die Standardabweichung vermutlich kleiner als von mir angenommen. Die Durchschnittsgröße von 1,8 m stimmt in etwa wenn man alle Alterklassen deutscher Männer bis 55 Jahre zusammenwirft (1,79-1,81m). https://www.destatis.de/DE/ZahlenFakten/GesellschaftStaat/Gesundheit/GesundheitszustandRelevantesVerhalten/Tabellen/Koerpermasse.html?nn=50798

Stetige Zufallsvariable /Beispiel Praxis
Ein Automat füllt Getränke in 1 l Flaschen. Das kann man als Zufallsexperiment betrachten. Die eingefüllte Menge $X$ in Litern gemessen sei dabei die Zufallsvariable. Der Mittelwert (Erwartungswert) sei dabei $ \mu =1$ die Standardabweichung $ \sigma =0,01l .$ Wir betrachten das Ereignis: Die eingefüllte Menge $X$ weicht um mindestens $0,02 l$ vom Mittelwert ab.
Fragestellungen:
(a) Ohne spezielle Verteilungsannahme: Mit der Tschbyscheffschen Ungleichung suchen wir eine Abschätzung (nach oben) für die Wahrscheinlichkeit dieses Ereignisses.
(b) Wir wollen zusätzlich annehmen, dass die Verteilung von $X$ eine Normalverteilung mit den Parametern $ \mu =1, \sigma =0,01$ ist und dann die Warscheinlichkeit des Ereignisses aus der tabellierten Verteilung näherungsweise berechnen.
Der Vergleich beider Zahlen zeigt uns, wie sich diese Zusatzannahme (Information über eine vorliegende Verteilung ) auf die Genauigkeit des Ergebnisses auswirkt.

Das gesuchte Ereignis lässt sich so beschreiben: Ergebnis des Abfüllvorgangs: $ X \ge \mu + 0,02 = \mu + 2 \sigma $ oder $ X \le \mu - 0,02 = \mu - 2 \sigma $ , zusammengefasst interessiert uns also die Wahrscheinlichkeit von $$ |X-\mu | \ge 2 \sigma $$
(a) Abschätzung mit der Ungleichung von Tschebyscheff $$ P(|X- \mu | \ge 2 \sigma ) \le { 1\over (2)^2 } = { 1 \over 4 } = 0,25 $$ (b) Näherungsweise Berechnung mit der Normalverteilungsannahme: $X$ sei $N(\mu , \sigma) $-verteilt .
Normierung : $ (X - \mu ) \over \sigma $ ist dann N(0,1)-Verteilt. $$ |X- \mu | \ge 2 \sigma \Leftrightarrow X - \mu \ge 2\sigma \mbox{ oder } -(X-\mu) \ge 2 \sigma $$ $$ P(|X- \mu | \ge 2 \sigma ) = P( X \ge \mu + 2 \sigma ) + P( X \le \mu - 2 \sigma ) = P( { X- \mu) \over \sigma } \ge 2 ) + P( { X- \mu) \over \sigma } \le -2 ) $$ $$ = 1- \Phi(2 ) + \Phi(-2 ) = 2 (1- \Phi(2 ) ) \approx { 91 \over 2000 } =0,0455 $$ denn aufgrund der Symmetrie der Dichte $ \Phi(-x) = 1-\Phi(x)$,

Wenn man unter der Normalverteilungsannahme rechnet, erhält man bei unseren Daten also eine Wahrscheinlichkeit, die um etwa den Faktor 6 kleiner ist als die vorher ermittelten Tschebyscheff-Schranke. Das ist nicht weiter erstaunlich, denn diese Schranke gilt ja für beliebige Verteilungen, deren Dichtefunktionen ganz unterschiedlich sein können, somit auch die Flächen unter dem Integral unterschiedlich verteilt. Oder anders gesagt: Die Tschebyscheff-Schranke lieferte hier einen viel zu hohen Ausschuss, bzw man würde zur Einstellung der Abfüllgenauigkeit einen viel zu hohen Aufwand treiben, wenn man sich nur an der Schranke orientierte. Es ist also sinnvoll, möglichst mit konkreten Verteilungsannahmen zu rechnen, sofern man für deren Vorliegen Anhaltspunkte hat. Man kann dazu auch statistische Tests durchführen.

Exponentialverteilung

Eine stetig verteilte Zufallsvariable heißt exponentialverteilt mit Parameter $ \lambda \gt 0 $ wenn ihre Dichte durch die Funktion $$ f(x)= \left\{ \begin{array}{l} 0 , \quad x \lt 0 \\ \lambda \exp(-\lambda x) \quad x \gt 0 \ \end{array} \right. $$ Verteilungsfunktion $$ F(x) = \left\{ \begin{array}{l} 0 , \quad x \lt 0 \\ 1- \exp(-\lambda x) \quad x \gt 0 \ \end{array} \right. $$ $$ E(X) = \lambda^{-1} , \quad E(X) = \lambda^{-2} , $$ Die Exponentialverteilung beschreibt zum Beispiel die Lebensdauer von elektronischen Bauteilen, wenn Alterungsprozesse nicht beachtet werden müssen. $$ P(X\ge x) = 1- F(x) = \exp( - \lambda x) $$ beschreibt umgekehrt die Überlebenswahrscheinlichkeit (Bauteil wird älter als $x$ Zeiteinheiten. Ebenso kann man mit der Exponentialverteilung Ankunftsprozesse (Zeitspannen zwischen Anrufen, Serverzugriffen, eintreffende Besucher usw) modellieren.
Bemerkenswert ist die Gedächtnislosigkeit (sogenannte Markov-Eigenschaft): $$ P( X \ge a+b | X \ge a ) = {\exp ( - \lambda (a+b) ) \over \exp ( - \lambda (a) ) } = \exp ( - \lambda b ) = P( X \ge b) $$ Interpretation: Wenn ein Bauteil schon $a$ Zeiteinheiten überlebt hat, dann ist die Wahrscheinlichkeit, dass es weitere $b$ Zeiteinheiten lebt genauso groß wie die, dass ein neues Bauteil $b$ Zeiteinheiten überlebt. Deswegen taugt die Exponentialverteilung nicht für Prozesse, bei denen Alterungsprozesse eine Rolle spielen - etwa durch mechanische Beanspruchung oder starke Spannungspitzen bei Ein- und Ausschaltvorgängen. Auch bei Ankunftsprozessen spielt die Historie keine Rolle. Die Wahrscheinlichkeit, dass in einem bestimmten Zeitintervall ein Client auf den Server zugreift, hängt in der Regel nicht davon ab, wie lange der Server schon am Netz ist. Wikipedia Exponentialverteilung