In teoria delle probabilità e in statistica la distribuzione
B
{\displaystyle \mathrm {B} }
(Beta ) è una distribuzione di probabilità continua definita da due parametri
α
{\displaystyle \alpha }
e
β
{\displaystyle \beta }
sull'intervallo unitario
[
0
,
1
]
{\displaystyle [0,1]}
.
Distribuzione
B
(
α
,
β
)
{\displaystyle \mathrm {B} (\alpha ,\beta )}
Funzione di densità di probabilità
Funzione di ripartizione
Parametri
α
,
β
>
0
{\displaystyle \alpha ,\beta >0\ }
Supporto
[
0
,
1
]
{\displaystyle [0,1]\ }
Funzione di densità
x
α
−
1
(
1
−
x
)
β
−
1
B
(
α
,
β
)
{\displaystyle {\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}}
Funzione di ripartizione
I
x
(
α
,
β
)
{\displaystyle I_{x}(\alpha ,\beta )\ }
(funzione Beta incompleta regolarizzata )
Valore atteso
α
α
+
β
{\displaystyle {\frac {\alpha }{\alpha +\beta }}}
Moda
α
−
1
α
+
β
−
2
{\displaystyle {\frac {\alpha -1}{\alpha +\beta -2}}}
se
α
,
β
>
1
{\displaystyle \alpha ,\beta >1\ }
0
{\displaystyle 0\ }
se
α
<
1
{\displaystyle \alpha <1\ }
e
β
⩾
1
{\displaystyle \beta \geqslant 1}
1
{\displaystyle 1\ }
se
α
⩾
1
{\displaystyle \alpha \geqslant 1}
e
β
<
1
{\displaystyle \beta <1\ }
Varianza
α
β
(
α
+
β
)
2
(
α
β
+
1
)
{\displaystyle {\frac {\alpha \beta }{(\alpha +\beta )^{2}(\alpha \beta +1)}}}
Indice di asimmetria
2
β
−
α
α
+
β
+
2
α
+
β
+
1
α
β
{\displaystyle 2{\frac {\beta -\alpha }{\alpha +\beta +2}}{\sqrt {\frac {\alpha +\beta +1}{\alpha \beta }}}}
Funzione generatrice dei momenti
1
+
∑
k
=
1
∞
(
∏
r
=
0
k
−
1
α
+
r
α
+
β
+
r
)
t
k
k
!
{\displaystyle 1+\sum _{k=1}^{\infty }\left(\prod _{r=0}^{k-1}{\frac {\alpha +r}{\alpha +\beta +r}}\right){\frac {t^{k}}{k!}}}
Funzione caratteristica
1
F
1
(
α
;
α
+
β
;
i
t
)
{\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;i\,t)\!}
Questa distribuzione trova particolare utilizzo nella statistica bayesiana perché governa la probabilità p di un processo di Bernoulli a posteriori dell'osservazione di
α
−
1
{\displaystyle \alpha -1}
"successi" e
β
−
1
{\displaystyle \beta -1}
"fallimenti", quando p è a priori distribuita uniformemente tra 0 e 1.
Definizione
La distribuzione Beta di parametri
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
(entrambi positivi) è definita sull'intervallo
[
0
,
1
]
{\displaystyle [0,1]}
con funzione di densità di probabilità
f
(
x
)
=
x
α
−
1
(
1
−
x
)
β
−
1
B
(
α
,
β
)
{\displaystyle f(x)={\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}}
.
In altri termini la funzione di densità di probabilità è proporzionale alla funzione
x
α
−
1
(
1
−
x
)
β
−
1
{\displaystyle x^{\alpha -1}(1-x)^{\beta -1}\,\!}
,
riscalata per un fattore dato dalla funzione Beta
B
(
α
,
β
)
=
∫
0
1
x
α
−
1
(
1
−
x
)
β
−
1
d
x
{\displaystyle \mathrm {B} (\alpha ,\beta )=\int _{0}^{1}x^{\alpha -1}(1-x)^{\beta -1}dx}
;
in questo modo ha probabilità totale
P
(
[
0
,
1
]
)
=
1
{\displaystyle P([0,1])=1}
.
La sua funzione di ripartizione è la funzione Beta incompleta regolarizzata
F
(
x
)
=
I
x
(
α
,
β
)
=
B
x
(
α
,
β
)
B
(
α
,
β
)
=
∫
0
x
t
α
−
1
(
1
−
t
)
β
−
1
d
t
∫
0
1
t
α
−
1
(
1
−
t
)
β
−
1
d
t
{\displaystyle F(x)=I_{x}(\alpha ,\beta )={\frac {\mathrm {B} _{x}(\alpha ,\beta )}{\mathrm {B} (\alpha ,\beta )}}={\frac {\int _{0}^{x}t^{\alpha -1}(1-t)^{\beta -1}dt}{\int _{0}^{1}t^{\alpha -1}(1-t)^{\beta -1}dt}}}
.
Caratteristiche
I momenti semplici di una variabile aleatoria
X
{\displaystyle X}
con distribuzione Beta di parametri
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
sono
μ
k
=
E
[
X
k
]
=
∫
0
1
x
α
+
k
−
1
(
1
−
x
)
β
−
1
d
x
∫
0
1
x
α
−
1
(
1
−
x
)
β
−
1
d
x
=
B
(
α
+
k
,
β
)
B
(
α
,
β
)
=
(
α
)
k
(
α
+
β
)
k
{\displaystyle \mu _{k}=E[X^{k}]={\frac {\int _{0}^{1}x^{\alpha +k-1}(1-x)^{\beta -1}dx}{\int _{0}^{1}x^{\alpha -1}(1-x)^{\beta -1}dx}}={\frac {\mathrm {B} (\alpha +k,\beta )}{\mathrm {B} (\alpha ,\beta )}}={\frac {(\alpha )_{k}}{(\alpha +\beta )_{k}}}}
,
dove
x
k
{\displaystyle x_{k}}
indica il fattoriale crescente con k fattori,
(
x
)
k
=
x
(
x
+
1
)
⋯
(
x
+
k
−
1
)
{\displaystyle (x)_{k}=x(x+1)\cdots (x+k-1)}
.
(L'ultima uguaglianza può essere dedotta dall'espressione della funzione Beta attraverso la funzione Gamma ,
B
(
α
,
β
)
=
Γ
(
α
)
Γ
(
β
)
/
Γ
(
α
+
β
)
{\displaystyle \mathrm {B} (\alpha ,\beta )=\Gamma (\alpha )\Gamma (\beta )/\Gamma (\alpha +\beta )}
e dalla proprietà
Γ
(
x
+
1
)
=
x
Γ
(
x
)
{\displaystyle \Gamma (x+1)=x\Gamma (x)}
.)
I momenti semplici soddisfano quindi la relazione ricorsiva
μ
k
+
1
=
α
+
k
α
+
β
+
k
μ
k
{\displaystyle \mu _{k+1}={\frac {\alpha +k}{\alpha +\beta +k}}\mu _{k}}
.
Inoltre la distribuzione ha:
speranza matematica
E
[
X
]
=
α
α
+
β
{\displaystyle E[X]={\frac {\alpha }{\alpha +\beta }}}
;
varianza
Var
(
X
)
=
α
β
(
α
+
β
)
2
(
α
+
β
+
1
)
{\displaystyle {\text{Var}}(X)={\frac {\alpha \beta }{(\alpha +\beta )^{2}(\alpha +\beta +1)}}}
;
indice di asimmetria
γ
1
=
2
β
−
α
α
+
β
+
2
α
+
β
+
1
α
β
{\displaystyle \gamma _{1}=2{\frac {\beta -\alpha }{\alpha +\beta +2}}{\sqrt {\frac {\alpha +\beta +1}{\alpha \beta }}}}
;
indice di curtosi
γ
2
=
6
α
3
−
2
α
2
β
−
2
α
β
2
+
β
3
+
α
2
−
4
α
β
+
β
2
α
β
(
α
+
β
+
2
)
(
α
+
β
+
3
)
{\displaystyle \gamma _{2}=6{\frac {\alpha ^{3}-2\alpha ^{2}\beta -2\alpha \beta ^{2}+\beta ^{3}+\alpha ^{2}-4\alpha \beta +\beta ^{2}}{\alpha \beta (\alpha +\beta +2)(\alpha +\beta +3)}}}
.
I parametri
α
{\displaystyle \alpha }
e
β
{\displaystyle \beta }
possono essere determinati univocamente dalla speranza e dalla varianza:
α
=
E
[
X
]
(
E
[
X
]
(
1
−
E
[
X
]
)
Var
(
X
)
−
1
)
{\displaystyle \alpha =E[X]\left({\frac {E[X](1-E[X])}{{\text{Var}}(X)}}-1\right)}
;
β
=
(
1
−
E
[
X
]
)
(
E
[
X
]
(
1
−
E
[
X
]
)
Var
(
X
)
−
1
)
{\displaystyle \beta =(1-E[X])\left({\frac {E[X](1-E[X])}{{\text{Var}}(X)}}-1\right)}
.
Queste formule vengono applicate nel metodo dei momenti con la media e la varianza osservate su un campione .
L'entropia è
H
(
X
)
=
log
B
(
α
,
β
)
−
(
α
−
1
)
ϝ
(
α
)
−
(
β
−
1
)
ϝ
(
β
)
+
(
α
+
β
−
2
)
ϝ
(
α
+
β
)
{\displaystyle H(X)=\log \mathrm {B} (\alpha ,\beta )-(\alpha -1)\digamma (\alpha )-(\beta -1)\digamma (\beta )+(\alpha +\beta -2)\digamma (\alpha +\beta )}
,
dove
ϝ
{\displaystyle \digamma }
è la funzione digamma .
La moda della distribuzione dipende dai segni di
α
−
1
{\displaystyle \alpha -1}
e
β
−
1
{\displaystyle \beta -1}
, ed è unica solo se almeno uno dei due è positivo:
se
α
>
1
{\displaystyle \alpha >1}
e
β
>
1
{\displaystyle \beta >1}
allora la moda è
α
−
1
α
+
β
−
2
{\displaystyle {\frac {\alpha -1}{\alpha +\beta -2}}}
;
se
α
>
1
{\displaystyle \alpha >1}
(o
α
=
1
{\displaystyle \alpha =1}
) e
β
<
1
{\displaystyle \beta <1}
allora la moda è 1;
se
β
>
1
{\displaystyle \beta >1}
(o
β
=
1
{\displaystyle \beta =1}
) e
α
<
1
{\displaystyle \alpha <1}
allora la moda è 0.
(La funzione di densità di probabilità ha un asintoto in 0 se
α
<
1
{\displaystyle \alpha <1}
, in 1 se
β
<
1
{\displaystyle \beta <1}
.)
Altre distribuzioni
Una distribuzione Beta può essere definita su un qualunque intervallo
[
a
,
b
]
{\displaystyle [a,b]}
, prendendo
Y
=
a
+
(
b
−
a
)
X
{\displaystyle Y=a+(b-a)X}
.
Se
X
{\displaystyle X}
segue la distribuzione Beta di parametri
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
allora
1
−
X
{\displaystyle 1-X}
segue la distribuzione Beta di parametri
(
β
,
α
)
{\displaystyle (\beta ,\alpha )}
.
Per
α
=
β
=
3
2
{\displaystyle \alpha =\beta ={\tfrac {3}{2}}}
la densità di probabilità
f
(
x
)
=
x
(
1
−
x
)
{\displaystyle f(x)={\sqrt {x(1-x)}}}
della ditribuzione Beta descrive la metà superiore di una circonferenza :
(
2
f
(
x
)
)
2
+
(
2
x
−
1
)
2
=
1
{\displaystyle (2f(x))^{2}+(2x-1)^{2}=1}
, descrive un semicerchio. La variabile aleatoria
Y
=
r
(
2
X
−
1
)
{\displaystyle Y=r(2X-1)}
segue una distribuzione di Wigner di parametro r .
Se
X
{\displaystyle X}
e
Y
{\displaystyle Y}
sono due variabili aleatorie indipendenti con distribuzioni Gamma di rispettivi parametri
(
α
,
θ
)
{\displaystyle (\alpha ,\theta )}
e
(
β
,
θ
)
{\displaystyle (\beta ,\theta )}
, allora la variabile aleatoria
X
X
+
Y
{\displaystyle {\tfrac {X}{X+Y}}}
segue la distribuzione Beta di parametri
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
.
Se la variabile aleatoria
X
{\displaystyle X}
segue la distribuzione Beta di parametri
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
allora la variabile aleatoria
T
=
X
1
−
X
{\displaystyle T={\tfrac {X}{1-X}}}
è descritta dalla distribuzione Beta del secondo tipo , che ha funzione di densità di probabilità
f
(
t
)
=
x
α
−
1
/
(
1
−
x
)
α
+
β
B
(
α
,
β
)
{\displaystyle f(t)={\frac {x^{\alpha -1}/(1-x)^{\alpha +\beta }}{\mathrm {B} (\alpha ,\beta )}}}
La distribuzione di Wilks
Λ
(
p
,
m
,
n
)
{\displaystyle \Lambda (p,m,n)}
può essere interpretata come la distribuzione che governa il prodotto
X
1
⋯
X
n
{\displaystyle X_{1}\cdots X_{n}}
di n variabili aleatorie indipendenti
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
con rispettivi parametri
(
m
+
1
−
p
2
,
p
2
)
,
.
.
.
,
(
m
+
n
−
p
2
,
p
2
)
{\displaystyle ({\tfrac {m+1-p}{2}},{\tfrac {p}{2}}),...,({\tfrac {m+n-p}{2}},{\tfrac {p}{2}})}
.
Se
Y
{\displaystyle Y}
è una variabile aleatoria con distribuzione di Kumaraswamy di parametri
(
a
,
b
)
{\displaystyle (a,b)}
allora
X
=
Y
a
{\displaystyle X=Y^{a}}
segue la distribuzione Beta di parametri
(
1
,
b
)
{\displaystyle (1,b)}
.
Statistica bayesiana
La probabilità di ottenere
α
−
1
{\displaystyle \alpha -1}
successi e
β
−
1
{\displaystyle \beta -1}
fallimenti in un processo di Bernoulli di parametro p è
(
α
+
β
−
2
α
−
1
,
β
−
1
)
p
α
−
1
(
1
−
p
)
β
−
1
{\displaystyle {\tbinom {\alpha +\beta -2}{\alpha -1\,,\,\beta -1}}p^{\alpha -1}(1-p)^{\beta -1}}
, proporzionale alla densità
f
(
p
)
{\displaystyle f(p)}
della distribuzione Beta di parametri
(
α
,
β
)
{\displaystyle (\alpha ,\beta )}
.
Pertanto, se la variabile aleatoria
S
{\displaystyle S}
segue una distribuzione binomiale
B
(
P
,
α
+
β
−
2
)
{\displaystyle {\mathcal {B}}(P,\alpha +\beta -2)}
con parametro aleatorio P distribuito a priori uniformemente sull'intervallo unitario
[
0
,
1
]
{\displaystyle [0,1]}
, a posteriori dell'osservazione
S
=
α
−
1
{\displaystyle S=\alpha -1}
il parametro P segue la distribuzione
B
(
α
,
β
)
{\displaystyle \mathrm {B} (\alpha ,\beta )}
.
Più in generale, se
S
{\displaystyle S}
è una variabile aleatoria con distribuzione binomiale
B
(
P
,
n
)
{\displaystyle {\mathcal {B}}(P,n)}
e il parametro P segue a priori la distribuzione
B
(
α
,
β
)
{\displaystyle \mathrm {B} (\alpha ,\beta )}
, allora a posteriori dell'osservazione
S
=
s
{\displaystyle S=s}
il parametro P segue la distribuzione
B
(
α
+
s
,
β
+
n
−
s
)
{\displaystyle \mathrm {B} (\alpha +s,\beta +n-s)}
.
Il caso della distribuzione uniforme a priori è un caso particolare di quest'ultimo, essendo
B
(
1
,
1
)
=
U
(
0
,
1
)
{\displaystyle \mathrm {B} (1,1)={\mathcal {U}}(0,1)}
.
Similmente, se la variabile aleatoria
T
{\displaystyle T}
segue la distribuzione di Pascal
N
B
(
P
,
n
)
{\displaystyle {\mathcal {NB}}(P,n)}
e P segue a priori la distribuzione
B
(
α
,
β
)
{\displaystyle \mathrm {B} (\alpha ,\beta )}
, allora a posteriori dell'osservazione
T
=
t
{\displaystyle T=t}
il parametro P segue la distribuzione
B
(
α
+
n
,
β
+
t
)
{\displaystyle \mathrm {B} (\alpha +n,\beta +t)}
.
Voci correlate