Στην θεωρία πιθανοτήτων , δύο γεγονότα
A
{\displaystyle A}
και
B
{\displaystyle B}
λέγονται ανεξάρτητα όταν γνωρίζοντας αν έγινε το ένα από τα δύο, δεν λαμβάνουμε πληροφορίες για το αν έγινε το άλλο. Διαφορετικά, λέγονται εξαρτημένα .
Για παράδειγμα, αν ρίξουμε ένα (δίκαιο) ζάρι δύο φορές και τα αποτελέσματα είναι
X
1
{\displaystyle X_{1}}
και
X
2
{\displaystyle X_{2}}
, τα γεγονότα
{
X
1
=
6
}
{\displaystyle \{X_{1}=6\}}
και
{
X
2
=
3
}
{\displaystyle \{X_{2}=3\}}
είναι ανεξάρτητα, δηλαδή η γνώση ότι το πρώτο ζάρι ήταν
6
{\displaystyle 6}
δεν μας δίνει (παραπάνω) πληροφορία για το αν το άλλο ζάρι ήταν
3
{\displaystyle 3}
.
Αντίθετα, αν διαλέξουμε δύο φύλλα από μία τράπουλα
X
1
{\displaystyle X_{1}}
και
X
2
{\displaystyle X_{2}}
το ένα κατόπιν του άλλου, τότε τα γεγονότα
{
X
1
=
3♣
}
{\displaystyle \{X_{1}={\text{3♣}}\}}
και
{
X
2
=
5♥
}
{\displaystyle \{X_{2}={\color {red}{\text{5♥}}}\}}
δεν είναι ανεξάρτητα, καθώς αν γνωρίζουμε ότι το πρώτο φύλλο είναι το
3♣
{\displaystyle {\text{3♣}}}
, τότε αυξάνονται οι πιθανότητες το δεύτερο φύλλο να είναι το
5♥
{\displaystyle {\color {red}{\text{5♥}}}}
. Αν επιστρέφαμε το πρώτο φύλλο στην τράπουλα προτού διαλέξουμε το δεύτερο φύλλο, τότε τα δύο γεγονότα θα ήταν ανεξάρτητα.
Δύο γεγονότα
A
,
B
⊆
Ω
{\displaystyle A,B\subseteq \Omega }
λέγονται ανεξάρτητα αν ισχύει ότι:[ 1] [ 2] [ 3] [ 4]
P
(
A
∩
B
)
=
P
(
A
)
⋅
P
(
B
)
.
{\displaystyle \operatorname {P} (A\cap B)=\operatorname {P} (A)\cdot \operatorname {P} (B).}
Πιο γενικά,
n
{\displaystyle n}
γεγονότα
A
1
,
A
2
,
…
,
A
n
{\displaystyle A_{1},A_{2},\ldots ,A_{n}}
είναι ανεξάρτητα αν για κάθε
k
∈
[
1
,
n
]
{\displaystyle k\in [1,n]}
και κάθε
i
1
<
…
<
i
k
{\displaystyle i_{1}<\ldots <i_{k}}
έχουμε ότι:
P
(
A
i
1
∩
…
∩
A
i
k
)
=
P
(
A
i
1
)
⋅
…
⋅
P
(
A
i
k
)
.
{\displaystyle \operatorname {P} (A_{i_{1}}\cap \ldots \cap A_{i_{k}})=\operatorname {P} (A_{i_{1}})\cdot \ldots \cdot \operatorname {P} (A_{i_{k}}).}
Αντίστοιχα, δύο τυχαίες μεταβλητές
X
{\displaystyle X}
και
Y
{\displaystyle Y}
είναι ανεξάρτητες αν για κάθε
x
,
y
∈
R
{\displaystyle x,y\in \mathbb {R} }
, τα γεγονότα
{
X
≤
x
}
{\displaystyle \{X\leq x\}}
και
{
Y
≤
y
}
{\displaystyle \{Y\leq y\}}
είναι ανεξάρτητα. ή ισοδύναμα:
F
X
,
Y
(
x
,
y
)
=
F
X
(
x
)
⋅
F
Y
(
y
)
.
{\displaystyle F_{X,Y}(x,y)=F_{X}(x)\cdot F_{Y}(y).}
Αντίστοιχα,
n
{\displaystyle n}
τυχαίες μεταβλητές
X
1
,
…
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
είναι ανεξάρτητες αν για κάθε
x
1
,
…
,
x
n
∈
R
{\displaystyle x_{1},\ldots ,x_{n}\in \mathbb {R} }
:
F
X
1
,
…
,
X
n
(
x
1
,
…
,
x
n
)
=
F
X
1
(
x
1
)
⋅
…
⋅
F
X
n
(
x
n
)
.
{\displaystyle F_{X_{1},\ldots ,X_{n}}(x_{1},\ldots ,x_{n})=F_{X_{1}}(x_{1})\cdot \ldots \cdot F_{X_{n}}(x_{n}).}
Το γεγονός
A
{\displaystyle A}
είναι ανεξάρτητο του εαυτού του, αν και μόνο αν
A
=
Ω
{\displaystyle A=\Omega }
ή
A
=
∅
{\displaystyle A=\emptyset }
.
Αν οι τυχαίες μεταβλητές
X
{\displaystyle X}
και
Y
{\displaystyle Y}
είναι ανεξάρτητες, τότε και οι
f
(
X
)
{\displaystyle f(X)}
και
g
(
Y
)
{\displaystyle g(Y)}
είναι ανεξάρτητες, για οποιεσδήποτε συναρτήσεις
f
{\displaystyle f}
και
g
{\displaystyle g}
.
Έστω
X
{\displaystyle X}
και
Y
{\displaystyle Y}
ανεξάρτητες μεταβλητές. Τότε,
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
,
{\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\cdot \operatorname {E} [Y],}
Απόδειξη
Για διακριτές τυχαίες μεταβλητές
X
{\displaystyle X}
και
Y
{\displaystyle Y}
που παίρνουν τιμές στο
X
{\displaystyle {\mathcal {X}}}
και
Y
{\displaystyle {\mathcal {Y}}}
, έχουμε ότι:
E
[
X
Y
]
=
∑
x
∈
X
∑
y
∈
Y
p
X
,
Y
(
x
,
y
)
⋅
x
y
=
∑
x
∈
X
∑
y
∈
Y
p
X
(
x
)
⋅
p
Y
(
y
)
⋅
x
y
=
∑
x
∈
X
p
X
(
x
)
⋅
x
⋅
∑
y
∈
Y
p
Y
(
y
)
⋅
y
=
∑
x
∈
X
p
X
(
x
)
⋅
x
⋅
E
[
Y
]
=
E
[
Y
]
⋅
∑
x
∈
X
p
X
(
x
)
⋅
x
=
E
[
X
]
⋅
E
[
Y
]
.
{\displaystyle {\begin{aligned}\operatorname {E} [XY]&=\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}p_{X,Y}(x,y)\cdot xy\\&=\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}p_{X}(x)\cdot p_{Y}(y)\cdot xy\\&=\sum _{x\in {\mathcal {X}}}p_{X}(x)\cdot x\cdot \sum _{y\in {\mathcal {Y}}}p_{Y}(y)\cdot y\\&=\sum _{x\in {\mathcal {X}}}p_{X}(x)\cdot x\cdot \operatorname {E} [Y]\\&=\operatorname {E} [Y]\cdot \sum _{x\in {\mathcal {X}}}p_{X}(x)\cdot x\\&=\operatorname {E} [X]\cdot \operatorname {E} [Y].\end{aligned}}}
Αντίστοιχα, για συνεχείς διακριτές μεταβλητές, έχουμε ότι
E
[
X
Y
]
=
∫
x
∫
y
p
X
,
Y
(
x
,
y
)
⋅
x
y
d
y
d
x
=
∫
x
∫
y
p
X
(
x
)
⋅
p
Y
(
y
)
⋅
x
y
d
y
d
x
=
∫
x
p
X
(
x
)
⋅
x
⋅
∫
y
p
Y
(
y
)
⋅
y
d
y
d
x
=
∫
x
p
X
(
x
)
⋅
x
⋅
E
[
Y
]
d
x
=
E
[
Y
]
⋅
∫
x
p
X
(
x
)
⋅
x
d
x
=
E
[
X
]
⋅
E
[
Y
]
.
{\displaystyle {\begin{aligned}\operatorname {E} [XY]&=\int _{x}\int _{y}p_{X,Y}(x,y)\cdot xy\,dy\,dx\\&=\int _{x}\int _{y}p_{X}(x)\cdot p_{Y}(y)\cdot xy\,dy\,dx\\&=\int _{x}p_{X}(x)\cdot x\cdot \int _{y}p_{Y}(y)\cdot y\,dy\,dx\\&=\int _{x}p_{X}(x)\cdot x\cdot \operatorname {E} [Y]\,dx\\&=\operatorname {E} [Y]\cdot \int _{x}p_{X}(x)\cdot x\,dx\\&=\operatorname {E} [X]\cdot \operatorname {E} [Y].\end{aligned}}}
και για την συνδιακύμανσή τους, ισχύει ότι
Cov
(
X
,
Y
)
=
0.
{\displaystyle \operatorname {Cov} (X,Y)=0.}
Απόδειξη
Cov
(
X
,
Y
)
=
E
[
X
Y
]
−
E
[
X
]
⋅
E
[
Y
]
=
E
[
X
]
⋅
E
[
Y
]
−
E
[
X
]
⋅
E
[
Y
]
=
0.
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} [XY]-\operatorname {E} [X]\cdot \operatorname {E} [Y]=\operatorname {E} [X]\cdot \operatorname {E} [Y]-\operatorname {E} [X]\cdot \operatorname {E} [Y]=0.}
(Ταυτότητα Bienaymé ) Έστω
n
{\displaystyle n}
ανεξάρτητες τυχαίες μεταβλητές
X
1
,
…
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
, τότε η διακύμανση του αθροίσματος τους είναι ίση με το άθροισμα των διακύμανσεών τους:
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
Var
(
X
i
)
.
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i=1}^{n}\operatorname {Var} (X_{i}).}