Nga Wikipedia, enciklopedia e lire
Distanca totale e variacionit eshte gjysma e zones absolute midis dy kurbave: Gjysma e zones se hijezuar siper.
Ne
teorine e probabilitetit
,
distanca totale e variacionit
eshte nje mase e largesise per shperndarjet e probabilitetit. Eshte nje shembull i nje metrike
te largesise statistikore
dhe nganjehere quhet
largesia statistikore
,
ndryshesa statistikore
ose
largesia variacionale
.
Konsideroni nje hapesire te matshme
dhe masat e probabilitetit
dhe
percaktuar me
. Largesia totale e variacionit ndermjet
dhe
perkufizohet si
[1]
![{\displaystyle \delta (P,Q)=\sup _{A\in {\mathcal {F}}}\left|P(A)-Q(A)\right|.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ac46b36b546dad8d04ca83247d01fb9213324f3)
Kjo eshte ndryshesa absolute me e madhe midis probabiliteteve qe dy
shperndarjet e probabilitetit
i caktojne te njejtes ngjarje.
Largesia totale e variacionit eshte nje divergjence <i id="mwJg">f</i> dhe nje metrike integrale e probabilitetit .
Largesia totale e variacionit lidhet me
divergjencen Kullback-Leibler
nga mosbarazimi i Pinsker -it:
![{\displaystyle \delta (P,Q)\leq {\sqrt {{\frac {1}{2}}D_{\mathrm {KL} }(P\parallel Q)}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fd5220fd37274fe423b38bc417e833ac6cf9f2a1)
Gjithashtu merret mosbarazimi i meposhtem, per shkak te Bretagnolle dhe Huber
[2]
(shih gjithashtu ), e cila ka avantazhin e sigurimit te nje kufiri jo vakuoz edhe kur
![{\displaystyle \delta (P,Q)\leq {\sqrt {1-e^{-D_{\mathrm {KL} }(P\parallel Q)}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1c7896736483c0e48fa2525421aaa438b09ca520)
Largesia totale e variacionit eshte gjysma e largesia L <sup id="mwOw">1</sup> midis funksioneve te probabilitetit: ne domene diskrete, kjo eshte largesia midis
funksioneve te mases se probabilitetit
[3]
![{\displaystyle \delta (P,Q)={\frac {1}{2}}\sum _{x}|P(x)-Q(x)|,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d6362f81643c0de6b93a04c03516b899bedc4c97)
dhe kur shperndarjet kane
funksione standarde te densitetit te probabilitetit
p dhe q,
[4]
![{\displaystyle \delta (P,Q)={\frac {1}{2}}\int |p(x)-q(x)|\,\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/106fd709df88fd5cb586fe1de0d3ed2c4193e2f1)
- ^
Chatterjee, Sourav.
"Distances between probability measures"
(PDF)
. UC Berkeley. Arkivuar nga
origjinali
(PDF)
me 8 korrik 2008
. Marre me
21 qershor
2013
.
- ^
Bretagnolle, J.; Huber, C,
Estimation des densites: risque minimax
, Seminaire de Probabilites, XII (Univ. Strasbourg, Strasbourg, 1976/1977), pp. 342?363, Lecture Notes in Math., 649, Springer, Berlin, 1978, Lemma 2.1 (French).
- ^
David A. Levin, Yuval Peres, Elizabeth L. Wilmer,
Markov Chains and Mixing Times
, 2nd. rev. ed. (AMS, 2017), Proposition 4.2, p. 48.
- ^
Tsybakov, Aleksandr B. (2009).
Introduction to nonparametric estimation
(bot. rev. and extended version of the French Book). New York, NY: Springer. Lemma 2.1.
ISBN
978-0-387-79051-0
.