Inégalité d'Azuma

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Azuma (homonymie).

L’inégalité d'Azuma, parfois appelée inégalité d'Azuma-Hoeffding, est une inégalité de concentration concernant les martingales dont les accroissements sont bornés. C'est une généralisation de l'inégalité de Hoeffding, une inégalité de concentration ne concernant, elle, que les sommes de variables aléatoires indépendantes et bornées.

Énoncé courant

Un des énoncés les plus courants est

Inégalité d'Azuma — Soit une martingale M = ( M t ) 0 t m   {\displaystyle M=(M_{t})_{0\leq t\leq m}\ } par rapport à une filtration F = ( F 0 = { Ω , } F 1 F 2 F m )   {\displaystyle {\mathcal {F}}=({\mathcal {F}}_{0}=\{\Omega ,\varnothing \}\subset {\mathcal {F}}_{1}\subset {\mathcal {F}}_{2}\subset \dots \subset {\mathcal {F}}_{m})\ } et vérifiant

t [ [ 1 , m ] ] , P ( | M t M t 1 | 1 ) = 1. {\displaystyle \forall t\in [\![1,m]\!],\qquad \mathbb {P} (|M_{t}-M_{t-1}|\leq 1)=1.}

Alors, pour tout λ > 0 ,   {\displaystyle \lambda >0,\ }

P ( M m E [ M m ] λ ) exp ( λ 2 2 m ) , P ( M m E [ M m ] λ ) exp ( λ 2 2 m ) , P ( | M m E [ M m ] | λ ) 2 exp ( λ 2 2 m ) . {\displaystyle {\begin{aligned}\mathbb {P} \left(M_{m}-\mathbb {E} [M_{m}]\geq \lambda \right)&\leq \exp \left(-{\frac {\lambda ^{2}}{2m}}\right),\\\mathbb {P} \left(M_{m}-\mathbb {E} [M_{m}]\leq -\lambda \right)&\leq \exp \left(-{\frac {\lambda ^{2}}{2m}}\right),\\\mathbb {P} \left(\left|M_{m}-\mathbb {E} [M_{m}]\right|\geq \lambda \right)&\leq 2\exp \left(-{\frac {\lambda ^{2}}{2m}}\right).\end{aligned}}}

Notons que le choix F 0 = { Ω , }   {\displaystyle {\mathcal {F}}_{0}=\{\Omega ,\varnothing \}\ } entraine que M 0 = E [ M m ] .   {\displaystyle M_{0}=\mathbb {E} [M_{m}].\ }

Énoncé général

Un énoncé plus général (McDiarmid, Théorème 6.7) est le suivant

Théorème — Soit une martingale M = ( M t ) 0 t m   {\displaystyle M=(M_{t})_{0\leq t\leq m}\ } par rapport à une filtration F = ( F 0 = { Ω , } F 1 F 2 F m ) .   {\displaystyle {\mathcal {F}}=({\mathcal {F}}_{0}=\{\Omega ,\varnothing \}\subset {\mathcal {F}}_{1}\subset {\mathcal {F}}_{2}\subset \dots \subset {\mathcal {F}}_{m}).\ } Supposons qu'il existe une suite ( Z k ) 1 k m   {\displaystyle (Z_{k})_{1\leq k\leq m}\ } de variables aléatoires et une suite ( k ) 1 k m   {\displaystyle (\ell _{k})_{1\leq k\leq m}\ } de constantes telles que, pour tout k [ [ 1 , m ] ] ,   {\displaystyle k\in [\![1,m]\!],\ }

  • Z k   {\displaystyle Z_{k}\ } soit F k 1   {\displaystyle {\mathcal {F}}_{k-1}\ } -mesurable ;
  • P ( Z k M k Z k + k ) = 1. {\displaystyle \mathbb {P} (Z_{k}\leq M_{k}\leq Z_{k}+\ell _{k})=1.}

Alors, pour tout λ > 0 ,   {\displaystyle \lambda >0,\ }

P ( M m E [ M m ] λ ) exp ( 2 λ 2 i = 1 m i 2 ) , P ( M m E [ M m ] λ ) exp ( 2 λ 2 i = 1 m i 2 ) , P ( | M m E [ M m ] | λ ) 2 exp ( 2 λ 2 i = 1 m i 2 ) . {\displaystyle {\begin{aligned}\mathbb {P} \left(M_{m}-\mathbb {E} [M_{m}]\geq \lambda \right)&\leq \exp \left(-{\frac {2\lambda ^{2}}{\sum _{i=1}^{m}\ell _{i}^{2}}}\right),\\\mathbb {P} \left(M_{m}-\mathbb {E} [M_{m}]\leq -\lambda \right)&\leq \exp \left(-{\frac {2\lambda ^{2}}{\sum _{i=1}^{m}\ell _{i}^{2}}}\right),\\\mathbb {P} \left(\left|M_{m}-\mathbb {E} [M_{m}]\right|\geq \lambda \right)&\leq 2\exp \left(-{\frac {2\lambda ^{2}}{\sum _{i=1}^{m}\ell _{i}^{2}}}\right).\end{aligned}}}

L'énoncé courant, donné à la section précédente, est obtenu en spécialisant l'énoncé général aux choix k = 2 ,   Z k = 1 + M k 1 .   {\displaystyle \ell _{k}=2,\ Z_{k}=-1+M_{k-1}.\ }

Démonstration

La démonstration est analogue à celle de l'inégalité de Hoeffding : on pose

Y i = M i M i 1 , c i = Z i M i 1 , d i = Z i M i 1 + i , {\displaystyle {\begin{aligned}Y_{i}&=M_{i}-M_{i-1},\\c_{i}&=Z_{i}-M_{i-1},\quad d_{i}=Z_{i}-M_{i-1}+\ell _{i},\end{aligned}}}

et on remarque que

P ( c i Y i d i ) = 1 , d i c i = i , M m E [ M m ] = Y 1 + Y 2 + + Y m . {\displaystyle {\begin{aligned}\mathbb {P} \left(c_{i}\leq Y_{i}\leq d_{i}\right)&=1,\\d_{i}-c_{i}&=\ell _{i},\\M_{m}-\mathbb {E} [M_{m}]&=Y_{1}+Y_{2}+\dots +Y_{m}.\end{aligned}}}

Pour tout s > 0 ,   {\displaystyle s>0,\ } on a donc, en vertu de l'inégalité de Markov :

P ( M m E [ M m ] λ ) E [ e s ( M m E [ M m ] ) ] e s λ = E [ e s ( Y 1 + Y 2 + + Y m ) ] e s λ {\displaystyle {\begin{aligned}\mathbb {P} \left(M_{m}-\mathbb {E} [M_{m}]\geq \lambda \right)&\leq \mathbb {E} \left[e^{s(M_{m}-\mathbb {E} [M_{m}])}\right]e^{-s\lambda }\\&=\mathbb {E} \left[e^{s(Y_{1}+Y_{2}+\dots +Y_{m})}\right]e^{-s\lambda }\end{aligned}}}

On remarque alors que

E [ e s Y m | F m 1 ] exp ( s 2 m 2 / 8 ) , {\displaystyle {\begin{aligned}\mathbb {E} \left[e^{sY_{m}}\left|{\mathcal {F}}_{m-1}\right.\right]&\leq \exp \left(s^{2}\ell _{m}^{2}/8\right),\end{aligned}}}

en vertu de l'inégalité suivante (qui est le premier pas de la démonstration de l'inégalité de Hoeffding) :

Proposition —  Soit Y   {\displaystyle Y\ } une variable aléatoire réelle bornée et centrée (vérifiant E [ Y ] = 0   {\displaystyle \mathbb {E} [Y]=0\ } ). Soit c , d   {\displaystyle c,\,d\ } deux nombres réels tels que c < d   {\displaystyle c<d\ } et tels que P ( c Y d ) = 1.   {\displaystyle \mathbb {P} (c\leq Y\leq d)=1.\ } Alors, pour tout réel s > 0 ,   {\displaystyle s>0,\ }

E [ e s Y ] exp ( s 2 ( d c ) 2 / 8 ) . {\displaystyle \mathbb {E} \left[e^{sY}\right]\leq \exp \left(s^{2}(d-c)^{2}/8\right).}

En effet

E [ Y m | F m 1 ] = 0 , P ( c m Y m c m + m | F m 1 ) = 1 , {\displaystyle {\begin{aligned}\mathbb {E} \left[Y_{m}\left|{\mathcal {F}}_{m-1}\right.\right]&=0,\\\mathbb {P} \left(c_{m}\leq Y_{m}\leq c_{m}+\ell _{m}\left|{\mathcal {F}}_{m-1}\right.\right)&=1,\end{aligned}}}

et la variable aléatoire c m ,   {\displaystyle c_{m},\ } étant F m 1   {\displaystyle {\mathcal {F}}_{m-1}\ } -mesurable, fonctionne comme une constante, du moins à l'intérieur d'une espérance conditionnelle par rapport à la tribu F m 1 .   {\displaystyle {\mathcal {F}}_{m-1}.\ } Ainsi

E [ e s ( Y 1 + Y 2 + + Y m ) ] = E [ E [ e s ( Y 1 + Y 2 + + Y m ) | F m 1 ] ] = E [ e s ( Y 1 + Y 2 + + Y m 1 )   E [ e s Y m | F m 1 ] ] E [ e s ( Y 1 + Y 2 + + Y m 1 ) ]   e s 2 m 2 / 8 exp ( ( i = 1 m i 2 ) s 2 / 8 ) , {\displaystyle {\begin{aligned}\mathbb {E} \left[e^{s(Y_{1}+Y_{2}+\dots +Y_{m})}\right]&=\mathbb {E} \left[\mathbb {E} \left[e^{s(Y_{1}+Y_{2}+\dots +Y_{m})}\left|{\mathcal {F}}_{m-1}\right.\right]\right]\\&=\mathbb {E} \left[e^{s(Y_{1}+Y_{2}+\dots +Y_{m-1})}\ \mathbb {E} \left[e^{sY_{m}}\left|{\mathcal {F}}_{m-1}\right.\right]\right]\\&\leq \mathbb {E} \left[e^{s(Y_{1}+Y_{2}+\dots +Y_{m-1})}\right]\ e^{s^{2}\ell _{m}^{2}/8}\\&\leq \exp \left((\sum _{i=1}^{m}\ell _{i}^{2})s^{2}/8\right),\end{aligned}}}

la dernière inégalité étant obtenue par récurrence. On obtient ainsi la même inégalité intermédiaire que dans la démonstration de l'inégalité de Hoeffding, et on termine donc la démonstration de la même manière que pour l'inégalité de Hoeffding.

Principe de Maurey

Le principe de Maurey a été énoncé pour la première fois par Maurey dans une note aux Comptes rendus de l'Académie des Sciences en 1979, et découvert plus tard, semble-t-il indépendamment, par Harry Kesten, en théorie de la percolation. Il est d'usage fréquent en théorie des graphes aléatoires, dans l'analyse des algorithmes randomisés, et en théorie de la percolation. Il est parfois appelé method of bounded differences ou MOBD.

Énoncé

Soit deux ensembles A et B et soit Ω = A B   {\displaystyle \Omega =A^{B}\ } l'ensemble des applications de B dans A. On se donne une filtration B   =   ( B 0 = B 1 B 2 B m = B ) .   {\displaystyle {\mathcal {B}}\ =\ (B_{0}=\varnothing \,\subset \,B_{1}\,\subset \,B_{2}\,\subset \dots \subset \,B_{m}=B).\ }

Définition — Une application X : Ω R   {\displaystyle X\,:\,\Omega \rightarrow \mathbb {R} \ } est dite B {\displaystyle {\mathcal {B}}} -lipshitzienne si, pour tout t [ [ 1 , m ] ]   {\displaystyle t\in [\![1,m]\!]\ } et pour tout ( ω , ω ~ ) Ω ,   {\displaystyle (\omega ,{\tilde {\omega }})\in \,\Omega ,\ } on a l'implication :

{ ω | ( B t B t 1 ) c ω ~ | ( B t B t 1 ) c } { | X ( ω ) X ( ω ~ ) | 1 } . {\displaystyle \left\{\omega _{|(B_{t}\backslash B_{t-1})^{c}}\equiv {\tilde {\omega }}_{|(B_{t}\backslash B_{t-1})^{c}}\right\}\quad \Rightarrow \quad \left\{\left|X(\omega )-X({\tilde {\omega }})\right|\leq 1\right\}.}

Autrement dit, si les deux applications coïncident à l'intérieur de B t 1   {\displaystyle B_{t-1}\ } et à l'extérieur de B t   {\displaystyle B_{t}\ } (i.e. dans les zones vertes et bleues de la figure ci-dessous), alors X varie peu de l'une à l'autre.

Principe de Maurey et condition de Lipschitz.

Théorème — On suppose Ω   {\displaystyle \Omega \ } muni d'une structure ( Ω , A , P )   {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )\ } d'espace probabilisé telle que les images ( ω ( b ) ) b B   {\displaystyle (\omega (b))_{b\in B}\ } forment une famille de variables aléatoires indépendantes. On suppose également que la variable aléatoire réelle X, définie sur ( Ω , A , P )   {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )\ } , est B {\displaystyle {\mathcal {B}}} -lipshitzienne. Alors, pour tout λ > 0 ,   {\displaystyle \lambda >0,\ }

P ( X E [ X ] λ ) exp ( λ 2 2 m ) , P ( X E [ X ] λ ) exp ( λ 2 2 m ) , P ( | X E [ X ] | λ ) 2 exp ( λ 2 2 m ) . {\displaystyle {\begin{aligned}\mathbb {P} \left(X-\mathbb {E} [X]\geq \lambda \right)&\leq \exp \left(-{\frac {\lambda ^{2}}{2m}}\right),\\\mathbb {P} \left(X-\mathbb {E} [X]\leq -\lambda \right)&\leq \exp \left(-{\frac {\lambda ^{2}}{2m}}\right),\\\mathbb {P} \left(\left|X-\mathbb {E} [X]\right|\geq \lambda \right)&\leq 2\exp \left(-{\frac {\lambda ^{2}}{2m}}\right).\end{aligned}}}
Démonstration

On considère la filtration filtration F = ( F 0 = { Ω , } F 1 F 2 F m )   {\displaystyle {\mathcal {F}}=({\mathcal {F}}_{0}=\{\Omega ,\varnothing \}\subset {\mathcal {F}}_{1}\subset {\mathcal {F}}_{2}\subset \dots \subset {\mathcal {F}}_{m})\ } définie, pour 1 t m ,   {\displaystyle 1\leq t\leq m,\ } par

F t = σ ( ω ( b )   |   b B t ) . {\displaystyle {\mathcal {F}}_{t}=\sigma \left(\omega (b)\ |\ b\in B_{t}\right).}

Pour 0 t m ,   {\displaystyle 0\leq t\leq m,\ } on pose

M t = E [ X |   F t ] . {\displaystyle M_{t}=\mathbb {E} \left[X\left|\ {\mathcal {F}}_{t}\right.\right].}

Ainsi ( M t ) 0 t m   {\displaystyle \left(M_{t}\right)_{0\leq t\leq m}\ } est une martingale, et M 0 = E [ X ] ,   {\displaystyle M_{0}=\mathbb {E} \left[X\right],\ } M m = X .   {\displaystyle M_{m}=X.\ } Pour pouvoir appliquer l'inégalité d'Azuma, il ne reste plus qu'à démontrer que "les différences sont bornées". Pour cela on note, pour 1 t m , {\displaystyle 1\leq t\leq m,}

  • ω 1 {\displaystyle \omega _{1}} la restriction de ω {\displaystyle \omega } à C 1 = B t 1 ,   {\displaystyle C_{1}=B_{t-1},\ }
  • ω 2 {\displaystyle \omega _{2}} la restriction de ω {\displaystyle \omega } à C 2 = B t B t 1 ,   {\displaystyle C_{2}=B_{t}\backslash B_{t-1},\ }
  • ω 3 {\displaystyle \omega _{3}} la restriction de ω {\displaystyle \omega } à C 3 = B t c ,   {\displaystyle C_{3}=B_{t}^{c},\ } voir figure ci-dessus.

Comme les C i ,   {\displaystyle C_{i},\ } 1 i 3 ,   {\displaystyle 1\leq i\leq 3,\ } forment une partition de B, il en résulte, d'une part, que ω {\displaystyle \omega } est en correspondance bijective avec le triplet ( ω 1 , ω 2 , ω 3 )   {\displaystyle (\omega _{1},\,\omega _{2},\,\omega _{3})\ } , d'autre part qu'en vertu du lemme de regroupement le triplet ( ω 1 , ω 2 , ω 3 )   {\displaystyle (\omega _{1},\,\omega _{2},\,\omega _{3})\ } est un triplet de variables aléatoires indépendantes. Notons P i   {\displaystyle \mathbb {P} _{i}\ } la loi de probabilité de ω i ,   {\displaystyle \omega _{i},\ } qui est une mesure de probabilité sur A C i .   {\displaystyle A^{C_{i}}.\ } On a alors

E [ X |   F t ] ( ω ) = A C 3 X ( ω 1 , ω 2 , w 3 ) P 3 ( d w 3 ) , = A C 3 ( A C 2 X ( ω 1 , ω 2 , w 3 ) P 2 ( d w 2 ) ) P 3 ( d w 3 ) . E [ X |   F t 1 ] ( ω ) = A C 3 ( A C 2 X ( ω 1 , w 2 , w 3 ) P 2 ( d w 2 ) ) P 3 ( d w 3 ) . {\displaystyle {\begin{aligned}\mathbb {E} \left[X\left|\ {\mathcal {F}}_{t}\right.\right](\omega )&=\int _{A^{C_{3}}}X(\omega _{1},\,\omega _{2},\,w_{3})\mathbb {P} _{3}(dw_{3}),\\&=\int _{A^{C_{3}}}\left(\int _{A^{C_{2}}}X(\omega _{1},\,\omega _{2},\,w_{3})\mathbb {P} _{2}(dw_{2})\right)\mathbb {P} _{3}(dw_{3}).\\\mathbb {E} \left[X\left|\ {\mathcal {F}}_{t-1}\right.\right](\omega )&=\int _{A^{C_{3}}}\left(\int _{A^{C_{2}}}X(\omega _{1},\,w_{2},\,w_{3})\mathbb {P} _{2}(dw_{2})\right)\mathbb {P} _{3}(dw_{3}).\end{aligned}}}

Ainsi

| M t ( ω ) M t 1 ( ω ) | = | A C 3 ( A C 2 ( X ( ω 1 , ω 2 , w 3 ) X ( ω 1 , w 2 , w 3 ) ) P 2 ( d w 2 ) ) P 3 ( d w 3 ) | A C 3 ( A C 2 | X ( ω 1 , ω 2 , w 3 ) X ( ω 1 , w 2 , w 3 ) | P 2 ( d w 2 ) ) P 3 ( d w 3 ) . {\displaystyle {\begin{aligned}\left|M_{t}(\omega )-M_{t-1}(\omega )\right|&=\left|\int _{A^{C_{3}}}\left(\int _{A^{C_{2}}}\left(X(\omega _{1},\omega _{2},\,w_{3})-X(\omega _{1},\,w_{2},\,w_{3})\right)\mathbb {P} _{2}(dw_{2})\right)\mathbb {P} _{3}(dw_{3})\right|\\&\leq \int _{A^{C_{3}}}\left(\int _{A^{C_{2}}}\left|X(\omega _{1},\omega _{2},\,w_{3})-X(\omega _{1},\,w_{2},\,w_{3})\right|\mathbb {P} _{2}(dw_{2})\right)\mathbb {P} _{3}(dw_{3}).\end{aligned}}}

Mais les deux triplets ( ω 1 , ω 2 , w 3 )   {\displaystyle (\omega _{1},\omega _{2},\,w_{3})\ } et ( ω 1 , w 2 , w 3 )   {\displaystyle (\omega _{1},\,w_{2},\,w_{3})\ } déterminent deux applications de B dans A qui ne diffèrent qu'au niveau de leurs restrictions à C 2 = B t B t 1 ,   {\displaystyle C_{2}=B_{t}\backslash B_{t-1},\ } (leurs restrictions sont ω 2   {\displaystyle \omega _{2}\ } et w 2 ,   {\displaystyle w_{2},\ } respectivement). Ainsi, X étant B {\displaystyle {\mathcal {B}}} -lipshitzienne,

| X ( ω 1 , ω 2 , w 3 ) X ( ω 1 , w 2 , w 3 ) | 1. {\displaystyle \left|X(\omega _{1},\omega _{2},\,w_{3})-X(\omega _{1},\,w_{2},\,w_{3})\right|\leq 1.}

Par conséquent

| M t ( ω ) M t 1 ( ω ) | 1. {\displaystyle \left|M_{t}(\omega )-M_{t-1}(\omega )\right|\leq 1.}

Application à un modèle d'urnes et de boules

Dans cet exemple, l'intérêt d'une inégalité de concentration précise est de justifier une méthode statistique de comptage approximatif[1] pouvant servir, par exemple, à déceler une attaque de virus informatique.

Une inégalité de concentration

On jette m boules au hasard dans n boîtes, expérience probabiliste dont un événement élémentaire ω   {\displaystyle \omega \ } est décrit par une application de B = [ [ 1 , m ] ]   {\displaystyle B=[\![1,m]\!]\ } dans A = [ [ 1 , n ] ]   {\displaystyle A=[\![1,n]\!]\ }  : ω ( k )   {\displaystyle \omega (k)\ } est le numéro de la boîte dans laquelle est rangée la boule numéro k. Ainsi les ω ( k )   {\displaystyle \omega (k)\ } sont bien des variables aléatoires indépendantes, et, accessoirement, des variables aléatoires uniformes. Considérons l'application X, qui, à une distribution ω   {\displaystyle \omega \ } de m boules dans n boîtes, associe le nombre X ( ω )   {\displaystyle X(\omega )\ } de boîtes vides à la fin de cette distribution ω .   {\displaystyle \omega .\ } On peut calculer l'espérance de X aisément à l'aide d'une décomposition de X en somme de variables de Bernoulli. On trouve alors que

E [ X ]   =   n ( 1 1 n ) m . {\displaystyle \mathbb {E} [X]\ =\ n\left(1-{\tfrac {1}{n}}\right)^{m}.}

Pour le choix B t = [ [ 1 , t ] ] ,   {\displaystyle B_{t}=[\![1,t]\!],\ } l'application X est B {\displaystyle {\mathcal {B}}} -lipshitzienne : en effet, si, d'une distribution à une autre, seule la place de la boule n°t change ( B t B t 1 = { t }   {\displaystyle B_{t}\backslash B_{t-1}=\{t\}\ } est réduit au seul élément t ), alors le nombre de boîtes vides varie d'au plus une unité. Ainsi, en vertu du principe de Maurey,

P ( | X n ( 1 1 n ) m | λ ) 2 exp ( λ 2 2 m ) . {\displaystyle {\begin{aligned}\mathbb {P} \left(\left|X-n\left(1-{\tfrac {1}{n}}\right)^{m}\right|\geq \lambda \right)&\leq 2\exp \left(-{\frac {\lambda ^{2}}{2m}}\right).\end{aligned}}}

Une inégalité plus précise[2] est obtenue en appliquant la forme générale de l'inégalité d'Azuma.

Un problème de comptage approché

Il s'agit d'estimer le nombre m d'utilisateurs différents, identifiés, à un nœud du réseau, par l'entête du paquet de données qu'ils envoient. L'idée est qu'une attaque de virus ne se traduit pas par une augmentation décelable du volume du trafic (le gros du volume étant fourni, par exemple, par des téléchargements de fichiers, lesquels sont scindés en nombreux paquets qui ont tous le même entête, caractérisant le même utilisateur), mais par une augmentation drastique du nombre d'utilisateurs différents, à cause d'un envoi massif et concerté de mails (tous de petit volume, comparés à des téléchargements).

Chaque fois qu'un paquet de données est reçu à un nœud du réseau, l'utilisateur b émetteur du paquet est reconnu à l'aide de l'entête E b   {\displaystyle {\mathcal {E}}_{b}\ } du paquet de données (une suite de longueur L de 0 et de 1). Cet entête E b   {\displaystyle {\mathcal {E}}_{b}\ } est haché, i.e. transformé en un nombre U ( E b )   {\displaystyle U({\mathcal {E}}_{b})\ } aléatoire uniforme sur l'intervalle [0,1] : cette transformation (la fonction de hachage) est conçue de telle sorte que m paquets émis par m utilisateurs différents produisent m entêtes différents ( E b ) 1 b m   {\displaystyle \left({\mathcal {E}}_{b}\right)_{1\leq b\leq m}\ } et, après hachage de ces entêtes, produisent une suite ( U b ) 1 b m   {\displaystyle \left(U_{b}\right)_{1\leq b\leq m}\ } de m variables aléatoires indépendantes et uniformes sur l'intervalle [0,1]. Par contre   {\displaystyle \ell \ } paquets émis par le même utilisateur b produisent   {\displaystyle \ell \ } fois la même entête E b   {\displaystyle {\mathcal {E}}_{b}\ } , et   {\displaystyle \ell \ } hachages successifs de cet entête produisent une suite de   {\displaystyle \ell \ } valeurs aléatoires identiques, toutes égales au même nombre tiré au hasard, une fois pour toutes, uniformément sur l'intervalle [0,1].

On reçoit un grand nombre (P) de paquets en un laps de temps très court. On dispose seulement de n cases mémoires et on veut compter le nombre m d'utilisateurs différents émetteurs de ces paquets. Par manque de place mémoire, il est impossible de stocker au fur et à mesure les entêtes des paquets déjà reçus, et par manque de temps il serait impossible de tester si un nouvel entête reçu fait partie de la liste des entêtes déjà récoltés. Un calcul exact de m est donc impossible. On se donne alors n cases, numérotées de 1 à n, considérées comme libres, ou bien occupées. Au départ toutes les cases sont considérées comme libres. À chaque paquet reçu, l'entête correspondant est haché, produisant un nombre U aléatoire uniforme sur [0,1], et la case n° n U   {\displaystyle \lceil nU\rceil \ } est marquée occupée, quel qu'ait été son statut antérieur. Qu'une entête apparaisse une fois ou 10 000 fois, le résultat sera le même : c'est, du fait de cet entête, le même nombre aléatoire U qui sera engendré et la même case n° n U   {\displaystyle \lceil nU\rceil \ } qui sera marquée occupée.

Ainsi l'état de l'ensemble des n cases après réception des P paquets ne dépend pas du volume P du trafic, mais uniquement de la suite des m entêtes hashés ( U b ) 1 b m   {\displaystyle (U_{b})_{1\leq b\leq m}\ } correspondant aux m utilisateurs différents. Plus précisément, le nombre X de cases libres à la fin du processus a même loi que dans le problème de boîtes et de boules évoqué à la section précédente. L'inégalité de concentration assure que, pour n et m assez grands, avec une forte probabilité, l'approximation de E [ X ]   {\displaystyle \mathbb {E} [X]\ } par X, c'est-à-dire :

X n     ( 1 1 n ) m     e m / n {\displaystyle {\frac {X}{n}}\ \simeq \ \left(1-{\tfrac {1}{n}}\right)^{m}\ \simeq \ e^{-m/n}}

est assez précise pour permettre de reconstituer le ratio r=m/n, et, partant de là, le nombre m d'utilisateurs différents, inconnu jusque-là, en fonction de X et de n, qui sont connus : on choisit comme approximation de r le nombre ln ( X / n ) .   {\displaystyle -\ln(X/n).\ } Dans cette situation particulière, on sera satisfait si la précision de l'approximation permet de déceler un changement brutal de la valeur de m d'un moment à l'autre, changement annonciateur d'une attaque de virus : pour cela, une approximation grossière de m devrait suffire.

Voir aussi

Notes

  1. proposée par (en) Kyu-Young Whang et Ravi Krishnamurthy, « Query optimization in a memory-resident domain relational calculus database system », ACM Transactions on Database Systems (TODS), New York, NY, USA, ACM, vol. 15, no 1,‎ , p. 67–95 (ISSN 0362-5915, lire en ligne)
  2. (en) Rajeev Motwani et Prabhakar Raghavan, Randomized Algorithms, Cambridge, New York et Melbourne, Cambridge University Press, (réimpr. 1997, 2000), 1re éd., 476 p. (ISBN 978-0-521-47465-8, lire en ligne), chap. 4 (« Tail inequalities »), p. 94–95, Théorème 4.18.

Bibliographie

  • (en) N. Alon et J. Spencer, The Probabilistic Method, New York, Wiley,
  • (en) K. Azuma, « Weighted Sums of Certain Dependent Random Variables », Tôhoku Math. Journ., vol. 19,‎ , p. 357–367
  • (ru) Sergei N. Bernstein, « [traduction] On certain modifications of Chebyshev's inequality », Doklady Akademii Nauk SSSR, vol. 17, no 6,‎ , p. 275–277
  • (en) C. McDiarmid, « On the method of bounded differences », London Math. Soc. Lectures Notes, Cambridge (UK), Cambridge Univ. Press, no 141 « Surveys in Combinatorics »,‎ , p. 148–188
  • (en) W. Hoeffding, « Probability inequalities for sums of bounded random variables », J. Amer. Statist. Assoc., vol. 58,‎ , p. 13–30
  • B. Maurey, « Constructions de suites symétriques », CR Acad. Sci. Paris, Série A–B, vol. 288,‎ , p. 679–681

Pour aller plus loin

  • (en) S. Boucheron, G. Lugosi et P. Massart, « Concentration inequalities using the entropy method », Annals of Probability,‎

Pages liées

  • icône décorative Portail des probabilités et de la statistique