PROBABILITES

     Le mot probabilité vient du latin « probare » - prouver, tester – et signifie qui peut se produire éventuellement. En mathématique la théorie des probabilités sert à quantifier une ou plusieurs incertitudes.

     Lorsque nous voulons mesurer ou quantifier l’incertitude d’un évènement nous utilisons une échelle qui part de zéro (évènement impossible) à un (évènement certain).

     L’application des probabilités est lié au domaine des statistiques habituellement fondé sur l’idée de distribution de probabilité, le théorème de la limite centrale, la théorie de la décision et le très vaste univers de l’estimation optimale grâce à la loi de BAYES.

     La probabilité de l’aléatoire représente la probabilité d’évènements dont la réalisation dépend de phénomènes physiques aléatoires (ex : la probabilité de faire 1 en lançant un dé est de Pb / 1 = 1/6, pour une pièce la probabilité de faire pile ou face est 1/2).

     Dans la mesure où nous sommes incapables de prédire avec certitude la réalisation d’un évènement nous lui affectons une probabilité de réalisation.

     Blaise Pascal au XVII pour le déductif et Thomas Bayes au XVIII pour l’inductif furent les premiers à nous donner des descriptions mathématiques rigoureuses.

     Le modèle fréquentiste nous montre grâce à la loi des grands nombres que l’estimation d’une probabilité se rapproche de UN (c’est à dire devient quasi certaine) lorsque le nombre d’évènements ou de réalisations se rapproche de l’infini, sachant que chaque évènement est indépendant du précédent.

*Prenons un exemple simple celui du lancer d’une pièce de monnaie.

     Soit F représentant le côté face et P(F) la probabilité d’obtenir face, soit N le nombre de lancers.

     Nous constatons alors que plus le nombre de lancers est grand plus la probabilité P(F) se rapproche de 1/2.

P(F) = NF/N lorsque N tends vers l’infini

     En théorie des probabilités un évènement est un sous ensemble mesurable d’un ensemble de cas possibles.

     L’estimation d’une probabilité se résume donc à calculer le rapport entre le nombre de cas possibles ou totaux et le nombre de cas favorables à la réaction de l’évènement.

P(E) = NF / NT

E = évènement     F = favorables     T = possibles ou totaux

Ex = Pour obtenir le chiffre 2 en lançant un dé

Nbre cas favorable 1 : Nbre cas totaux 6 : Donc P(2) = 1/6

PROBABILITES ADDITIONNELLES

     Si vous lancez plusieurs fois les dés vous augmentez chaque fois votre chance d’obtenir l’évènement de 1/6.

Ex = vous lancez trois fois le dé pour essayer d’obtenir le chiffre 2

P(E2) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2

La probabilité d'obtenir en lancant 3 fois est de 50%.

     Il se peut qu’au bout de 3 lancers vous n’ayez pas obtenu le chiffre 2 ou peut-être que vous l’ayez obtenu déjà une fois. Mais de toute façon avant les trois lancers vous avez une probabilité de 50% d’obtenir le chiffre 2.

     En effet si vous effectuez un nombre N de 3 lancers, plus N est grand, plus P(E2) se rapproche de 1/2 c’est-à-dire 50%.

PROBABILITES CONDITIONNELLES SIMPLES

     Lorsque vous avez deux dés identiques et que vous les lancez ensemble , les choses se compliquent un peu.
Ex= vous voulez obtenir le chiffre 8 en lançant une fois les 2 dés ensemble.

Nbre de cas favorables : 5 et 3 ; 3 et 5 ; 6 et 2 ; 2 et 6 ; 4 et 4
Ce qui fait 5 cas favorables

Le nombre de cas possibles étant 6x6 = 36

Donc P(8) = 5 / 36

Si nous décomposons nous obtenons

- Probabilité d’obtenir 8 avec : 5 et 3 ou 3 et 5

     Il faut nécessairement les deux faces simultanément, nous les appellerons probabilités conditionnelles simples.

P(5) x P(3) = P(3) x P(5) = 1/6 x 1/6 = 1/36

La probabilité d’obtenir le 8 avec 5 et 3 ou 3 et 5 est donc

P(5) x P(3) + P(3) x P(5) = 1/36 + 1/36 = 2/36

- Probabilité d’obtenir 8 avec 6 et 2 ou 2 et 6

Le raisonnement est identique que précédemment donc

P(6) x P(2) + P(2) x P(6) = 2/36

- La probabilité d’obtenir le double 4 : une seule possibilité :

P(4) x P(4) = 1/36

     La probabilité d’obtenir un 8 en additionnant toutes les probabilités conditionnelles intermédiaires est de :

P(8) = P(5)xP(3)+P(3)xP(5) + P(6)xP(2)+P(2)xP(6) + P(4)xP(4)
= 2/36 + 2/36 + 1/36
= 5/36

     En lançant deux dés simultanément nous utilisons probabilités conditionnelles et additionnelles pour obtenir la probabilité d’un évènement déterminé.

PROBABILITES CONDITIONNELLES COMPLEXES

      Pour l’instant nous avons calculé des probabilités sachant que chaque évènement est indépendant et qu’aucun n’est connu d’avance, mais supposons que nous ayons connaissance du résultat ou partiel de l’évènement : cela change-t-il les calculs et si oui comment procéder alors ?

     Nous rentrons grâce à ce nouvel élément dans un autre domaine, celui de Thomas BAYES et de son théorème qui a permis à partir d’observations sur l’issue d’une expérience de calculer de nouvelles probabilités mais aussi les paramètres qui en découlent.

     Le théorème de BAYES sert effectivement à actualiser les estimations d’une probabilité ou d’un paramètre à partir d’observations et des probabilités qui en découlent.

Etant donné deux événements A et B

     Le théorème de Bayes permet de déterminer la probabilité de A en sachant B si l’on connait : les probabilités de A, de B, B connaissant A

P(A/B) =   P(B/A) x P(A)  
                 P(B)

P(A) probabilité a priori de A antérieure à l’observation de B
P(A/B) probabilité a posteriori de A sachant B postérieure à l’observation
P(B) probabilité a priori de B

P(A/B) peut-être défini comme une probabilité conditionnelle complexe

L’illustration du théorème de Bayes
Par l’exemple du sac et des bonnets rouges et blancs

*Imaginons deux sacs identiques

Dans le premier sac S1 nous plaçons 10 bonnets rouges et 30 bonnets blancs
Dans le deuxième sac S2 nous plaçons 20 bonnets rouges et 20 bonnets blancs
On choisit un des deux sacs au hasard dans lequel on tire un bonnet au hasard.

     Avant de regarder la couleur du bonnet la probabilité d’avoir tiré dans le premier sac S1 est de 50%.

     Puis on regarde la couleur du bonnet tiré, si celle-ci est blanche, cela change-t-il ou non la probabilité que le bonnet blanc provienne du sac S1, la nouvelle info a-t-elle modifié la probabilité?

Eh bien oui elle a été modifiée, Bayes le démontre.
Soit HS1, l’hypothèse de tirer dans le premier sac S1
Soit HS2, l’hypothèse de tirer dans le deuxième sac S2

P(HS1) = P(HS2) = 50%

Soit B l’information qui constate que le bonnet est blanc.

La probabilité de tirer dans S1 sachant la couleur a posteriori est :
1ère hypo    P(B/HS1) = 30/40 = 75%

La probabilité de tirer dans S2 sachant la couleur a posteriori
2ème hypo    P(B/HS2) = 20/40 = 50%

La probabilité de tirer le sac S1 est P(HS1) = 50%

Le théorème de Bayes nous permet d’actualiser la probabilité initiale après l’observation finale

P(HS1/B) =                 P(HS1) x P(B/HS1)                
                 P(HS1) x P(B/HS1) + P(HS2) x P(B/HS2)

    =            50% x 75%            = 60%
50% x 75% + 50% x 50%

     Après avoir regardé la couleur du bonnet tiré , nous avons révisé notre jugement car cette nouvelle information nous a apporté un nouvel élément quantifiable.

Illustration du théorème de Bayes à travers le problème de Monty – Hall

     Dans un jeu télévisé le présentateur propose au candidat de choisir entre trois portes identiques P1 – P2 – P3, derrière l’une se trouve une voiture derrière les deux autres se trouve une chèvre, le but du jeu étant de gagner la voiture si au final on trouve la bonne porte.

     Dans un premier temps le candidat choisit sans l’ouvrir une porte au hasard, il a donc une chance sur trois de tomber sur la voiture.

     Dans un deuxième temps le présentateur ouvre les deux autres portes sans que le candidat assiste à la scène, le présentateur doit absolument respecter la contrainte suivante : toujours laisser la porte ouverte derrière laquelle se trouve une chèvre.

PAR CONSEQUENT

a) Si les deux portes ouvertes ont une chèvre le presentateur choisit au hasard l’une des deux portes.

b) Si derrière l’une des deux portes il y a la voiture il laisse ouverte systématiquement la porte avec la chèvre

Résumons :
     - Le présentateur n’ouvre jamais la porte choisie par le candidat
     - Le présentateur laisse toujours la porte ouverte avec une chèvre derrière

     Après avoir agi selon les conditions explicitées ci-dessus le présentateur se retourne alors vers le candidat et lui demande s’il veut changer son choix initial sachant que la porte laissée ouverte par le présentateur donne sur une chèvre.

     Le candidat connaissant cette nouvelle information doit il changer son choix initial pour augmenter ses chances de gagner la voiture, si oui pourquoi et de combien les augmente-t-il ?


* Hypothèses de bases

     - Les trois portes sont identiques, le candidat dans son choix initial a une chance sur trois de tomber sur la voiture.

     - Le présentateur ne peut ouvrir la porte choisie par le candidat, ni laisser une porte ouverte sur la voiture

     - Quand le présentateur a le choix entre deux portes où se trouvent les chèvres, il en choisit une au hasard.

     -› Intuitivement on peut penser que l’ouverture d’une porte par le présentateur revient à ouvrir une mauvaise porte avant le choix du candidat, donc la probabilité de gagner la voiture est ramenée à la probabilité de choisir au hasard entre la chèvre et la voiture = 50%.

     Ce raisonnement serait exact si la porte ouverte par le présentateur l’était tout à fait au hasard or ce n’est pas le cas puisqu’il y a certaines contraintes (ref hypothèse de Bore).

     En effet le raisonnement intuitif aboutissant à la probabilité de 50% ne tient pas compte de l’évènement a posteriori, une porte est ouverte où il n’y a pas de voiture.

     Le candidat doit tenir compte de cette information pour pouvoir augmenter ses chances.

Que doit il faire en réalité ?
Il doit systématiquement changer son choix,
sa probabilité de gain est alors de 2/3

Raisonnement par l’absurde

     Au départ le candidat a 1/3 de tomber sur la voiture donc s’il maintient son choix initial systématiquement, il perdra 2/3 c’est à dire environ 66%.

     Donc en changeant son choix systématiquement il gagnera 2/3 c’est à dire environ 66%.

     D’ailleurs il suffit de raisonner autrement pour comprendre le résultat.

     Si le candidat change systématiquement son choix, il ne perdra que lorsqu’il avait choisi initialement la porte avec la voiture, dans les deux autres cas, il gagne. Sa probabilité de gagner en appliquant cette stratégie est de 2/3 c’est à dire environ 66%.

     Dans ce jeu de Monty Hall, nous sommes confronter à un problème relevant de théorème de Bayes qui va nous permettre de confirmer le résultat trouvé.

     Ce jeu introduit une interaction entre plusieurs évènements dont la probabilité de réalisation est connue, il rentre donc parfaitement dans le domaine des probabilités conditionnelles complexes de Bayes.

     Supposons que le candidat ait choisie la porte 3. La probabilité que la voiture soit derrière la porte 2 est de 1/3, la probabilité que le présentateur ouvre la porte 1 est de 1/2 ; le candidat ayant choisi la porte 3 et le présentateur respectant les contraintes définies auparavant.

  - Soit la voiture est derrière P1 et le présentateur ouvre P2
  - Soit la voiture est derrière P2 et le présentateur ouvre P1
  - Soit la voiture est derrière P3 et le présentateur ouvre P1 ou P2

     La probabilité que le présentateur ouvre P1 sachant que la voiture est derrière P2 est donc de 1.

     La probabilité que la voiture soit derrière P2 sachant que le présentateur ouvre la porte P1 est :

P (P2/P1) =                 1 x 1/3                 = 2/3
         0x1/3 + 1x1/3 + 1/2x1/3

CONCLUSION
Ce chapitre sur les probabilités simples, conditionnelles et conditionnelles complexes, nous permettra peut être de mieux comprendre le chapitre sur les statistiques et surtout de pondérer leur application au poker en utilisant la loi des grands nombres et le théorème de Bayes.

En effet il facile de comprendre pourquoi sur une séance les statistiques peuvent être faussées, il est aisé de comprendre pourquoi en intégrant les observations des joueurs à la table ou leur suivi psychologique sur une période plus longue, on peut modifier l’analyse de l’espérance immédiate de gain, ce qui apporte des solutions tactiques différentes sans changer la stratégie de base.

L’auteur de ces articles est en train de consacrer un livre qui montrera ainsi les liens qui existent parfois entre l’irrationnel et la logique, permettant ainsi d’affiner ponctuellement certaines approches mathématiques.
P.G.
Contacts - Mentions Légales