Le Wordle et la théorie des probabilités : calculer ses chances à chaque essai
Vous ouvrez le Wordle du jour. La grille est vide, six essais vous attendent, et quelque part dans le dictionnaire se cache un mot de cinq lettres. Un seul. Votre mission semble simple, mais derrière cette apparente simplicité se cache un univers mathématique fascinant. Chaque lettre que vous tapez, chaque couleur qui apparait, chaque essai qui s'écoule modifie profondément les probabilités en jeu. Le Wordle n'est pas qu'un jeu de mots - c'est un exercice de théorie des probabilités déguisé en divertissement quotidien.
L'espace des possibles : combien de mots de 5 lettres en français ?
Avant même de taper votre premier mot, il est utile de comprendre l'ampleur du défi. Le dictionnaire français contient environ 7 900 mots de cinq lettres valides au Wordle. Ce chiffre inclut les noms communs, les verbes conjugués courants et les adjectifs - bref, les mots qu'un francophone pourrait raisonnablement connaitre et utiliser.
Ce nombre peut sembler intimidant, mais comparons-le à un tirage purement aléatoire. L'alphabet français compte 26 lettres de base. Si les mots étaient des combinaisons aléatoires de lettres, il y aurait 26 puissance 5, soit 11 881 376 combinaisons possibles. Le fait que seules 7 900 d'entre elles forment des mots réels est déjà une réduction colossale - 99,93% des combinaisons sont éliminées par la simple contrainte linguistique. La langue française, avec ses règles phonétiques et morphologiques, travaille pour vous avant même que vous ne commenciez.
Ces 7 900 mots ne sont pas équiprobables dans la vie courante. Certains sont extrêmement fréquents (avoir, faire, comme), tandis que d'autres sont rares (oyats, drave, gnome). Cette distribution inégale est une information précieuse : en probabilités, on appelle cela une distribution a priori. Avant tout indice, votre meilleur pari est un mot courant, pas un mot obscur.
Le premier essai : l'importance de maximiser l'information
Le premier essai est le plus déterminant de la partie, et c'est celui où la théorie des probabilités brille le plus. À ce stade, vous n'avez aucun indice. Votre objectif n'est pas de deviner le mot du premier coup - la probabilité serait de 1 sur 7 900, soit environ 0,013%. Non, votre objectif est de maximiser l'information obtenue.
En théorie de l'information, cette idée porte un nom : l'entropie, concept introduit par Claude Shannon en 1948. L'entropie mesure la quantité d'incertitude dans un système. Avant votre premier essai, l'entropie du Wordle est maximale - environ 12,9 bits, ce qui correspond au logarithme en base 2 de 7 900. Chaque essai doit réduire cette entropie le plus possible.
Un bon premier mot est celui qui, en moyenne, élimine le plus grand nombre de candidats possibles. Les analyses statistiques montrent qu'un premier mot bien choisi - riche en voyelles courantes et en consonnes fréquentes - peut éliminer entre 90% et 95% des mots possibles en un seul essai. Cela signifie qu'après un seul mot, vous passez de 7 900 candidats à environ 400 à 800. C'est une réduction spectaculaire.
Pourquoi certains mots de départ sont mathématiquement supérieurs
Prenons un exemple concret. Le mot RAIES contient les lettres R, A, I, E et S - cinq lettres parmi les plus fréquentes du français. En le jouant, vous testez la présence de trois voyelles courantes (A, I, E) et de deux consonnes très répandues (R, S). Statistiquement, la lettre E apparait dans environ 45% des mots de cinq lettres, le A dans 35%, le S dans 30%, le R dans 28% et le I dans 25%.
La probabilité qu'au moins une de ces cinq lettres soit présente dans le mot cible est supérieure à 98%. Autrement dit, il est quasi certain que votre premier essai vous donnera au moins un indice exploitable - une lettre jaune ou verte. C'est la puissance du choix probabiliste : vous ne laissez presque rien au hasard.
À l'inverse, un mot comme FYORD teste des lettres rares (F, Y). La probabilité d'obtenir un résultat entièrement gris - aucune lettre utile - est bien plus élevée. Vous risquez de gaspiller un essai précieux pour une information minimale. En termes probabilistes, l'entropie attendue de ce mot est faible.
L'entropie informationnelle : mesurer la valeur de chaque essai
L'entropie de Shannon permet de quantifier précisément la valeur de chaque tentative. Le principe est simple : un essai est d'autant plus informatif qu'il partitionne l'espace des possibles de manière équilibrée. Si un mot divise les 7 900 candidats en groupes de taille similaire, quelle que soit la réponse obtenue, il est très informatif. Si un mot crée un gros groupe et beaucoup de petits groupes, il est moins efficace.
Pour comprendre intuitivement, imaginez un jeu où vous devez deviner un nombre entre 1 et 100. La stratégie optimale est la dichotomie - demander "est-ce supérieur à 50 ?", puis "à 75 ?" ou "à 25 ?", et ainsi de suite. Chaque question divise l'espace en deux moitiés égales, ce qui maximise l'information obtenue. Au Wordle, le raisonnement est identique, mais au lieu de couper en deux, chaque essai partitionne l'espace en 243 résultats possibles.
Pourquoi 243 ? Parce que chaque lettre peut recevoir trois résultats (gris, jaune, vert), et qu'un mot de cinq lettres produit 3 puissance 5 = 243 combinaisons de couleurs différentes. Un mot parfait distribuerait les 7 900 candidats de manière égale dans ces 243 catégories, soit environ 32 mots par catégorie. En pratique, aucun mot n'atteint cette perfection, mais les meilleurs s'en approchent.
L'entropie en bits : un calcul concret
L'entropie se calcule avec la formule de Shannon : E = -somme de p(i) * log2(p(i)), où p(i) est la probabilité de chaque résultat. Pour un premier mot comme RAIES, l'entropie est d'environ 5,8 bits. Cela signifie que ce mot réduit l'incertitude de 5,8 bits sur les 12,9 bits initiaux - soit près de la moitié de l'information nécessaire en un seul coup.
Les meilleurs mots de départ atteignent environ 6 bits d'entropie, tandis que les pires plafonnent autour de 2 à 3 bits. La différence est énorme : un premier mot à 6 bits vous laisse environ 120 candidats en moyenne, tandis qu'un mot à 3 bits vous en laisse plus de 1 000. Ce n'est pas une question de chance ou d'intuition - c'est de la pure mathématique.
Après le premier essai : la cascade probabiliste
Le premier essai est celui qui réduit le plus l'espace des possibles, mais chaque essai suivant continue le travail. Et c'est là que les probabilités deviennent vraiment intéressantes.
Essai 2 : de 400 à 30 candidats
Supposons que votre premier essai vous laisse 400 candidats. L'entropie restante est d'environ 8,6 bits (log2 de 400). Un deuxième mot bien choisi, adapté aux indices obtenus, peut réduire cet espace à environ 20 à 40 candidats. La clé est de choisir un mot qui teste de nouvelles lettres tout en respectant les contraintes déjà connues. Si votre premier essai a révélé un E en position 3 (vert), votre deuxième essai doit intégrer cette contrainte tout en explorant de nouvelles lettres.
Essai 3 : le moment de vérité
Au troisième essai, si vous avez joué intelligemment, il reste généralement entre 2 et 10 candidats. C'est souvent le moment où les joueurs basculent de la stratégie "exploration" à la stratégie "exploitation" - au lieu de chercher de nouvelles informations, ils tentent de deviner le mot. En termes probabilistes, si 5 candidats restent et que vous en proposez un, vous avez 20% de chances de tomber juste. Ce n'est plus du hasard - c'est un pari éclairé.
Essais 4, 5 et 6 : la convergence
Les derniers essais sont ceux où la pression monte, mais aussi ceux où les probabilités travaillent le plus en votre faveur. Avec 2 ou 3 candidats restants, chaque essai a une probabilité de succès de 33% à 50%. Cumulativement, la probabilité de trouver le mot en 6 essais, pour un joueur qui suit une stratégie raisonnable, est supérieure à 98%. L'échec est statistiquement rare - ce qui explique pourquoi il est si frustrant quand il survient.
Pourquoi deviner en 3 coups est statistiquement excellent
Les joueurs de Wordle partagent souvent leurs résultats avec fierté. Mais quels scores sont vraiment impressionnants d'un point de vue probabiliste ? Deviner en 1 coup relève du miracle - probabilité de 0,013%. En 2 coups, c'est possible mais rare : cela nécessite un premier mot qui élimine plus de 99,9% des candidats et un second qui vise juste. La probabilité tourne autour de 3 à 5%, selon le mot du jour.
Deviner en 3 coups, c'est le sweet spot - le point optimal où stratégie et probabilités se rejoignent. Cela signifie que vos deux premiers mots ont réduit l'espace à un ou deux candidats, et que votre troisième tentative a visé juste. Les simulations montrent qu'un joueur utilisant une stratégie optimale basée sur l'entropie trouve le mot en 3 coups environ 50% du temps. Ce n'est pas de la chance - c'est la preuve que votre stratégie fonctionne parfaitement.
En 4 coups, c'est le résultat le plus courant pour un bon joueur - environ 35% des parties. En 5 coups, cela reste tout à fait honorable (10%). En 6 coups, vous avez eu affaire à un mot particulièrement retors, probablement avec des lettres peu courantes ou des patterns trompeurs.
Les mots pièges : quand les probabilités vous trahissent
Certains mots du Wordle sont des cauchemars probabilistes. Ce sont les mots qui résistent à l'élimination progressive, parce qu'ils appartiennent à de grands groupes de mots similaires. Pensez aux mots qui ne diffèrent que d'une lettre : BALLE, DALLE, FALLE, HALLE, MALLE, TALLE. Si vous savez que le mot finit par -ALLE et commence par une consonne, vous avez encore 5 ou 6 candidats et un seul essai restant.
Ce phénomène s'appelle le piège de la convergence. Les probabilités vous ont mené efficacement jusqu'à un petit groupe, mais les mots restants sont si similaires que chaque essai ne peut en éliminer qu'un seul. Vous passez de la dichotomie efficace à l'élimination linéaire - et avec seulement six essais au total, c'est souvent insuffisant.
La parade probabiliste existe : au lieu de proposer un des candidats, jouez un mot discriminant - un mot qui n'est pas la solution mais qui teste les lettres qui différencient les candidats restants. Si vous hésitez entre BALLE, DALLE et MALLE, un mot contenant B, D et M vous donnera l'information manquante. Vous sacrifiez un essai en termes de chance directe, mais vous gagnez en certitude. C'est un investissement probabiliste - un trade-off entre espérance de gain immédiat et réduction du risque.
La mathématique cachée derrière le plaisir
Le plus remarquable dans tout cela, c'est que des millions de joueurs appliquent la théorie des probabilités chaque matin sans le savoir. Quand vous choisissez un mot de départ riche en voyelles, vous maximisez intuitivement l'entropie. Quand vous évitez de retester une lettre grise, vous appliquez le théorème de Bayes - vous mettez à jour vos croyances en fonction des nouvelles preuves. Quand vous hésitez entre deviner et explorer, vous faites un calcul implicite de valeur espérée.
Le Wordle est, en fin de compte, une leçon quotidienne de pensée probabiliste. Il vous apprend que l'incertitude n'est pas un obstacle mais une information. Il vous montre que chaque indice, même négatif (une lettre grise), réduit le champ des possibles. Et il vous rappelle que dans un univers d'incertitude, la meilleure stratégie n'est pas de chercher la certitude, mais de maximiser l'information à chaque étape.
La prochaine fois que vous ouvrirez votre grille de Wordle, souvenez-vous : derrière chaque case colorée se cache un calcul probabiliste. Derrière chaque mot que vous tapez, une estimation implicite de l'entropie. Et derrière chaque victoire en trois coups, la preuve élégante que votre cerveau, même sans le formuler, maitrise les bases de la théorie des probabilités.