La théorie de l'inf...
 
Notifications
Retirer tout

La théorie de l'information

16 Posts
1 Utilisateurs
0 Reactions
6,998 Vu
(@artemus24)
Noble Member
Inscription: Il y a 14 ans
Posts: 2443
Début du sujet  

Bonjour à toutes et à tous.

Je ne suis pas trop adepte de ce qui concerne les théories dans le monde informatique, mais celle-ci me plait particulièrement.
Je donne le lien concernant un descriptif de ce qu'est [url=http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l'information]la théorie de l'information[/url] qui est issu des travaux de Claude Shannon.

Ce qui est important, dans ce que je vais exposer, c'est que cette information est une grandeur observable et mesurable !
Elle repose essentiellement sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité.
En gros, il est dit que nous avons besoin d'une quantité limité pour représenté tout ce qui est probable.

J'avais déjà eu un échange avec Roulex, au sujet de la différence entre un évènement calculable mathématiquement et de sa probable apparition dans le monde physique.
J'affirmais qu'un évènement comme le lancer d'une pièce de monnaie qui retombe 1 milliard de fois sur FACE, qui a une probabilité calculable en mathématique, donc une probabilité faible mais non nulle, était selon moi un évènement impossible à obtenir dans le monde physique.
L'argument que j'utilisais est celle concernant le nombre gogol qui serait une borne supérieure de tout ce qui peut se mesurer dans le monde physique.
Il n'y a rien de stupide dans cette approche, puisque c'est de la théorie de l'information dont il s'agit.

On peut retenir que :

1) tout peut être traduisible en terme d'information.
2) toute information peut être réduit, voire compresser !
3) que l'univers peut être vue comme une immense information. D'ailleurs, on l'estime à 10 puissance 120 bits.

Ce qui peut se comprendre comme d'une part une information limité et d'autre part un processus répétitif venant le décrire.
On pense automatiquement aux fractals issu des ensembles de Mandelbrot, mais aussi au film Matrix.

Or il est dit, en ce qui concerne les nombres aléatoires, que l'on ne peut pas les compresser.
Ce qui signifie que l'information de départ de cette représentation et celle compressée, sont de même capacité.
Je ne viendrais en aucune façon contredire cela !
Mais en faisant mumuse avec mon GNA favori qui est un Générateurs congruentiels linéaires et qui de plus est le standard minimal, je me suis aperçu que les séries les plus longues ne faisait que 31 coups au maximum.
La première constatation qui m'est venu à l'esprit, c'est que ce nombre 31 était en fait, la taille du cycle exprimé en puissance de 2.
Le standard minimal admet un cycle de 2^31 - 1. Ce 31 serait alors l'exposant de ce cycle mais aussi la plus grande série que l'on peut rencontrer.
Ne pouvant utiliser d'autres GNA car le problème venant de la représentation des nombres en mémoire, qui sur mon ordinateur sont limités à 32 bits pour les calculs, je suis dans l'incapacité de vérifier si sur un cycle plus grand j'aurai le même genre de résultat.
En d'autre terme, le mot informatique étant de 32 bits alors je serais limité par cela !

Prenons l'exemple du lancer d'une pièce de monnaie.
Nous aurons une succession de PILE et de FACE que l'on peut traduire par des 1 et des 0.
La succession de ces 1 et de ces 0 serait comme les wagons d'un train, puisque le lancer de la pièce de monnaie pour s'apparenter à un lancer en continue.
Alors cherchant à comprendre comme se forme la série la plus longue, j'ai imaginé que cela se produisait par la succession des trains sur la même ligne de chemin de fer, mais qu'il n'existait aucune répétition de deux trains successifs.
J'ai chercher à comprendre comme pouvait-on représenter cela !

On va simplifier cet exemple en prenant des trains de trois bits.

0 - 0 - 0 | A
0 - 0 - 1 | B
0 - 1 - 0 | C
0 - 1 - 1 | D
1 - 0 - 0 | E
1 - 0 - 1 | F
1 - 1 - 0 | G
1 - 1 - 1 | H

Et la représentation de la plus grande série serait alors celle-ci :

|     D     |     H     |     G     |
+-----------+-----------+-----------+
| 0 - 1 - 1 | 1 - 1 - 1 | 1 - 1 - 0 |

On constate que la série la plus longue est de sept fois le 1.
Et que nous avons besoin pour cela de représenter des mots (des trains) de trois bits.
En généralisant cette constatation, j'ai trouvé une formule que voici :

L = 3 * N - 2.

L représente la longueur de la série et N la taille de mon mot (du train).
Ainsi dans mon GNA, la longueur étant de 31 coups, j'aurai alors besoin que de :
--> N = (L+2) / 3
--> N = (31+2) / 3
--> N = 11.

Ainsi en analysant des mots de 11 coups, on serait dans la capacité de déterminer la plus grande longueur d'une série au jeu de la roulette.
Mais pour bien comprendre ce phénomène, et en visualisant le tableau ci-dessus, pour obtenir ce résultat, nous devons avoir en début et en fin de séquence un flag, c'est à dire un délimiteur, exactement comme dans la représentation de l'information qui véhicule sur les réseaux informatiques.
Ce flag doit être de même nature, sinon nous ne serions pas en mesure de pouvoir délimiter notre recherche.
Et je veux arriver qu'en supposant que cette constatation soit juste, que nous serions en mesure de prédire un coup avec 100% de réussite car ce coup serait obligatoirement le délimiteur de la plus longue série possible au jeu de la roulette.

Avant de poursuivre, je voudrais savoir ce que vous pensez de la théorie de l'information ?

@+


   
Citation
Share:
Casinos Jackpot