Dès l'enfance, on nous a appris que 0,1 + 0,2 équivaut à 0,3. Cependant, dans le monde mystérieux de l'informatique, les choses fonctionnent différemment. J'ai récemment commencé à écrire du code JavaScript et en lisant sur les types de données, j'ai remarqué un comportement étrange 0,1 + 0,2 différent de 0,3. Je me suis tourné vers Stack Overflow pour obtenir de l'aide et j'ai trouvé quelques articles qui m'ont aidé. Jetez un œil ci-dessous:
, , . : . , , .
: , 0,1 + 0,2 = 0,30000000000000004?
, , Java C, , . : .
, .
, : ? . :
, , . , 0,0005606 :
Significant- , , , (10). , .
: . 32 , 64 .
, JavaScript IEEE 754.
64 , () 0 51, - 52 62, - 63.
0,1 64- IEEE754.
(0,1) 10 ( 2).
0,1 2 , .
64 , , , 52 .
52 , :
. :
11 , 64- , -4 .
0,1:
0.2 :
, , :
:
0,1 + 0,2.
0,1 + 0,2 = 0,30000000000000004.