Die mangelnde Präzision bei der Programmierung von Fließkommazahlen
Die mangelnde Präzision bei der Programmierung von Fließkommazahlen ist ein bekanntes Problem in verschiedenen Programmiersprachen. Javascript ist eine von denen, die Probleme mit Fließkommazahlen haben. Dieses Problem ist im Wesentlichen auf die binäre Darstellung von Fließkommazahlen im Speicher zurückzuführen, die von diesen Programmiersprachen verwendet wird.
Hoffen wir, dass Programmiersprachen und Compiler und Hardwareentwickler und -ingenieure sich mit solchen Problemen befassen und sie ein für allemal zumindest bis zur 1024er Fließkommastelle lösen werden... wahrscheinlich wird das ausreichen, um 99,999% aller anderen Entwickler für das nächste Jahrhundert der Programmierung zu beruhigen...
Eine mögliche Lösung: in Ganzzahl umwandeln, berechnen, dann zurück
Eine mögliche Lösung könnte darin bestehen, die Fließkommazahlen in Ganzzahlen umzuwandeln, die Berechnungen durchzuführen und das Ergebnis dann wieder in eine Fließkommazahl umzuwandeln. Das scheint in den meisten Fällen zu funktionieren. Im Prinzip:
function test()
{
var x = 0.1 * 0.2; // Original approach
var y = ((0.1*10) * (0.2*10))/100; // The working possible solution
document.write(x + '<br>' + y);
}
test();
Natürlich kann die Funktion im Bedarfsfall entsprechend angepasst werden, zum Beispiel:
function test()
{
var x = 0.12 * 0.23; // Original approach
var y = ((0.12*100) * (0.23*100))/10000; // The working possible solution
document.write(x + '<br>' + y);
}
test();
Sie kann auch automatisiert werden:
function myToInt(v)
{
let i = 1;
let r;
while(r % 1 != 0)
{
i = i * 10;
r = v * i;
}
return [r, i];
}
function test()
{
let x = 0.11111111;
let y = 0.22222222;
let a = x * y; // Original approach
[x, i] = myToInt(x);
[y, j] = myToInt(y);
let d = i * j;
let b = x * y / d; // Another working possible solution
console.log(a + '\n' + b)
document.write(a + '<br>' + b);
}
test();
In diesem Sinne können wir zum Beispiel Folgendes tun:
function myToInt(v)
{
let i = 1;
let r;
while(r % 1 != 0)
{
i = i * 10;
r = v * i;
}
return [r, i];
}
function test()
{
let x = 14898
let y = 10.8
let z = 100
let a = x * y / z ; // Original approach
[y, i] = myToInt(y);
let b = (x * y) / (z * i); // Another working possible solution
console.log(a + '\n' + b)
document.write(a + '<br>' + b);
}
test();
157 Stimmen
Eigentlich liegt der Fehler daran, dass es keine Möglichkeit gibt, die
0.1
in eine endliche binäre Gleitkommazahl.19 Stimmen
Die meisten Brüche lassen sich nicht mit exakter Genauigkeit in eine Dezimalzahl umwandeln. Eine gute Erklärung finden Sie hier: docs.python.org/release/2.5.1/tut/node16.html
8 Stimmen
Mögliche Duplikate von Ist die Mathematik von JavaScript kaputt?
4 Stimmen
@AaronDigulla:
(new Number(0.1)).valueOf()
es0.1
.65 Stimmen
@SalmanA: Dass Ihre JavaScript-Laufzeitumgebung dieses Problem vor Ihnen verbirgt, bedeutet nicht, dass ich falsch liege.
12 Stimmen
Ich stimme Aaron nicht zu, es gibt Möglichkeiten, 0,1 perfekt und vollständig binär zu codieren. Aber IEEE 754 definiert dies nicht unbedingt. Stellen Sie sich eine Darstellung vor, bei der Sie einerseits den ganzzahligen Teil binär kodieren, andererseits den dezimalen Teil, bis zu n Dezimalstellen, ebenfalls binär, wie eine normale ganze Zahl > 0, und schließlich die Position des Dezimalpunkts. Nun, Sie würden 0,1 perfekt darstellen, ohne Fehler. Btw, da JS intern eine endliche Anzahl von Dezimalstellen verwendet, könnten die Entwickler genauso gut den Mut haben, diesen Fehler bei den letzten Dezimalstellen zu vermeiden.
1 Stimmen
@epascarello In dieser Frage geht es darum, warum das passiert, in dieser Frage darum, wie man es beheben kann. Die Antworten sind unterschiedlich, also sind auch die Fragen unterschiedlich.
1 Stimmen
@AaronDigulla warum JS tut dies und C# nicht? Ich habe bemerkt, dass JS dies auch bei der Summe macht, was keinen Sinn ergibt. Warum kann nicht addieren 1.12345678 + 1.12345678 richtig. Keine Multiplikation, keine Division, kein Überlauf
1 Stimmen
Ich habe zwei Gleichungen/Formeln für die Berechnung des umgekehrten Prozentsatzes geschrieben, die Sie hier finden können: stackoverflow.com/a/54125117/850840 und hier stackoverflow.com/a/54125466/850840
2 Stimmen
@PawelCioch Haben Sie mit genau denselben Zahlen getestet? Hast du das binäre Muster zum Initialisieren der Variablen verwendet (sonst bekommst du Rundungsfehler vom Float->String-Konverter)? Die meisten Sprachen verwenden die CPU für Fließkomma-Mathematik (also verhalten sie sich gleich), nur der Code zum Parsen und Formatieren der Zahlen ist anders.
1 Stimmen
So lustig und noch seltsamer mit 0.1 + 0.2 _
2 Stimmen
Binäre Brüche können nur 1/2, 1/4, 1/8, 1/16, 1/32... richtig verarbeiten. Und weil 0,3 und 0,2 keine Brüche sind, die mit den obigen Brüchen gebildet werden können, gibt es dieses "seltsame" Verhalten. Dies hier hat mir sehr geholfen: youtube.com/watch?v=PZRI1IfStY0
2 Stimmen
@FabienHaddadi (ich kommentiere das hauptsächlich, um mein Verständnis zu festigen) Ich denke, es ist eine Frage der Definition. Für Sie bedeutet "eine Zahl binär kodieren" "eine Möglichkeit zu haben, diese Zahl mit 0 und 1 darzustellen". Für Aaron bedeutet es, "sie als endliche (pseudo-)geometrische Summe mit 2 als gemeinsamem Verhältnis und Gewichten von 0 oder 1 zu schreiben".
2 Stimmen
@user56202: Ja, es muss eine Frage der Definitionen sein. Ich habe das Binärsystem auf einem alten wissenschaftlichen Taschenrechner HP48 gelernt. Früher wurde eine reelle Zahl durch zwei Komponenten dargestellt: eine vorzeichenbehaftete Mantisse und ein vorzeichenbehafteter Zehner-Exponent. Nun ist die Dezimalzahl 0,1 gleich einem Faktor von zehn hoch minus eins. Dies ist für den HP48 trivial zu speichern.