IEEE 754-2008
Der Standard IEEE 754-2008, der frühere Arbeitstitel lautete IEEE 754r, ist eine notwendig gewordene Revision des 1985 verabschiedeten Gleitkommastandards IEEE 754. Der alte Standard war sehr erfolgreich und wurde in zahlreichen Prozessoren und Programmiersprachen übernommen. Die Diskussion über die Revision begann im Jahr 2001; im Juni 2008 wurde der Standard angenommen und im August 2008 verabschiedet.[1]
Hauptziele
Die Hauptziele des verabschiedeten Standards konnten aufgeteilt werden in
- das Zusammenführen von IEEE 754 und IEEE 854,
- die Reduktion von Implementierungsalternativen,
- die Entfernung von Mehrdeutigkeiten der bisherigen IEEE 754,
- ein zusätzliches kumulierendes Produkt fused multiply-add:
FMA(A,B,C) = A·B + C
, - neben einfacher und doppelter auch Arithmetik mit halber und vierfacher Genauigkeit (zusätzlich zu 32 und 64 Bit auch 16 und 128 Bit),
- die von der Finanzwirtschaft als notwendig erachteten Dezimalformate (IEEE 854),
- weitere variable Formate und Austauschformate,
- min und max mit Spezifikationen für die Spezialfälle ±0 und ±∞ sowie
- Kosmetik: ab sofort heißt „denormalisiert“ „subnormal“
Der Standard soll Formate und Methoden für Gleitkommaarithmetik sowie eine Mindestqualität definieren.
Formate
Formate umfassen Gleitkommazahlen mit halber (16 Bit), einfacher (32 Bit), doppelter (64 Bit) sowie vierfacher (128 Bit) Genauigkeit. Das Halbformat stellt ein standardisiertes Minifloat dar. Ergänzt werden die Grundformate durch erweiterte (extended) und erweiterbare (neu!) Langzahl-Formate. Ebenfalls neu aufgenommen wurden Datenaustauschformate. Neben der 16/32/64/128-Bit-Darstellungen sind Darstellungen mit einem Vielfachen von 32 Bits definiert.
Dicht gepackte Dezimalformate (DFP, 3 Ziffern in 10 Bit) sind ebenfalls dazugekommen. Sie weichen von klassischen einzelzifferbasierten BCD-Formaten folgendermaßen ab:
- Die Kapazität der nutzbaren Bits wird gut ausgenutzt, da 3 Dezimalziffern (000...999, 1000 genutzte Werte) in jeweils 10 Bit (0...1023, 1024 mögliche Werte) gespeichert werden. Eine solche Gruppe heißt Declet. Der Verschnitt ist gegenüber klassischen BCD-Zahlen deutlich kleiner. Die letzte Spalte der Tabelle enthält den Informationsgehalt in Bit, der nur geringfügig geringer ist als der Speicherplatz (bei d=7 Mantissenziffern und einem Exponentenwertebereich von emin - emax unter Berücksichtigung der Vorzeichenbits ).
- Die Verarbeitung der Dezimalziffern in Dreiergruppen kommt der üblichen Gruppierungsgewohnheit (23 223 456; 24 W, 24 kW, 24 MW) entgegen.
- Die Zahl 0 hat auch das Bitmuster „0000…0“. Allerdings hat 0 eine relativ große Kohorte.
- Die Zahlen 0 bis 9 eines Declets haben in den 6 führenden Bits eine 0.
- Die Zahlen 10 bis 99 eines Declets haben in den 3 führenden Bits eine 0.
- Ungerade Zahlen in Declets können mit Hilfe eines einzelnen Bits erkannt werden.
- Die 24 unbenutzten Bitmuster ddx11x111x mit dd = 01, 10 oder 11 können leicht identifiziert werden.
- Die so mit Declets gepackten Zahlen (Densely Packed) sind nicht mehr binär sortierbar, im Gegensatz zu „klassischen BCD-Formaten“.
- Statt Speicherung in Declets kann die Mantisse auch ganzzahlig binär in einem gleich großen Bitfeld gespeichert werden. Die Bitfeldaufteilung ist im Combinationfield dann anders.
- Eine Zahl ist nicht eindeutig; mehrere Bitmuster können dieselbe Zahl bezeichnen. Die Menge der Bitmuster einer Zahl heißt Kohorte. Innerhalb einer Kohorte wurde jedoch jeweils eine kanonische Darstellung festgelegt.
Signaling NaNs wurden zur Streichung vorgeschlagen (3. Februar 2003), später aber wieder in den Vorschlag aufgenommen (21. Februar 2003). Eine Signaling NaN ist eine NaN mit gesetztem Bit 7. Darstellungen von existieren und sind leicht erkennbar.
Typ | Speicher- bedarf |
Mantisse | Exponent | Infor- mations- gehalt in Bit | |||||
---|---|---|---|---|---|---|---|---|---|
Bits m | effektive Bits einer normalisierten Zahl p |
Bits e | Wertebereich | Werte der Ko- horte einer nor- malisierten Zahl | |||||
emin | emax | Bias | |||||||
b16 (half) | 16 Bit | 10 | 11 | 5 | −14 | 15 | 15 | 1 ≤ E ≤ 30 | 16 |
b32 (single) | 32 Bit | 23 | 24 | 8 | −126 | 127 | 127 | 1 ≤ E ≤ 254 | 32 |
b64 (double) | 64 Bit | 52 | 53 | 11 | −1022 | 1023 | 1023 | 1 ≤ E ≤ 2046 | 64 |
b128 (quadruple) | 128 Bit | 112 | 113 | 15 | −16382 | 16383 | 16383 | 1 ≤ E ≤ 32766 | 128 |
b256 (octuple) | 256 Bit | 236 | 237 | 19 | −262142 | 262143 | 262143 | 1 ≤ E ≤ 524286 | 256 |
k = 32j mit j ≥ 4 | k Bit | k − rnd(4·ld(k)) + 12 | k − rnd(4·ld(k)) + 13 | rnd(4·ld(k)) − 13 | 1 − emax | 2k−p−1 − 1 | emax | k | |
d32 | 32 Bit | (a) | 20+57 Ziffern | 6 | −95 | 96 | 101 | 31,83 | |
d64 | 64 Bit | 50+5 | 16 Ziffern | 8 | −383 | 384 | 398 | 63,73 | |
d128 | 128 Bit | 110+5 | 34 Ziffern | 12 | −6143 | 6144 | 6176 | 127,53 | |
k = 32j mit j ≥ 1 | k Bit | 15 k/16 − 10 | 9 k/32 − 2 Ziffern | k/16 + 4 | 1 − emax | 3·2k/16+3 | emax + p − 2 |
- in den 20 Bits werden 6 Dezimalstellen gespeichert (3 Stellen in jeweils 10 Bit)
- in den 5 übrigen Bits wird gespeichert:
- eine weitere Dezimalstelle
- der Rest des Exponents bei Division durch 3
- Signalisierungen für NaNs und Infs
Rundungen
Zu den vier alten IEEE-754-Rundungen kommt eine zusätzliche hinzu, so dass folgende Rundungen gefordert werden:
- vergrößernd (in Richtung +unendlich)
- verkleinernd (in Richtung −unendlich)
- betragsverkleinernd (in Richtung 0)
- bestmöglich und in der Mitte zur nächsten geraden Zahl (to next or to even)
- bestmöglich und in der Mitte betragsvergrößernd (to next – neu in IEEE 754r, eigentlich nur die klassische Handrechnungsrundung)
Die IEEE 754-Rundung (next even) wurde schon von Carl Friedrich Gauß vorgeschlagen und vermeidet ein statistisches Ungleichgewicht bei längeren Rechnungen zu größeren Zahlen hin.
In der Diskussion um den neuen Standard wird diese Erkenntnis offensichtlich wieder verworfen und die „Handrechnungsrundung“ (to next) wieder eingeführt.
Ausnahmen
Ausnahmebedingungen und Ausnahmebehandlung werden spezifiziert.
Neue Funktionen sind Prädikatfunktionen (größer gleich) und Operatoren für Maximum und Minimum. Hier wird vor allem über die Ergebnisse bei den Sonderwerten (NaN, Inf) diskutiert.
Dezimalkodierungen
DPD | Größe für äquivalente Packed BCD | Gewinn |
---|---|---|
32 bit | 7×4 + 7,58 + 1 bit = 36,58 bit | +4,48 bit |
64 bit | 16×4 + | 9,58 + 1 bit = 74,58 bit+10,48 bit |
128 bit | 34×4 + 13,58 + 1 bit = 150,58 bit | +22,48 bit |
Die primäre Idee hinter der dicht gepackten Dezimaldarstellung ist, dass diese mit extrem wenig (Gatter-)Aufwand in eine klassische BCD-Darstellung für die Mantisse sowie einen binären Exponenten umkodiert werden kann, aber gleichzeitig den Speicherplatz so effizient wie möglich ausnutzt. Die eigentliche Verarbeitung findet dann im klassischen BCD-Format statt, nur beim Lesen und Schreiben von Registern ist eine Umkodierung erforderlich.
Die Kodierung von 32-bit-, 64-bit- und 128-bit-dezimalkodierten Zahlen erfolgt nach folgendem Schema. Für längere Dezimalkodierungen werden für jedes weitere 32-bit-Wort dem Exponenten 2 bit und der Mantisse 30 bit (3× 10 bit) zugeschlagen, so dass unter Beibehaltung des 5-bit-Kombinationsfeldes der Wertebereich des Exponenten sich vervierfacht und die Mantisse weitere neun Ziffern erhält.
Format | Vorzeichen | Kombinationsfeld | restl. Exponent | restliche Mantisse | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
32 bit | 1 bit | 5 bits | 6 bits | 20 bits | |||||||||
s | m m m m m | xxxxxx | bbbbbbbbbb bbbbbbbbbb | ||||||||||
64 bit | 1 bit | 5 bits | 8 bits | 50 bits | |||||||||
s | m m m m m | xxxxxxxx | bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb | ||||||||||
128 bit | 1 bit | 5 bits | 12 bits | 110 bits | |||||||||
s | m m m m m | xxxxxxxxxxxx | bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb bbbbbbbbbb | ||||||||||
0: positiv 1: negativ |
Kodierung der MSBs nach Tabelle 1 |
binäre Kodierung |
Jedes Declet ist nach Tabelle 2 kodiert und liefert drei weitere Ziffern. | ||||||||||
Vorzeichen | Ziffer 1 | Expon. MSB | Expon. LSB | Ziffer 2 | Ziffer 3 | Ziffer 4 | Ziffer 5 | Ziffer 6 | Ziffer 7 | Ziffer 8 | Ziffer 9 | ... |
Die Zahl besteht aus
- einem Vorzeichen: dieses wird im Vorzeichenbit s gespeichert.
- einem Exponenten, der seinen Wertebereich von emin ... emax unter Zuhilfenahme eines Bias auf die Werte 0 ... 3 · 2e − 1 = (0 ... 2) · 2e + (0 ... 2e − 1) abbildet. Die oberen drei Zustände werden im Kombinationsfeld, die restlichen e bit binär im restlichen Exponenten gespeichert.
- einer Mantisse, die aus p = 3 · n + 1 Ziffern besteht. Die höchstwertige Ziffer wird im Kombinationsfeld, die restlichen 3 · n Ziffern werden in Dreiergruppen in der restlichen Mantisse gespeichert.
Zur Dekodierung und Kodierung werden folgende Kodiertabellen benötigt:
Kombinationsfeld | MSBs des | Kod. Wert |
Beschreibung | ||||||
---|---|---|---|---|---|---|---|---|---|
m4 | m3 | m2 | m1 | m0 | Exp. | Mant. | |||
0 | 0 | a | b | c | 00 | 0abc | (0-7) | Ziffer bis 7 | |
0 | 1 | a | b | c | 01 | 0abc | |||
1 | 0 | a | b | c | 10 | 0abc | |||
1 | 1 | 0 | 0 | c | 00 | 100c | (8-9) | Ziffer größer 7 | |
1 | 1 | 0 | 1 | c | 01 | 100c | |||
1 | 1 | 1 | 0 | c | 10 | 100c | |||
1 | 1 | 1 | 1 | 0 | ±Infinity | ||||
1 | 1 | 1 | 1 | 1 | NaN |
- Bemerkung
- Das Vorzeichenbit von NaNs wird ignoriert. Das MSB des restlichen Exponenten bestimmt, ob das NAN quiet oder signaling ist.
DPD kodierter Wert | Dezimalziffern | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
b9 | b8 | b7 | b6 | b5 | b4 | b3 | b2 | b1 | b0 | d2 | d1 | d0 | Kodierter Wert | Beschreibung | |
a | b | c | d | e | f | 0 | g | h | i | 0abc | 0def | 0ghi | (0–7) (0–7) (0–7) | drei Ziffern bis 7 | |
a | b | c | d | e | f | 1 | 0 | 0 | i | 0abc | 0def | 100i | (0–7) (0–7) (8–9) | zwei Ziffern bis 7, eine größer 7 | |
a | b | c | g | h | f | 1 | 0 | 1 | i | 0abc | 100f | 0ghi | (0–7) (8–9) (0–7) | ||
g | h | c | d | e | f | 1 | 1 | 0 | i | 100c | 0def | 0ghi | (8–9) (0–7) (0–7) | ||
g | h | c | 0 | 0 | f | 1 | 1 | 1 | i | 100c | 100f | 0ghi | (8–9) (8–9) (0–7) | eine Ziffer bis 7, zwei Ziffern größer 7 | |
d | e | c | 0 | 1 | f | 1 | 1 | 1 | i | 100c | 0def | 100i | (8–9) (0–7) (8–9) | ||
a | b | c | 1 | 0 | f | 1 | 1 | 1 | i | 0abc | 100f | 100i | (0–7) (8–9) (8–9) | ||
? | ? | c | 1 | 1 | f | 1 | 1 | 1 | i | 100c | 100f | 100i | (8–9) (8–9) (8–9) | drei Ziffern größer 7 |
- Hinweis
- Da im Gegensatz zur Binärdarstellung, in der durch Normalisierung und Weglassen des MSBs eine Normalisierung erzwungen wird, keine Normalisierung erzwungen wird und die Ziffer 0 als höchstwertige Ziffer verfügbar ist, sind Zahlen nicht eindeutig kodierbar.
Dezimale Gleitkommazahlen in der Praxis
Die Probleme von dezimalen Gleitkommazahlen sind unter anderem:
- Sowohl im Binär- wie im Dezimalformat sind die meisten Zahlen nicht präzise darstellbar. Nach wenigen Rechenschritten sind die meisten Berechnungen unpräzise. Eine Währungsumrechnung oder das Abziehen der Umsatzsteuer reicht aus.
- Für die meisten angegebenen Probleme gibt es einfachere und gleichzeitig leistungsfähigere Lösungen. Für Finanzaufgaben steht unter .NET z. B. der Datentyp System.Decimal zur Verfügung, der Ganzzahlen mit Beträgen bis 79.228.162.514.264.337.593.543.950.335 exakt darstellen kann.
- Sie stellt eine weitere Fehlerquelle für Hardware (zusätzliche Logik) und Software (Konvertierfehler) dar.
Die Ergebnisse sind:
- Dezimale Gleitkommazahlen sind standardisiert, aber auch nach 15 Jahren nicht in fester Hardware verfügbar. Man kann sie in Software, in FPGAs und in ASICs implementieren, aber selbst darüber halten sich die Publikationen in Grenzen und sind meist auf Addition und Subtraktion beschränkt.
- Die Dezimalformate werden hauptsächlich von der Finanzwirtschaft gefordert, aber sobald man genauer hinschaut, nicht benötigt. Festkommadarstellungen auf Basis der kleinsten Verrechnungseinheit und 64-bit-Ganzzahlen decken gegenüber Decimal64 einen 922× so großen Wertebereich exakt ab (−92.233.720.368.547.758,08...+92.233.720.368.547.758,07 gegenüber −99.999.999.999.999,99...+99.999.999.999.999,99). Sie können allerdings keine noch größeren Werte mit dann verminderter Genauigkeit darstellen noch können sie kleinere Beträge genauer darstellen.
Sinnvoll sind sie:
- uneingeschränkt als Austauschformate, wenn die genaue Repräsentation von Dezimalwerten erforderlich ist.
Hier prallen zwei gegensätzliche Standpunkte aufeinander.
- Auf der einen Seite werden die Speicher-, Rechenzeit- und Kosten-Vorteile, sowie die gleichmäßigere Zahlenverteilung eines dualen Formates herausgestellt.
- Auf der anderen Seite wird argumentiert, dass exakte Ergebnisse (meist sind Ergebnisse wie bei Handrechnungen gemeint) nur mit Dezimalarithmetik möglich sind und in Zeiten schneller Prozessoren und billiger Speicher die Nachteile nicht mehr ins Gewicht fallen.
William Kahan hat behauptet, dass duale Arithmetik in Zukunft kaum noch eine Rolle spielen wird.
“Why is decimal floating-point hardware a good idea anyway? Because it can help our industry avoid errors designed not to be found.”
„Warum ist dezimale Gleitkommahardware auf jeden Fall eine gute Idee? Weil sie unserer Industrie hilft die Fehler zu vermeiden, die verfahrensbedingt nicht gefunden werden können.“
Er übersieht dabei aber, dass
- Gepackte Dezimalformate zusätzliche Chipfläche benötigen, eine geringere Effizienz aufweisen und langsamer sind.
- Rechenleistung jeder Größenordnung neue Aufgabenbereiche eröffnet und es trotzdem immer wieder Aufgaben geben wird, für die sie nicht ausreicht.
- Es niemals so viel Rechenleistung geben wird, dass man freiwillig auf diese verzichten würde.
- Je komplexer die Rechnung, desto weniger interessiert es jemanden, ob diese dezimal exakt darstellbar ist. Nur wenigen auserwählten Zahlen wird die Ehre zuteil, von einem Menschen im Dezimalsystem eingetippt zu werden oder von einem Menschen im Dezimalsystem gelesen zu werden.
Weblinks
- IEEE Standard for Floating-Point Arithmetic. (PDF; 915 kB) IEEE Computer Society, abgerufen am 7. Juni 2016 (englisch).
- IEEE 754: Standard for Binary Floating-Point Arithmetic. IEEE Computer Society, abgerufen am 7. Juni 2016 (englisch).
Einzelnachweise
- ↑ IEEE 754-2008: Standard for Floating-Point Arithmetic. IEEE Standards Association, 2008, doi:10.1109/IEEESTD.2008.4610935
- ↑ Michael F. Cowlishaw: A Summary of Densely Packed Decimal encoding. IBM. 13. Februar 2007. Archiviert vom Original am 24. September 2015. Abgerufen am 7. Februar 2016.
- ↑ William Kahan: Floating-Point Arithmetic Besieged by “Business Decisions”. (PDF; 174 kB) IEEE-Sponsored ARITH 17 Symposium on Computer Arithmetic, 5. Juli 2005, S. 6 von 28, abgerufen am 19. Februar 2020 (englisch).