Bfloat16
aus Wikipedia, der freien Enzyklopädie
bfloat16 (
brain floating point with 16 bits
) ist die Bezeichnung für ein Gleitkommaformat in Computersystemen. Es handelt sich um ein binäres Datenformat mit einem Bit für das Vorzeichen, 8 Bits für den Exponenten und 7 Bits für die Mantisse. Es handelt sich also um eine in der Mantisse gekürzte Version des IEEE 754 single-Datentyps.
bfloat16 wird insbesondere in Systemen für maschinelles Lernen eingesetzt, wie beispielsweise TPUs[1][2][3], sowie bestimmten Intel-Xeon-Prozessoren und Intel FPGAs.[4][5][6]
Quellen
- ↑ Available TensorFlow Ops | Cloud TPU | Google Cloud. In: Google Cloud. Abgerufen am 23. Mai 2018: „This page lists the TensorFlow Python APIs and graph operators available on Cloud TPU.“
- ↑ Elmar Haußmann: Comparing Google’s TPUv2 against Nvidia’s V100 on ResNet-50. In: RiseML Blog. 26. April 2018. Archiviert vom Original am 26. April 2018. Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis. Abgerufen am 23. Mai 2018: „For the Cloud TPU, Google recommended we use the bfloat16 implementation from the official TPU repository with TensorFlow 1.7.0. Both the TPU and GPU implementations make use of mixed-precision computation on the respective architecture and store most tensors with half-precision.“
- ↑ Tensorflow Authors: ResNet-50 using BFloat16 on TPU. In: Google. 28. Februar 2018. Abgerufen am 23. Mai 2018. (Seite nicht mehr abrufbar, Suche in Webarchiven) Info: Der Link wurde automatisch als defekt markiert. Bitte prüfe den Link gemäß Anleitung und entferne dann diesen Hinweis.
- ↑ Khari Johnson: Intel unveils Nervana Neural Net L-1000 for accelerated AI training. In: VentureBeat. 23. Mai 2018. Abgerufen am 23. Mai 2018: „...Intel will be extending bfloat16 support across our AI product lines, including Intel Xeon processors and Intel FPGAs.“
- ↑ Michael Feldman: Intel Lays Out New Roadmap for AI Portfolio. In: TOP500 Supercomputer Sites. 23. Mai 2018. Abgerufen am 23. Mai 2018: „Intel plans to support this format across all their AI products, including the Xeon and FPGA lines“
- ↑ Lucian Armasu: Intel To Launch Spring Crest, Its First Neural Network Processor, In 2019. In: Tom's Hardware. 23. Mai 2018. Abgerufen am 23. Mai 2018: „Intel said that the NNP-L1000 would also support bfloat16, a numerical format that’s being adopted by all the ML industry players for neural networks. The company will also support bfloat16 in its FPGAs, Xeons, and other ML products. The Nervana NNP-L1000 is scheduled for release in 2019.“