Benutzer:Geroll/Data Center Bridging

aus Wikipedia, der freien Enzyklopädie

Unter dem Begriff Data Center Bridging versteht man eine Erweiterung des IEEE 802.1 Standards für Ethernet basierte lokale Netzwerke (LANs). Der Fokus dieser Erweiterungen liegt dabei auf den Anforderungen eines Rechenzentrums hinsichtlich der fehlerfreien und zuverlässigen Datenübertragung auf der Basis von Ethernet. Eine Modifikation des Ethernet-Standards auf dieser Basis wird populärwissenschaftlich auch als "Lossless Ethernet" bezeichnet.

Einführung und Motivation

Der klassische Ethernetstandard entstand in einer Zeit, in der Netzwerke nicht für hochvolumige Datenübertragungen konzipiert waren. Die Aufgabe des Ethernets auf der Basis der Vermittlungsschict des OSI-Referenzmodells lag auf der Rahmenzustellung in lokalen Netzen innerhalb sogenannter Broadcast-Domänen. Hier spielte im Wesentlichen die Adressierung mit Hilfe von MAC-Adressen eine Rolle. Das klassische Ethernet sieht keine Mechanismen vor, um eine Rahmenzustellung zu gewährleisten. Dies ist insbesondere dann von Bedeutung, wenn Teilnehmer zur selben Zeit versuchen, Rahmen zuzustellen oder aber aufgrund einer Überlastfunktion Rahmenkollisionen auftreten. Die Folge solcher Erscheinungen ist in der Regel ein Verwerfen von Rahmen. Um dennoch eine Paketzustellung zu garantieren, wurden andere Protokolle auf übergeordneten Schichten des OSI-Modells implementiert, um die Transportleistung zu steuern. Derartige Protokolle nennt man Transportprotokolle, die entsprechend zugehörige Schicht des OSI-Modells Transportschicht. Ein prominenter Vertreter der Transportprotokolle ist sicherlich TCP (Transmission Control Protocol), dass für einer ordnungsgemäße Zustellung von Paketen auf der Basis eines unzuverlässigen Transports auf darunterliegenden Protokollschichten erfolgt. Kommt es aufgrund von Störungen oder Überlastsituationen zu Rahmen- und Paketverlusten, erkennt dies das Transportprotokoll und sendet die Pakete erneut. Dabei verringert es zusätzlich die Datendurchsatz, um weiteren Überlastsituationen vorzubeugen.

Heute finden wir im Rechenzentrumsumfeld meist zwei unabhängige Netzwerkstrukturen vor: Zum einen Ethernet basierte IP-Netze und Fibre Channel basierte Netzwerke zur Übertragung von Blockdaten. Während ethernetbasierte Netze rein paketorientiert konzipiert sind, stammen die verbindungsorientierten Fibre Channel Netze aus einer Fokussierung auf den Transport von Blockdaten. Durch diese Eigenschaft sind in Fibre Channel keinerlei Mechanismen vorhanden, um Übertragungsfehler zu erkennen oder zu beheben.

Der unabhängige Betrieb von zwei getrennten Netzstrukturen ist in jüngster Vergangenheit insbesondere unter Skalierbarkeitsbetrachtungen relativ kostspielig geworden. Unter dem Gedanken, eine physische Infrastruktur für die gemeinsame Übertagung von paket- und blockorientierten Daten, wurden schon vor geraumer Zeit zwei Protokolle entwickelt: Während Fibre Channel over IP (FCoIP) Fibre Channel Daten in IP-Paketen enkapsuliert, setzt iSCSI noch eine Schichte höher an und enkapsuliert SCSI-Daten und Befehle in TCP-Paketen.

Beide dieser Protokolle haben Vor und Nachteile. FCoIP kann durch die direkte Kapselung von Fibre Channel in bereits bestehende SAN-Umgebungen integriert werden, setzen diese aber voraus. Dagegen ist iSCSI sehr einfach gehalten und funktioniert auch ohne Fibre Channel Infrastruktur direkt und ausschließlich über IP-Netze. Beide Protokolle haben die Eigenschaft, dass sie auf Grund Ihres Protokollstacks auf Basis von mindestens IP routbar sind und über die Grenzen einer L2-Domäne hinaus transportiert werden können. Durch den gewaltigen Overhead der mehrfache Enkapsulierung verlieren beide Protokolle aber drastisch an Übertragungsperformance und eignen sich daher nicht primär für eine Verwendung im Rechenzentrumsumfeld als Fibre Channel-Ersatz.

Daher versuchte man die Nachteile dieser zwei Protokolle auszugleichen indem man Fibre Channel direkt auf Ethernet aufzusetzte Dies gelingt, aber dem klassischen Ethernet fehlen Mechanismen zur Sicherung der Übertragung. Diese Mechanismen zur Erweiterung des Ethernetstandards zu einem "Lossless Ethernet" versteht man unter dem Begriff Data Center Bridging.


Abgrenzung

Standardisierungsprozess

Weblinks

Referenzen

Data center bridging refers to enhancements to Ethernet local area networks for use in data center environments. The Data Center Bridging (DCB) Task Group of the IEEE 802.1 Working Group conducts standard setting efforts. Traditional Ethernet is the primary network protocol in data centers for computer to computer communications. However, Ethernet is designed to be a best-effort network that may drop packets or deliver packets out of order when the network or devices are busy. In Internet Protocol networks, transport reliability has traditionally been the responsibility of the transport protocols, such as the Transmission Control Protocol (TCP), with the trade-off being higher complexity, greater processing overhead and the resulting impact on performance and throughput.

One area of evolution for Ethernet is to add extensions to the existing protocol suite to provide reliability without incurring the penalties of TCP. With the move to 10 Gbit/s and faster transmission rates, there is also a desire for higher granularity in control of bandwidth allocation and to ensure it is used more effectively. Beyond the benefits to traditional application traffic, these enhancements would make Ethernet a viable transport for storage and server cluster traffic.

To meet these goals new standards are being developed that either extend the existing set of Ethernet protocols or emulate the connectivity offered by Ethernet protocols. They are being developed respectively by two separate standards bodies, IEEE, and IETF.

Two different terms have been used to describe enhanced Ethernet, These refer to implementations based on the underlying Data Center Bridging standards:

  • Data Center Ethernet (DCE) was a term originally coined and trademarked by Cisco. DCE referred to Ethernet enhancements for the Data Center Bridging standards, and also including a Layer 2 Multipathing implementation based on the IETF's Transparent Interconnection of Lots of Links (TRILL) proposal.

Emerging Standards: IEEE 802.1 Data Center Bridging Task Group related specifications

  • Congestion Notification: IEEE 802.1Qau provides end to end congestion management for protocols that are capable of transmission rate limiting to avoid frame loss.It is expected to benefit protocols such as TCP that do have native congestion management as it reacts to congestion in a more timely manner.
  • Data Center Bridging Capabilities Exchange Protocol (DCBX): a discovery and capability exchange protocol that is used for conveying capabilities and configuration of the above features between neighbors to ensure consistent configuration across the network. This protocol is expected to leverage functionality provided by IEEE 802.1AB (LLDP).

Other relevant working groups or standards

  • IEEE 802.1aq Shortest Path Bridging (IEEE 802.1aq) This standard specifies shortest path bridging of unicast and multicast Ethernet frames, to calculate multiple active topologies (virtual LANs) that can share learnt station location information. Two modes of operation are described, depending on whether the source Bridge is 802.1ad(QinQ) which is known as SPBV or 802.1ah (MACinMAC), which is known as SPBM. SPBV supports a VLAN using a VLAN Identifier (VID) per node to identify the shortest path tree (SPT) associated with that node. SPBM supports a VLAN by using one or more Backbone MAC addresses to identify each node and its associated SPT, and it can support multiple forwarding topologies for load sharing across equal cost trees using a single B-VID per forwarding topology. Both SPBV and SPBM use link state routing technology. SPBM by virtue of its MACinMAC encapsulation is more suitable for a large data centre than SPBV. 802.1aq defines 16 tunable multipath options as part of the base protocol, with an extensible multipathing mechanism to allow many more multipath variations in the future. 802.1aq supports the dynamic creation of virtual LAN's that interconnect all members with symmetric shortest path routes. The virtual LAN's can be deterministically assigned to the different multi paths providing a degree of traffic engineering in addition to multipathing and can grow or shrink with simple membership changes. 802.1aq is fully backward compatible with all 802.1 protocols.
  • IETF TRILL (Computer Networking) (TRILL) The TRILL WG will design a solution for shortest-path frame routing in multi-hop IEEE 802.1-compliant Ethernet networks with arbitrary topologies, using an existing link-state routing protocol technology.
  • Fibre Channel over Ethernet: T11 FCoE This project utilizes existing Fibre Channel protocols to run on Ethernet to enable servers to have access to Fibre Channel storage via Ethernet. As noted above, one of the drivers behind enhancing Ethernet is to support storage traffic. While iSCSI is a currently available option, it depends on TCP/IP and there was a desire to support storage traffic at layer 2 for the aforementioned reasons. This gave rise to the development of the FCoE protocol, which accomplished this, but is predicated on reliable Ethernet transport. The standard was finalized in June 2009 by the ANSI T11 committee.
  • IEEE 802.1p/Q provides 8 traffic classes for priority based forwarding.
  • IEEE 802.3x provides a PAUSE mechanism providing link-level pause flow control.

These new protocols will require new hardware and software in both the network and the server interconnect. These products are being developed by companies such as Avaya, Brocade, Cisco, Dell, EMC, Emulex, HP, Huawei, IBM, and Qlogic. Initial release products are just emerging, however the standards are not all in draft, so these are pre-standards products, good for proof of concept and validation testing.

See also

{{DEFAULTSORT:Data Center Bridging}} [[Category:Ethernet]] [[Category:Computer storage technologies]]


Weblinks