Verteilter Cache

aus Wikipedia, der freien Enzyklopädie

Verteilter Cache bezeichnet im Computing eine Erweiterung vom traditionellen Konzept eines Caches der normalerweise in einer einzigen Locale genutzt wird. Ein verteilter Cache kann sich über mehrere Server spannen, um an Größe und Transaktionskapazität zu wachsen. Verteilter Cache wird hauptsächlich zum Ablegen von Applikationsdaten von Datenbanken und Web-Sitzungsdaten verwendet. Die Idee vom verteilten Caching wurde realisierbar, seit RAM günstiger und Netzwerkkarten sehr viel schneller wurden – 1 Gbit ist heutzutage Standard vielerorts und 10 Gbit bereits auf dem Vormarsch.[1]

Verteilter Cache funktioniert auch gut auf kostengünstigen Geräten z. B. bei Webservern, im Gegensatz zu Datenbankservern, diese benötigen preisintensive Hardware.[2]

Beispiele

Siehe auch

Einzelnachweise

  1. S Paul, Z Fei: Distributed caching with centralized control. In: Computer Communications. Band 24, Nr. 2, 1. Februar 2001, S. 256–268, doi:10.1016/S0140-3664(00)00322-4.
  2. Iqbal Khan: Distributed Caching On The Path To Scalability. Juli 2009 (Online).