Aufrufe
vor 4 Jahren

Netzwoche 07/2016

  • Text
  • Unternehmen
  • Swiss
  • Netzmedien
  • Schweizer
  • Unic
  • Schweiz
  • Agentur
  • Webcode
  • Projekt
  • Punktestand

44 XXXXXXXXXXX

44 XXXXXXXXXXX XXXXXXXXXXXX Bild: iStock Vom SDDC und von anderen Hypes FOCUS INFRASTRUKTUR gsa. Seit einigen Jahren diskutiert die Branche über das Software- Defined Datacenter (SDDC). Es soll die Verwaltung, Wartung und Weiterentwicklung des Rechenzentrums vereinfachen und letztlich der IT-Abteilung helfen, Kosten zu sparen. Der ganze Betrieb läuft auf Basis von Software und abstrahiert von der Hardware. So weit der Traum. Tatsächlich sei diese Vorstellung von SDDC noch Zukunftsmusik, sagt Wilhelm Petersmann, Managing Director von Fujitsu Schweiz. Heute gebe es kaum homogene Rechenzentren und noch zu viele unterschiedliche Technologien auf allen dort vorhandenen Ebenen. Deshalb gehe der Trend hin zu Open-Stack-Technologien als Ansatz für einheitliche Lösungen. Einige der Visionen für das SDDC lassen sich gemäss Petersmann von den Entwicklungen aus dem Bereich Software-Defined Storage (SDS) ableiten. Auch im Speicherbereich wird kräftig virtualisiert. Ein wesentliches Element sind die Predictive Analytics. Damit beobachten und analysieren IT-Verantwortliche den Zustand ihrer Systeme, bevor etwas schiefgehen kann. Dass dies praktisch ist, leuchtet ein. Deshalb ist für Thomas Romer, Sales Manager Switzerland bei Nimble Storage klar, dass Predictive Analytics zum SDS und SDDC dazugehören werden. Ein weiteres Hype-Thema sind seit Jahren Thin-Clients. Rechner mit minimaler Leistung, denn diese wird im Rechenzentrum erzeugt. Trotz mancher Nachteile habe sich der Thin Client durchgesetzt, sagt Thomas Vetsch, Country Manager Switzerland von Citrix. Denn die Vorteile für die IT seien verlockend. 07 / 2016 www.netzwoche.ch © netzmedien ag

Focus Infrastruktur 45 Automatisierung im Rechenzentrum Es ist nicht nur die Datenmenge – unterschiedlichste Anspruchsgruppen fordern auch immer mehr Ressourcen. Ohne Automatisierung funktioniert in Zukunft kein Rechenzentrum. DER AUTOR Wilhelm Petersmann Managing Director, Fujitsu Schweiz IT-Provider müssen Lösungen bieten, mit denen sie den Ansprüchen ihrer Kunden quantitativ, qualitativ, zeitlich und sachlich gerecht werden. Gemeinsamer Gegenstand der Begriffe Digitalisierung, Industrie 4.0 und Internet of Things sind die Planung, Steuerung, Optimierung und Umsetzung der Wertschöpfungskette von Unternehmen mit den Mitteln der IT. Entscheider in IT-Abteilungen von Unternehmen stehen vor den Fragen: Wie lassen sich Datentransfertempo und Kapazität steigern, geeignete Applikationen und Sicherheitsmassnahmen bereitstellen und sich gleichzeitig Administration und Kosten verringern? Ausserdem: Wie gelingt es, schnell zu entwickeln, zu testen und neue Entwicklungen einfach und rasch einzuführen? Wie kommt man möglicherweise ganz einfach an eine komplette und flexibel skalierbare IT-Infrastruktur, ohne diese physisch selbst anzuschaffen? IT-Provider müssen also Lösungen bieten, mit denen sie den genannten Ansprüchen ihrer Kunden quantitativ, qualitativ, zeitlich und sachlich gerecht werden. Gleichzeitig sind flexibler Support, standardisierte Prozesse und höchste Servicequalität gefragt. Um die notwendigen und gleichzeitig kostenorientierten Angebote machen zu können, ist zukünftig die Automatisierung der ganzen Prozesskette im Rechenzentrum des Providers notwendig. Gefragt ist eine weitgehend (in Zukunft sogar vollständig) automatisierte Steuerung der gesamten Infrastruktur. Alle ihre Elemente – wie etwa Netzwerk, CPU, Storage, Server, Entwicklungsplattformen (diverse Clouds) oder Sicherheitsanwendungen – werden virtualisiert und als Service ausgeliefert. Der ganze Betrieb läuft auf Basis von Software und abstrahiert von der Hardware. Praktisch ist das ein Software-Defined Data Center (SDDC). Unabhängige Welten vereint Das Prinzip als solches ist von SDS-Architekturen bekannt (Software-Defined Storage). Die Kontrolle über die Speicherarchitektur erfolgt auch hier schon allein auf einer Softwareebene. Sie regelt die Art der Funktionsweise des Speichers und der laufenden Verteilung von Speicherplatz. Damit werden die Datenspeicherung und die Verwaltung der Daten von der genutzten Hardware getrennt. Vereinfacht: Hardware und Software existieren als voneinander unabhängige Welten. Der physische Speicher dient ausschliesslich als Ressource – der gesamte Betrieb wird via Software organisiert, geregelt und überwacht. Bei SDDC kommt nun eine neue Abstraktionsschicht (Software) hinzu und zwar oberhalb von allen Hardwareressourcen und/oder internen beziehungsweise externen Der gesamte Betrieb wird via Software organisiert, geregelt und überwacht. Bild: iStock Clouds. Diese Software regelt den Zugang zum Netzwerk, zu allen Hardwareressourcen und die Verteilung der benötigten Kapazitäten auf allen Ebenen der SDDC-Architektur. Automatisch wird die zur Verfügung stehende Bandbreite im Netzwerk geprüft, erkannt, in Kanäle aufgeteilt und bestimmten Servern oder Clients zugewiesen. Alle verfügbaren Speicherressourcen werden virtualisiert, als eine Ressource behandelt und von der Software zentral verwaltet und zugewiesen. Ähnliches gilt für die physisch vorhandenen Server-, Plattform- und Prozessorressourcen. Auch die verschiedensten Applikationen, etwa BI-Anwendungen (Business Intelligence) liegen unterhalb der Abstraktionsschicht und werden durch diese gesteuert. Für die Zukunft könnte die Nutzung eines SDDC für den Kunden so aussehen: Ein Projekt im Unternehmen ermittelt die benötigten Ressourcen einer IT-Infrastruktur. Über einen Browser oder ein Dashboard gibt der CIO seine Anforderungen ein. Im Rechenzentrum des Providers wird alles sofort verarbeitet und provisioniert. Alle gewünschten Ressourcen stehen mit Abschluss der Anforderungseingabe per Knopfdruck sofort parat und können jederzeit an die gewünschten Bedürfnisse angepasst werden. Trend geht hin zu Open-Stack-Technologie Tatsächlich ist diese Vorstellung von SDDC noch Zukunftsmusik. Heute gibt es kaum homogene Rechenzentren und noch zu viele unterschiedliche Technologien auf allen dort vorhandenen Ebenen. Deshalb gibt es einen starken Trend zu Open-Stack-Technologien als Ansatz für einheitliche Lösungen. Die Migration von einer manuellen Zuteilung der Ressourcen hin zu einer weitgehenden Automatisierung ist derzeit allerdings in vollem Gange. Insofern ist das SDDC schon mehr oder weniger Realität. www.netzwoche.ch © netzmedien ag 07 / 2016

Archiv