Aufrufe
vor 4 Jahren

Netzwoche 07/2016

  • Text
  • Unternehmen
  • Swiss
  • Netzmedien
  • Schweizer
  • Unic
  • Schweiz
  • Agentur
  • Webcode
  • Projekt
  • Punktestand

46 Focus Infrastruktur

46 Focus Infrastruktur Keine Fehler im System Rechenzentren werden immer komplexer. Neue Hardware, Software und hybride Cloud-Modelle gestalten den Betrieb von Datacentern nicht unbedingt einfacher. Kapazität und Performance der Hardware sind nur ein Teil der Lösung. Predictive Analytics ist Teil der Zukunft im Datacenter. DER AUTOR Thomas Romer Sales Manager Switzerland, Nimble Storage Predictive Analytics wird künftig in jedem Fall ein Teil der Lösung sein. Je nach Geschäftsziel haben Daten einen Wert, der sich aber nur realisieren lässt, wenn sie sicher gespeichert, richtig zur Verfügung gestellt und effizient genutzt werden können. Der Wert von Daten definiert sich nicht nur über ihre pure Existenz. Vielmehr gibt es ein valides Interesse von Unternehmen, ihre Daten auf vielfältige Art, unmittelbar und schnell (Zugriffsgeschwindigkeit) nutzen zu können. Daten müssen so bereitgestellt werden, dass man sie in nützlicher Zeit analysieren und Erkenntnisse aus ihnen gewinnen kann, die eine Weiterverwertung ermöglichen. Nicht nur die Verarbeitung des Datenvolumens ist eine Herausforderung für den Betrieb. Abgesehen von den (mehr oder weniger gut organisierten) Kerndaten, die Unternehmen bewirtschaften, kommen Unmengen an Informationen aus «Insellandschaften» und neuen Entwicklungen hinzu – durch mobile Datennutzung, soziale Netzwerke, Dienste wie Cloud Computing und Herausforderungen wie Big Data. Vor allem Softwareapplikationen steigern heute den Bedarf in Bezug auf Kapazität und Performance von Speichersystemen. Bei komplexen IT-Infrastrukturen zeigen sich dann häufig Schwachstellen, die etwa zur Hälfte nicht auf der Hardware basieren, die aber Funktionalität, Kapazität und vor allem Performance von Speicherumgebungen unmittelbar betreffen und einschränken. Im Grunde handelt es sich dabei um Fehler oder Einschränkungen, die an Schnittstellen und vor allem bei der Verarbeitung von Daten durch Applikationen entstehen (app-data-gap). Wo das passiert, verlangsamt sich der Zugriff auf Daten, beim Nutzer entstehen Wartezeiten, geschäftskritische Prozesse verzögern sich; im Extremfall entfällt der angestrebte Erfolg gänzlich. Solche Vorfälle treiben Supportbedarf und Kosten in die Höhe. Software als «Generalapplikation» Abhilfe soll hier vor allem die Homogenisierung von Prozessen, Hardware und Applikationen im Rechenzentrum schaffen. Hersteller arbeiten am Software-Defined Datacenter (SDDC). Die Idee: Eine Software steuert als «Generalapplikation» alle Elemente eines Rechenzentrums – Storage, Server, Anwendungen und Plattformen aller Art. Verschiedenste Open Stack-Projekte widmen sich diesem Ansatz. Einen anderen Weg verfolgt Speicherproduzenten, die in der Lage sind, Predictive-Flash-Plattformen anbieten zu können. So eine Plattform verbindet die Fähigkeiten der Hardware mit einem passenden Big-Data-Analyse- Tool. Dabei stehen die All-Flash-Arrays für einen modernen und leistungsfähigen Speicher. Flash-Technologie allein reicht aber für ein hochperformantes System nicht aus. Interessant ist deshalb vor allem die Software mit «Predictive Analytics» (PA). PA als Begriff stammt ursprünglich aus dem Bereich des «Data Minings» und beschäftigt sich mit der Vorhersage der wahrscheinlichen Zukunft und Trends. Gearbeitet wird mit sogenannten Prädikatoren – das sind Variablen, die für einzelne Einheiten gemessen werden. Mittels einer solchen prädikativen Modellierung werden Daten gesammelt und statistische Modelle entwickelt, anhand derer sich zukünftige Ereignisse voraussagen lassen. Das ist im Grunde auch ein Ansatz dieser hochspezialisierten Lösungen: Die Software sammelt und analysiert unzählige Daten im Umfeld der IT-Infrastruktur und wertet sie aus. Aus den daraus gewonnenen Erkenntnissen lassen sich Performance-Probleme vorhersagen und eliminieren, Schnittstellenprobleme werden ebenso erkannt, wie Probleme auf der Virtualisierungsebene, Fehlkonfigurationen oder Software fehler. Neben der Problemanalyse steuern diese Lösungen aus serdem automatisch Kapazitäten und Performance. Der Anwender bekommt so, was er braucht: optimale Datenverfügbarkeit (Kapazität, Performance), Skalierbarkeit, durchgängige Prozesse, Minimierung beim Support und am Ende niedrigere TCO (Total Cost of Ownership). Welche Entwicklungen sich in Zukunft im Speichermarkt und für Rechenzentren durchsetzen, sei dahingestellt. Predictive Analytics wird aber in jedem Fall ein Teil der Lösung sein. All-Flash-Arrays stehen für einen modernen und leistungsfähigen Speicher. Bild: Fotolia 07 / 2016 www.netzwoche.ch © netzmedien ag

Focus Infrastruktur 47 Alle Clients sind Thin Clients IT-Leiter kennen ihn seit Jahren, sogar seit Jahrzehnten: den ewigen Kampf um die beste Client-Infrastruktur. Betrachtet man eine moderne Unternehmens-IT mit ihrer Hybrid-Cloud-Architektur, den vielen im Datacenter zentralisierten IT-Ressourcen und der Fülle aus diversen Clouds bezogener Services, so muss man konstatieren: Letztlich hat sich der Thin Client durchgesetzt. DER AUTOR Thomas Vetsch Country Manager Switzerland, Citrix Der Thin Client hat sich durchgesetzt – aber das ist heute bereits so sehr Alltag, dass es kaum noch jemandem auffällt. Der Arbeitsalltag eines Endanwenders ist heute weit entfernt vom einstigen rein lokalen Arbeiten. Vielmehr zeigt er sich bei näherem Hinsehen erstaunlich vielschichtig: Mal bearbeitet der Anwender ein Word-Dokument lokal, mal schreibt er einen Blog-Beitrag, der von Anfang an in der Cloud gespeichert wird. Mal erstellt er eine Excel-Liste mit einer Microsoft Office Suite, die sein Arbeitgeber im unternehmenseigenen Rechenzentrum auf einem Terminalserver betreibt, mal gibt er Kundendaten in die SaaS- Anwendung Salesforce ein. Für den Endanwender ist es dabei unerheblich, wo sich die Applikationen, IT-Services und Daten befinden, mit denen er arbeitet: Hauptsache, alles funktioniert und der Zugriff auf die benötigten Ressourcen erfolgt schnell und unkompliziert. Für jene innovativen Lösungen, die alle Ressourcen eines Endanwenders in einem einheitlichen und intuitiv bedienbaren virtuellen Arbeitsplatz zusammenführen, hat das Analystenhaus Gartner den Begriff «Workspace Aggregator» geprägt. Die IT hat die Kontrolle Ein wesentliches Charakteristikum solcher «aggregierten» virtuellen Arbeitsplätze ist es, dass der Anwender sie geräteunabhängig nutzen kann: Ob vom Linux-TC (Thin Client) oder Desktop-PC mit Windows 10, einem Macbook, Chromebook, iPhone, iPad oder Android-Device: Über sein Interface stehen ihm jeweils die passenden Applikationen (oder bei Mobilgeräten: Apps) sowie alle Ressourcen zu Verfügung, für die er Berechtigungen hat. Letzterer Punkt ist es, der das Prinzip virtualisierter Arbeitsplätze für die IT-Abteilungen und das Business- Management so interessant macht: Die IT hat damit stets die Kontrolle, welche lokalen oder cloudbasierten Apps, Services und Daten sie dem Anwender an die Hand gibt – und das Management hat es entsprechend deutlich leichter als in verteilten IT-Landschaften, die Compliance der eigenen IT-Umgebung aus Lizenzierungs- und Sicherheitssicht nachzuweisen. Der Anwender nutzt das Gerät, das er will Für den Endanwender wiederum ist es vor allem wichtig, dass er stets das gerade bevorzugte Endgerät nutzen kann: Das Dokument erstellt er im Büro am PC oder Thin Client mit dem 19-Zoll-Display, im Zug arbeitet er am Notebook die Korrekturen seiner Kollegen ein, und zwischendurch Für den Endanwender ist es vor allem wichtig, dass er stets das gerade bevorzugte Endgerät nutzen kann. checkt er den Freigabestatus am Smartphone oder Tablet. Da das Dokument auf einem Fileshare seines Unternehmens liegt, hat er immer die jeweils aktuelle Version parat. In diesem Szenario agieren sowohl der klassische Thin Client als auch der PC, das Notebook, Chromebook, Smartphone oder Tablet als Thin Clients: Alle Ressourcen einschliesslich der Applikationen sind zentral gehostet oder liegen zumindest in einem zentral verwalteten Container. In einer konsequent gemanagten IT-Umgebung ist damit heute jeder Client ein Thin Client: Dieser hat sich also durchgesetzt – aber das ist heute bereits so sehr Alltag, dass es kaum noch jemandem auffällt. Für die IT bedeutet dies: Entweder muss sie auf ein stringentes Lifecycle-Management der Fat Clients setzen – dort ist die Tendenz sehr stark rückläufig, vor allem durch hohe Betriebskosten. Oder aber die IT setzt gleich auf eine Thin-Client-Infrastruktur mit zugehöriger zentraler Verwaltung – wie es viele Firmen im Moment immer häufiger tun. Im Zeitalter von Multi-Content- und Channel-Applikationen bietet eine solche Infrastruktur erhöhte grafische Anforderungen an Video-, Bild- und Voice-Qualität. Beide Szenarien gilt es um ein Enterprise Mobility Management zu ergänzen: Nur so ist sichergestellt, dass wirklich sämtliche Endgeräte unterschiedlichster Betriebssysteme mit den darauf laufenden, teils webbasierten Applikationen dem gleichen hohen Mass an zentraler Kontrolle unterliegen, die in der heute üblichen heterogenen IT-Landschaft zwingend notwendig ist. www.netzwoche.ch © netzmedien ag 07 / 2016

Archiv