Aufrufe
vor 3 Jahren

Netzwoche 08/2016

  • Text
  • Unternehmen
  • Schweizer
  • Netzmedien
  • Schweiz
  • Software
  • Kmus
  • Swiss
  • Webcode
  • Agentur
  • Unic

34 Focus Information

34 Focus Information Governance Dark Content kann der entscheidende Erfolgsfaktor sein Referenzen sagen: 80 Prozent der Daten in Unternehmen sind unstrukturiert, 60 Prozent davon sogar obsolet. Welche sind wirklich geschäftsrelevant? Ein neues Tool hilft Fachabteilungen, Datei-Inhalte zu scannen, Relevantes von Irrelevantem zu trennen und damit die «Information Governance» zu optimieren. der autor Marco Michael Büchel-Luzi Head of Division ECM bei Elca Gemäss IDC sind 80 Prozent aller Informationen unstrukturiert – mit «normalen Tools» können sie nicht klassifiziert werden. Im Zweifel gilt: lieber aufbewahren. Unterschiedliche Ablagesysteme und -strukturen, Fusionen, austretende Mitarbeitende, die ein Datenchaos hinterlassen – Gründe gibt es viele. Wo aber sind geschäftsrelevante Inhalte abgespeichert, welche unterliegen rechtlichen Auflagen, wer darf worauf zugreifen? Diese Fragen zur «Information Governance» können die meisten Unternehmen nicht vollständig beantworten, was zu rechtlichen Folgen und allgemein höheren Kosten führen kann. Spätestens, wenn Unternehmen eine neue Content- Plattform implementieren und alle Inhalte migrieren, wird die Frage nach relevantem und überflüssigem Content virulent. Gemäss IDC sind 80 Prozent aller Informationen unstrukturiert – mit «normalen Tools» können sie nicht klassifiziert werden. Der ganze Dokumenten-Sumpf – auch «Dark Content» genannt – muss inhaltlich bewertet und aufgeräumt werden. Eine Sisyphus-Arbeit, die sich weder manuell durch die entsprechenden Fachabteilungen noch durch die IT-Abteilung (welche die Inhalte nicht bewerten kann) umsetzen lässt. Sie ist aber nötig, will man keine unnötigen Risiken eingehen. Hierfür gibt es Tools, die grundsätzlich zwei unterschiedliche Herangehensweisen wählen: die gängigen sind eher «technikbasiert» und werden von Administratoren bedient; ein neueres Tool sucht den Dark Content automatisch ab, stellt die nötige Funktionalität in einer Weboberfläche zur Verfügung und ermöglicht es somit Fachabteilungen, die Migration selbst durchzuführen. Nur diese sind wirklich in der Lage, die Relevanz eines Dokuments einzuschätzen. Dark Content automatisch absuchen, bewerten und migrieren Bei diesem System sorgen im ersten Schritt technische Filter (etwa Datenalter oder -format) dafür, dass nur vom Zielsystem unterstützte Dokumente übrigbleiben; die Menge der zu migrierenden Dokumente wird kleiner. Sie werden dann indexiert und mit Metatags gekennzeichnet, um an der richtigen Stelle abgelegt werden zu können. Dokumente können auch automatisch, etwa als «Record», spezifiziert werden. Dies geschieht durch die Ermittlung der «DNA» des Dokuments. Dabei werden etwa Begriffe wie «Quittung», «Bestellung» oder «vertraulich» identifiziert, die Dokumente entsprechend klassifiziert und vordefinierten Template-Typen auf dem Zielsystem zugewiesen. So können rechtliche Anforderungen erfüllt werden. Hat die Fachabteilung den Content für die Migration vorbereitet, prüft ein Supervisor die technische Korrektheit der Migrationskonfiguration (Liegen überall entsprechende Zugriffsgruppen bereit? Ist die Konfiguration vollständig? etc.). Nicht migrierte Dokumente werden, für etwa zwei Jahre, «read only» gesetzt und dann abgeschaltet oder archiviert. Die Compliance verliert einen Teil ihres Schreckens So einfach es sich auch anhört – auch hier ist der Stolperstein, wie so oft, der menschliche Faktor. Ein sauberes Change-Management muss die Mitarbeitenden auf die neue Content-Plattform und den konformen Umgang mit den Dokumenten im Sinn der Information Governance vorbereiten – eine nicht zu unterschätzende Management-Aufgabe. Wenn es aber gelingt , geht es Ihnen wie Unternehmen, die diese Lösung bereits im Einsatz haben: Zirka 80 Prozent des Contents wurden gelöscht oder «read-only» ausgelagert, die Speicherkapazitäten wurden deutlich entlastet – und die Compliance verliert einen Teil ihres Schreckens. Tools helfen, den Dokumenten-Sumpf aufzuräumen. Bild: Fotolia 08 / 2016 www.netzwoche.ch © netzmedien ag

Focus Information Governance 35 Neues Zeitalter, alte Aufgaben Die digitale Transformation zwingt Unternehmen, ihre Geschäftsmodelle vor dem Hintergrund von Big Data und IoT zu modernisieren. Voraussetzung: zuverlässige und verfügbare Daten. Hadoop und Streaming-Technologien für Analytics versprechen neue Lösungen. Die uralte Hausaufgabe Datenmanagement muss aber nach wie vor gelöst werden. der autor Patric Märki Managing Director, SAS Schweiz Ohne geeignete Daten gibt es kein datengetriebenes Unternehmen. Der Hype um Big Data ist zu Ende. Das zumindest stellt das Analystenhaus Gartner fest. Im Klartext heisst das: Big Data ist in der Praxis angekommen. Auch in der Schweiz, wo das Potenzial in manchen Wirtschaftsbereichen noch nicht ausgeschöpft ist. Warum? Erstens, weil nur wenige Global Player schnell eine Vision entwickeln konnten, welchen Wertbeitrag Big Data für ihr Unternehmen bringen würde. Zweitens legen Schweizer Unternehmen besonders viel Wert auf Ordnung und geordnetes Vorgehen. Denn jeder CIO weiss: Die Potenzierung der gesammelten Datenmengen allein bringt keinen nutzbaren Erkenntnisgewinn – wenn die Strukturen nicht stimmen. Egal welchen Analytics-Experten man befragt – zuerst fällt das Thema Datenmanagement. Ohne geeignete Daten gibt es kein datengetriebenes Unternehmen. Data Governance als Kombination aus organisatorischen und technischen Voraussetzungen ist zwar in allen Strategiepapieren der IT fest verankert, aber noch lange nicht in allen Unternehmensinfrastrukturen. Datenmanagement im Selfservice Sobald Unternehmen anfangen, analytischer und datengetriebener zu werden, wachsen auch die Datensilos. Denn es kommt schnell der Punkt, an dem die IT den zahlreichen Anforderungen aus den Fachbereichen nicht mehr gerecht wird – oder nicht schnell genug. Im klassischen Betrieb gilt immer noch viel zu oft, dass über Pflichtenhefte und Change-Requests ein ewiges Pingpong zwischen IT und Fachbereich stattfindet. Das ist das genaue Gegenteil von Agilität. Deshalb wird nach dem Thema Reporting über kurz oder lang auch das Thema Datenmanagement zu einem Selfservice-Thema werden müssen. Ein wesentlicher Bestandteil einer Datenstrategie ist ein wachsendes Bewusstsein einerseits für den Wert von Daten an sich und andererseits für deren grosse Verschiedenartigkeit. Während man im Datawarehouse-Zeitalter viel integrierte, transformierte und aggregierte, sind nun neue Konzepte gefragt, die agiler und flexibler auf die ständigen Veränderungen eingehen können. Es geht darum, das Kopieren durch virtuelle Sichten zu vermeiden (Data Federation), bei Bedarf grosse Datentöpfe («Data lakes») einzurichten oder schlicht bereits vorhandene Infrastrukturen für neue Zwecke zu nutzen (etwa analytischen Code in SAP Hana auszuführen). Das Plattformprinzip wird damit zur strategischen Pflicht: Nach dem End-to-End- Data Governance ist noch nicht in allen Unternehmensinfrastrukturen verankert. Bild: Fotolia Gedanken findet das Erstellen, Verwalten, Extrahieren, Transformieren, Laden und Optimieren der Daten auf einer technologischen Ebene statt. Oberste Maxime ist das Aufbrechen von Datensilos. Hadoop: Anfang oder Ende des Datenmanagements? Aber: Lohnt sich ein herkömmliches Datenmanagement überhaupt noch, oder löst Hadoop die Herausforderungen auf eine ganz andere Art und Weise? Hadoop hebelt Qualitätsansprüche im Rahmen einer Data Governance keineswegs aus. Es bildet Datenmanagement lediglich anders ab – sei es SQL-basiert oder unter Verwendung von Hadoop-eigenen Skriptsprachen wie etwa Pig. Wesentliche Voraussetzung für den erfolgreichen Einsatz ist die Bereitschaft, die IT-Strategie auf Hadoop abzustimmen. Parallel zum herkömmlichen Datenmanagement und zu Hadoop-Infrastrukturen etabliert sich aktuell eine weitere technologische Option, mit Massendaten umzugehen: Das sogenannte Event Stream Processing. Hier geht es darum, Daten zu analysieren, noch während sie fliessen und bevor sie gespeichert und verwaltet werden. Das Ziel: relevante Informationen vom Rauschen des Datenflusses zu trennen und sofortige Handlungen anzustossen. Denn je grösser Big Data wird, desto grösser wird auch das Risiko, das zu übersehen, was die Analysten von Forrester «Perishable Insight» nennen – also Informationen, die nur im Moment ihrer Entstehung erkennbar und wertvoll sind. www.netzwoche.ch © netzmedien ag 08 / 2016

Archiv