News

25.01.2013: Server Infrastrukturen schützen

Unternehmen sind heutzutage mehr den je von einer sicheren Hosting-Infrastruktur abhängig. Minimale Server Ausfallzeiten von wenigen Minuten können schon geschäftskritische Folgen haben. In jedem Fall aber ziehen längere oder häufige Ausfälle meist hohe Kosten nach sich, da die Produktivität des betroffenen Unternehmens stark eingeschränkt wird. Serverausfälle können vielerlei Ursachen haben: Hardwarefehler, fehlgeschlagene Updates, Schadsoftware, simple Bedienfehler oder Angriffe von außen. Trotz dieser Risiken versäumen Unternehmen oftmals noch, für die Sicherheit ihrer IT-Infrastruktur die notwendigen Mittel bereitzustellen. Dabei bestehen durchaus Möglichkeiten sich vor externen Angriffen oder Severausfällen zu schützen. Durch die Wahl des richtigen Hostinganbieters lassen sich das Risiko und damit die Ausfallzeiten auf ein Minimum reduzieren. Aber welche Faktoren sind ausschlaggebend für die Sicherheit der Server-Infrastruktur und worauf sollte daher bei der Auswahl des Hostinganbieters geachtet werden? Auf die Größe kommt es an. Die Größe des Hosters spielt in vielerlei Hinsicht eine entscheidene Rolle für die Sicherheit der Server-Infrastruktur. Ein wesentlicher Gesichtspunkt dabei ist, dass mit einer gewissen Größe zumeist auch eine gewisse finanzielle Stabilität einhergeht. Diese gewährleistet, dass der Anbieter nicht plötzlich wieder vom Markt verschwindet und mit ihm die gesamten Unternehmensdaten. Ein Blick auf die Erfolgsgeschichte des jeweiligen Hosters zeigt meist schnell, ob es sich um einen seriösen und verlässlichen Partner handelt, der sein Geschäft versteht.

Zudem verfügen kleinere Anbieter kaum über die notwendigen Ressourcen, um eventuelle Ausfälle der Hardware kompensieren zu können. Daher sollte auch beachtet werden, wie schnell der Anbieter in Bezug auf Reperatur und Ersatzteillieferung reagieren kann. Andererseits ist für einen erstklassigen Support auch die Nähe zum Kunden entscheidend – insbesondere wenn schnelle Hilfe notwendig ist. Ist der Anbieter zu groß, geht die Nähe zum Kunden schnell verloren, denn echte Kundennähe ist mit zunehmender Unternehmensgröße schwer vereinbar. Quelle: Computerwoche, Text von Wiethold Wagner

13.12.2012: Data Governance ist das A und O

Noch nie gab es so viele geschäftsrelevante Daten wie heute. Sie kommen aus den unterschiedlichsten Quellen und sind häufig unstrukturiert. Wer sie nutzen will, muss vor allem auf Korrektheit und Konsistenz achten.

Der Begriff Big Data beschreibt eine Erweiterung vorhandener Methoden und Prozesse des Informations-Managements. Es geht darum, große Mengen an mehr oder weniger strukturierten Daten ihrer Relevanz entsprechend zu erfassen, zu verarbeiten, auszuwerten und für Business-Entscheidungen bereitzustellen.

Datenqualitäts-Management für Big-Data-Projekte erfolgt in mehreren Schritten, die immer wieder neu durchlaufen werden. Die Bedeutung des Informations-Management für die Unternehmen verdeutlicht das Marktforschungs- und Beratungsunternehmen Gartner mit einem anschaulichen Bild: Informationen sind das Öl des 21. Jahrhunderts; die Geschäftsanalysen sind der Verbrennungsmotor, der damit betrieben wird.

Die Unternehmen benötigen heute immer schneller immer größere und möglichst detailliert aufbereite Datenmengen. Eine wichtige Rolle spielen dabei solche Daten, die an den Kundenkontaktpunkten entstehen und auch dort erfasst werden. Dazu gehören die Aufnahme von Werbebotschaften aus Print- und Online-Medien, die Klicks auf den Web-Seiten des Unternehmens, Reaktionen auf Berichte in der Wirtschafts-, Fach- und Tagespresse sowie auf den verschiedenen Social-Media-Plattformen, Reklamationen von Angeboten und Rechnungen, Erfahrungen mit der Dokumentation, Qualität des Support etc.

Die Daten für die Big-Data-Anwendungen kommen aus den unterschiedlichsten Quellen. Diese riesige Menge von Kundenkontaktdaten zu verarbeiten, ist eine Herausforderung. Kein Wunder, dass seit einiger Zeit der Begriff Big Data als Beschreibung der anstehenden Aufgaben in aller Munde ist. Die Metapher von Gartner bringt es auf den Punkt: Aus gewaltigen Datenmengen und heterogenen Datenquellen - wobei die Kundenkontaktdaten beispielhaft für viele andere Daten stehen - müssen die Unternehmen den Rohstoff Information herausfiltern und für Business-Entscheidungen nutzbar machen.

Das Thema Big Data befasst sich eigentlich mit vier Herausforderungen:

  1. Die schiere Menge: Das für Unternehmen relevante Datenvolumen steigt weiter drastisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Petabyte und Exabyte auf der Agenda stehen.

  2. Der Zeitdruck: Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, dass sie zeitnah auf Marktänderungen reagieren müssen.

  3. Die mangelnde Struktur: Die Analysen müssen immer häufig Datenquellen mit kaum strukturierten Beständen berücksichtigen. Das heißt: die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M-to-M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc.

  4. Die wachsende Anwenderzahl: Die potenziellen internen und externen User werden immer mehr. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.

 

Quelle: Computerwoche, Autor: Klaus Hofmann zur Linden

27.11.2012: ByoD - Hintertür ins Unternehmen?

Ein Thema elektrisiert IT-Verantwortliche überall in der Welt: Bring your own Device (ByoD). Für die einen ist es die Wunderrezeptur für Flexibilität, Mobilität und Kostenreduktion im Unternehmen. Für andere ein Sicherheits-Albtraum.

Mehr Informationen finden Sie in einem Artikel der Computerwoche hier>>

05.11.2012: Mit Agilität den Nutzen aus Daten ziehen

Computerwoche: Anwenderfrust durch komplexe BI-Tools - Agilität als Schlüssel zu Business Intelligence.

Daten schnell zusammenzuführen und zu präsentieren ist schwieriger als man denkt. Dabei sollten einem doch teure BI-Tools diese Aufgabe erleichtern. Wir zeigen, wie Sie die richtigen Werkzeuge auswählen.

Stellen Sie sich vor, Sie müssen morgen eine Unternehmenspräsentation abgeben. In dieser sollen Sie auf Basis der letzten Verkaufszahlen eine strategische Empfehlung darüber abgeben, welche Produkte in den drei schwächsten Absatzmärkten eine Promotion benötigen. Können Sie auf Anhieb sagen, wo auf Ihrem Server die Daten liegen, die Sie hierfür benötigen und – wenn ja – wie sie diese entsprechend zusammenführen können? Wenn Sie jetzt grübeln, geht es Ihnen wahrscheinlich wie den meisten deutschen Arbeitnehmern.

Laut der Experten von Nielsen+Partner leidet allein die Mehrheit der deutschen Banken unter einer fehlenden einheitlichen Datenbasis. Sie verstricken sich der Studie zufolge in einem wahren Datendschungel. Anlagegesellschaften, Emissionshäuser, Depot- und Investmentbanken sammeln ihre Informationen in unterschiedlichen Datenquellen und -systemen, doch in eine einheitliche Datenbasis zusammengeführt werden sie laut Studie nicht. Tatsächlich kommt es noch immer vor, dass Mitarbeiter Gebühren per Hand mithilfe von Excel-Sheets berechnen.

Die praktische Erfahrung zeigt: nicht nur Banken sind von dem Problem betroffen, auch in Unternehmen lässt das Anwendererlebnis bei der Zusammenführung und Aufbereitung von gewünschten Daten oft zu wünschen übrig. Sollen Gruppen-, Abteilungs- oder Gebietsleiter zeitgerecht Strategien entwickeln und für die Zukunft planen, gestaltet sich die Suche nach den notwendigen Daten und Fakten mühselig und zeitaufwendig.

Trotz innovativer neuer Technologien stellt es für Mitarbeiter immer noch eine große Herausforderung dar, an frei zugängliche Informationen zu gelangen. Daten zu integrieren, zusammenzufassen und zu präsentieren ist keinesfalls selbstverständlich. Entweder man ist zu stark auf die Unterstützung der IT-Abteilung angewiesen oder der manuelle Aufwand auf Abteilungsebene ist enorm. Absurd, wenn man bedenkt wie viel diese Firmen in aufwendige Unternehmensanwendungen investiert haben. Überall werden Daten erfasst; es kann nur niemand einfach genug darauf zugreifen und das Potenzial nutzbringend ausschöpfen.

Selfservice: Selbstbedienung im Informationssupermarkt - Ein positives Anwendererlebnis fürdert die Motivation.

Wird das Engagement der Mitarbeiter ausgebremst, leidet irgendwann auch das Geschäftsergebnis. Unternehmen müssen also einen Weg finden, ihren internen Nutzern, aber auch Kunden und anderen Partnern ein einheitliches Anwendererlebnis zu bieten, das deren Anforderungen entspricht. Informationen sollten sich wie in einem Selbstbedienungsladen ganz nach Bedarf zusammenstellen lassen. Die Mitarbeiter schätzen die Unabhängigkeit von Selfservice. Durch flexible Business Intelligence können sie sich jederzeit – auch außerhalb der Bürozeiten – Inhalte schnell selbst beschaffen. Das motiviert, steigert die Produktivität und der interne Supportaufwand sinkt, da niemand mehr die Informationen für sie zusammenstellen muss.

Sicherheit steht dabei mit an oberster Stelle. Hier sollten Unternehmen die potenziellen Risiken mit den Vorteilen vergleichen, die ein freierer Zugang der Mitarbeiter zu internen Geschäftsinhalten mit sich bringen würde. Rollenbasierte Zugriffsrechte gehören in den meisten Unternehmen bereits zum Standard; sie ermöglichen Unternehmen eine praktikable Lösung beider Anforderungen.

Die Bereitstellung von IT-Ressourcen über eine zentrale, (private) Cloud-basierte Infrastruktur vereinfacht alles noch weiter. Unternehmen können ihren Mitarbeitern damit ein Web-basiertes Anwendererlebnis à la Google schaffen. Der Cloud-Ansatz hat auch noch einen weiteren Vorteil. Für dezentrale Geschäftsbereiche, mobile Mitarbeiter oder andere externe Nutzer wie Kunden und Lieferanten lässt sich ebenfalls ein kontrollierter Zugriff einrichten. 

Personalisierte Portale schaffen Mehrwert durch individuelle Dienste

Durch einen liberaleren Zugang zu den Daten geben Unternehmen ihren Mitarbeitern auch mehr Flexibilität bei der Nutzung der Informationen. Interaktive Dashboards mit reichlich Gelegenheit zur eigenen Gestaltung ermöglichen jedem Anwender, Informationen so zu selektieren und organisieren, wie es ihm für die jeweilige Aufgabe nützlich und sinnvoll erscheint. Davon profitiert auch die Genauigkeit. Fehlinterpretationen, wie sie oft durch unübersichtliche Tabellen mit endlosen Zahlenkolonnen entstehen, werden deutlich seltener.

Funktionalitäten wie diese haben sich im Einsatz bei Kunden sehr bewährt. Im Finanzdienstleistungsbereich können beispielsweise Serviceberater für jeden Kunden personalisierte „Broschüren“ erstellen. Ein solches Informationsangebot bietet dem Kunden einen echten Mehrwert, schafft Vertrauen und stärkt die Geschäftsbeziehung. Lücken im Konto-, Versicherungs- oder Investmentportfolio werden erkannt und neue Umsatzchancen können erschlossen werden. Eine ähnliche Entwicklung zeigt sich auch im Einzelhandel: In diesem Bereich verlangen Marketing- und Werbeteams nach mehr Informationen, um Werbemaßnahmen auf Mikroebene zu personalisieren und maßzuschneidern. Einer der Gründe, warum Werbefachleute Networking-Sites wie Facebook so lieben, sind die zahlreichen Auswertungsmöglichkeiten und die Menge der dort abrufbaren Kundendaten.

Die Marktanalysten von Forrester haben festgestellt, dass sich die Anforderungen an Business Intelligence und der technische Fortschritt inzwischen so schnell ändern, dass die IT und traditionelle Technologien damit nicht mehr Schritt halten können (Agile BI Out Of The Box, April 2010). Laut Studie führen die Menge an BI-Komponenten und die gegenseitige Abhängigkeit dazu, dass selbst einfache Änderungen nur noch mit großem Aufwand durchgeführt werden können.

Wen wundert es da, wenn Beobachter der Branche übereinstimmend der Meinung sind, dass die Zukunft von Business Intelligence auf Agilität beruht, also auf der Fähigkeit, dynamische Ergebnisse schnell zu produzieren. Nach aktuellen Schätzungen hinkt die Arbeitswelt im Bereich Anwendererlebnis 15 Jahre hinter der Konsumentenwelt her. Die Technologien stehen bereit. Unternehmen können also aufrücken und die Innovationslücke schließen. Organisationen, die eine Spitzenposition einnehmen möchten, sollten mit einer Umstellung nicht länger warten.

Autorin: Katharina Streater
Quelle: Computerwoche

30.10.2012: peritas und Spiekermann bündeln Kräfte

IT Know-how trifft auf beratende Ingenieure

Düsseldorf, 30. Oktober 2012. Im Rahmen einer Kooperation bündeln die peritas AG und die Spiekermann AG ihre komplementären Leistungen und bieten damit Unternehmen aus der Verkehrswirtschaft einen echten Mehrwert.

In modernen Verkehrsbetrieben fallen permanent große Datenmengen an, die neben den kaufmännischen Zahlen, betriebsrelevante Informationen für die Fahrgastbeziehung und die Vergütung der Beförderungsleistung enthalten. Diese Daten müssen „in Echtzeit“ ausgewertet und so aufbereitet werden, dass die für die Entscheider relevanten Informationen schnell verfügbar sind. Die Realität sieht häufig anders aus. Die gewonnenen Daten laufen auf unterschiedlichen IT-Systemen mit verschiedenen Standards, die untereinander nicht kommunizieren. Es fehlt eine integrative Verbindung, um gewünschte Daten auf Knopfdruck abrufen und nutzen zu können.

Die peritas AG bietet gemäß ihrem Ansatz „solutions beyond IT“ Lösungen, die sich schnell realisieren lassen, auf eingeführte Systeme aufsetzen und teure Neuinvestitionen vermeiden. Die Spiekermann AG betreut seit mehr als 40 Jahren erfolgreich verkehrswirtschaftliche Projekte und ist mit der Sprache und den betrieblichen Abläufen der Verkehrswirtschaft bestens vertraut.

Im Rahmen dieser komplementären Kooperation ermöglicht man den Unternehmen der Verkehrswirtschaft einen systemübergreifenden Zugriff auf Daten und deren Visualisierung in individuell erstellten Dashboards für Entscheider. Eingesetzt werden IT Tools und intelligente Konzepte, die auf die Bedürfnisse der Verkehrsunternehmen zugeschnitten sind, um beispielsweise Einzellösungen zu integrieren oder um Geschäftsprozesse systemübergreifend besser steuer- und kontrollierbar zu machen. Die Entwicklung von Sicherheitskonzepten und die Implementierung von Sicherheitsstandards geht dabei immer Hand in Hand mit den Anforderungen an Mobil- und Zahlanwendungen.

Dipl.-Ing. Peter H. Riedel, Vorstandsvorsitzender der peritas AG: „Mit dieser Lösung setzen wir auf etablierte Systeme beim Kunden auf. Das Ergebnis ist die intelligente Nutzung vorhandene Daten unter Erhalt bestehender Investitionen.“ 
Dr.-Ing. Mark Husmann, Vorstandsvorsitzender der Spiekermann AG, ergänzt: „Ich bin davon überzeugt, dass wir unseren Kunden aus der Verkehrswirtschaft mit dieser Kooperation einen Mehrwert bieten, der in dieser Form auf dem Markt einzigartig ist. Gespräche haben gezeigt, dass es einen großen Bedarf für einfache und schnell bedienbare IT Lösungen gibt.“

peritas AG – solutions beyond IT
Die peritas AG bietet als Unternehmen der peritas Gruppe mit ihrem Ansatz „solutions beyond IT“ Lösungen jenseits der reinen Verarbeitung von Informationen mit dem Ziel, dem wachsenden Bedarf an Management Informationssystemen mit intelligenten Lösungen und standardisierten Produkten zu begegnen. Das Unternehmen bietet eine einzigartige Mischung an Kompetenz und Know-how. Issue Manager kombinieren Ihre Erfahrungen aus unterschiedlichen Branchen und stellen den Menschen in den Mittelpunkt ihrer Arbeit. Sie verstehen, wie Informationen aufbereitet sein müssen, um Mitarbeiter in ihrer täglichen Arbeit zu unterstützen und zu motivieren, ohne zu überfordern. Controlling Spezialisten verbinden ihr Verständnis für interne Abläufe und KPIs (Key Performance Indicators) mit einem pragmatischen Blick auf betriebswirtschaftliche Erfordernisse. Und Ingenieure unterschiedlichster Fachrichtungen ergänzen die Lösungen mit dem smartem Einsatz von Technologie zum Nutzen der Anwender. Smart Information als Lösung jenseits der reinen Verarbeitung von Informationen schafft einen integrierten Datenpool mit einer Mischung aus IT-Anwendungen, übergreifenden Schnittstellen und organisatorischen Maßnahmen. Pressekontakt: helga.riedel@peritas.ag

Spiekermann Consulting Engineers – Partner für zukunftsweisende Mobilität
Der Name Spiekermann ist seit 40 Jahren Synonym für kompetente, unabhängige Beratung, individuelle Planung und effizientes Projektmanagement. Als Unternehmen der italienischen NET Gruppe zählt Spiekermann auch heute zu den großen deutschen Ingenieurgesellschaften. Der Spezialist für die integrierte Gestaltung moderner Infrastrukturen rückt die Herausforderungen von Mobilität, Energie und Umwelt in eine ganzheitliche Perspektive. So werden zukunftsorientierte Lösungen entwickelt, die Verkehrs-, Energie- und Umweltstrategien optimal miteinander verzahnen. Mit rund 220 Mitarbeitern arbeitet Spiekermann an acht Standorten in Deutschland zusammen mit öffentlichen Auftraggebern, Verwaltungen und Unternehmen der Privatwirtschaft an Projekten im In- und Ausland. Das Leistungsspektrum reicht hierbei von der Beratung über die Erstellung von Gutachten, Studien und Planungen bis hin zur Bauüberwachung und treuhänderischen Projektsteuerung. Ziel ist es dabei stets, für jede Aufgabenstellung die wirtschaftlich und technisch beste Lösung zu erarbeiten, um Ideen und Visionen in realisierbare Szenarien zu verwandeln. Mehr Informationen unter www.spiekermann.de

11.09.2012: BARC Studie zu Trends im deutschen BI Markt

CIO: Barc-Studie - Trends im deutschen BI-Markt

SAP vor Oracle und IBM

Die Umsätze mit Business-Intelligence-Software stiegen 2011 überproportional. Kleine Anbieter nehmen den großen Dienstleistern zunehmen Marktanteile ab.

Unternehmen in Deutschland investierten im Jahr 2011 trotz Euro-Krise kräftig in Software zur Datenauswertung. Die Lizenz- und Wartungsumsätze mit BI-Lösungen (Business Intelligence) stiegen im Vergleich zu 2010 um 11,8 Prozent auf ein Gesamtvolumen von 1,07 Milliarden Euro. Sie lagen damit deutlich über der durchschnittlichen jährlichen Wachstumsrate (Compound Annual Growth Rate = CAGR) von 10,8 Prozent in den letzten fünf Jahren.

Das ist ein Kernergebnis der Studie "Business-Intelligence-Softwaremarkt in Deutschland 2011", die das Forschungs- und Beratungsinstitut Business Application Research Center (Barc) jährlich herausgibt. Klarer Marktführer im BI-Gesamtmarkt ist nach wie vor SAP mit einem Umsatz von 171 Millionen Euro und einem Marktanteil von 16 Prozent.

SAS vor Microsoft und Informatica

Auf den Plätzen zwei und drei folgen Oracle mit 140 Millionen Euro Umsatz bei einem Marktanteil von 13 Prozent und IBM mit 135 Millionen Euro Umsatz bei ebenfalls 13 Prozent Marktanteil. Die Plätze vier bis sechs belegen SAS, Microsoft und Informatica. SAS erwirtschaftete mit BI-Software bei einem Marktanteil von elf Prozent 115 Millionen Euro Umsatz, Microsoft 83 Millionen (Marktanteil: 7,8 Prozent) und Informatica 43 Millionen (Marktanteil: vier Prozent).

Die aktuelle die Studie stellt aber eine Trendumkehr bei der Marktkonzentration auf die großen Anbieter fest. "Diese schreitet nicht weiter fort", sagt Carsten Bange, Geschäftsführer des Barc Instituts und Hauptautor der Studie. Die Top-fünf-BI-Anbieter vereinten 2011 insgesamt "nur" noch 60,8 Prozent Anteil am BI-Gesamtmarkt auf sich. Im Jahr davor waren es noch 62,5 Prozent.

Laut Bange würden Anbieter aus dem Mittelfeld mit innovativen und auf Fachanwender ausgerichteten BI-Lösungen stark wachsen und den großen Anbietern das Leben zunehmend schwer machen. Zum Beispiel steigerte Qliktech im Jahresvergleich seinen Umsatz um 40 Prozent auf 36 Millionen Euro. Damit belegt das Unternehmen Platz sieben im Anbieter-Ranking - noch vor etablierten BI-Herstellern wie Microstrategy und Teradata.

Gedränge: Mehr als 250 BI-Anbieter

Ein weiterer Grund für die rückläufige Marktkonzentration liegt darin, dass immer mehr ausländische BI-Anbieter im Rahmen einer Internationalisierungsstrategie auf den deutschen Markt drängen. Insgesamt gibt es in Deutschland mehr als 250 Anbieter von BI-Software. 58 davon erwirtschafteten im vergangenen Jahr mehr als eine Million Euro. 2010 waren es 54 und 52 im Jahr 2009.

Alles zusammen trug dazu bei, dass 2011 von den Top-fünf-BI-Anbietern SAP, Oracle und SAS zwar mehr Umsatz mit BI-Software machten, sie jedoch gleichzeitig leicht Marktanteile einbüßten. Bei SAP waren es 0,8 Prozent, bei Oracle 1,1 Prozent und bei SAS 0,4 Prozent. Einen kleinen Sprung nach vorn beim Marktanteil machten lediglich IBM und Microsoft mit einem Plus von 0,5 und 0,3 Prozent.

BI-Frontends wachsen überproportional

Das Forschungs- und Beratungsinstitut teilt den BI-Gesamtmarkt in die Bereiche "BI-Anwenderwerkzeuge (= BI-Frontends)" und dem "BI-Datenmanagement" ein. Dabei legten insbesondere die Umsätze mit BI-Frontends im letzten Jahr überproportional zu. Sie stiegen um 14 Prozent auf 630 Millionen Euro, was einem Anteil von knapp 60 Prozent am BI-Gesamtmarkt entspricht.

Im Segment für das BI-Datenmanagement stiegen die Umsätze im selben Zeitraum lediglich um neun Prozent auf 440 Millionen Euro. Zu den BI-Frontends zählen Berichts-, Analyse-, Data-Mining-, Planungs- und Konsolidierungs-Tools sowie OLAP-Lösungen sowie multidimensionale Datenbanken. Das BI-Datenmanagement umfasst Software für die Datenintegration, das Datenqualitätsmanagement, Stammdatenmanagement wie auch die relationalen oder analytischen Datenbanken in BI-Systemen.

Freiwillige Selbstauskunft und Schätzungen

Für die Studie befragte das Barc alle ihm bekannten BI-Softwareanbieter und leitete daraus quantitative und qualitative Aussagen zum Markt ab. Die Umsatzwerte basieren auf freiwilligen Selbstauskünften der Softwarehersteller, öffentlich verfügbaren Informationen, individuellen Marktrecherchen und Methoden der Zeitreihenanalyse. Teilweise wurden Umsatzwerte geschätzt.

Der BI-Softwareumsatz setzt sich aus verkauften Lizenzen und den Wartungs- oder Mietgebühren für BI-Werkzeuge und -Anwendungen und Datenmanagementkomponenten für ein BI-System zusammen. Darin fließen auch Kostenanteile für die Bereitstellung im Rahmen von Application Service Providing (ASP) oder als Software as a Service (SaaS) ein.

Quelle: CIO / Autor: Andreas Schaffry
http://www.cio.de/2892437

17.08.2012: Big Data - die Datenflut steigt

Computerwoche: Die explodierenden Datenmengen werden für immer mehr Unternehmen zu einem ernsthaften Problem. Um die Kontrolle zu behalten und möglichst viel Nutzen aus den Informationen zu ziehen, muss die gesamte IT-Infrastruktur hinterfragt werden.

Die Information ist das Öl des 21. Jahrhunderts, und Analytics der Verbrennungsmotor, der damit läuft" - Peter Sondergaard, Senior Vice President von Gartner, bemühte eine Metapher, um die Herausforderung deutlich zu machen. Den Rohstoff Information aus gewaltigen Datenmengen zu extrahieren und zu verarbeiten sei eine der künftigen Kernaufgaben für Unternehmen.

Neue Dimension: Zettabyte

Glaubt man den Marktforschern, wird sich in den kommenden Jahren eine bis dato kaum absehbare Flut an Daten und Informationen auf die Unternehmen in aller Welt zuwälzen. 2010 durchbrach das globale digitale Universum erstmals die Zettabyte-Barriere (1 mit 21 Nullen), ergab die von EMC gesponserte IDC-Studie "Extracting value from Chaos". 2011 soll die weltweit produzierte Datenmenge auf ein Volumen von 1,8 Zettabyte ansteigen, das sind 1,8 Billionen Gigabyte. Damit sei die Informationsmenge den IDC-Analysten zufolge in den zurückliegenden fünf Jahren um den Faktor fünf gewachsen. IBM zufolge produzieren wir derzeit weltweit täglich 2,5 Trillionen Byte Daten (1 mit 18 Nullen). 90 Prozent des derzeitigen globalen Datenbestands seien in den beiden zurückliegenden Jahren entstanden.

Experten fassen diesen Trend unter dem Schlagwort Big Data zusammen. Der Begriff ist neu, nicht aber das Thema. Nach aktuellen Definitionen ist Big Data als neue Dimension zu verstehen, die über bekannte Methoden, Prozesse und Verfahren der Datenanalyse hinausgeht. Vier Entwicklungen bestimmen laut den Experten diese Veränderungen:

  • Volumen: Die Menge der anfallenden Informationen wird weiter drastisch wachsen. Grenzen sind keine erkennbar.
  • Quellen: Neben dem Volumen wächst auch die Zahl der Datenquellen. Waren es früher hauptsächlich Transaktionssysteme, die strukturierte Daten produzierten, kommen heute vielfältige weitere Quellen hinzu wie beispielsweise Sensoren, Social Networks4 und mobile Endgeräte5.
  • Geschwindigkeit: In Zukunft werden Analysen und Auswertungen ad hoc erwartet und gefordert. Wo früher ein monatlicher Report ausreichte, geht heute der Trend in Richtung Echtzeitanalysen.
  • Nutzer: Mit dem steigenden Datenvolumen wächst auch die Zahl der Nutzer von Datenanalysen in den Unternehmen. Die Herausforderung liegt darin, die unterschiedlichen Rollen mit den passenden Auswertungen zu versorgen.

Neben diesen vier Entwicklungen gibt es aus Sicht der Analysten zwei Metaebenen, die Unternehmen beim Daten-Handling beachten müssen:

  • Sicherheit: Die vielfältigen Informationsflüsse gerade auch hinsichtlich der wachsenden Zahl mobiler Endgeräte, die mit Daten versorgt werden wollen, erfordern ausgefeilte Security-Mechanismen.
  • Qualität: Mit den steigenden Datenmengen wird es für die Unternehmen immer wichtiger, eine hohe Datenqualität sicherzustellen. Schon heute klagen viele Firmen über eine mangelhafte oder zumindest zweifelhafte Qualität ihrer Datenbestände.

Die Lage der Anwender

Viele IT-Anbieter haben das Thema mittlerweile aufgegriffen. Von einem anbieter-getriebenen Hype mögen die Analysten nicht sprechen. Auf Anwenderseite gebe es großen Bedarf, die mit wachsenden Datenbeständen zusammenhängenden Probleme zu lösen. Als Beispiel nennen sie die Automobilbranche. Hier gingen die Hersteller verstärkt dazu über, im Rahmen ihrer Modellentwicklung Crash-Tests auf Hochleistungsrechnern zu simulieren. Die dabei anfallenden
Datenmengen seien gigantisch, so die Experten.

Welches Potenzial in einem verbesserten Daten-Handling stecke, lasse sich auch im Einzelhandel beobachten. Die Händler nähmen zwar viel Geld für Analysewerkzeuge in die Hand. Wenn man sich jedoch ansehe, welche Warenmengen nach wie vor auf dem Müll landeten, müsse man annehmen, dass diese Tools nicht besonders effizient funktionierten, kritisieren Fachleute.

Big Data - Chance oder Chaos?

Das Beste aus der Datenflut zu machen gelingt nach Meinung von Mark Beyer, Research Vice President bei Gartner, nur mit radikalen Maßnahmen: "Die Information- Manager in den Unternehmen müssen ihre Datenansätze grundlegend überdenken." Angesichts des großen Drucks biete sich nun die Chance, die Art und Weise der Datennutzung anders zu gestalten. Dazu müsse die IT allerdings die Business-Seite über die damit verbundenen Herausforderungen aufklären
sowie die Kontrolle und Koordination im Daten-Handling sicherstellen. "Sonst wird aus der Big-Data-Chance schnell ein Big-Data-Chaos."

Die Herausforderung für die Unternehmen liegt darin, mit den anfallenden Daten richtig umzugehen. Das heißt, in der Lage zu sein, die richtigen Daten zum richtigen Zeitpunkt an der richtigen Stelle zu analysieren. In der Konsequenz erfordert dieser Anspruch in erster Linie einen intelligenten Umgang mit den Informationen. Es könne nicht nur darum gehen, möglichst viele Daten zu horten in dem Glauben, damit die Hausaufgaben in Sachen Big Data erledigt zu haben.

Autor(en): Martin Bayer
Quelle: Computerwoche