Big Data - Historie & Ausblick

6 min read|Published August 15, 2019
Big Data

Streng genommen ist Big Data keine technische Erfindung, sondern lediglich ein Begriff für ein Phänomen, dass sich bereits früh abzeichnete. Die weltweite Datenmenge wächst immer schneller und schneller - und schafft dabei stetig neue Datenkategorien. Viele Anbieter nutzen mittlerweile Machine Learning Technologien um mit dieser Entwicklung Schritt zu halten.

ZUSAMMENFASSUNG
  • Die globale Datenmenge - Stichwort: Big Data - wächst seit den 90er exponentiell und verdoppelt sich alle zwei Jahre

  • Big Data beschreibt dabei große, unstrukturierte Datenmengen mit denen herkömmliche Analyseverfahren überfordert sind

  • Diese enorme Menge unstrukturierter Informationen macht intelligente Analyse-Technologien notwendig, um vorhandene Datensilos nutzbar zu machen

ZUSAMMENFASSUNG
  • Die globale Datenmenge - Stichwort: Big Data - wächst seit den 90er exponentiell und verdoppelt sich alle zwei Jahre

  • Big Data beschreibt dabei große, unstrukturierte Datenmengen mit denen herkömmliche Analyseverfahren überfordert sind

  • Diese enorme Menge unstrukturierter Informationen macht intelligente Analyse-Technologien notwendig, um vorhandene Datensilos nutzbar zu machen

Angeblich war es Mitte der neunziger Jahre bei einem Mittagessen in der Kantine des Computerherstellers Silicon Graphics, als der Informatiker John Mashey Big Data erfand. Streng genommen ist Big Data keine technische Erfindung, sondern lediglich ein Begriff für ein Phänomen, dass sich bereits damals abzeichnete.

Computer, so Mashey, würden bald an ihre Grenzen bei der Verarbeitung von Daten stoßen, weil das Volumen exponentiell wachse und die Vielfalt der Datenkategorien schlichtweg explodiere. Den Computerhersteller Silicon Graphics gibt es nicht mehr, aber wir wissen heute, dass dessen Informatik-Genie Mashey mit seiner Einschätzung richtig lag.

Datenmenge verdoppelt sich alle zwei Jahre

Alle zwei Jahre wird sich die Menge der weltweit erzeugten Daten in dem kommenden zehn Jahren verdoppeln. Ein Datenvolumen von 45.000 Exabyte werden wir bis 2020 produzieren. Zum Vergleich: Für das Speichern aller Wörter, die die gesamte Menschheit jemals gesprochen hat, würde eine Kapazität von gerade einmal 5 Exabyte ausreichen.

Obwohl so mancher Skeptiker im Big Data-Begriff einen überzogenen Hype sieht, bleibt Big Data als reales Phänomen also nach wie vor aktuell. Auf der Suche nach einer Definition zeichnen sich unter Forschern, Anbietern und Anwendern zwei Perspektiven ab:

  • Daten-Ebene: Big Data beschreibt große, unstrukturierte Datenmengen, mit der herkömmliche Methoden der Datenverarbeitung überfordert sind.

  • Technologie-Ebene: Als Sammelbegriff bezeichnet Big Data neue Technologien, mit deren Hilfe sich große Mengen an Daten verarbeiten lassen.

Beide Perspektiven haben ihre Daseinsberechtigung, zeigen aber, wie generisch der Big Data-Begriff nach wie vor ist. Vertreter einer dritten Sichtweise versuchen sich gar nicht erst an einer Definition. Für sie ist Big Data weniger ein Fachbegriff, sondern beschreibt ein universelles Phänomen, das eine logische Konsequenz der Digitalisierung ist.

Um dieses Phänomen besser zu verstehen, nähern sie sich der Bedeutung von Big Data über fünf Merkmale an, die Daten und den Umgang mit Daten in einer zunehmend digitalisierten Welt auszeichnen:

  • Menge: Menschen tauschen tagtäglich Unmengen an Daten aus. Unternehmen und Betreiber von Online-Plattformen speichern und verarbeiten Massendaten in einem Umfang, der sich erst durch neue Technologien wie Hadoop bewältigen lässt.

  • Geschwindigkeit: Die Geschwindigkeit, in der Daten einerseits erzeugt und andererseits verarbeitet werden ist so hoch wie nie. Die Verarbeitung von Daten in Echtzeit ist nicht mehr nur ein Buzzword, sondern in vielen Bereichen Realität.

  • Vielfalt: Durch die Möglichkeit, Daten über jedes Endgerät, zu jeder Zeit und an jedem Ort zu erzeugen, hat sich die Bandbreite der Daten vergrößert. Daten entstehen in den unterschiedlichsten Formaten – Text, Bild, Video, Audio, Zahlen.

  • Variabilität: Neben der zunehmenden Geschwindigkeit und Vielfalt, in der Daten erzeugt werden, wächst die Variabilität. Daten sind häufig unstrukturiert, inkonsistent und das Tempo, in dem sie erzeugt werden, kann extrem schwanken.

  • Komplexität: Daten kommen aus den unterschiedlichsten Applikationen, Endgeräten und Systemen. Ihre Verknüpfung und die Einordnung in Hierarchiemodelle ist eine der größten Herausforderungen für die Datenverarbeitung.

Während die Big Data-Definition viel Spielraum lässt, ist die Anwendung im geschäftlichen Alltag längst Normalität geworden. „The world’s most valuable resource is no longer oil, but data“, titelte der Economist etwas pathetisch in einem sehr lesenswerten Beitrag.

Daten sind der Schmierstoff für die Geschäftsprozesse vieler Unternehmen. Sie ziehen daraus Mehrwert, treiben Innovationen voran, implementieren Zukunftsstrategien. Die genannten fünf Merkmale skizzieren aber gleichzeitig, welchen Herausforderungen sich Unternehmen in der Datenverarbeitung gegenüber sehen.

 Um wirklich messbaren Mehrwert aus Big Data zu ziehen, müssen Unternehmen Ihre Prozesse und Tools für den Umgang mit Daten weiter ausbauen. Dabei zeichnen sich vier Entwicklungen ab, die einen guter Indikator für die Professionalisierung von Big Data sind:

  1. Die Rolle des Chief Data Officer (CDO) wird in vielen Unternehmen etabliert. 2018 werden 50 Prozent der CDOs direkt an den CEO eines Unternehmens berichten. Daten sind auf dem C-Level angekommen – diese Priorisierung wird Big Data guttun.

  2. Forrester geht davon aus, dass 2018 80 Prozent aller Unternehmen auf Insights Service Provider setzen. Die Analysten prognostizieren einen florierenden Markt für IaaS (Insights-as-a-Service) – Angebote, die Unternehmen bei der Auswertung, Kategorisierung und Analyse von Daten unterstützen.

  3. Die Interaktionen mit Kunden ist eine der ergiebigsten Datenquellen, aber auch eine, die mit unstrukturierten Daten eine der größten Herausforderungen für Unternehmen darstellt. Gartner prognostiziert, dass bis 2020 85 Prozent aller Kundeninteraktionen über künstlich intelligente Chatbots abgewickelt werden, die die Datenqualität verbessern und eine effizientere Auswertung ermöglichen.

  4. Überhaupt werden bei der Auswertung von Daten zunehmend Algorithmen auf Basis von Machine Learning zum Einsatz kommen. Anders, so das Tech-Magazin CIO, ließe sich die wachsende Datenflut kaum mehr bewältigen. Unternehmen, die diese Investitionen wegen fehlender Kompetenz und Ressourcen nicht selbstständig umsetzen können, werden auf Partnerschaften mit externen Big Data-Spezialisten setzen.

More in Produkte

Der ultimative Leitfaden eine brillante Pay by Bank-Nutzererfahrung
2023-12-27 · 2 min read
Der ultimative Leitfaden für eine brillante Pay by Bank-Nutzererfahrung

Wir bei Tink freuen uns sehr über Pay by Bank. Unser neuer, detaillierter UX Guide zeigt euch, wie ihr das beste aus dieser innovativen Zahlungslösung herausholt.

Produkte
Tinks neuestes White Paper zur Kreditvergabe
2023-12-21 · 1 min read
Lending, levelled up

Das neue White Paper von Tink zur Kreditvergabe - mit Daten aus Großbritannien, Frankreich und Deutschland - zeigt, wie man Bonitätsanalysen mit angereicherten Daten auf das nächste Level hebt.

Produkte
Transaction Monitoring im Kampf gegen Fraud, Geldwäsche und Terrorismusfinanzierung
2021-06-02 · 5 min read
Transaction Monitoring im Kampf gegen Fraud, Geldwäsche und Terrorismusfinanzierung

Transaction Monitoring - also die Überwachung von Kundentransaktionen - stellt einen ganz wesentlichen Baustein für Banken in der Geldwäschebekämpfung dar. So lassen sich Auffälligkeiten treffsicher identifizieren.

Produkte

Jetzt loslegen mit Tink

Kontaktiere unser Team, um mehr über unsere Lösungen zu erfahren oder erstelle einfach einen kostenlosen Account, um direkt zu starten.

Rocket