Get fresh updates from Hortonworks by email

Once a month, receive latest insights, trends, analytics, offering information and knowledge of the Big Data.

cta

Erste Schritte

Cloud

Sind Sie bereit?

Sandbox herunterladen

Wie können wir Ihnen helfen?

SchließenSchaltfläche „Schließen“
cta

Schnelle, einfache und sichere Big-Data-Aufnahme

Revolutionieren Sie die Datenaufnahme – aus Monaten werden Minuten

Cloud So gelingt die Datenaufnahme schnell, einfach und sicher

Whitepaper herunterladen

Was ist Datenaufnahme?

Big data ingestion is about moving data - especially unstructured data - from where it is originated, into a system where it can be stored and analyzed such as Hadoop.

Data ingestion may be continuous or asynchronous, real-time or batched or both (lambda architecture) depending upon the characteristics of the source and the destination. In many scenarios, the source and the destination may not have the same data timing, format or protocol and will require some type of transformation or conversion to be usable by the destination system.

As the number of IoT devices grows, both volume and variance of data sources are expanding rapidly, sources which now need to be accommodated, and often in real time. Yet extracting the data such that it can be used by the destination system is a significant challenge in terms of time and resources. Making data ingestion as efficient as possible helps focus resources on big data streaming and analysis, rather than the mundane efforts of data preparation and transformation.

Mit HDF zur einfachen Aufnahme von Big Data

Vorher

Kompliziert, unstrukturiert und langwierig (es dauerte Wochen bis Monate, bis die richtigen Daten in Hadoop verschoben waren)

Nachher

Zügig, effizient, einfach

Typische Probleme bei der Datenaufnahme

Komplex, langsam, teuer

*

Purpose-built and over-engineered tools make big data ingestion complex, time consuming, and expensive

*

Writing customized scripts, and combining multiple products together to acquire and ingestion data associated with current big data ingest solutions takes too long and prevents on-time decision making required of today’s business environment

*

• Command line interfaces for existing streaming data processing tools create dependencies on developers and fetters access to data and decision making

Datensicherheit

*

Die Übertragung einzelner Datenbits ist nicht mit den derzeit gängigen Datensicherheitsfunktionalitäten in der Transportschicht vereinbar, was den Zugriff auf Gruppen- oder Rollenebene einschränkt

*

Die Einhaltung von Compliance-Richtlinien und Datensicherheitsvorschriften ist schwierig, komplex und kostenintensiv

*

Die Verifizierung von Datenzugriff und -nutzung ist schwer und zeitaufwändig. Außerdem ist oft zusätzliche manuelle Arbeit notwendig, um verschiedene Systeme und Berichte miteinander zu verbinden und so herauszufinden, welche Daten aus welcher Quelle stammen, wie diese Daten verwendet werden und wer sie wie oft verwendet hat

Probleme der Datenaufnahme für das IoT

*

• Difficult to balancing limited resources of power, computing and bandwidth with the volume of data signals being generated from big data streaming sources

*

Unzuverlässige Konnektivität führt zu Kommunikationsausfällen und sorgt für Datenverluste

*

Sicherheitslücken in den meisten der weltweit implementierten Sensoren stellen ein Risiko für Unternehmen und Sicherheit dar

Optimierte Datenaufnahme mit Hortonworks DataFlow

Einfach, schnell und sicher

*

Die schnellste Methode, um Probleme bei der Aufnahme von Big Data zu beheben

*

Interaktive Point-and-Klick-Kontrolle von Datenströmen in Echtzeit

*

Beschleunigen Sie die Erfassung und Verschiebung von Daten für mehr Big-Data-Rendite

*

Einblick in den Betrieb, Feedback und Kontrolle in Echtzeit

*

Flexibilität und Reaktionsfähigkeit auf Unternehmensseite

*

Real-time decision making from big data streaming sources

*

Noch nie dagewesene operative Effektivität wird durch Beseitigung der Abhängigkeiten und Verzögerungen erreicht, die mit einem Ansatz mit Programmierung und eigenen Skripts einhergehen

*

Standardmäßige, strombasierte Programmierung für die Big-Data-Infrastruktur

*

Sichere, zuverlässige und priorisierte Datenerfassung aus geographisch verteilten Umgebungen mit unterschiedlichsten Bandbreiten

*

Durchgängiger Einblick in die Datenherkunft ermöglicht eine Prüfkette für Daten-Compliance und Daten-„Bewertung“ sowie die Optimierung und Fehlerbehebung von Datenströmen

Single, Flexible, Adaptive Bi-Directional Real-Time System

*

Integrierte, datenquellenunabhängige Erfassung aus dynamischen, verteilten und unstrukturierten Quellen

*

Adaptive to fluctuating conditions of remote, distributed data sources over geographically disperse communication links in varying bandwidth and latency environments

*

Dynamische Datenpriorisierung in Echtzeit am Edge, um Daten zu senden, abzulegen oder lokal zu speichern

*

Bi-direktionales Verschieben von Daten, Befehlen und Kontextdaten

*

Vom Design her darauf ausgelegt, genauso gut mit klein angelegten Datenquellen zu funktionieren, die das Internet of Things bilden, wie auch mit großen Clustern in den Rechenzentren der Unternehmen.

*

Die visuelle Datenprüfkette (Herkunft) liefert Echtzeit-Daten-Verknüpfungen auf Event-Ebene für die Verifizierung und die Sicherheit von Daten aus dem IoT

 
So beschleunigen Datenströme in Echtzeit den ROI von Big Data
Sichere Datenströme aus IoT
Visuelle Datenverknüpfung in Echtzeit
Sicherer Zugriff auf und Kontrolle von Daten
Dynamische Priorisierung von Data in Motion

Anwendungsfälle für Datenaufnahme mit Hortonworks-Datenstrom

ANWENDUNGSFALL 1

Sofort in Hadoop

Verkürzen Sie die Zeit, die normalerweise dafür benötigt wird, um Daten in Hadoop zu verschieben – aus Monaten werden dank einer Echtzeit-Drag-and-Drop-Oberfläche Minuten. Lesen Sie mehr über praktische Anwendungsfälle und erfahren Sie, wie man Daten in 30 Sekunden in HDFS verschieben kann.

 

Prescient Video | Blog
30-sekündige Live-Demo jetzt ansehen

ANWENDUNGSFALL 2
media img

Log-Erfassung/Spunk-Optimierung

Es kann ziemlich kompliziert sein, Log-Daten zu erfassen, die in der Regel in begrenzter Anzahl hinterlegt werden und nur schwer in großem Umfang einsetzbar sind. HDF hilft dabei, zunehmende Mengen an Log-Daten effizient zu erfassen, weiterzuleiten und darauf zuzugreifen, und vereinfacht die Integration in Log-Analysesysteme wie Splunk, SumoLogic, Graylog, LogStash etc. für die einfache, sichere und umfassende Datenaufnahme aus Logfiles.

 

Whitepaper zur Optimierung von Log-Analytics JETZT HERUNTERLADEN

ANWENDUNGSFALL 3
media img

Datenaufnahme im IoT

Realizing the promise of real-time decision making enabled by real-time IoT big data streaming is a challenge due to the distributed and disparate nature of IoT data. HDF simplifies data collection and helps push intelligence to at the very edge of highly distributed networks.

 

A. Edge Intelligence für IoT MEHR ERFAHREN
B. Einzelhandel und IoT MEHR ERFAHREN
C. IoT bei Open Energi MEHR ERFAHREN

ANWENDUNGSFALL 4
media img

Bereitstellung von Daten in Engines zur Verarbeitung von Datenströmen

Big data ingestion leads to processing that delivers business intelligence. HDF enables streaming data processing for your organization to support real-time enterprise use cases with two of the most popular open-source solutions Apache Storm and Spark Streaming.

Blog, Folien und Webinar über NiFi, Kafka und Storm MEHR ERFAHREN
Comcast NiFi in Spark aus der Keynote vom Hadoop Summit VIDEO