cta

Erste Schritte

Cloud

Sind Sie bereit?

Sandbox herunterladen

Wie können wir Ihnen helfen?

SchließenSchaltfläche „Schließen“
cta

Maximieren Sie den Wert von Data in Motion

VideoVideo-Schaltflächeabspielen

Cloud Sind Sie bereit?

HDF herunterladen
Hortonworks DataFlow (HDF™)

Hortonworks DataFlow (HDF)

HDF beschleunigt und vereinfacht die Analytics von Datenströmen. Das gelingt durch eine schnellere Datenerfassung, Kuratierung, Analyse und Bereitstellung in Echtzeit vor Ort oder in der Cloud durch eine integrierte Lösung mit Apache NiFi, Kafka und Storm.

Powering the Future of Data
ABO STARTEN

Integrierte, datenquellenunabhängige Erfassungsplattform

Integrierte Erfassung aus dynamischen, verschiedenen und verteilen Quellen mit verschiedenen Formaten, Schemata, Protokollen, Geschwindigkeiten und Größen wie beispielsweise Maschinen, Geo-Location-Geräte, Klickstreams, Dateien, Social-Feeds, Logfiles und Videos.

Weitere Infos:

Einfach, schnell und sicher

Echtzeitreaktion auf Streaming-Daten

Die Echtzeitevaluierung vergänglicher Erkenntnisse erfolgt zur Bestimmung der Relevanz ebenso wie die Ausführung anhand konsequenter Entscheidungen zum Senden, Löschen oder lokalen Speichern von Daten nach Bedarf durch eine grafische Benutzeroberfläche mit Echtzeit-Einblick und -Kontrolle über den Betrieb. Noch nie dagewesene operative Effektivität wird durch Beseitigung der Abhängigkeiten und Verzögerungen erreicht, die mit einem Ansatz mit Programmierung und eigenen Skripts einhergehen.

Weitere Infos:

  • So steigern Streaming-Daten, die über eine grafische Echtzeit-Benutzeroberfläche auf Basis von Apache NiFi gehandhabt werden, die operative Effektivität.
    Video ansehen
Echtzeit-Entscheidungen

Mit einer Echtzeit-Datenkontrollkette von der Quelle bis zum Ziel gesichert

Sicheres End-to-End-Routing von der Quelle bis zum Ziel mit diskreter Benutzerautorisierung und einer detaillierten und visuellen Echtzeit-Kontrollkette und Metadaten (Datenherkunft). Die Möglichkeit, Sicherheit und Verschlüsselung bei klein angelegten, JVM-fähigen Datenquellen aus der ersten Reihe des Internet of Things ebenso wie bei großformatigen Unternehmens-Clustern für das Internet of Anything gewährleistet hohes Vertrauen in die Analyseergebnisse und die zugrundeliegenden Daten.

Weitere Infos:

  • Sehen Sie, wie HDF das Vertrauen in Ihre Daten stärkt
    Video ansehen
Vertrauen Sie Ihren Daten

Echtzeit-Geschäftsaktivitäten sind von kurzlebigen Informationen aus Data in Motion abhängig.

HDF unterstützt die Verarbeitung von Datenströmen, um Event-Daten zusammenzufassen und zu analysieren. So lassen sich dynamisch Datenmuster erkennen und Ausreißer ausmachen. Die Echtzeit-Verarbeitung von Events in großen Mengen für sofortige Aktionen und Reaktionen auf Datenströme wird durch ein integriertes Unternehmensangebot von Apache NiFi, MiNiFi, Kafka und Storm unterstützt, um Daten zu initiieren.

Apache NiFi und MiNiFi bieten dynamische, konfigurierbare Daten-Pipelines, über die alle Quellen, Systeme und Destinationen kommunizieren. Kafka passt sich an die unterschiedlichen Datenerstellungs- und Bereitstellungsraten an und optimiert die Analytics von Datenströmen, während Storm sofortige Einblicke in massivem Umfang ermöglicht.

Weitere Infos:

Verarbeitung von Datenströmen

Erhalten Sie neue Erkenntnisse durch das sichere Teilen ausgewählter Daten

HDF bietet sicheren Zugang zu und Kontrolle über Ihre Daten, um fundierte Geschäftsentscheidungen zu ermöglichen. HDF erlaubt das Teilen spezifischer Informationen und das Entfernen rollenbasierter Datenzugänge, sodass Zugriff auf ein ganzes Datensilo gewährt wird. So können Unternehmen dynamisch und sicher ausgewählte relevante Daten teilen und neue Geschäftserkenntnisse erhalten.

Weitere Infos:

  • Sehen Sie, wie HDF das Risiko verringert und gleichzeitig eine Demokratisierung der Daten ermöglicht
    Video ansehen
Entfesseln Sie die Macht Ihrer Daten

Optimieren Sie die Log-Analytik mit inhaltsbasiertem Routing in der Edge

Echtzeit-Edge-Analytik vereinfacht die Integration in Log-Analysesysteme wie Splunk, SumoLogic, Graylog, LogStash etc. für die einfache, sichere und umfassende Datenaufnahme aus Logfiles. Durch die kosteneffiziente Steigerung der erfassten Datenvolumina durch inhaltsbasiertes Routing können Unternehmen die Fehlerbehebung beschleunigen und die Erkennung von Vorkommnissen mit einer umfassenderen Übersicht aller verfügbaren Maschinendaten verbessern.

Weitere Infos:

Optimierung der Log-Analytik

Eine skalierbare und erweiterungsfähige Plattform für das IoAT – inklusive IoT

HDF ist vom Design her darauf ausgelegt, genauso gut mit klein angelegten Datenquellen zu funktionieren, die das Internet of Things bilden, wie auch mit großen Clustern in den Rechenzentren der Unternehmen, auch als Internet of AnyThing bezeichnet. HDF verschiebt Daten vom aktuellen Standort unabhängig von Größe, Form oder Geschwindigkeit sicher dorthin, wo sie gebraucht werden, und passt sich dabei dynamisch an die Bedürfnisse der Quelle, der Verbindung und des Ziels an.

Weitere Infos:

Für das IoT entwickelt

Verschlüsselung und Routing bei Bedarf

Nutzen Sie die grafische Benutzeroberfläche von HDF, um Datenströme per Drag & Drop zu verschlüsseln, an Kafka zu leiten oder Buffer und Staumanagement zu konfigurieren, damit die Daten dynamisch priorisiert werden und sicher von der Quelle zum Ziel gesendet werden können. Das System reagiert dabei unmittelbar auf die sich verändernden Bedingungen, die in der Edge häufig auftreten.

Weitere Infos:

  • Sehen Sie, wie der Live-Datenstrom binnen Minuten verschlüsselt und an Kafka geleitet wird
    Video ansehen
Verschlüsselung und Priorisierung

Was ist neu bei HDF?

Parallax-Folie
  • Neue Benutzeroberfläche: Eine intuitivere Benutzeroberfläche ermöglicht die einfache und schnellere Erstellung, Verwaltung, Einstellung und Steuerung von Datenströmen in Echtzeit
  • Höhere Produktivität: Mehrere Beteiligte können unterschiedliche Abschnitte eines einzelnen Datenstroms verwalten, der in einem Unternehmen geteilt wird. So lassen sich Datensilos und Teams mit detaillierter Kontrolle auf Komponentenebene miteinander verbinden
  • Sofort einsetzbar: Einfache Implementierung und Verwaltung von NiFi, Kafka und Storm über eine integrierte Ambari-Oberfläche und eine Integration mit Ranger für das Autorisierungsmanagement
  • MiNiFi: Neue MiNiFi-Architektur-Option in JVM für mehr Skalierbarkeit. Damit lässt sich die Herausforderung einer sicheren, bi-direktionalen First-Mile-Kommunikation mit Millionen Peripherie-Geräten (IoT) mit einem Fußabdruck von weniger als 40 MB meistern
  • NiFi     Kafka     Storm
cta

Wofür wurde HDF erfunden?

Die Herausforderungen der Praxis – das sichere und effiziente Verschieben von verteilten Daten
MEHR ERFAHREN
HDF-Benutzerhandbücher

Holen Sie sich HDF-Versionshinweise, Handbücher für Benutzer und Entwickler sowie Anleitungen zu den ersten Schritten.

Support

Der branchenweit beste Support für Apache NiFi, Kafka und Storm im Unternehmen. Lassen Sie sich von unserem Expertenteam auf Ihrer Reise begleiten.

Training

Praxisschulungen von den Big-Data-Experten. Die Schulungen sind persönlich und bei Bedarf verfügbar, wann immer Sie uns brauchen.