Andreas Gadatsch und Holm Landrock zeigen an typischen Beispielen aus der Praxis, wie datengetriebene Geschäftsmodelle entstehen. Sie erläutern, wie sich Big-Data-Projekte rechnen und wie man am einfachsten an die Analyse großer Datenmengen herangeht. Eine Bewertung der zentralen Aspekte von Projekten und der dort eingesetzten Technologien erleichtert den Lesern die tägliche Praxis im IT-Management. Die Autoren stellen Hadoop als eine der wichtigen Big-Data-Technologien vor.
Aktualisiert: 2023-07-02
> findR *
Andreas Gadatsch und Holm Landrock zeigen an typischen Beispielen aus der Praxis, wie datengetriebene Geschäftsmodelle entstehen. Sie erläutern, wie sich Big-Data-Projekte rechnen und wie man am einfachsten an die Analyse großer Datenmengen herangeht. Eine Bewertung der zentralen Aspekte von Projekten und der dort eingesetzten Technologien erleichtert den Lesern die tägliche Praxis im IT-Management. Die Autoren stellen Hadoop als eine der wichtigen Big-Data-Technologien vor.
Aktualisiert: 2023-07-02
> findR *
Andreas Gadatsch und Holm Landrock zeigen an typischen Beispielen aus der Praxis, wie datengetriebene Geschäftsmodelle entstehen. Sie erläutern, wie sich Big-Data-Projekte rechnen und wie man am einfachsten an die Analyse großer Datenmengen herangeht. Eine Bewertung der zentralen Aspekte von Projekten und der dort eingesetzten Technologien erleichtert den Lesern die tägliche Praxis im IT-Management. Die Autoren stellen Hadoop als eine der wichtigen Big-Data-Technologien vor.
Aktualisiert: 2023-07-02
> findR *
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Aktualisiert: 2023-07-01
> findR *
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Aktualisiert: 2023-07-01
> findR *
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Aktualisiert: 2023-07-01
> findR *
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Aktualisiert: 2023-07-01
> findR *
In "Mein mySQL Buch" werden Sie lernen, wie Sie mySQL-Datenbanken entwerfen, modellieren, verwalten und administrieren. Sie werden Schritt für Schritt die grundlegenden Konzepte und Techniken erlernen, um Ihre eigenen mySQL-Projekte zu erstellen, von einfachen Datenbanken bis hin zu hochverfügbaren mySQL-Datenbank-Clustern in verteilten Netzwerken.
Aktualisiert: 2023-06-08
> findR *
Big Data ist ein aktuelles Trendthema, doch was versteckt sich dahinter? Big Data beschreibt Daten, die gross oder schnelllebig sind. Big Data bedeutet aber auch, sich mit vielfältigen Datenquellen und Datenformaten zu beschäftigen. Diese Lektüre soll daher eine Einführung in das Ökosystem Big Data sein. Anhand einfacher Beispiele werden Methoden und Technologien zur Handhabung von Big Data aufgezeigt.
Aktualisiert: 2023-05-29
> findR *
Big Data ist ein aktuelles Trendthema, doch was versteckt sich dahinter? Big Data beschreibt Daten, die gross oder schnelllebig sind. Big Data bedeutet aber auch, sich mit vielfältigen Datenquellen und Datenformaten zu beschäftigen. Diese Lektüre soll daher eine Einführung in das Ökosystem Big Data sein. Anhand einfacher Beispiele werden Methoden und Technologien zur Handhabung von Big Data aufgezeigt.
Aktualisiert: 2023-05-29
> findR *
Big Data ist ein aktuelles Trendthema, doch was versteckt sich dahinter? Big Data beschreibt Daten, die gross oder schnelllebig sind. Big Data bedeutet aber auch, sich mit vielfältigen Datenquellen und Datenformaten zu beschäftigen. Diese Lektüre soll daher eine Einführung in das Ökosystem Big Data sein. Anhand einfacher Beispiele werden Methoden und Technologien zur Handhabung von Big Data aufgezeigt.
Aktualisiert: 2023-05-29
> findR *
In "Mein mySQL Buch" werden Sie lernen, wie Sie mySQL-Datenbanken entwerfen, modellieren, verwalten und administrieren. Sie werden Schritt für Schritt die grundlegenden Konzepte und Techniken erlernen, um Ihre eigenen mySQL-Projekte zu erstellen, von einfachen Datenbanken bis hin zu hochverfügbaren mySQL-Datenbank-Clustern in verteilten Netzwerken.
Aktualisiert: 2023-05-25
> findR *
In "Mein mySQL Buch" werden Sie lernen, wie Sie mySQL-Datenbanken entwerfen, modellieren, verwalten und administrieren. Sie werden Schritt für Schritt die grundlegenden Konzepte und Techniken erlernen, um Ihre eigenen mySQL-Projekte zu erstellen, von einfachen Datenbanken bis hin zu hochverfügbaren mySQL-Datenbank-Clustern in verteilten Netzwerken.
Aktualisiert: 2023-05-25
> findR *
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Aktualisiert: 2023-05-24
> findR *
Einführung in Big-Data-Systeme und -Technologien
Große Datenmengen speichern und verarbeiten
Einsatz zahlreicher Tools wie Hadoop, Apache Cassandra, Apache Storm uvm.
Daten müssen mittlerweile von den meisten Unternehmen in irgendeiner Form verarbeitet werden. Dabei können sehr schnell so große Datenmengen entstehen, dass herkömmliche Datenbanksysteme nicht mehr ausreichen. Big-Data-Systeme erfordern Architekturen, die in der Lage sind, Datenmengen nahezu beliebigen Umfangs zu speichern und zu verarbeiten. Dies bringt grundlegende Anforderungen mit sich, mit denen viele Entwickler noch nicht vertraut sind.
Die Autoren erläutern die Einrichtung solcher Datenhaltungssysteme anhand eines speziell für große Datenmengen ausgelegten Frameworks: der Lambda-Architektur. Hierbei handelt es sich um einen skalierbaren, leicht verständlichen Ansatz, der auch von kleinen Teams implementiert und langfristig betrieben werden kann.
Die Grundlagen von Big-Data-Systemen werden anhand eines realistischen Beispiels praktisch umgesetzt. In diesem Kontext lernen Sie neben einem allgemeinen Framework zur Verarbeitung großer Datenmengen auch Technologien wie Hadoop, Storm und NoSQL-Datenbanken kennen.
Dieses Buch setzt keinerlei Vorkenntnisse über Tools zur Datenanalyse oder NoSQL voraus, grundlegende Erfahrungen im Umgang mit herkömmlichen Datenbanken sind aber durchaus hilfreich.
Aus dem Inhalt:
Big-Data-Systeme und -Technologien
Echtzeitverarbeitung sehr großer Datenmengen
Lambda-Architektur
Batch-Layer: Datenmodell, Datenspeicherung, Skalierbarkeit
Stapelverarbeitungsprozesse
Modellierung von Stammdatensätzen
Implementierung eines Graphenschemas mit Apache Thrift
Einsatz von MapReduce
JCascalog zur Implementierung von Pipe-Diagrammen
Serving-Layer: Konzepte und Einsatz von ElephantDB
Speed-Layer: Berechnung und Speicherung von Echtzeit-Views
Einsatz von Hadoop, Apache Cassandra, Apache Kafka und Apache Storm
Streamverarbeitung mit Trident
Aktualisiert: 2023-05-10
> findR *
MongoDB ist die derzeit populärste dokumentenorientierte Datenbank im NoSQL-Bereich. Während klassische Datenbankmanagementsysteme bei großen Datenmengen an Skalierungs- und Leistungsgrenzen stoßen, kann MongoDB auch im Petabyte-Bereich und darüber noch effizient arbeiten und bietet viele Features, die die Verarbeitung von Big Data erleichtern.
Kompakt und anhand von zahlreichen Beispielen führt Sie dieses Buch in die Nutzung von MongoDB ein. Es beginnt mit einem Schnellstart, in dem Sie MongoDB installieren und erste Erfahrungen im Umgang mit semistrukturierten Daten und den Vorteilen der Schemafreiheit sammeln. Darauf aufbauend behandelt das Buch u.a. folgende Themen:
- Collections & Dokumente
- Queries & Indizes
- Replikation (Ausfallsicherheit)
- Sharding (horizontale Skalierung)
- Schema-Design
- Map/Reduce
- Aggregation Framework
Darüber hinaus bietet das Buch am Beispiel der Programmiersprachen Java und Ruby Praxistipps zur Verwendung des API von MongoDB.
Nach der Lektüre können Sie einschätzen, in welchen komplexeren Anwendungsfällen sich der Einsatz von MongoDB lohnt, Sie kennen alle wichtigen Features und sind in der Lage, eigene MongoDB-Anwendungen zu erstellen.
Aktualisiert: 2023-05-08
> findR *
MongoDB ist die derzeit populärste dokumentenorientierte Datenbank im NoSQL-Bereich. Während klassische Datenbankmanagementsysteme bei großen Datenmengen an Skalierungs- und Leistungsgrenzen stoßen, kann MongoDB auch im Petabyte-Bereich und darüber noch effizient arbeiten und bietet viele Features, die die Verarbeitung von Big Data erleichtern.
Kompakt und anhand von zahlreichen Beispielen führt Sie dieses Buch in die Nutzung von MongoDB ein. Es beginnt mit einem Schnellstart, in dem Sie MongoDB installieren und erste Erfahrungen im Umgang mit semistrukturierten Daten und den Vorteilen der Schemafreiheit sammeln. Darauf aufbauend behandelt das Buch u.a. folgende Themen:
- Collections & Dokumente
- Queries & Indizes
- Replikation (Ausfallsicherheit)
- Sharding (horizontale Skalierung)
- Schema-Design
- Map/Reduce
- Aggregation Framework
Darüber hinaus bietet das Buch am Beispiel der Programmiersprachen Java und Ruby Praxistipps zur Verwendung des API von MongoDB.
Nach der Lektüre können Sie einschätzen, in welchen komplexeren Anwendungsfällen sich der Einsatz von MongoDB lohnt, Sie kennen alle wichtigen Features und sind in der Lage, eigene MongoDB-Anwendungen zu erstellen.
Aktualisiert: 2023-05-08
> findR *
MongoDB ist die derzeit populärste dokumentenorientierte Datenbank im NoSQL-Bereich. Während klassische Datenbankmanagementsysteme bei großen Datenmengen an Skalierungs- und Leistungsgrenzen stoßen, kann MongoDB auch im Petabyte-Bereich und darüber noch effizient arbeiten und bietet viele Features, die die Verarbeitung von Big Data erleichtern.
Kompakt und anhand von zahlreichen Beispielen führt Sie dieses Buch in die Nutzung von MongoDB ein. Es beginnt mit einem Schnellstart, in dem Sie MongoDB installieren und erste Erfahrungen im Umgang mit semistrukturierten Daten und den Vorteilen der Schemafreiheit sammeln. Darauf aufbauend behandelt das Buch u.a. folgende Themen:
- Collections & Dokumente
- Queries & Indizes
- Replikation (Ausfallsicherheit)
- Sharding (horizontale Skalierung)
- Schema-Design
- Map/Reduce
- Aggregation Framework
Darüber hinaus bietet das Buch am Beispiel der Programmiersprachen Java und Ruby Praxistipps zur Verwendung des API von MongoDB.
Nach der Lektüre können Sie einschätzen, in welchen komplexeren Anwendungsfällen sich der Einsatz von MongoDB lohnt, Sie kennen alle wichtigen Features und sind in der Lage, eigene MongoDB-Anwendungen zu erstellen.
Aktualisiert: 2023-05-05
> findR *
MongoDB ist die derzeit populärste dokumentenorientierte Datenbank im NoSQL-Bereich. Während klassische Datenbankmanagementsysteme bei großen Datenmengen an Skalierungs- und Leistungsgrenzen stoßen, kann MongoDB auch im Petabyte-Bereich und darüber noch effizient arbeiten und bietet viele Features, die die Verarbeitung von Big Data erleichtern.
Kompakt und anhand von zahlreichen Beispielen führt Sie dieses Buch in die Nutzung von MongoDB ein. Es beginnt mit einem Schnellstart, in dem Sie MongoDB installieren und erste Erfahrungen im Umgang mit semistrukturierten Daten und den Vorteilen der Schemafreiheit sammeln. Darauf aufbauend behandelt das Buch u.a. folgende Themen:
- Collections & Dokumente
- Queries & Indizes
- Replikation (Ausfallsicherheit)
- Sharding (horizontale Skalierung)
- Schema-Design
- Map/Reduce
- Aggregation Framework
Darüber hinaus bietet das Buch am Beispiel der Programmiersprachen Java und Ruby Praxistipps zur Verwendung des API von MongoDB.
Nach der Lektüre können Sie einschätzen, in welchen komplexeren Anwendungsfällen sich der Einsatz von MongoDB lohnt, Sie kennen alle wichtigen Features und sind in der Lage, eigene MongoDB-Anwendungen zu erstellen.
Aktualisiert: 2023-05-05
> findR *
Diese komplett überarbeitete Neuauflage bringt Ihnen das Thema Big Data auf sehr praktische Art und Weise nahe. Sie lernen Technologien, Tools und Methoden kennen, entwickeln Beispiel-Lösungen und erfahren, wie Sie bestehende Systeme vorausschauend auf die mit Big Data einhergehenden Herausforderungen vorbereiten.
Dazu werden Sie neben den bekannten Apache-Projekten wie Hadoop, Hive und HBase auch einige weniger bekannte Frameworks wie Apache UIMA oder Apache OpenNLP kennenlernen, um gezielt die Verarbeitung unstrukturierter Daten zu lernen. Alle hier verwendeten Software-Komponenten stehen im vollen Umfang kostenlos im Internet zur Verfügung.
Gemeinsam mit den Autoren bauen Sie Schritt für Schritt viele kleinere Projekte auf bis hin zu einer fertigen und funktionstüchtigen Implementierung.
Ziel des Buches ist es, Sie auf den Effekt und den Mehrwert der neuen Möglichkeiten aufmerksam zu machen, sodass Sie diese konstruktiv in Ihr Unternehmen tragen können und für sich und Ihre Kollegen somit ein Bewusstsein für den Wert Ihrer Daten schaffen
Die zweite Auflage ergänzt das Buch um zahlreiche neue Themen wie Apache Spark, Apache Kafka und weitere Technologien, die vor allem darauf abzielen, Antwortzeiten kurz zu halten und so ein interaktives Arbeiten zu ermöglichen. Ebenso werden die für Firmen so wichtigen Themen Data Governance und Sicherheit behandelt.
Im Internet: 18 fertige Beispiel-Projekte auf Basis von Hadoop, HBase, Hive und D3.js plus Videotutorials
EXTRA: E-Book inside. Systemvoraussetzungen für E-Book inside: Internet-Verbindung und Adobe-Reader oder Ebook-Reader bzw. Adobe Digital Editions.
Aktualisiert: 2022-10-11
> findR *
MEHR ANZEIGEN
Bücher zum Thema Hadoop
Sie suchen ein Buch über Hadoop? Bei Buch findr finden Sie eine große Auswahl Bücher zum
Thema Hadoop. Entdecken Sie neue Bücher oder Klassiker für Sie selbst oder zum Verschenken. Buch findr
hat zahlreiche Bücher zum Thema Hadoop im Sortiment. Nehmen Sie sich Zeit zum Stöbern und finden Sie das
passende Buch für Ihr Lesevergnügen. Stöbern Sie durch unser Angebot und finden Sie aus unserer großen Auswahl das
Buch, das Ihnen zusagt. Bei Buch findr finden Sie Romane, Ratgeber, wissenschaftliche und populärwissenschaftliche
Bücher uvm. Bestellen Sie Ihr Buch zum Thema Hadoop einfach online und lassen Sie es sich bequem nach
Hause schicken. Wir wünschen Ihnen schöne und entspannte Lesemomente mit Ihrem Buch.
Hadoop - Große Auswahl Bücher bei Buch findr
Bei uns finden Sie Bücher beliebter Autoren, Neuerscheinungen, Bestseller genauso wie alte Schätze. Bücher zum
Thema Hadoop, die Ihre Fantasie anregen und Bücher, die Sie weiterbilden und Ihnen wissenschaftliche
Fakten vermitteln. Ganz nach Ihrem Geschmack ist das passende Buch für Sie dabei. Finden Sie eine große Auswahl
Bücher verschiedenster Genres, Verlage, Autoren bei Buchfindr:
Sie haben viele Möglichkeiten bei Buch findr die passenden Bücher für Ihr Lesevergnügen zu entdecken. Nutzen Sie
unsere Suchfunktionen, um zu stöbern und für Sie interessante Bücher in den unterschiedlichen Genres und Kategorien
zu finden. Unter Hadoop und weitere Themen und Kategorien finden Sie schnell und einfach eine Auflistung
thematisch passender Bücher. Probieren Sie es aus, legen Sie jetzt los! Ihrem Lesevergnügen steht nichts im Wege.
Nutzen Sie die Vorteile Ihre Bücher online zu kaufen und bekommen Sie die bestellten Bücher schnell und bequem
zugestellt. Nehmen Sie sich die Zeit, online die Bücher Ihrer Wahl anzulesen, Buchempfehlungen und Rezensionen zu
studieren, Informationen zu Autoren zu lesen. Viel Spaß beim Lesen wünscht Ihnen das Team von Buchfindr.