Traduzir "indem sie hdfs" para inglês

Mostrando 50 de 50 traduções da frase "indem sie hdfs" de alemão para inglês

Traduções de indem sie hdfs

"indem sie hdfs" em alemão pode ser traduzido nas seguintes palavras/frases inglês:

indem a about across add adding address all already also an and any app applications apps are as at at any time at the based be before below best better build but by by adding by using can com content create creating customer customers do domain download each even every example first following for for the free from from the further get go going has have help how i if in in the including information into is it its just keep learn like link make making may more most multiple my need next not now of of the on on the once one online only or other our out out of over own page people personal privacy process product products provide re receive right same secure see service services set setting should single site so software specific start support take that that you the the best the most the same their them then these they this through time to to the together tool tools top under unique up us use use of user users using video way we web what when where which will with within without working you you are you can you have your
sie a about account across after all already also an and and more and the any are are you around as at at the available away away from back be become before below best better business but by can check come complete content create data do don don’t down each email even every everything first for for the free from from the get go great greater have have to her here higher how how do how to if in in the information into is it just keep know learn left like ll look make may more move much need need to never new no not now of of the off on on the once one only open or other our out over own part people place process product purchase questions re read receive right s same see send set she should simple simply single site so some step sure take than that that you the the best the first their them then there these they they are they have things this through time to to be to create to do to get to keep to know to make to see to the top until up us use using want want to we website what when whenever where wherever whether which while who will will be wish with work would would like you you are you can you have you need you should you want you will your yourself you’re you’ve
hdfs hdfs

Tradução de alemão para inglês de indem sie hdfs

alemão
inglês

DE In diesem Tutorial erstellen Sie zufällige Daten und schreiben diese in HDFS. Anschließend lesen Sie die Daten aus HDFS, sortieren sie und zeigen das Ergebnis in der Konsole an.

EN In this tutorial, generate random data and write them to HDFS. Then, read the data from HDFS, sort them and display the result in the Console.

alemão inglês
tutorial tutorial
zufällige random
hdfs hdfs
sortieren sort
zeigen display
konsole console
ergebnis result
in in
diesem this
daten data
aus from
schreiben to
lesen read
der the

DE 2. Nutzen Sie die HDFS-Metadatendefinition und konfigurieren Sie die Verbindung zu HDFS und die Ausführung in Spark

EN 2. Use HDFS metadata definition to configure the connection to HDFS and the execution on Spark

alemão inglês
konfigurieren configure
hdfs hdfs
spark spark
nutzen use
verbindung connection
zu to
ausführung execution
und and

DE Der erste Unterjob, um Daten in HDFS zu schreiben, ist jetzt abgeschlossen. Dieser nimmt die in der zuvor erstellten „tRowGenerator“-Komponente generierten Daten und schreibt sie mit einer anhand von Metadaten definierten Verbindung ins HDFS.

EN The first subjob to write data to HDFS is now complete. It takes the data generated in the tRowGenerator you created earlier, and writes it to HDFS using a connection defined using metadata.

alemão inglês
hdfs hdfs
jetzt now
nimmt takes
verbindung connection
definierten defined
schreibt writes
metadaten metadata
generierten generated
in in
daten data
zuvor earlier
erste first
schreiben write
ist is
erstellten created
von a
zu to
mit using
und and

DE Um die Kundendaten aus HDFS zu lesen, erstellen Sie eine neue „tHDFSInput“-Komponente, die Ihre bestehenden HDFS-Metadaten aus dem Project Repository wiederverwendet.

EN To read the customer data from HDFS, you will create a new tHDFSInput component that reuses the existing HDFS metadata available in the Project Repository.

alemão inglês
hdfs hdfs
neue new
komponente component
bestehenden existing
metadaten metadata
repository repository
lesen read
erstellen create
project project
eine a
sie you
zu to

DE Jetzt können Sie Ihren Job ausführen. Zuerst werden Daten erstellt und in HDFS geschrieben. Anschließend werden die Daten aus HDFS ausgelesen und sortiert in der Konsole angezeigt.

EN Your Job is now ready to run. First, it generates data and writes it to HDFS. Then, it reads the data from HDFS, sorts it, and displays it in the console.

alemão inglês
hdfs hdfs
sortiert sorts
konsole console
angezeigt displays
erstellt generates
jetzt now
job job
in in
ihren your
daten data
und and
aus from
der the

DE Um Ihre Daten aus HDFS zu lesen, sollten Sie zunächst die Verbindung zu HDFS konfigurieren

EN To read your data from HDFS, you should first configure the connection to HDFS

alemão inglês
hdfs hdfs
konfigurieren configure
verbindung connection
zu to
lesen read
ihre your
daten data
aus from

DE Mit Global ECS können Sie Ihre strukturierten oder unstrukturierten Daten analysieren, indem Sie HDFS benutzen

EN Global ECS lets you analyze all of your structured or unstructured object data using HDFS

alemão inglês
global global
strukturierten structured
unstrukturierten unstructured
daten data
analysieren analyze
hdfs hdfs
ecs ecs
oder or
ihre your
sie you
mit of

DE Mit Global ECS können Sie Ihre strukturierten oder unstrukturierten Daten analysieren, indem Sie HDFS benutzen

EN Global ECS lets you analyze all of your structured or unstructured object data using HDFS

alemão inglês
global global
strukturierten structured
unstrukturierten unstructured
daten data
analysieren analyze
hdfs hdfs
ecs ecs
oder or
ihre your
sie you
mit of

DE Verwenden und verarbeiten Sie Echtzeitdaten von Amazon Kinesis, Apache Kafka oder anderen Daten-Streams mit Spark Streaming für Amazon EMR. Führen Sie fehlertolerante Streaming-Analysen durch und schreiben Sie die Ergebnisse in S3 oder HDFS im Cluster.

EN Consume and process real-time data from Amazon Kinesis, Apache Kafka, or other data streams with Spark Streaming on EMR. Perform streaming analytics in a fault-tolerant way and write results to S3 or on-cluster HDFS.

alemão inglês
echtzeitdaten real-time data
apache apache
kafka kafka
spark spark
emr emr
hdfs hdfs
cluster cluster
kinesis kinesis
oder or
anderen other
streaming streaming
daten data
streams streams
analysen analytics
amazon amazon
ergebnisse results
in in
mit with
verarbeiten process
schreiben to
und and

DE Unabhängig davon, welches Protokoll Sie einsetzen, um Ihre Daten hochzuladen und zu synchronisieren, können Sie HDFS als Zugangsprotokoll verwenden, ohne einen ETL-Prozess zu benötigen.

EN No matter what protocol you use to upload and sync your data, you can use HDFS as an access protocol without any ETL process.

alemão inglês
protokoll protocol
hdfs hdfs
etl etl
unabhängig no matter
prozess process
verwenden use
und and
daten data
zu to
welches what
ihre your
hochzuladen to upload
können can
synchronisieren sync
als as
ohne without

DE Klicken Sie im Repository unter Metadata > HadoopCluster > MyHadoopCluster > HDFS auf MyHadoopCluster_HDFS und ziehen Sie es in den Job Designer.

EN From the Repository, under Metadata > HadoopCluster > MyHadoopCluster > HDFS, click MyHadoopCluster_HDFS and drag it to the Job Designer.

alemão inglês
klicken click
repository repository
metadata metadata
hdfs hdfs
ziehen drag
job job
designer designer
gt gt
es it
und and
den the

DE Erweitern Sie die Hauptdefinition mit dem Namen MyHadoopCluster_files, die dem YARN-Service entspricht. Erweitern Sie HDFS, das im Unterordner der zentralen MyHadoopCluster_files-Metaden gespeichert ist.

EN Expand the main definition named MyHadoopCluster_files, which corresponds to the YARN service. Expand HDFS, which is saved in the subfolder of the main MyHadoopCluster_files metadata.

alemão inglês
erweitern expand
namen named
hdfs hdfs
unterordner subfolder
zentralen main
gespeichert saved
service service
im in the
entspricht corresponds
ist is

DE Erweitern Sie die Hauptdefinition mit dem Namen MyHadoopCluster, die dem YARN-Service entspricht. Erweitern Sie HBase, HDFS und Hive.

EN Expand the main definition named MyHadoopCluster, which corresponds to the YARN service. Expand HBase, HDFS, and Hive.

alemão inglês
erweitern expand
namen named
hdfs hdfs
hive hive
service service
entspricht corresponds
und and
dem the
mit to

DE In diesem Tutorial erfahren Sie, wie Sie mittels Spark-Framework einen Big-Data-Batch-Job erstellen und Daten aus HDFS lesen, sortieren und in der Konsole anzeigen.

EN In this tutorial, create a Big Data batch Job using the Spark framework, read data from HDFS, sort them and display them in the Console.

alemão inglês
tutorial tutorial
hdfs hdfs
sortieren sort
konsole console
anzeigen display
big big
framework framework
job job
in in
diesem this
aus from
erstellen create
lesen read
erfahren and

DE Klicken Sie im Repository unter Metadata > HadoopCluster > MyHadoopCluster > HDFS auf MyHadoopCluster_HDFS und ziehen Sie diesen in den Job-Designer

EN From the Repository, under Metadata > HadoopCluster > MyHadoopCluster > HDFS, click MyHadoopCluster_HDFS and drag it to the Job Designer

alemão inglês
klicken click
repository repository
metadata metadata
hdfs hdfs
ziehen drag
gt gt
job job
designer designer
und and
den the

DE Klicken Sie in der „Run“-Ansicht auf Spark Configuration und stellen Sie sicher, dass die Ausführung mit den im Repository verfügbaren Metadaten für die HDFS-Verknüpfung konfiguriert ist.

EN In the Run view, click Spark Configuration and check that the execution is configured with the HDFS connection metadata available in the Repository.

alemão inglês
ansicht view
klicken click
konfiguriert configured
hdfs hdfs
metadaten metadata
repository repository
in in
ausführung execution
ist is
und and

DE Unabhängig davon, welches Protokoll Sie einsetzen, um Ihre Daten hochzuladen und zu synchronisieren, können Sie HDFS als Zugangsprotokoll verwenden, ohne einen ETL-Prozess zu benötigen.

EN No matter what protocol you use to upload and sync your data, you can use HDFS as an access protocol without any ETL process.

alemão inglês
protokoll protocol
hdfs hdfs
etl etl
unabhängig no matter
prozess process
verwenden use
und and
daten data
zu to
welches what
ihre your
hochzuladen to upload
können can
synchronisieren sync
als as
ohne without

DE Für Hive, HDFS und Kafka wenden Sie sich an Ihr Cloudera-Kundenbetreuungsteam.

EN For Hive, HDFS, and Kafka, reach out to your Cloudera account team

alemão inglês
hive hive
hdfs hdfs
kafka kafka
cloudera cloudera
ihr your
und and
für for
sie out
sich to

DE Für den CDH 5.13+, der mit Hive und HDFS läuft, verwenden Sie den Replication Manager.

EN For CDH 5.13+ using Hive and HDFS, use Replication Manager

alemão inglês
hive hive
hdfs hdfs
replication replication
manager manager
verwenden use
für for
und and

DE Dazu erstellen Sie eine neue „tHDFSOutput“-Komponente, die bestehende HDFS-Metadaten aus dem Project Repository wiederverwendet.

EN For this, you will create a new tHDFSOutput component that reuses the existing HDFS metadata available in the Project Repository.

alemão inglês
neue new
komponente component
bestehende existing
hdfs hdfs
metadaten metadata
repository repository
eine a
erstellen create
project project
sie you

DE Beachten Sie, dass die Komponente bereits mit den vordefinierten HDFS-Metadatenverbindungsinformationen konfiguriert ist.

EN Note that the component is already configured with the pre-defined HDFS metadata connection information.

alemão inglês
beachten note
komponente component
konfiguriert configured
hdfs hdfs
mit with
dass that
ist is

DE Als Nächstes erstellen Sie einen Unterjob, um die Kundendaten in HDFS zu lesen, zu sortieren und in der Konsole anzuzeigen

EN Next, you will build a subjob to read the customer data on HDFS, sort them, and display them in the console

alemão inglês
kundendaten customer data
hdfs hdfs
sortieren sort
konsole console
anzuzeigen display
in in
zu to
lesen read

DE 4. Erstellen Sie entsprechende Definitionen für YARN und HDFS

EN 4. Create definitions corresponding to YARN and HDFS

alemão inglês
entsprechende corresponding
definitionen definitions
yarn yarn
hdfs hdfs
erstellen create
und and

DE Stellen Sie sicher, dass die Metadaten für die Hadoop-Cluster-Verknüpfung und die HDFS-Verknüpfung im Projekt-Repository angelegt wurden.

EN Ensure that the Hadoop cluster connection and the HDFS connection metadata have been created in the Project Repository.

alemão inglês
metadaten metadata
angelegt created
hadoop hadoop
cluster cluster
hdfs hdfs
projekt project
repository repository
im in the
sicher ensure
dass that
und and
wurden been

DE Nutzen Sie dazu die im Repository verfügbaren Metadaten für die HDFS-Verknüpfung

EN To do so, you can use the HDFS connection metadata available in the Repository

alemão inglês
repository repository
metadaten metadata
hdfs hdfs
nutzen use
im in the
verfügbaren can

DE 3. Konfigurieren Sie die tFileInputDelimited-Komponente, um Ihre Daten aus HDFS zu lesen

EN 3. Configure the tFileInputDelimited component to read your data from HDFS

alemão inglês
konfigurieren configure
hdfs hdfs
komponente component
zu to
lesen read
ihre your
daten data
aus from

DE Jetzt können Sie eine Verbindung zu HDFS herstellen und Ihr Job wird so konfiguriert, dass er auf Ihrem Cluster ausgeführt wird

EN Now, you can connect to HDFS and your Job is configured to execute on your cluster

alemão inglês
verbindung connect
hdfs hdfs
job job
konfiguriert configured
cluster cluster
jetzt now
ihr your
und and
herstellen to
wird is
können can
sie you

DE Sqoop konvertiert diese Befehle ins MapReduce-Format und sendet sie mit YARN an das HDFS

EN Sqoop converts these commands to MapReduce format and sends them to the HDFS using YARN

alemão inglês
befehle commands
sendet sends
yarn yarn
hdfs hdfs
format format
und and
ins to
konvertiert converts

DE Eine der Herausforderungen mit HDFS besteht darin, dass sie nur Batches verarbeiten kann

EN One of the challenges with HDFS is that it can only do batch processing

alemão inglês
hdfs hdfs
verarbeiten processing
herausforderungen challenges
kann can
mit with
dass that
nur only

DE Für Hive, HDFS und Kafka wenden Sie sich an Ihr Cloudera-Kundenbetreuungsteam.

EN For Hive, HDFS, and Kafka, reach out to your Cloudera account team

alemão inglês
hive hive
hdfs hdfs
kafka kafka
cloudera cloudera
ihr your
und and
für for
sie out
sich to

DE Für den CDH 5.13+, der mit Hive und HDFS läuft, verwenden Sie den Replication Manager.

EN For CDH 5.13+ using Hive and HDFS, use Replication Manager

alemão inglês
hive hive
hdfs hdfs
replication replication
manager manager
verwenden use
für for
und and

DE Für den CDH 5.13+, der mit Hive und HDFS läuft, verwenden Sie den Replication Manager.

EN For CDH 5.13+ using Hive and HDFS, use Replication Manager

alemão inglês
hive hive
hdfs hdfs
replication replication
manager manager
verwenden use
für for
und and

DE Für Hive, HDFS und Kafka wenden Sie sich an Ihr Cloudera-Kundenbetreuungsteam.

EN For Hive, HDFS, and Kafka, reach out to your Cloudera account team

alemão inglês
hive hive
hdfs hdfs
kafka kafka
cloudera cloudera
ihr your
und and
für for
sie out
sich to

DE Grundlagen von Big Data: HDFS, MapReduce und Spark RDD

EN Big Data Essentials: HDFS, MapReduce and Spark RDD

alemão inglês
grundlagen essentials
big big
data data
hdfs hdfs
spark spark
und and

DE Daten in HDFS schreiben und lesen [Video und PDF-Checkliste] – Talend | Talend

EN Writing and Reading Data in HDFS [Video & PDF Checklist] - Talend | Talend

alemão inglês
daten data
in in
hdfs hdfs
video video
pdf pdf
checkliste checklist
talend talend
schreiben writing
lesen reading
und and

DE [TOS tutorial 12] Daten in HDFS schreiben und lesen

EN [TOS tutorial 12] Writing and Reading Data in HDFS

alemão inglês
tos tos
tutorial tutorial
daten data
hdfs hdfs
in in

DE [TOS tutorial 12] Daten in HDFS schreibe…

EN [TOS tutorial 12] Writing and Reading Da…

DE Um sicherzustellen, dass die Hadoop-Clusterverbindungs- und HDFS-Verbindungsmetadaten im Project Repository erstellt wurden, erweitern SieHadoop Cluster.

EN To ensure that the Hadoop cluster connection and the HDFS connection metadata have been created in the Project Repository, expand Hadoop Cluster.

alemão inglês
im in the
repository repository
erweitern expand
cluster cluster
hadoop hadoop
hdfs hdfs
erstellt created
sicherzustellen to ensure
und and
dass that
die the
project project
wurden been

DE In diesem Tutorial behalten wir die Standardkonfiguration bei und erstellen Metadatendefinitionen für YARN und HDFS.

EN In this tutorial, we will keep the default configuration and create metadata definitions for YARN and HDFS.

alemão inglês
tutorial tutorial
yarn yarn
hdfs hdfs
in in
wir we
behalten keep
diesem this
für for
die the
erstellen create
und and

DE 4. Das Schema in der Inputkomponente „MyHadoopCluster_HDFS“ festlegen, um die Daten aus HDFS zu lesen

EN 4. Specify the schema in the MyHadoopCluster_HDFS input component to read the data from HDFS

alemão inglês
festlegen specify
schema schema
hdfs hdfs
lesen read
daten data
in in
zu to

DE In diesem Tutorial behalten wir die Standardkonfiguration bei und erstellen Metadatendefinitionen für YARN, HDFS, Hive und HBase

EN In this tutorial, we will keep the default configuration and create metadata definitions for YARN, HDFS, Hive and HBase

alemão inglês
tutorial tutorial
yarn yarn
hdfs hdfs
hive hive
in in
wir we
behalten keep
diesem this
für for
die the
erstellen create
und and

DE Dabei werden die im Tutorial „Erstellung von Metadaten für die Verknüpfung von Clustern“ erstellten Metadaten für die HDFS-Verknüpfung wiederverwendet.

EN It reuses the HDFS connection metadata created in the tutorial entitled “Creating Cluster Connection Metadata.”

DE Anders als YARN lässt sich Spark mit unterschiedlichen Dateispeichersystemen wie HDFS, Amazon S3 oder Cassandra verbinden

EN Unlike YARN, Spark can be connected to different file storage systems such as HDFS, Amazon S3, or Cassandra

alemão inglês
yarn yarn
spark spark
hdfs hdfs
amazon amazon
verbinden connected
oder or
anders unlike
unterschiedlichen different
als as

DE Für die Konfiguration nutzt Studio die HDFS-Verknüpfungsmetadaten, die ebenfalls für die Konfiguration der Cluster-Version, Distribution und Ressourcenmanager-Adresse verwendet werden.

EN To configure it, the Studio uses the HDFS connection metadata, which also configures the cluster version, distribution, and resource manager address.

alemão inglês
konfiguration configure
studio studio
distribution distribution
hdfs hdfs
cluster cluster
adresse address
version version
und and
verwendet uses
der the

DE Die tFileInputDelimited-Komponente ist jetzt so konfiguriert, dass Kundendaten aus HDFS gelesen werden.

EN The tFileInputDelimited component is now configured to read customer data from HDFS.

alemão inglês
konfiguriert configured
kundendaten customer data
hdfs hdfs
komponente component
jetzt now
gelesen read
ist is
die the
aus from
dass to

DE Ihr Job kann jetzt ausgeführt werden. Daten aus HDFS können gelesen, sortiert und in der Konsole angezeigt werden.

EN Your Job is now ready to run. It reads data from HDFS, sorts it, and displays it in the console.

alemão inglês
hdfs hdfs
sortiert sorts
konsole console
angezeigt displays
job job
jetzt now
ausgeführt run
in in
ihr your
daten data
gelesen and
der the
aus from
werden to

DE MapReduce ist ein Programmiermodell bzw. Muster im Hadoop-Framework, das für den Zugriff auf Big Data im Hadoop File System (HDFS) verwendet wird. Es ist eine Kernkomponente, die für das Funktionieren des Hadoop-Frameworks unabdingbar ist.

EN MapReduce is a programming model or pattern within the Hadoop framework that is used to access big data stored in the Hadoop File System (HDFS). It is a core component, integral to the functioning of the Hadoop framework.

alemão inglês
big big
hadoop hadoop
system system
hdfs hdfs
framework framework
muster pattern
im in the
data data
verwendet used
es it
zugriff access
bzw or
ein a

DE MapReduce war früher die einzige Methode, um die im HDFS gespeicherten Daten abzurufen, aber das ist inzwischen nicht mehr der Fall

EN MapReduce was once the only method through which the data stored in the HDFS could be retrieved, but that is no longer the case

alemão inglês
früher once
methode method
hdfs hdfs
gespeicherten stored
im in the
war was
daten data
ist is
fall the
aber but

DE Heute gibt es noch andere abfragebasierte Systeme wie Hive und Pig, die zum Abrufen von Daten im HDFS mit SQL-ähnlichen Anweisungen verwendet werden

EN Today, there are other query-based systems such as Hive and Pig that are used to retrieve data from the HDFS using SQL-like statements

alemão inglês
systeme systems
hive hive
hdfs hdfs
verwendet used
heute today
abrufen retrieve
daten data
und and
andere other
zum the

DE Alle Eingabe- und Ausgabedaten sind im HDFS gespeichert

EN All inputs and outputs are stored in the HDFS

alemão inglês
im in the
hdfs hdfs
gespeichert stored
alle all
und and
sind are

Mostrando 50 de 50 traduções