{Ssearch} ን ወደ ፈረንሳይኛ ይተርጉሙ

የ 37 የ 37 የ "hdfs" ሐረግ ትርጉሞችን ከ ጀርመንኛ ወደ ፈረንሳይኛ በማሳየት ላይ

የ{search} ትርጉሞች

በጀርመንኛ ውስጥ ያለው ፍለጋ ወደሚከተሉት ፈረንሳይኛ ቃላት/ሀረጎች ሊተረጎም ይችላል፡-

hdfs hdfs

የጀርመንኛ ወደ ፈረንሳይኛ የ{ፍለጋ} ትርጉም

ጀርመንኛ
ፈረንሳይኛ

DE 2. Nutzen Sie die HDFS-Metadatendefinition und konfigurieren Sie die Verbindung zu HDFS und die Ausführung in Spark

FR 2. Utiliser la définition des métadonnées HDFS pour configurer la connexion à HDFS et l'exécution sur Spark

ጀርመንኛ ፈረንሳይኛ
konfigurieren configurer
hdfs hdfs
nutzen utiliser
und et
verbindung connexion
zu à

DE Um Ihre Daten aus HDFS zu lesen, sollten Sie zunächst die Verbindung zu HDFS konfigurieren

FR Pour lire vos données depuis HDFS, vous devez d'abord configurer la connexion à HDFS

ጀርመንኛ ፈረንሳይኛ
daten données
hdfs hdfs
konfigurieren configurer
verbindung connexion
ihre vos
lesen lire
sollten devez
zunächst pour
zu à
sie vous

DE Mit diesem modularen, pod-basierten Ansatz kann HDFS nativ auf Nutanix ausgeführt werden, wodurch der mit entraditionellen Hadoop-Bereitstellung verbundene Aufwand deutlich reduziert wird.

FR Grâce à cette approche modulaire basée sur des pods, HDFS peut fonctionner nativement sur Nutanix, réduisant ainsi les frais généraux associés aux déploiements Hadoop traditionnels.

ጀርመንኛ ፈረንሳይኛ
modularen modulaire
ansatz approche
hdfs hdfs
nativ nativement
nutanix nutanix
aufwand frais
basierten basée
bereitstellung déploiements
hadoop hadoop
kann peut
diesem ce
verbundene associé

DE [TOS tutorial 12] Daten in HDFS schreiben und lesen

FR [TOS tutoriel 12] Guide pour lire et écrire les données HDFS

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
tutorial tutoriel
und et
daten données
schreiben écrire
lesen lire

DE In diesem Tutorial behalten wir die Standardkonfiguration bei und erstellen Metadatendefinitionen für YARN, HDFS, Hive und HBase

FR Dans ce tutoriel, nous conserverons la configuration par défaut et créerons des définitions de métadonnées pour YARN, HDFS, Hive et HBase

ጀርመንኛ ፈረንሳይኛ
tutorial tutoriel
hdfs hdfs
behalten conserverons
und et
in dans
diesem ce
wir nous

DE Erweitern Sie die Hauptdefinition mit dem Namen MyHadoopCluster, die dem YARN-Service entspricht. Erweitern Sie HBase, HDFS und Hive.

FR Développez la définition principale nommée MyHadoopCluster, qui correspond au service YARN. Développez HBase, HDFS et Hive.

ጀርመንኛ ፈረንሳይኛ
erweitern développez
entspricht correspond
hdfs hdfs
service service
und et
dem la

DE In diesem Tutorial erfahren Sie, wie Sie mittels Spark-Framework einen Big-Data-Batch-Job erstellen und Daten aus HDFS lesen, sortieren und in der Konsole anzeigen.

FR Dans ce tutoriel, vous créerez un Job Big Data Batch à l'aide du framework Spark, vous lirez des données depuis HDFS, les trierez et les afficherez dans la console.

ጀርመንኛ ፈረንሳይኛ
tutorial tutoriel
hdfs hdfs
konsole console
job job
big big
framework framework
data data
daten données
und et
diesem ce
einen un
in dans
sie vous
mittels des

DE Dabei werden die im Tutorial „Erstellung von Metadaten für die Verknüpfung von Clustern“ erstellten Metadaten für die HDFS-Verknüpfung wiederverwendet.

FR Il réutilise les métadonnées de connexion HDFS créées dans le tutoriel intitulé « Creating Cluster Connection Metadata » (Créer des métadonnées de connexion de cluster).

ጀርመንኛ ፈረንሳይኛ
metadaten métadonnées
erstellten créées
tutorial tutoriel
clustern cluster
im dans
erstellung créer
die le

DE Stellen Sie sicher, dass die Metadaten für die Hadoop-Cluster-Verknüpfung und die HDFS-Verknüpfung im Projekt-Repository angelegt wurden.

FR Assurez-vous que les métadonnées de connexion du cluster Hadoop et de la connexion HDFS ont été créées dans le Référentiel de projet.

ጀርመንኛ ፈረንሳይኛ
metadaten métadonnées
angelegt créé
cluster cluster
hadoop hadoop
repository référentiel
projekt projet
und et
im dans le

DE Nutzen Sie dazu die im Repository verfügbaren Metadaten für die HDFS-Verknüpfung

FR Pour cela, vous pouvez utiliser les métadonnées de connexion HDFS disponibles dans le Référentiel

ጀርመንኛ ፈረንሳይኛ
repository référentiel
metadaten métadonnées
nutzen utiliser
im dans le
verfügbaren disponibles

DE Klicken Sie im Repository unter Metadata > HadoopCluster > MyHadoopCluster > HDFS auf MyHadoopCluster_HDFS und ziehen Sie diesen in den Job-Designer

FR Dans le Référentiel, sous Metadata > HadoopCluster > MyHadoopCluster > HDFS (Métadonnées > Cluster Hadoop > MyHadoopCluster > HDFS), cliquez sur MyHadoopCluster_HDFS et déplacez cet élément vers le Job Designer

ጀርመንኛ ፈረንሳይኛ
repository référentiel
metadata métadonnées
hdfs hdfs
ziehen déplacez
job job
designer designer
und et
im dans le
klicken cliquez
in dans
den le
auf sur
unter sous

DE Klicken Sie in der „Run“-Ansicht auf Spark Configuration und stellen Sie sicher, dass die Ausführung mit den im Repository verfügbaren Metadaten für die HDFS-Verknüpfung konfiguriert ist.

FR Dans la vue Run (Exécution), cliquez sur Spark Configuration (Configuration Spark) et vérifiez que l'exécution est configurée avec les métadonnées de connexion HDFS disponibles dans le Référentiel.

ጀርመንኛ ፈረንሳይኛ
ansicht vue
klicken cliquez
stellen configuration
metadaten métadonnées
repository référentiel
ausführung exécution
und et
mit avec
run run
verfügbaren disponibles
in dans
ist est
die la
auf sur

DE Für die Konfiguration nutzt Studio die HDFS-Verknüpfungsmetadaten, die ebenfalls für die Konfiguration der Cluster-Version, Distribution und Ressourcenmanager-Adresse verwendet werden.

FR Pour le configurer, Studio utilise les métadonnées de connexion HDFS, ce qui configure également la version de cluster, la distribution et l'adresse du gestionnaire de ressources.

ጀርመንኛ ፈረንሳይኛ
konfiguration configurer
studio studio
distribution distribution
version version
cluster cluster
und et

DE 3. Konfigurieren Sie die tFileInputDelimited-Komponente, um Ihre Daten aus HDFS zu lesen

FR 3. Configurer le composant tFileInputDelimited pour lire vos données depuis HDFS

ጀርመንኛ ፈረንሳይኛ
konfigurieren configurer
daten données
hdfs hdfs
komponente composant
ihre vos
lesen lire

DE Jetzt können Sie eine Verbindung zu HDFS herstellen und Ihr Job wird so konfiguriert, dass er auf Ihrem Cluster ausgeführt wird

FR Vous pouvez maintenant vous connecter à HDFS et votre Job est configuré pour s'exécuter depuis votre cluster

ጀርመንኛ ፈረንሳይኛ
verbindung connecter
hdfs hdfs
job job
cluster cluster
konfiguriert configuré
und et
jetzt maintenant
zu à
sie vous
ihr votre

DE Die tFileInputDelimited-Komponente ist jetzt so konfiguriert, dass Kundendaten aus HDFS gelesen werden.

FR Le composant tFileInputDelimited est maintenant configuré pour lire les données client depuis HDFS.

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
komponente composant
konfiguriert configuré
jetzt maintenant
gelesen lire
ist est
aus le
die les

DE Ihr Job kann jetzt ausgeführt werden. Daten aus HDFS können gelesen, sortiert und in der Konsole angezeigt werden.

FR Votre Job est prêt. Il lit des données depuis HDFS, les trie et les affiche dans la console.

ጀርመንኛ ፈረንሳይኛ
job job
hdfs hdfs
konsole console
angezeigt affiche
daten données
in dans
ihr votre
und et

DE Mit einem verteilten Dateisystem namens HDFS (Hadoop Distributed File System) werden die Daten auf mehrere Einheiten verteilt und in Clustern aus Commodity-Servern gespeichert

FR Dans son système de fichiers distribué HDFS (Hadoop Distributed File System), les données sont divisées en datasets de taille réduite (« chunks ») et enregistrées sur des clusters de serveurs standard

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
hadoop hadoop
file file
und et
servern serveurs
system système
daten données
gespeichert enregistré
in en
mit de

DE HDFS ist der Teil von Hadoop, der das verteilte Dateisystem pflegt, damit Daten auf mehreren Servern gespeichert und repliziert werden können.

FR HDFS (Hadoop Distributed File System) est le système de fichiers distribué et l'élément central de Hadoop permettant de stocker et répliquer des données sur plusieurs serveurs.

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
teil élément
hadoop hadoop
gespeichert stocker
verteilte distribué
servern serveurs
daten données
und et
ist est
mehreren plusieurs
damit de

DE HDFS hat einen NameNode und einen DataNode

FR HDFS utilise un NameNode et un DataNode

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
einen un
und et

DE Hive ist ein Data Warehousing-System, das dabei hilft, große Datensätze im HDFS abzufragen

FR Hive est un système de data warehousing qui permet d'interroger les gros datasets présents dans le HDFS

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
system système
data data
im dans le
ist est
groß gros

DE Hive hat den Vorteil, dass ein JDBC/ODBC-Treiber als Schnittstelle zwischen der Anwendung und dem HDFS dient

FR L'un des avantages de Hive est que l'interface entre l'application et le HDFS est assurée par un pilote JDBC/ODBC

ጀርመንኛ ፈረንሳይኛ
vorteil avantages
jdbc jdbc
hdfs hdfs
treiber pilote
odbc odbc
und et
zwischen de

DE Pig wurde von Yahoo! entwickelt und ähnelt Hive in der Hinsicht, dass damit keine MapReduce-Funktionen erstellt werden müssen, um das HDFS abzufragen

FR Pig, développé initialement par Yahoo!, est semblable à Hive : il élimine la nécessité de créer des fonctions MapReduce pour interroger le HDFS

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
yahoo yahoo
funktionen fonctions
entwickelt développé
in à
um pour
wurde le
damit de
keine n
und des

DE Pig hat außerdem eine Laufzeitumgebung mit einer Schnittstelle zu HDFS. Scripts in Sprachen wie Java oder Python lassen sich auch in Pig einbetten.

FR Pig dispose également d'un environnement d'exécution qui s'interface avec HDFS. Les scripts écrits des langages tels que Java ou Python peuvent également être intégrés dans Pig.

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
scripts scripts
sprachen langages
java java
python python
oder ou
auch également
in dans
eine dun
mit avec

DE Sqoop konvertiert diese Befehle ins MapReduce-Format und sendet sie mit YARN an das HDFS

FR Sqoop convertit les commandes au format MapReduce et les envoie au HDFS via YARN

ጀርመንኛ ፈረንሳይኛ
konvertiert convertit
hdfs hdfs
format format
und et
sendet envoie
befehle commandes
ins les
an au

DE HBase ist eine spaltenorientierte, nicht relationale Datenbank, die oberhalb von HDFS liegt

FR HBase est une base de données non relationnelles en colonnes qui s'installe en surcouche du HDFS

ጀርመንኛ ፈረንሳይኛ
relationale relationnelles
hdfs hdfs
datenbank base de données
ist est
von de

DE Eine der Herausforderungen mit HDFS besteht darin, dass sie nur Batches verarbeiten kann

FR L'un des défis du HDFS est qu'il est limité au traitement par lots

ጀርመንኛ ፈረንሳይኛ
herausforderungen défis
hdfs hdfs
verarbeiten traitement
besteht est
der du

DE Häufig wird Spark auf HDFS aufgesetzt, um nur den Speicheraspekt von Hadoop zu nutzen

FR Spark est souvent utilisé en complément du HDFS pour bénéficier des qualités de stockage de Hadoop

ጀርመንኛ ፈረንሳይኛ
häufig souvent
wird est
hdfs hdfs
hadoop hadoop
von de
nutzen utilisé

DE Spark hat kein eigenes Dateisystem und muss daher für seine Speicherung auf HDFS oder ähnliche Lösungen zurückgreifen.

FR Toutefois, Spark ne dispose pas de son propre système de fichiers, et il est donc obligé de dépendre de HDFS (ou autres solutions de ce type) pour ses opérations de stockage.

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
lösungen solutions
und et
oder ou
kein ne
daher ce
speicherung stockage

DE Erfahrung mit verteilten Dateispeichersystemen (wie HDFS)

FR Expérience de travail avec des systèmes de stockage de fichiers distribués (comme HDFS)

ጀርመንኛ ፈረንሳይኛ
erfahrung expérience
hdfs hdfs
verteilten distribué

DE Integration mit AWS / Hadoop / HDFs, Echtzeitsysteme, Data Warehouses und Analytics Solutions

FR Intégration avec AWS / Hadoop / HDFS, Systèmes en temps réel, Entrepôts de données et Solutions Analytics

ጀርመንኛ ፈረንሳይኛ
integration intégration
aws aws
hadoop hadoop
hdfs hdfs
warehouses entrepôts
solutions solutions
und et
analytics analytics
data données

DE HDFS (HADOOOP-Distributed-Dateisystem) ist die Speicherschicht für Hadoop.

FR HDFS (Système de fichiers distribués Hadoop) est la couche de stockage pour Hadoop.

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
hadoop hadoop
ist est

DE Die DFSADMIN-Tools sind ein Satz von Tools, die dazu dienen, Informationen über Ihre HDFs herauszuführen.

FR Les outils DFSADMIN sont un ensemble d'outils conçus pour obtenir des informations sur vos HDFS.

ጀርመንኛ ፈረንሳይኛ
informationen informations
hdfs hdfs
tools outils
ein un
ihre vos
die les
sind sont

DE Kenntnis von Hadoop HDFs, Hive, Schwein, Fleisch und Sqoop

FR Connaissance de Hadoop HDFS, HIVE, PIG, PLUME ET SQOOP

ጀርመንኛ ፈረንሳይኛ
kenntnis connaissance
hadoop hadoop
hdfs hdfs
und et
von de

DE starke praktische Erfahrung mit Hadoop-Ökosystem-Technologiestapeln wie HDFs, Funken, Scala, Cloudera usw.

FR Expérience pratique forte avec les piles de technologie d'écosystème Hadoop tels que HDFS, Spark, Scala, Cloudera, etc.

ጀርመንኛ ፈረንሳይኛ
starke forte
praktische pratique
erfahrung expérience
hdfs hdfs
scala scala
cloudera cloudera
usw etc
hadoop hadoop

DE Mit diesem modularen, pod-basierten Ansatz kann HDFS nativ auf Nutanix ausgeführt werden, wodurch der mit entraditionellen Hadoop-Bereitstellung verbundene Aufwand deutlich reduziert wird.

FR Grâce à cette approche modulaire basée sur des pods, HDFS peut fonctionner nativement sur Nutanix, réduisant ainsi les frais généraux associés aux déploiements Hadoop traditionnels.

ጀርመንኛ ፈረንሳይኛ
modularen modulaire
ansatz approche
hdfs hdfs
nativ nativement
nutanix nutanix
aufwand frais
basierten basée
bereitstellung déploiements
hadoop hadoop
kann peut
diesem ce
verbundene associé

DE Die Lösung lässt sich mit zahlreichen Datenquellen verbinden, darunter HDFS, Hive, relationale Datenbanken, Text und mehr.

FR Trillium Discovery se connecte à de nombreuses sources de données, notamment HDFS, Hive, des bases de données relationnelles, du texte, et bien d?autres encore.

ጀርመንኛ ፈረንሳይኛ
hdfs hdfs
relationale relationnelles
verbinden connecte
und et
zahlreichen nombreuses
darunter des
datenbanken bases de données
text texte
die à
mit de

3737 ትርጉሞችን በማሳየት ላይ