Existe-t-il un .NET équivalent à Apache Hadoop?
Comment fonctionne l'algorithme de tri MapReduce?
Hadoop une carte et multiples Réduire
Chaînage de plusieurs emplois MapReduce à Hadoop
Comment Hadoop effectue-t-il le fractionnement des entrées?
Où le framework hadoop mapreduce envoie-t-il mes instructions System.out.print ()? (stdout)
Équivalent de procédure stockée MongoDB
MongoDB: Terrible MapReduce Performance
Hadoop Streaming Job a échoué en python
Simple Java Framework Map / Reduce
fusionner les fichiers de sortie après la phase de réduction
Qu'est-ce que le Dremel de Google? En quoi est-il différent de Mapreduce?
Définition du nombre de tâches de carte et réduction des tâches
Est-il préférable d'utiliser le package Mapred ou MapReduce pour créer un emploi Hadoop?
Ruche incapable de définir manuellement le nombre de réducteurs
Comment écrire des jobs hadoop 'map only'?
Rechercher tous les documents en double dans une collection MongoDB par un champ clé
Changer la taille du fichier fractionné dans Hadoop
Fusion de deux collections dans MongoDB
Appeler un travail mapreduce à partir d'un simple programme Java
Que sont les fichiers SUCCESS et part-r-00000 dans hadoop
méthodes de configuration et de nettoyage du mappeur/réducteur dans Hadoop MapReduce
Qu'est-ce que Hive: Return Code 2 from org.Apache.hadoop.Hive.ql.exec.MapRedTask
Exploser le tableau de Struct dans Hive
Aucune exception de méthode de ce type Hadoop <init>
Quand commence la réduction des tâches dans Hadoop?
Compter les lignes dans les gros fichiers
Le cadre d'agrégation Mongodb est-il plus rapide que la carte / réduire?
Comment Hadoop traite-t-il les enregistrements répartis à travers les limites de blocs?
Qu'est-ce qu'un conteneur dans YARN?
À quoi sert le comparateur de regroupement dans la carte hadoop
Exécution de tâche spéculative Hadoop
L'écriture sur HDFS ne peut être répliquée que sur des nœuds au lieu de minReplication (= 1)
Avantages de l'utilisation de NullWritable dans Hadoop
hadoop.mapred vs hadoop.mapreduce?
Le format gzip est-il pris en charge dans Spark?
Test d'intégration des tâches Hive
Répertorier le namenode et les datanodes d'un cluster à partir de n'importe quel nœud?
Lecture de fichiers HDFS et locaux en Java
Taille de fractionnement d'entrée Hadoop par rapport à la taille de bloc
Pig vs Hive vs Native Map Réduire
carte hadoop réduire le tri secondaire
Hive ParseException - impossible de reconnaître une entrée proche de 'end' 'chaîne'
Comment obtenir le nom du fichier d'entrée dans le mappeur dans un programme Hadoop?
Erreur de mémoire insuffisante dans la phase de traitement aléatoire de Mapreduce
taille de bloc de données dans HDFS, pourquoi 64 Mo?
Mappeur entrée paire clé-valeur dans Hadoop
Les emplois MapReduce restent bloqués dans l'état Accepté
Le conteneur fonctionne au-delà des limites de la mémoire
Hadoop DistributedCache est obsolète. Quelle est l'API préférée?
Problème de tâche Yarn MapReduce - Erreur de lancement du conteneur AM dans Hadoop 2.3.0
La clause $ in de MongoDB garantit-elle l'ordre
Vérifier si chaque élément du tableau correspond à la condition
Java8: HashMap <X, Y> à HashMap <X, Z> à l'aide de Stream/Map-réduire/Collector
Hadoop Map Reduce lire un fichier texte
Définition de jarres externes sur hadoop classpath
Réduire une paire clé-valeur en une paire liste-clés avec Apache Spark
TypeError: les index de la liste doivent être des entiers et non des str Python
Où est le chemin de classe pour hadoop
À quoi sert le "mode uber" dans hadoop?
Hadoop Mapper échoue en raison de «Conteneur tué par ApplicationMaster»
Taille fractionnée vs taille de bloc dans Hadoop
Apache peut-il fonctionner sans hadoop?
Writable et WritableComparable dans Hadoop?
création d'une partition dans une table externe dans la ruche
/ bin/bash:/bin/Java: aucun fichier ni répertoire de ce type
Le travail MapReduce se bloque, en attendant que le conteneur AM soit alloué
Nombre de réducteurs par défaut
Déployer votre propre ReduceByKey dans Spark Dataset
Obtenu InterruptedException lors de l'exécution du travail de réduction de nombre de mots
PySpark Comment lire CSV dans Dataframe et le manipuler
Nom de compteur Hadoop tronqué / incohérent
Échec de l'application à 2 reprises en raison d'un conteneur AM: quitté avec exitCode: 1
Pyspark Suppression des valeurs nulles d'une colonne dans la trame de données