Cette page regroupe les projets gravitant autour de l'univers big data et Hadoop.
Bases de Données
HBase est une base de données distribuée disposant d'un stockage structuré pour les grandes tables. Comme BigTable, HBase est une base de données orientée colonnes.
Site: http://hbase.apache.org/
Apache Cassandra est un système de gestion de base de données (SGBD) NoSQL. Le projet est Open source et porté par la Fondation Apache. Cassandra est conçue pour gérer des quantités massives de données réparties sur plusieurs serveurs (cluster), en assurant tout particulièrement une disponibilité maximale des données et en éliminant les points individuels de défaillance.
Site: http://cassandra.apache.org/
Apache CouchDB est un système de gestion de base de données orienté documents, écrit en langage Erlang et distribué sous licence Apache. Conçu pour le Web, il fait partie de la mouvance NoSQL, et a été conçu pour pouvoir être réparti sur de multiples serveurs.
Site: http://couchdb.apache.org/
MongoDB est un système de gestion de base de données orientée documents, répartissable sur un nombre quelconque d'ordinateurs et ne nécessitant pas de schéma prédéfini des données. Il est écrit en C++. Le serveur et les outils sont distribués sous licence AGPL, les pilotes sous licence Apache et la documentation sous licence Creative Commons2. Il fait partie de la mouvance NoSQL.
Site: https://www.mongodb.org/
Accumulo est un système de gestion de base de données créé par la NSA et légué à la fondation Apache en 2011. Le logiciel est écrit en Java et a été développé dès 2008. Il se classe dans la catégorie des bases de données NoSQL. Il est spécialisé dans la gestion de données de masse.
Site: https://accumulo.apache.org/
Accès aux données/ requetage
Pig est un plateforme haut niveau pour la création de programme MapReduce utilisé avec Hadoop. Le langage de cette plateforme est appelé le Pig Latin4. Pig Latin s'abstrait du langage de programmation Java MapReduce et se place à un niveau d'abstraction supérieur, similaire à celle de SQL pour systèmes SGBDR.
Site: http://pig.apache.org/
Apache Hive est une infrastructure d’entrepôt de donnée infrastructure intégrée sur Hadoop permettant l'analyse, le requétage et synthèse de données.
Site: https://hive.apache.org/
Livy (d)
http://livy.io/
Data Intelligence
Apache Drill est un framework logiciel open-source qui supporte les applications temps réel distribués pour l'analyse interactive des jeux de données à grande échelle. Site: http://drill.apache.org/
Apache Mahout est un projet de la fondation Apache visant à créer des implémentations d'algorithmes d'apprentissage automatique distribués. D'abord développé au-dessus de la plate-forme Hadoop1,2, Mahout a ensuite utilisé Apache Spark. Mahout est encore en cours de développement ;
Site: http://mahout.apache.org/
Site: http://www.h2o.ai/
Data Serialisation
Thrift est un langage de définition d'interface (IDL) conçu pour la création et la définition de services pour de nombreux langages. Il est utilisé en tant que framework RPC et a été développé par Facebook pour le « développement de services évolutifs multilangage ». Une pile logicielle est jointe à un moteur de génération de code, permettant la création de services fonctionnant plus ou moins efficacement et en continu entre C#, C++ (sur systèmes POSIX), Cappuccino, Cocoa, D, Erlang, Go, Haskell, Java, Node.js, OCaml, Perl, PHP, Python, Ruby, et Smalltalk. Bien que développé par Facebook, il est désormais un logiciel libre hébergé par la fondation Apache. L'implémentation a été décrite en avril 2007 dans un livre technique publié par Facebook, actuellement hébergé par Apache.
Site: https://thrift.apache.org
Site: http://avro.apache.org/
Data integration
Cette Section regroupe les outils permettant l'import et l'export de données
Site: http://sqoop.apache.org/
Apache Flume est un logiciel de la fondation Apache destiné à la collecte et à l'analyse de fichiers de log. L'outil est conçu pour fonctionner au sein d'une architecture informatique distribuée et ainsi supporter les pics de charge.
site: http://flume.apache.org/
Apache Chuckwa
http://chukwa.apache.org/
Requetage
Presto est un projet distribué sous licence Apache, il s'agit d'un moteur de requete SQL optimisé pour les interactions temps réel. Site: https://prestodb.io/
Cloudera Impala est moteur de requête SQL open source de Cloudera (MPP) pour les données stockées dans des cluster d'ordinateurs exécutant Apache Hadoop http://impala.io/
Dremel
Sécurité des données
Site: http://metron.apache.org/
Site: https://sqrrl.com/
Calcul distribué
Site: http://tez.apache.org/
Spark (ou Apache Spark) est un framework open source de calcul distribué, initialement développé à Berkeley par AMPLab et maintenant un projet de la fondation Apache. Contrairement a Hadoop qui utilise le patron d'architecture MapReduce sur des disques, Spark travaille en mémoire vive ce qui est potentiellement cent fois plus rapide.
Site: https://spark.apache.org/
Indexation de Documents
Elasticsearch est un moteur de recherche libre open source utilisant Lucene (un des projets de l'Apache Software Foundation).
Site: https://www.elastic.co/products/elasticsearch
Solr est une plateforme logicielle de moteur de recherche s'appuyant sur la bibliothèque de recherche Lucene, créée par la Fondation Apache et distribuée et conçue sous licence libre.
Site: http://lucene.apache.org/solr/
Non Classé
cascalog
site:http://cascalog.org/
Cascading
Site:http://www.cascading.org/
Hadoop est un framework Java libre destiné à faciliter la création d'applications distribuées et échelonnables (scalables), permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Hadoop a été inspiré par les publications MapReduce, GoogleFS et BigTable de Google.
Site: http://hadoop.apache.org/
Tachyon
Site: http://tachyon-project.org/faq/
Rhadoop
Apache Mesos
Alternative à Yarn
http://mesos.apache.org/
permet de requêter sur HBase
Site: http://drill.apache.org/
Apache Oozie est un logiciel de la Fondation Apache servant à l'ordonnancement de flux dédié au logiciel Hadoop.
Site: http://oozie.apache.org/
Site: https://flink.apache.org/
Apache Hama
https://hama.apache.org/
ZooKeeper est un logiciel de gestion de configuration pour systèmes distribués, basé sur le logiciel Chubby développé par Google. ZooKeeper est utilisé entre autres pour l'implémentation de HBase.
Site: https://zookeeper.apache.org/
Apache Ambari
Le projet Apache Ambari vise à rendre la gestion de Hadoop plus simple en développant des logiciels pour le provisionnement, la gestion et la surveillance des clusters Apache Hadoop. Ambari fournit une interface utilisateur Web de gestion Hadoop, soutenue par ses API RESTful.
Site: http://ambari.apache.org/
Hue est une interface web open-source sous licence Apache V2 prenant en charge Hadoop et son écosystème.
Site: http://gethue.com/
Site: http://storm.apache.org/
Ganglia
Site:http://ganglia.sourceforge.net/
Giraph est un projet Apache destiné à réaliser du traitement de graphes sur des volumes importants de données. Giraph utilise l'implémentation de MapReduce réalisée par Apache Hadoop afin de traiter les graphes.
Site:http://giraph.apache.org/
HCatalog
couche de gestion de métadonnées pour Hadoop
Apache Crunch
http://crunch.apache.org/
Apache Kafka est un projet open-source courtier de message développé par Apache Software Foundation écrit en Scala. Le projet vise à fournir un système unifié, temps réel à latence faible pour la manipulation de flux de données en temps réel. La conception est fortement influencée par transaction logs1.
Site: https://kafka.apache.org/
Kibana
Site: https://www.elastic.co/products/kibana
Apache Bigtop
http://bigtop.apache.org
http://nutch.apache.org/
Apache S4
http://incubator.apache.org/s4/
Apache Slider
https://slider.incubator.apache.org/
spark ml
Apache Kudu complète la couche de stockage d'Hadoop pour permettre de développer des applications analytiques en temps réel
https://kudu.apache.org/
Apache Kylin
Apache Kylin est un moteur distribué analytique Open source conçu pour fournir une interface SQL et l'analyse multidimensionnelle (OLAP) sur Hadoop supportant des ensembles de données extrêmement volumineux, ce projet est issue d'eBay Inc.
http://kylin.apache.org/
Apache Airflow
https://airflow.incubator.apache.org/
https://sentry.apache.org/
Divers
http://www.confluent.io/
|
Concepts |
|
Architecture |
|
Outils |
|
Programmation |
|
Statistique |
|
Articles liés |
|