热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

大数据相关开源项目及组件汇总

前言花了一点时间,整理了大数据相关开源项目、组件和官网地址。按照实际应用功能的不同,分为以下10个部分,并在目录图中进行归纳࿰
前言

花了一点时间,整理了大数据相关开源项目、组件和官网地址。按照实际应用功能的不同,分为以下10个部分,并在目录图中进行归纳,后续章节的内容则是分别介绍各组件的背景及应用场景。

  1. 调度与管理服务
  2. 文件系统
  3. 数据搜集
  4. 消息系统
  5. 内存技术
  6. 数据处理
  7. 查询引擎
  8. 分析和报告工具
  9. 机器学习
  10. 开发平台

目录图:


类别开源项目
调度与管理服务Azkaban 、YARN 、Mesos、Ambari 、ZooKeeper 、Thrift 、Chukwa
文件系统Lustre 、HDFS 、GlusterFS 、Alluxio 、Ceph、PVFS 、QFS
数据搜集Logstash 、Scribe 、Flume
消息系统RabbitMQ 、ActiveMQ 、ActiveMQ 、Kafka
内存技术Terracotta 、Ignite 、GemFire 、GridGain
数据处理Spark,Kinesis ,Hadoop ,Flink ,Storm,HaLoop
查询引擎Presto ,Drill ,Phoenix ,Hive ,SparkSQL,Tajo ,Impala ,Elasticsearch ,Solr ,Shark ,Lucene
分析和报告工具Kettle,Kylin ,Kibana ,Druid ,KNIME ,Zeppelin ,Talend ,Splunk ,Pentaho ,Jaspersoft ,SpagoBI
机器学习Tensorflow,Theano,Keras,DSSTNE,Lasagne,Torch,mxnet,DL4J,Cognitive Toolkit,Caffe,Hivemall ,RapidMiner ,Mahout
开发平台Lumify ,Lingual ,Beam ,Cascading ,HPCC

1:调度与管理服务

大数据调度与管理服务主要包括以下相关软件:
Azkaban 、YARN 、Mesos、Ambari 、ZooKeeper 、Thrift 、Chukwa 。以下将分别介绍。

1.1:Azkaban

Azkaban 是一款基于Java编写的任务调度系统任务调度,来自LinkedIn公司,用于管理他们的Hadoop批处理工作流。Azkaban根据工作的依赖性进行排序,提供友好的Web用户界面来维护和跟踪用户的工作流程。
Azkaban官网

1.2:YARN

YARN 是一种新的Hadoop资源管理器,它是一个通用资源管理系统,可为上层应用提供统一的资源管理和调度,解决了旧MapReduce框架的性能瓶颈。它的基本思想是把资源管理和作业调度/监控的功能分割到单独的守护进程。

Hadoop官网中关于Yarn的介绍

1.3:Mesos

Mesos 是由加州大学伯克利分校的AMPLab首先开发的一款开源群集管理软件,支持Hadoop、ElasticSearch、Spark、Storm 和Kafka等架构。对数据中心而言它就像一个单一的资源池,从物理或虚拟机器中抽离了CPU,内存,存储以及其它计算资源, 很容易建立和有效运行具备容错性和弹性的分布式系统。
Mesos 官网

1.4:Ambari

Ambari 作为Hadoop生态系统的一部分,提供了基于Web的直观界面,可用于配置、管理和监控Hadoop集群。目前已支持大多数Hadoop组件,包括HDFS、MapReduce、Hive、Pig、 Hbase、Zookeper、Sqoop和Hcatalog等。
Ambari 官网

1.5:ZooKeeper

ZooKeeper 是一个分布式的应用程序协调服务,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的工具,让Hadoop集群里面的节点可以彼此协调。ZooKeeper现在已经成为了 Apache的顶级项目,为分布式系统提供了高效可靠且易于使用的协同服务。
ZooKeeper 官网

1.6:Thrift

Thrift 在2007年facebook提交Apache基金会将Thrift作为一个开源项目,对于当时的facebook来说创造thrift是为了解决facebook系统中各系统间大数据量的传输通信以及系统之间语言环境不同需要跨平台的特性。
Thrift 官网

1.7:Chukwa

Chukwa 是监测大型分布式系统的一个开源数据采集系统,建立在HDFS/MapReduce框架之上并继承了Hadoop的可伸缩性和可靠性,可以收集来自大型分布式系统的数据,用于监控。它还包括灵活而强大的显示工具用于监控、分析结果。
Chukwa 官网

2:文件系统

大数据文件系统主要包括以下相关软件:
Lustre 、HDFS 、GlusterFS 、Alluxio 、Ceph、PVFS 、QFS,以下将分别介绍。

2.1:Lustre

Lustre 是一个大规模的、安全可靠的、具备高可用性的集群文件系统,它是由SUN公司开发和维护的。该项目主要的目的就是开发下一代的集群文件系统,目前可以支持超过10000个节点,数以PB的数据存储量。
Lustre 官网

2.2:HDFS

HDFS Hadoop Distributed File System,简称HDFS,是一个分布式文件系统。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。
Hadoop官网中关于HDFS的介绍

2.3:GlusterFS

GlusterFS 是一个集群的文件系统,支持PB级的数据量。GlusterFS 通过RDMA和TCP/IP方式将分布到不同服务器上的存储空间汇集成一个大的网络化并行文件系统。
GlusterFS 官网

2.4:Alluxio

Alluxio 前身是Tachyon,是以内存为中心的分布式文件系统,拥有高性能和容错能力,能够为集群框架(如Spark、MapReduce)提供可靠的内存级速度的文件共享服务。
Alluxio 官网

2.5:Ceph

Ceph 是新一代开源分布式文件系统,主要目标是设计成基于POSIX的没有单点故障的分布式文件系统,提高数据的容错性并实现无缝的复制。
Ceph 官网

2.6:PVFS

PVFS 是一个高性能、开源的并行文件系统,主要用于并行计算环境中的应用。PVFS特别为超大数量的客户端和服务器端所设计,它的模块化设计结构可轻松的添加新的硬件和算法支持。
PVFS 官网

2.7:QFS

QFS Quantcast File System (QFS) 是一个高性能、容错好、分布式的文件系统,用于开发支持 MapReduce处理或者需要顺序读写大文件的应用。
QFS 官网

3:数据搜集

大数据数据搜集主要包括以下相关软件:Logstash 、Scribe 、Flume ,以下将分别介绍。

3.1:Logstash

Logstash 是一个应用程序日志、事件的传输、处理、管理和搜索的平台。可以用它来统一对应用程序日志进行收集管理,提供了Web接口用于查询和统计。
Logstash 官网

3.2:Scribe

Scribe是Facebook开源的日志收集系统,它能够从各种日志源上收集日志,存储到一个中央存储系统(可以是NFS,分布式文件系统等)上,以便于进行集中统计分析处理。
Scribe相关信息

3.3:Flume

Flume 是Cloudera提供的一个高可用的、高可靠的、分布式的海量日志采集、聚合和传输的系统。Flume支持在日志系统中定制各类数据发送方,用于收集数据。同时,Flume支持对数据进行简单处理,并写入各种数据接受方(可定制)。
Flume 官网

4:消息系统

大数据消息系统主要包括以下相关软件:
RabbitMQ 、ActiveMQ 、ActiveMQ 、Kafka ,以下将分别介绍。

4.1:RabbitMQ

RabbitMQ 是一个受欢迎的消息代理系统,通常用于应用程序之间或者程序的不同组件之间通过消息来进行集成。RabbitMQ提供可靠的应用消息发送、易于使用、支持所有主流操作系统、支持大量开发者平台。
RabbitMQ 官网

4.1:ActiveMQ

ActiveMQ 是Apache出品,号称“最流行的,最强大”的开源消息集成模式服务器。ActiveMQ特点是速度快,支持多种跨语言的客户端和协议,其企业集成模式和许多先进的功能易于使用,是一个完全支持JMS1.1和J2EE 1.4规范的JMS Provider实现。
ActiveMQ 官网

4.3:Kafka

Kafka 是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模网站中的所有动作流数据,目前已成为大数据系统在异步和分布式消息之间的最佳选择。
Kafka 官网

5:内存技术

大数据内存技术主要包括以下相关软件:
Terracotta 、Ignite 、GemFire 、GridGain 。以下将分别介绍。

5.1:Terracotta

Terracotta 声称其BigMemory技术是“世界上首屈一指的内存中数据管理平台”,支持简单、可扩展、实时消息,声称在190个国家拥有210万开发人员,全球1000家企业部署了其软件。
Terracotta 官网

5.2:Ignite

Ignite 是一种高性能、整合式、分布式的内存中平台,可用于对大规模数据集执行实时计算和处理,速度比传统的基于磁盘的技术或闪存技术高出好几个数量级。该平台包括数据网格、计算网格、服务网格、流媒体、Hadoop加速、高级集群、文件系统、消息传递、事件和数据结构等功能。
Ignite 官网

5.3:GemFire

GemFire Pivotal宣布它将开放其大数据套件关键组件的源代码,其中包括GemFire内存中NoSQL数据库。它已向Apache软件基金会递交了一项提案,以便在“Geode”的名下管理GemFire数据库的核心引擎。
GemFire 官网

5.4:GridGain

GridGain 由Apache Ignite驱动的GridGrain提供内存中数据结构,用于迅速处理大数据,还提供基于同一技术的Hadoop加速器。
GridGain 官网

6:数据处理

数据处理主要包括以下相关软件技术:
Spark,Kinesis ,Hadoop ,Flink ,Storm,HaLoop

6.1:Spark

Spark 是一个高速、通用大数据计算处理引擎。拥有Hadoop MapReduce所具有的优点,但不同的是Job的中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。它可以与Hadoop和Apache Mesos一起使用,也可以独立使用
Spark 官网

6.2:Kinesis

Kinesis 可以构建用于处理或分析流数据的自定义应用程序,来满足特定需求。Amazon Kinesis Streams 每小时可从数十万种来源中连续捕获和存储数TB数据,如网站点击流、财务交易、社交媒体源、IT日志和定位追踪事件。
Kinesis Github

6.3:Hadoop

Hadoop 是一个开源框架,适合运行在通用硬件,支持用简单程序模型分布式处理跨集群大数据集,支持从单一服务器到上千服务器的水平scale up。Apache的Hadoop项目已几乎与大数据划上了等号,它不断壮大起来,已成为一个完整的生态系统,拥有众多开源工具面向高度扩展的分布式计算。高效、可靠、可伸缩,能够为你的数据存储项目提供所需的YARN、HDFS和基础架构,并且运行主要的大数据服务和应用程序。
Hadoop官网

6.4:Spark Streaming

Spark Streaming 实现微批处理,目标是很方便的建立可扩展、容错的流应用,支持Java、Scala和Python,和Spark无缝集成。Spark Streaming可以读取数据HDFS,Flume,Kafka,Twitter和ZeroMQ,也可以读取自定义数据。

6.5:Trident

Trident 是对Storm的更高一层的抽象,除了提供一套简单易用的流数据处理API之外,它以batch(一组tuples)为单位进行处理,这样一来,可以使得一些处理更简单和高效。
Spark Streaming官网介绍

6.6:Flink

Flink 于今年跻身Apache顶级开源项目,与HDFS完全兼容。Flink提供了基于Java和Scala的API,是一个高效、分布式的通用大数据分析引擎。更主要的是,Flink支持增量迭代计算,使得系统可以快速地处理数据密集型、迭代的任务。
Flink 官网

6.7:Samza

Samza 出自于LinkedIn,构建在Kafka之上的分布式流计算框架,是Apache顶级开源项目。可直接利用Kafka和Hadoop YARN提供容错、进程隔离以及安全、资源管理。
Samza 官网

6.8:Storm

Storm是Twitter开源的一个类似于Hadoop的实时数据处理框架。编程模型简单,显著地降低了实时处理的难度,也是当下最人气的流计算框架之一。与其他计算框架相比,Storm最大的优点是毫秒级低延时。
Storm官网

6.9:Yahoo S4

Yahoo S4 (Simple Scalable Streaming System)是一个分布式流计算平台,具备通用、分布式、可扩展的、容错、可插拔等特点,程序员可以很容易地开发处理连续无边界数据流(continuous unbounded streams of data)的应用。它的目标是填补复杂专有系统和面向批处理开源产品之间的空白,并提供高性能计算平台来解决并发处理系统的复杂度。
Yahoo S4 官网

6.10:HaLoop

HaLoop 是一个Hadoop MapReduce框架的修改版本,其目标是为了高效支持 迭代,递归数据 分析任务,如PageRank,HITs,K-means,sssp等。

7:查询引擎

查询引擎主要包括以下相关软件技术:
Presto ,Drill ,Phoenix ,Hive ,SparkSQL,Tajo ,Impala ,Elasticsearch ,Solr ,Shark ,Lucene

7.1: Presto

Presto 是一个开源的分布式SQL查询引擎,适用于交互式分析查询,可对250PB以上的数据进行快速地交互式分析。Presto的设计和编写是为了解决像Facebook这样规模的商业数据仓库的交互式分析和处理速度的问题。Facebook称Presto的性能比诸如Hive和MapReduce要好上10倍有多。
Presto -github

7.2: Drill

Drill 于2012年8月份由Apache推出,让用户可以使用基于SQL的查询,查询Hadoop、NoSQL数据库和云存储服务。它能够运行在上千个节点的服务器集群上,且能在几秒内处理PB级或者万亿条的数据记录。它可用于数据挖掘和即席查询,支持一系列广泛的数据库,包括HBase、MongoDB、MapR-DB、HDFS、MapR-FS、亚马逊S3、Azure Blob Storage、谷歌云存储和Swift。
Drill 官网

7.3: Phoenix

Phoenix 是一个Java中间层,可以让开发者在Apache HBase上执行SQL查询。Phoenix完全使用Java编写,并且提供了一个客户端可嵌入的JDBC驱动。Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排执行以生成标准的JDBC结果集。
Phoenix 官网

7.4: Pig

Pig 是一种编程语言,它简化了Hadoop常见的工作任务。Pig可加载数据、转换数据以及存储最终结果。Pig最大的作用就是为MapReduce框架实现了一套shell脚本 ,类似我们通常熟悉的SQL语句。
Pig 官网

7.5: Hive

Hive 是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
Hive 官网

7.6: SparkSQL

SparkSQL 的前身是Shark,SparkSQL抛弃原有Shark的代码并汲取了一些优点,如内存列存储(In-Memory Columnar Storage)、Hive兼容性等。由于摆脱了对Hive的依赖性,SparkSQL无论在数据兼容、性能优化、组件扩展方面都得到了极大的方便。
SparkSQL 官网

7.7: Stinger

Stinger 原来叫Tez,是下一代Hive,由Hortonworks主导开发,运行在YARN上的DAG计算框架。某些测试下,Stinger能提升10倍左右的性能,同时会让Hive支持更多的SQL。
Stinger 官网

7.8: Tajo

Tajo 目的是在HDFS之上构建一个可靠的、支持关系型数据的分布式数据仓库系统,它的重点是提供低延迟、可扩展的ad-hoc查询和在线数据聚集,以及为更传统的ETL提供工具。
Tajo 官网

7.9: Impala

Impala Cloudera声称,基于SQL的Impala数据库是“面向Apache Hadoop的领先的开源分析数据库”。它可以作为一款独立产品来下载,又是Cloudera的商业大数据产品的一部分。Cloudera Impala 可以直接为存储在HDFS或HBase中的Hadoop数据提供快速、交互式的SQL查询。
Impala 官网

7.10: Elasticsearch

Elasticsearch 是一个基于Lucene的搜索服务器。它提供了一个分布式、支持多用户的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索、稳定、可靠、快速、安装使用方便。
Elasticsearch 官网

7.11: Solr

Solr 基于Apache Lucene,是一种高度可靠、高度扩展的企业搜索平台。知名用户包括eHarmony、西尔斯、StubHub、Zappos、百思买、AT&T、Instagram、Netflix、彭博社和Travelocity。
Solr 官网

7.12: Shark

Shark 即Hive on Spark,本质上是通过Hive的HQL解析,把HQL翻译成Spark上的RDD操作,然后通过Hive的metadata获取数据库里的表信息,实际HDFS上的数据和文件,会由Shark获取并放到Spark上运算。Shark的特点就是快,完全兼容Hive,且可以在shell模式下使用rdd2sql()这样的API,把HQL得到的结果集,继续在scala环境下运算,支持自己编写简单的机器学习或简单分析处理函数,对HQL结果进一步分析计算。

7.13: Lucene

Lucene 基于Java的Lucene可以非常迅速地执行全文搜索。据官方网站声称,它在现代硬件上每小时能够检索超过150GB的数据,它拥有强大而高效的搜索算法。
Lucene 官网

8:分析和报告工具

分析和报告工具主要包括如下:
Kettle,Kylin ,Kibana ,Druid ,KNIME ,Zeppelin ,Talend ,Splunk ,Pentaho ,Jaspersoft ,SpagoBI

8.1: Kettle

Kettle 这是一个ETL工具集,它允许你管理来自不同数据库的数据,通过提供一个图形化的用户环境来描述你想做什么,而不是你想怎么做。作为Pentaho的一个重要组成部分,现在在国内项目应用上逐渐增多。
Kettle -github

8.2: Kylin

Kylin 是一个开源的分布式分析引擎,提供了基于Hadoop的超大型数据集(TB/PB级别)的SQL接口以及多维度的OLAP分布式联机分析。最初由eBay开发并贡献至开源社区。它能在亚秒内查询巨大的Hive表。
Kylin 官网

8.3: Kibana

Kibana 是一个使用Apache 开源协议的Elasticsearch 分析和搜索仪表板,可作为Logstash和ElasticSearch日志分析的 Web 接口,对日志进行高效的搜索、可视化、分析等各种操作。
Kibana 官网

8.4: Druid

Druid 是一个用于大数据实时查询和分析的高容错、高性能、分布式的开源系统,旨在快速处理大规模的数据,并能够实现快速查询和分析。
Druid 官网

8.5: KNIME

KNIME 的全称是“康斯坦茨信息挖掘工具”(Konstanz Information Miner),是一个开源分析和报表平台。宣称“是任何数据科学家完美的工具箱,超过1000个模块,可运行数百个实例,全面的集成工具,以及先进的算法”。
KNIME 官网

8.6: Zeppelin

Zeppelin 是一个提供交互数据分析且基于Web的笔记本。方便你做出可数据驱动的、可交互且可协作的精美文档,并且支持多种语言,包括 Scala(使用 Apache Spark)、Python(Apache Spark)、SparkSQL、 Hive、 Markdown、Shell等。
Zeppelin 官网

8.7: Talend

Talend Open Studio 是第一家针对的数据集成工具市场的ETL(数据的提取Extract、传输Transform、载入Load)开源软件供应商。Talend的下载量已超过200万人次,其开源软件提供了数据整合功能。其用户包括美国国际集团(AIG)、康卡斯特、电子港湾、通用电气、三星、Ticketmaster和韦里逊等企业组织。
Talend 官网

8.8: Splunk

Splunk 是机器数据的引擎。使用 Splunk 可收集、索引和利用所有应用程序、服务器和设备(物理、虚拟和云中)生成的快速移动型计算机数据,从一个位置搜索并分析所有实时和历史数据。
Splunk 官网

8.9: Pentaho

Pentaho 是世界上最流行的开源商务智能软件,以工作流为核心的、强调面向解决方案而非工具组件的、基于java平台的商业智能(Business Intelligence)套件。包括一个web server平台和几个工具软件:报表、分析、图表、数据集成、数据挖掘等,可以说包括了商务智能的方方面面。
Pentaho 社区

8.10: Jaspersoft

Jaspersoft 提供了灵活、可嵌入的商业智能工具,用户包括众多企业组织:高朋、冠群科技、美国农业部、爱立信、时代华纳
Jaspersoft 官网

8.11: SpagoBI

SpagoBI Spago被市场分析师们称为“开源领袖”,它提供商业智能、中间件和质量保证软件,另外还提供相应的Java EE应用程序开发框架。
SpagoBI 官网

9:机器学习

机器学习框架主要包括如下:
Tensorflow,Theano,Keras,DSSTNE,Lasagne,Torch,mxnet,DL4J,Cognitive Toolkit,Caffe,Hivemall ,RapidMiner ,Mahout

9.1: Tensorflow

Tensorflow是Google开源的一款深度学习工具,使用C++语言开发,上层提供Python API。在开源之后,在工业界和学术界引起了极大的震动,因为TensorFlow曾经是著名的Google Brain计划中的一部分,Google Brain项目的成功曾经吸引了众多科学家和研究人员往深度学习这个“坑”里面跳,这也是当今深度学习如此繁荣的重要原因。

9.2: Theano

Theano是老牌、稳定的库之一。它是深度学习开源工具的鼻祖,由蒙特利尔理工学院时间开发于2008年并将其开源,框架使用Python语言开发。它是深度学习库的发轫,许多在学术界和工业界有影响力的深度学习框架都构建在Theano之上,并逐步形成了自身的生态系统,这其中就包含了著名的Keras、Lasagne和Blocks。
Theano是底层库,遵循Tensorflow风格。因此不适合深度学习,而更合适数值计算优化。它支持自动函数梯度计算,它有 Python接口 ,集成了Numpy,使得这个库从一开始就成为通用深度学习最常用的库之一。

9.3: Keras

Keras是一个非常高层的库,工作在Theano或Tensorflow(可配置)之上。此外,Keras强调极简主义,你可以用寥寥可数的几行代码来构建神经网络。在 这里 ,您可以看到一个Keras代码示例,与在Tensorflow中实现相同功能所需的代码相比较。

9.4: DSSTNE

DSSTNE(Deep Scalable Sparse Tensor Network Engine,DSSTNE)是Amazon开源的一个非常酷的框架,由C++语言实现。但它经常被忽视。为什么?因为,撇开其他因素不谈,它并不是为一般用途设计的。DSSTNE只做一件事,但它做得很好:推荐系统。正如它的官网所言,它不是作为研究用途,也不是用于测试想法,而是为了用于生产的框架。

9.5: Lasagne

Lasagne是一个工作在Theano之上的库。它的任务是将深度学习算法的复杂计算予以简单地抽象化,并提供一个更友好的 Python 接口。这是一个老牌的库,长久以来,它是一个具备高扩展性的工具。在Ricardo看来,它的发展速度跟不上Keras。它们适用的领域相同,但是,Keras有更好的、更完善的文档。

9.6: Torch

Torch是Facebook和Twitter主推的一个特别知名的深度学习框架,Facebook Reseach和DeepMind所使用的框架,正是Torch(DeepMind被Google收购之后才转向TensorFlow)。出于性能的考虑, 它使用了一种比较小众的编程语言Lua ,目前在音频、图像及视频处理方面有着大量的应用。

在目前深度学习大部分以Python为编程语言的大环境之下,一个以Lua为编程语言的框架只有更多的劣势,而不是优势。Ricardo没有Lua的使用经验,他表示,如果他要用Torch的话,就必须先学习Lua语言才能使用Torch。就他个人来说,更倾向于熟悉的Python、Matlab或者C++来实现。

9.7: mxnet

mxnet是支持大多数编程语言的库之一,它支持Python、R、C++、Julia等编程语言。Ricardo觉得使用R语言的人们会特别喜欢mxnet,因为直到现在,在深度学习的编程语言领域中,Python是卫冕之王。

Ricardo以前并没有过多关注mxnet,直到Amazon AWS宣布将mxnet作为其 深度学习AMI 中的 参考库 时,提到了它巨大的水平扩展能力,他才开始关注。

Ricardo表示他对多GPU的扩展能力有点怀疑,但仍然很愿意去了解实验更多的细节。但目前还是对mxnet的能力抱有怀疑的态度。

9.8: DL4J

DL4J,全名是Deep Learning for Java。正如其名,它支持Java。Ricardo说,他之所以能接触到这个库,是因为它的文档。当时,他在寻找 限制波尔兹曼机(Restricted Boltzman Machines) 、 自编码器(Autoencoders) ,在DL4J找到这两个文档,文档写得很清楚,有理论,也有代码示例。Ricardo表示D4LJ的文档真的是一个艺术品,其他库的文档应该向它学习。

DL4J背后的公司Skymind意识到,虽然在深度学习世界中,Python是王,但大部分程序员都是Java起步的,因此,DL4J兼容JVM,也适用于Java、Clojure和Scala。 随着Scala的潮起潮落,它也被很多 有前途的初创公司 使用。

9.8: DL4J

Cognitive Toolkit,就是之前被大家所熟知的缩略名CNTK,但最近刚更改为现在这个名字,可能利用Microsoft认知服务(Microsoft Cognitive services)的影响力。在发布的基准测试中,它似乎是非常强大的工具,支持垂直和水平推移。

到目前为止,认知工具包似乎不太流行。关于这个库,还没有看到有很多相关的博客、网络示例,或者在Kaggle里的相关评论。Ricardo表示这看起来有点奇怪,因为这是一个背靠微软研究的框架,特别强调自己的推移能力。而且这个研究团队在语音识别上打破了世界纪录并逼近了人类水平。

你可以在他们的项目Wiki中的示例,了解到认知工具包在Python的语法和Keras非常相似。

9.9: Caffe

Caffe是最老的框架之一,比老牌还要老牌。 Caffe 是加州大学伯克利分校视觉与学习中心(Berkeley Vision and Learning Center ,BVLC)贡献出来的一套深度学习工具,使用C/C++开发,上层提供Python API。Caffe同样也在走分布式路线,例如著名的Caffe On Spark项目。

9.10: Hivemall

Hivemall 结合了面向Hive的多种机器学习算法,它包括了很多扩展性很好的算法,可用于数据分类、递归、推荐、k最近邻、异常检测和特征哈希等方面的分析应用。

9.11: RapidMiner

RapidMiner 具有丰富数据挖掘分析和算法功能,常用于解决各种的商业关键问题,解决方案覆盖了各个领域,包括汽车、银行、保险、生命科学、制造业、石油和天然气、零售业及快消行业、通讯业、以及公用事业等各个行业。

9.12: Mahout

Mahout 目的是“为快速创建可扩展、高性能的机器学习应用程序而打造一个环境”,主要特点是为可伸缩的算法提供可扩展环境、面向Scala/Spark/H2O/Flink的新颖算法、Samsara(类似R的矢量数学环境),它还包括了用于在MapReduce上进行数据挖掘的众多算法。

开发平台

开发平台主要包括如下:
Lumify ,Lingual ,Beam ,Cascading ,HPCC

10.1:Lumify

Lumify 归Altamira科技公司(以国家安全技术而闻名)所有,这是一种开源大数据整合、分析和可视化平台。
Lumify 官网

10.2:Lingual

Lingual 是Cascading的高级扩展,为Hadoop提供了一个ANSI SQL接口极大地简化了应用程序的开发和集成。Lingual实现了连接现有的商业智能(BI)工具,优化了计算成本,加快了基于Hadoop的应用开发速度。
Lingual 官网

10.3:Beam

Beam 基于Java提供了统一的数据进程管道开发,并且能够很好地支持Spark和Flink。提供很多在线框架,开发者无需学太多框架。
Beam 官网

10.4:Cascading

Cascading 是一个基于Hadoop建立的API,用来创建复杂和容错数据处理工作流。它抽象了集群拓扑结构和配置,使得不用考虑背后的MapReduce,就能快速开发复杂的分布式应用。
Cascading 官网

10.5:HPCC

HPCC 作为Hadoop之外的一种选择,是一个利用集群服务器进行大数据分析的系统,HPCC在LexisNexis内部使用多年,是一个成熟可靠的系统,包含一系列的工具、一个称为ECL的高级编程语言、以及相关的数据仓库,扩展性超强。
HPCC 官网


推荐阅读
author-avatar
雅枝建彰3
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有