关键特性
对快速数据进行快速分析
Kudu可以同时提供插入和更新, 除了有效的柱状扫描, 使Apache Hadoop™生态系统能够处理新的分析工作负载.
简化结构
Kudu填补了HDFS和Apache HBase之间的空白, 减轻架构师和开发人员的负担.
生态系统集成
Kudu是专门为Hadoop生态系统构建的, 允许Apache火花™, Apache黑斑羚, 和MapReduce,对数据进行原生处理和分析. 另外,Kudu表还支持与HDFS、HBase中的数据进行连接.
常见用例
Kudu被设计成擅长于需要随机读写组合和快速分析扫描能力的用例—这在以前需要创建复杂的Lambda架构. 当与更广泛的Hadoop生态系统相结合时,Kudu支持各种用例,包括:
- 物联网和时间序列数据
- 机器数据分析(网络安全、健康等.)
- 在线报道
与整个生态系统融为一体
设计用于与Apache Hadoop生态系统一起工作, Kudu与Impala紧密结合, 火花, 和MapReduce. 数据可以实时传输, 实时来源,并在任何这些引擎到达后立即处理. 与Impala的BI和SQL分析的集成提供了创建可更新的能力, 开源数据仓库. 与火花的集成为实时应用程序提供了一个简单的蓝图.