首页 > 数据库 >【数据库】StarRocks、Hive、ClickHouse、Tidb的对比及使用场景

【数据库】StarRocks、Hive、ClickHouse、Tidb的对比及使用场景

时间:2024-06-04 14:15:09浏览次数:17  
标签:数据分析 存储 StarRocks 实时 查询 支持 Tidb Hive 数据

特性StarRocksHiveClickHouseTiDB
数据存储 列存储(Columnar Storage) 行存储(Row Storage) 列存储(Columnar Storage) 混合存储(行存储和列存储)
查询性能
主要用途 实时分析(Real-time Analytics) 大数据批处理(Batch Processing) 实时分析(Real-time Analytics) OLTP与OLAP结合(HTAP)
SQL 支持 完整支持 完整支持 支持,但有一些限制 完整支持
扩展性
容错机制 支持 支持 支持 支持
集成 与多数主流数据工具兼容 Hadoop 生态系统的组成部分 与许多 ETL 工具和 BI 工具集成 与MySQL生态系统兼容
存储格式 自定义格式、Parquet、ORC 自定义格式、Parquet、ORC 自定义格式、Parquet、ORC 自定义格式
事务支持 基本事务支持 事务支持较弱 不支持事务 完整事务支持(ACID)
社区与支持 活跃社区和商业支持 Apache 社区支持 开源社区和商业支持 活跃社区和商业支持
数据更新 支持高效的数据更新 更新效率低 支持高效的数据更新 支持高效的数据更新
索引 支持多种索引机制 基本索引 支持多种索引机制 支持多种索引机制
数据压缩 高效压缩 通常较低的压缩比 高效压缩 支持数据压缩
安装部署 相对简单 相对复杂,需要Hadoop 相对简单 相对简单

 

使用场景StarRocksHiveClickHouseTiDB
实时数据分析 - 实时报表、仪表盘 - 不适合 - 实时流数据处理 - 实时分析,HTAP
  - 用户行为分析   - 网络监控、用户行为跟踪 - 用户行为分析
高性能数据查询 - 复杂查询和高并发查询 - 适合批处理查询 - 快速执行复杂查询 - 高并发、高吞吐量的查询
  - 在线广告分析、在线推荐系统 - ETL 作业和批量数据处理 - 大规模数据聚合 - OLTP和OLAP混合负载
数据湖集成 - 直接查询数据湖中的数据(如AWS S3、HDFS) - 与Hadoop生态系统紧密集成,使用HDFS存储数据湖 - 通过外部表访问数据湖 - 通过外部表访问数据湖
  - 支持多种数据格式(Parquet、ORC等) - 使用Parquet、ORC等格式存储数据 - 从Amazon S3读取数据 - 支持多种数据格式
多表联合查询 - 复杂的多表联合查询操作 - 支持复杂的多表联合查询 - 支持多种数据源的联合查询 - 复杂的多表联合查询
数据更新和删除 - 频繁的数据更新和删除操作 - 更新和删除效率较低,适合批量更新 - 高效的数据更新 - 实时数据更新
  - 日志分析、实时数据流处理   - 物联网数据更新 - 日志分析
OLAP(联机分析处理) - 实时和批量数据分析 - 主要用于批量处理的OLAP查询 - 面向OLAP的列存储数据库 - 实时和批量数据分析
  - 支持快速执行复杂查询   - 支持快速执行复杂查询 - 支持快速执行复杂查询
日志分析 - 日志数据的收集、存储和实时分析 - 适合批量处理日志数据 - 大规模日志数据的收集、存储和分析 - 实时日志数据分析
物联网数据分析 - 高频次的物联网数据分析 - 需要通过批量处理进行分析 - 高效处理大量小数据点的写入和快速查询 - 实时物联网数据分析
广告和市场分析 - 实时广告点击流数据分析和市场营销数据分析 - 批量处理广告数据,延迟较高 - 在线广告点击流数据分析和广告效果评估 - 实时广告效果评估

 

总结

  • StarRocks: 最适合实时数据分析、高性能查询和与数据湖集成的场景,适合需要频繁数据更新和复杂多表联合查询的需求。
  • Hive: 最适合大数据的批量处理和ETL作业,不适合实时数据分析和高频数据更新场景。
  • ClickHouse: 最适合高频数据写入、实时流处理和快速聚合查询的OLAP场景,尤其在日志分析和物联网数据分析方面表现出色。
  • TiDB: 最适合需要OLTP和OLAP混合负载的场景,支持高并发、高吞吐量的实时分析和数据更新,适合实时日志分析和广告效果评估。

标签:数据分析,存储,StarRocks,实时,查询,支持,Tidb,Hive,数据
From: https://www.cnblogs.com/xuxml/p/18230629

相关文章

  • 7 | 史上最全大数据笔记-Hive函数
    第八章Hive函数在Hive中,函数主要分两大类型,一种是内置函数,一种是用户自定义函数。8.1Hive内置函数8.1.1函数查看 showfunctions; descfunctionfunctionName;8.1.2日期函数1)当前系统时间函数:current_date()、current_timestamp()、unix_timestamp() --函......
  • 如何在 Hive 中存储类列表?
    我有一个通过模型类从api获取的itemlist,现在我想将该列表保存到hive中,并添加一些其他属性,如客户名称、客户地址和itemsList。import'package:hive/hive.dart';导入'.../item_model.dart';导入'hive_model.dart';part'saved_hive_model.g.dart';@HiveType(typeId:15)......
  • DataX HiveReader
    DataXHiveReader来源:github-datax-hivereader1快速介绍Hivereader插件:从Hive表读取数据2实现原理实现方式是:根据配置的QuerySql,通过将查询结果保存到一张新的临时hive表中这种方式;然后获取临时表的hdfs文件地址,然后读取文件到缓冲区,最后删除临时的表。3功能说明Hiv......
  • Oracle系列---【ORA-00257: Archiver error. Connect AS SYSDBA only until resolved
    ORA-00257:Archivererror.ConnectASSYSDBAonlyuntilresolved1.问题描述过了个周末,发现系统登录不上了,查看日志,发现报"ORA-00257:Archivererror.ConnectASSYSDBAonlyuntilresolved",明显数据库有问题了,我用客户端连,也报这个错误。2.问题分析经过一番查询,是因......
  • Hive中常见的文件格式
    Hive支持多种文件格式,每种格式都有其特定的用途和性能特点。以下是一些Hive常见的文件格式:TextFile:这是Hive的默认文件格式,它是纯文本格式。TextFile易于阅读和编辑,但通常不是最优的选择,因为它不支持压缩和快速查询。SequenceFile:这是一种基于Hadoop的二进制文件格式,它......
  • PHP 使用 ZipArchive 解压避免乱码
    $filePath:压缩包路径../123.zip$path:要解压的目录../unzip/publicfunctionnewUnzip($filePath,$path){$zip=new\ZipArchive();if($zip->open($filePath)===true){//创建要解压的目录//获取解压的文件数组......
  • datax 从 hive 同步数据配置
    DataXHiveReader1快速介绍Hivereader插件:从Hive表读取数据2实现原理实现方式是:根据配置的QuerySql,通过将查询结果保存到一张新的临时hive表中这种方式;然后获取临时表的hdfs文件地址,然后读取文件到缓冲区,最后删除临时的表。3功能说明Hivereader插件:从Hive表读取数据......
  • Hive中常用query--关联/聚合/去重/排序举例
    在Hive中,可以使用各种查询来执行关联(JOINs)、聚合(Aggregations)、去重(Distinct)和排序(Sorting)操作。以下是一些常见的查询示例:关联(JOIN):在Hive中执行关联操作通常是为了将两个或多个表中相关的行连接起来。SELECTe.name,e.salary,d.department_nameFROMemployeeseJOIN......
  • Hive复杂数据类型之 Struct结构体
    想写这篇文章蛮久了,但这个数据类型,确实很少用,翻遍了代码库的所有代码,也没有找到。但,之前分享过的 Hive复杂数据类型之array数组,Hive复杂数据类型之array数组_hive建表设置array类型-CSDN博客Hive复杂数据类型之map映射,hive复杂数据类型之map映射_hive复杂数据类型ma......
  • datax 抽取hive表到doris
    datax读取hive表有两种方式,一种是读取hdfs文件路径HDFSReader,因为hive是存储在hdfs上。第二种是读取hive表RDBMSReader。HDFSReader{"job":{"setting":{"speed":{"channel":3},"......