首页 > 其他分享 >Rocksdb 6.3.6 ~ 6.29.5 重要版本特性

Rocksdb 6.3.6 ~ 6.29.5 重要版本特性

时间:2024-09-20 12:05:14浏览次数:1  
标签:rocksdb Rocksdb 写入 重试 Error 6.3 IO error 6.29

6.20.0 (2021-04-16)

  • 修复了在分布式/网络文件系统中,当服务器成功但客户端返回错误时处理文件重命名错误的错误。该错误会导致 CURRENT 文件指向不存在的 MANIFEST 文件,从而无法打开 DB。

6.19.0 (2021-03-21)

  • 在 flush 过程中,只有 WAL sync 可重试 IO error 才会被映射到 hard error,从而导致 write stall。当使用 WAL 但只有 SST 文件写入有可重试 IO error时,它会被映射到 soft error,写入不会受到影响。

6.17.1 (2021-01-28)

  • 当压缩过程中发生可重试 IO error 时,它会被映射到 soft error 并设置 BG error。但是,由于压缩将自行重新安排,因此不会调用自动恢复来清除 soft error。在此更改中,当压缩过程中发生可重试 IO error 时,不会设置 BG error。用户将通过 EventHelper 收到错误通知。

6.16.0 (2020-12-18)

  • 由于 RocksDB 在文件写入因任何原因失败时不会继续写入同一文件,因此文件范围写入 IO error与可重试 IO error 处理相同。有关文件范围 IO error 的错误处理的更多信息包含在 ErrorHandler::SetBGError 中 。

6.12 (2020-07-28)

  • 添加了自动恢复功能,可自动从后台可重试 IO Error 中恢复数据库。当在刷新和 WAL 写入期间发生可重试 IO Error 时,错误将映射到 Hard Error,数据库将处于读取模式。当在压缩期间发生可重试 IO Error 时,错误将映射到 Soft Error。数据库仍处于写入/读取模式。自动恢复功能将为数据库创建一个线程,以调用 DB->ResumeImpl() 尝试在刷新和 WAL 写入期间恢复可重试 IO Error。如果发生可重试 IO Error,压缩将自行重新安排。自动恢复还可能在恢复期间导致其他可重试 IO Error,因此恢复将失败。重试自动恢复可能会解决问题,因此我们使用 max_bgerror_resume_count 来决定总共将尝试多少次恢复周期。如果它 <=0,则自动恢复可重试 IO Error 被禁用。默认值为 INT_MAX,这将导致无限自动恢复。 bgerror_resume_retry_interval 决定两次自动恢复之间的时间间隔。

6.11.3 (2020-07-09)

  • 在 MANIFEST 写入/同步失败后禁用文件删除,直到数据库重新打开或 Resume(),以便后续重新打开将不会看到 MANIFEST 引用已删除的 SST。

6.7.0 (2020-01-21)

  • 在 include/rocksdb/file_system.h 中添加了一个 rocksdb::FileSystem 类来封装文件创建/读取/写入操作,并添加了一个选项 DBOptions::file_system 以允许用户传入 rocksdb::FileSystem 的实例。如果其为非空值,则对于文件操作,它将优先于 DBOptions::env。新 API rocksdb::FileSystem::Default() 返回平台默认对象。DBOptions::env 选项和 Env::Default() API 将继续用于线程和其他 OS 相关功能,以及在未指定 DBOptions::file_system 的情况下用于文件操作。对于习惯于 rocksdb::Env 的存储开发人员来说,rocksdb::FileSystem 中的接口是新的,并且可能会发生一些变化,因为更多的存储系统从 rocksdb::Env 移植到它。截至目前,除 Posix 之外,没有其他环境被移植到新接口。
  • 新的 rocksdb::NewSstFileManager() API 允许调用者传入单独的 Env 和 FileSystem 对象。

6.6.0 (2019-11-25)

  • 通用压缩支持 options.periodic_compaction_seconds。如果任何文件超过阈值,将触发完全压缩。
  • 将 periodic_compaction_seconds 的默认值更改为UINT64_MAX - 1,允许 RocksDB 自动调整定期压缩调度。使用默认值时,如果使用压缩过滤器,则现在会自动启用定期压缩。值为0将完全关闭该功能。
  • 更改了 ttl 的默认值,UINT64_MAX - 1允许 RocksDB 自动调整 ttl 值。使用默认值时,当支持该功能时,TTL 将自动启用为 30 天。要恢复旧行为,您可以明确将其设置为 0。

标签:rocksdb,Rocksdb,写入,重试,Error,6.3,IO,error,6.29
From: https://www.cnblogs.com/morningli/p/18421897

相关文章

  • 痞子衡嵌入式:MCUBootUtility v6.3发布,支持获取与解析启动日志
    --痞子衡维护的NXP-MCUBootUtility工具距离上一个大版本(v5.3.0)发布过去一年了,期间痞子衡也做过三个版本更新,但不足以单独介绍。这一次痞子衡为大家带来了全新重要版本v6.3.x,这次更新主要是想和大家特别聊聊ROM启动日志这个特性的支持。一、v6.0-v6.3更新记录--v5.......
  • Rocksdb Background Error 处理
    错误严重性等级:Status::Severity::kSoftError -ErrorsofthisseveritydonotpreventwritestotheDB,butitdoesmeanthattheDBisinadegradedmode.Backgroundcompactionsandflushmaynotbeabletoruninatimelymanner.Status::Severity::kHardErr......
  • 【解压即玩】PC极限竞速:地平线5 顶级豪华中文版 v1.656.386 全DLC 联机补丁810辆全车
    欢迎来到你的Horizon冒险之旅,在这个充满活力且不断变化的墨西哥开放世界中,你可以驾驶各种世界级名车,享受自由而有趣的驾驶体验,并开始一段令人惊叹的旅程。在这个多变的开放世界里,你可以探索各种截然不同但同样美丽的风景。从生机勃勃的沙漠、茂盛的丛林、历史悠久的城市,到......
  • An 89TOPS/W and 16.3TOPS/mm2 All-Digital SRAM-Based Full-Precision Compute-In Me
    权重是4bit的CIM结构图:激活值是4bit的做法是:以MSB-first的方式串性送入,然后通过移位加计算不同数位的和累加器就是一个移位累加结构,其中具有对符号位的处理机制,这里是补码机制。如果符号位是0,直接原码做符号位拓展加进去,如果符号位是1,取反加1原码转成补码之后加进去。减少......
  • rocksdb安装与使用
    首先要安装gcc7.3以上版本,依赖于c++17.参见gcc7安装及4.8.5和7.5并存。需要rpm方式或源码安装gflags2.2,否则系统可能内置了gflags2.1,从而导致链接时一直找不到gflags库。如下:/tmp/ccUXmr9R.o:Infunction`__static_initialization_and_destruction_0(int,int)':/home/......
  • 信呼OA2.6.3文件上传漏洞
    侵权声明本文章中的所有内容(包括但不限于文字、图像和其他媒体)仅供教育和参考目的。如果在本文章中使用了任何受版权保护的材料,我们满怀敬意地承认该内容的版权归原作者所有。如果您是版权持有人,并且认为您的作品被侵犯,请通过以下方式与我们联系:[[email protected]]。我们将在确......
  • CentOS6.3安装xtables-addons,实现流量复制&镜像克隆
    一、版本要求CentOS6.3,64位(内核版本2.6.32-279),iptables版本是自带的v1.4.7CentOS6.9--6.10也可以,其它版本没有测试。ubuntu22.04上没有安装成功。二、依赖安装yuminstallgccyuminstallgcc-c++yuminstalliptables-devel三、下载安装包下载地址:https://inai.d......
  • 整合Apache Hudi+Mysql+FlinkCDC2.1+CDH6.3.0
    一、环境准备1.环境准备:flink1.13.1+hudi0.10+hive2.1.1+cdh6.3.0+mysql5.7+flinkcdc2.1+flinkweb平台二.编译hudi(这个编译是以前的一个测试版本,编译大同小异)1.使用git命令下载hudi0.10的代码steven@wangyuxiangdeMacBook-Pro~gitclonehttps://github.com/ap......
  • 基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优
    基于CDH6.3.0搭建HiveonSpark及相关配置和调优Hive默认使用的计算框架是MapReduce,在我们使用Hive的时候通过写SQL语句,Hive会自动将SQL语句转化成MapReduce作业去执行,但是MapReduce的执行速度远差于Spark。通过搭建一个HiveOnSpark可以修改Hive底层的计算引擎,将Map......
  • 【保姆级讲解下QT6.3】
    ......