首页 > 其他分享 >Rust性能分析之测试及火焰图,附(lru,lfu,arc)测试

Rust性能分析之测试及火焰图,附(lru,lfu,arc)测试

时间:2024-06-18 09:14:51浏览次数:17  
标签:mut bench lfu arc lru 测试 test let

性能测试,在编写代码后,单元测试及性能测试是重要的验收点,好的性能测试可以让我们提前发现程序中存在的问题。

测试用例

在Rust中,测试通常有两部分,一部分是文档测试,一部分是模块测试。
通常我们在函数定义的开始可以看到以///三斜杠开头的就是文档注释发布的时候会将自动生成到docs.rs中,其中以///包含的代码片断会就判断为文档测试,这样子就可以把功能与测试完美的结合在一起。
以下是Lru的例子:

/// LRU 全称是Least Recently Used,即最近最久未使用的意思
/// 一个 LRU 缓存普通级的实现, 接口参照Hashmap保持一致
/// 设置容量之后将最大保持该容量大小的数据
/// 后进的数据将会淘汰最久没有被访问的数据
///
/// # Examples
///
/// ```
/// use algorithm::LruCache;
/// fn main() {
///     let mut lru = LruCache::new(3);
///     lru.insert("now", "ok");
///     lru.insert("hello", "algorithm");
///     lru.insert("this", "lru");
///     lru.insert("auth", "tickbh");
///     assert!(lru.len() == 3);
///     assert_eq!(lru.get("hello"), Some(&"algorithm"));
///     assert_eq!(lru.get("this"), Some(&"lru"));
///     assert_eq!(lru.get("now"), None);
/// }
/// ```
pub struct LruCache<K, V, S> {
    /// 存储数据结构
    map: HashMap<KeyRef<K>, NonNull<LruEntry<K, V>>, S>,
    /// 缓存的总容量
    cap: usize,
    /// 双向列表的头
    head: *mut LruEntry<K, V>,
    /// 双向列表的尾
    tail: *mut LruEntry<K, V>,
}

模块测试,在lru.rs文件底下会定义:#[cfg(test)] mod tests,这个将变成模块化测试

#[cfg(test)]
mod tests {
    use std::collections::hash_map::RandomState;

    use super::LruCache;

    #[test]
    fn test_insert() {
        let mut m = LruCache::new(2);
        assert_eq!(m.len(), 0);
        m.insert(1, 2);
        assert_eq!(m.len(), 1);
        m.insert(2, 4);
        assert_eq!(m.len(), 2);
        m.insert(3, 6);
        assert_eq!(m.len(), 2);
        assert_eq!(m.get(&1), None);
        assert_eq!(*m.get(&2).unwrap(), 4);
        assert_eq!(*m.get(&3).unwrap(), 6);
    }
}

我们将在执行cargo test的时候将会自动运行这些函数进行测试:可以显示如下内容:

   Compiling algorithm v0.1.5 (D:\my\algorithm)

    Finished test [unoptimized + debuginfo] target(s) in 1.95s
     Running unittests src\lib.rs (target\debug\deps\algorithm-3ecde5aa4c430e91.exe)

running 142 tests
test arr::circular_buffer::tests::test_iter ... ok
...

test result: ok. 142 passed; 0 failed; 0 ignored; 0 measured; 0 filtered out; finished in 0.16s    

   Doc-tests algorithm

running 147 tests

test src\cache\lruk.rs - cache::lruk::LruKCache (line 65) ... ok
...

test result: ok. 147 passed; 0 failed; 0 ignored; 0 measured; 0 filtered out; finished in 11.03s   

如果出错则会指出错误内容。

bench测试

在Rust中的bench可以测出每次迭代的耗时,但bench模块需要启用#![feature(test)],即无法在stable版本的进行性能测试。
我们需要安装nightly版本,那么我们运行

rustup install nightly

如果需要在国内加速可以设置

$ENV:RUSTUP_DIST_SERVER='https://mirrors.ustc.edu.cn/rust-static' 
$ENV:RUSTUP_UPDATE_ROOT='https://mirrors.ustc.edu.cn/rust-static/rustup'

安装完之后我们可以用临时启用nightly版本进行运行,当前我们建立了benches/lru.rs文件
以下是bench的部分内容

#![feature(test)]

extern crate test;

use algorithm::{ArcCache, LfuCache, LruCache, LruKCache};
use test::Bencher;

static BENCH_SIZE: usize = 10000;

macro_rules! do_test_bench {
    ($cache: expr) => {
        for i in 0..BENCH_SIZE {
            $cache.insert(i, i);
            $cache.get(&i);
        }
    };
}

#[bench]
fn calc_lru(b: &mut Bencher) {
    b.iter(|| {
        let mut lru = LruCache::new(BENCH_SIZE / 2);
        do_test_bench!(lru);
    })
}

我们可以运行来进行bench测试

rustup run nightly cargo bench --bench lru

测试结果可以看出执行时间的变化

running 4 tests
test calc_arc  ... bench:   4,361,427.70 ns/iter (+/- 983,661.07)
test calc_lfu  ... bench:   3,170,039.17 ns/iter (+/- 571,925.64)
test calc_lru  ... bench:   1,306,854.55 ns/iter (+/- 198,070.97)
test calc_lruk ... bench:   1,282,446.16 ns/iter (+/- 226,388.14)

但是我们无法看出命中率这些参数,单纯时间的消耗并缓存结构并不公平。

测试命中率

我们将从速度和命中率两个维度来衡量,但是数据集目前不是很优,看不到Lfu及Arc的大优势。
完整代码放置在:https://github.com/tickbh/algorithm-rs/blob/master/examples/bench_lru.rs

顺序的数据集

插入数据的时候就快速获取该数据

名字 耗时 命中率
LruCache 4121 100.00%
LruKCache 3787 100.00%
LfuCache 12671 100.00%
ArcCache 13953 100.00%

前部分数据相对高频

插入数据的时候就获取之前插入的随机数据

名字 耗时 命中率
LruCache 3311 77.27%
LruKCache 4040 77.47%
LfuCache 10268 93.41%
ArcCache 10907 89.92%

相对来说,在非高频的场景中,Lfu需要维护频次的列表信息,耗时会Lru高很多,但是高频的访问场景中命中率的提高相对于cpu的消耗是可以接受的。

此处编写测试的时候不想大量的重复代码,且我们的实例并没有trait化,此处我们用的是运用宏处理来指的处理:

macro_rules! do_test_bench {
    ($name: expr, $cache: expr, $num: expr, $evict: expr, $data: expr) => {
        let mut cost = vec![];
        let now = Instant::now();
        let mut all = 0;
        let mut hit = 0;
        for v in $data {
            if v.1 == 0 {
                all += 1;
                if $cache.get(&v.0).is_some() {
                    hit += 1;
                }
            } else {
                $cache.insert(v.0, v.1);
            }
        }
        cost.push(now.elapsed().as_micros());
        println!("|{}|{}|{:.2}%|", $name, cost.iter().map(|v| v.to_string()).collect::<Vec<_>>().join("\t"), hit as f64 * 100.0 / all as f64);
    };
}

后续调用均可调用该宏进行处理:

fn do_bench(num: usize) {
    let evict = num * 2;
    let mut lru = LruCache::<usize, usize, RandomState>::new(num);
    let mut lruk = LruKCache::<usize, usize, RandomState>::new(num);
    let mut lfu = LfuCache::<usize, usize, RandomState>::new(num);
    let mut arc = ArcCache::<usize, usize, RandomState>::new(num / 2);
    println!("|名字|耗时|命中率|");
    println!("|---|---|---|");
    // let data = build_freq_data(evict);
    let data = build_high_freq_data(evict);
    // let data = build_order_data(evict);
    do_test_bench!("LruCache", lru, num, evict, &data);
    do_test_bench!("LruKCache", lruk, num, evict, &data);
    do_test_bench!("LfuCache", lfu, num, evict, &data);
    do_test_bench!("ArcCache", arc, num, evict, &data);
}

进行数据优化

编写代码尽量的不要过早优化,先实现完整功能,然后再根据火焰图耗时占比来进行热点函数优化。所以此时我们需要实现火焰图的显示:

安装火焰图https://github.com/flamegraph-rs/flamegraph

cargo install flamegraph 

在这里我使用的wsl启用的debian系统,安装perf

sudo apt install -y linux-perf

然后安装完之后就可以执行:

cargo flamegraph --example bench_lru

如果出现以下提前错误,则证明没有正确的连接perf版本,可以拷贝一个或者建一个软连接

/usr/bin/perf: line 13: exec: perf_5.15.133: not found
E: linux-perf-5.15.133 is not installed.

那么用如下的解决方案:

cp /usr/bin/perf_5.10 /usr/bin/perf_5.15.133

如果是macOs需要安装dtrace,如果未安装直接进行安装即可

brew install dtrace

此处需注意,macOs权限控制,需要用sudo权限。

然后运行完之后就可以得到一个flamegraph.svg的火焰图就可以查看耗时的程序了。

总结

好的测试用例及性能测试是对一个库的稳定及优秀的重要标准,尽量的覆盖全的单元测试,能及早的发现bug,使程序更稳定。

标签:mut,bench,lfu,arc,lru,测试,test,let
From: https://www.cnblogs.com/wmproxy/p/18253640

相关文章

  • JMeter 响应断言详解:提升测试精度的利器
    前言在性能测试和功能测试中,响应断言是验证系统响应是否符合预期的重要手段。ApacheJMeter提供了丰富的断言功能,帮助测试工程师确保测试请求的响应数据正确、可靠。本文将详细介绍JMeter中响应断言的类型、配置方法以及最佳实践。什么是响应断言?响应断言用于验证JMeter发......
  • 软件测试及其使用工具简介
    软件测试:使用技术手段验证软件是否满足使用需求;1.功能测试2.接口测试:api接口测试3.性能测试:模拟多人使用软件,查找服务器缺陷。测试的分类:1.按测试阶段划分:单元测试(针对源代码进行测试,实际过程中一般为开发操作),系统测试(对整个系统进行测试包括功能,兼容,文档等测试),集成测试(又称......
  • LIN协议的诊断测试(附CAPL自动化代码)
    文章目录前言一、概述1.主节点2.从节点二、从节点诊断测试1.CANoeISC方式2.CAPL自动化脚本方式三、主节点诊断测试1.帧超时时间(高低压)&节点丢失2.应答错误故障码总结前言本文暂不谈及3类从节点诊断等LIN诊断协议的具体深入内容,主要了解一下LIN的主从节点诊断如......
  • 流量测试
    App经常需要在移动互联网环境下运行,而移动互联网通常按照实际使用流量计费,如果App耗费的流量过多,第一会导致用户流量费用增加,第二会导致功能加载缓慢。1、流量测试,通常从以下几个方面考虑测试:(1)APP安装包本身的大小(2)APP安装完成后首次启动耗费的流量(3)APP执行业务操作引起的流......
  • 中断测试
    交叉事件测试也叫中断测试,是指APP执行过程中,有其他事件或者应用中断当前应用执行的测试。中断测试点,可以从以下方面进行考虑:1、任务切换常见场景举例:(1)APP切换到后台,再回到前台(2)有数据交换的页面,切换到后台,再切换到前台(3)APP在使用过程中,下拉通知栏(4)APP在使用过程中,点击消息......
  • 兼容性测试
    APP兼容性测试维度包含:新旧版本兼容测试、不同机型测试(系统兼容性、屏幕兼容性、分辨率兼容、尺寸兼容)、不同网络兼容等一、新旧版本兼容性测试1、新旧版本覆盖安装升级正常2、新增功能,新旧版本覆盖安装后使用正常二、不同机型测试1.系统兼容性(1)iOS系统:iOS11.x、iOS12.x、i......
  • 课堂测试企业族谱分析1-4问
    第一问: 查询: 第二问:查询公司的股东 可视化:  可隐藏和展开:  第三问:投资可视化,查询公司名称: 也可以隐藏和展开:  第四问:一个公司的图谱用左右树图来可视化: 也可以隐藏和展开:  剩下的第五问第六问明天发......
  • APP自动化测试工具-Appium
    官网:https://appium.io/docs/zh/latest/快速入门1.安装Appium前提条件:已安装Node.js,可以使用npm命令安装命令:npmi-gappium验证结果:执行appium,可以看到[Appium]WelcometoAppiumv2.10.3更新命令:npmupdate-gappium2.安装Appium驱动及其依赖项AndroidS......
  • 部署、安装和测试minio
    部署MinIO在server01部署MinIO,安装方式采用rpm离线安装,具体步骤可参考官方文档。获取MinIO安装包下载地址如下:https://dl.min.io/server/minio/release/linux-amd64/archive/minio-20230809233022.0.0.x86_64.rpm,通过以下命令可直接将安装包下载至服务器wgethttps://dl.min......
  • Elasticsearch 近实时搜索的底层原理
    我们都知道Elasticsearch的搜索是近实时的,数据写入后,立即搜索(不通过id)文档是搜不到的。这一切的原因要归于lucene所提供的API,因为lucene的API就是非实时的,Elasticsearch在lucene之上盖房子,通过一些增强,实现了查询的近实时和id查询的实时性。本文就来看看这个近实时......