性能测试,在编写代码后,单元测试及性能测试是重要的验收点,好的性能测试可以让我们提前发现程序中存在的问题。
测试用例
在Rust中,测试通常有两部分,一部分是文档测试,一部分是模块测试。
通常我们在函数定义的开始可以看到以///
三斜杠开头的就是文档注释发布的时候会将自动生成到docs.rs中,其中以///
包含的代码片断会就判断为文档测试,这样子就可以把功能与测试完美的结合在一起。
以下是Lru的例子:
/// LRU 全称是Least Recently Used,即最近最久未使用的意思
/// 一个 LRU 缓存普通级的实现, 接口参照Hashmap保持一致
/// 设置容量之后将最大保持该容量大小的数据
/// 后进的数据将会淘汰最久没有被访问的数据
///
/// # Examples
///
/// ```
/// use algorithm::LruCache;
/// fn main() {
/// let mut lru = LruCache::new(3);
/// lru.insert("now", "ok");
/// lru.insert("hello", "algorithm");
/// lru.insert("this", "lru");
/// lru.insert("auth", "tickbh");
/// assert!(lru.len() == 3);
/// assert_eq!(lru.get("hello"), Some(&"algorithm"));
/// assert_eq!(lru.get("this"), Some(&"lru"));
/// assert_eq!(lru.get("now"), None);
/// }
/// ```
pub struct LruCache<K, V, S> {
/// 存储数据结构
map: HashMap<KeyRef<K>, NonNull<LruEntry<K, V>>, S>,
/// 缓存的总容量
cap: usize,
/// 双向列表的头
head: *mut LruEntry<K, V>,
/// 双向列表的尾
tail: *mut LruEntry<K, V>,
}
模块测试,在lru.rs
文件底下会定义:#[cfg(test)] mod tests
,这个将变成模块化测试
#[cfg(test)]
mod tests {
use std::collections::hash_map::RandomState;
use super::LruCache;
#[test]
fn test_insert() {
let mut m = LruCache::new(2);
assert_eq!(m.len(), 0);
m.insert(1, 2);
assert_eq!(m.len(), 1);
m.insert(2, 4);
assert_eq!(m.len(), 2);
m.insert(3, 6);
assert_eq!(m.len(), 2);
assert_eq!(m.get(&1), None);
assert_eq!(*m.get(&2).unwrap(), 4);
assert_eq!(*m.get(&3).unwrap(), 6);
}
}
我们将在执行cargo test
的时候将会自动运行这些函数进行测试:可以显示如下内容:
Compiling algorithm v0.1.5 (D:\my\algorithm)
Finished test [unoptimized + debuginfo] target(s) in 1.95s
Running unittests src\lib.rs (target\debug\deps\algorithm-3ecde5aa4c430e91.exe)
running 142 tests
test arr::circular_buffer::tests::test_iter ... ok
...
test result: ok. 142 passed; 0 failed; 0 ignored; 0 measured; 0 filtered out; finished in 0.16s
Doc-tests algorithm
running 147 tests
test src\cache\lruk.rs - cache::lruk::LruKCache (line 65) ... ok
...
test result: ok. 147 passed; 0 failed; 0 ignored; 0 measured; 0 filtered out; finished in 11.03s
如果出错则会指出错误内容。
bench测试
在Rust中的bench可以测出每次迭代的耗时,但bench模块需要启用#![feature(test)]
,即无法在stable版本的进行性能测试。
我们需要安装nightly版本,那么我们运行
rustup install nightly
如果需要在国内加速可以设置
$ENV:RUSTUP_DIST_SERVER='https://mirrors.ustc.edu.cn/rust-static'
$ENV:RUSTUP_UPDATE_ROOT='https://mirrors.ustc.edu.cn/rust-static/rustup'
安装完之后我们可以用临时启用nightly版本进行运行,当前我们建立了benches/lru.rs
文件
以下是bench的部分内容
#![feature(test)]
extern crate test;
use algorithm::{ArcCache, LfuCache, LruCache, LruKCache};
use test::Bencher;
static BENCH_SIZE: usize = 10000;
macro_rules! do_test_bench {
($cache: expr) => {
for i in 0..BENCH_SIZE {
$cache.insert(i, i);
$cache.get(&i);
}
};
}
#[bench]
fn calc_lru(b: &mut Bencher) {
b.iter(|| {
let mut lru = LruCache::new(BENCH_SIZE / 2);
do_test_bench!(lru);
})
}
我们可以运行来进行bench测试
rustup run nightly cargo bench --bench lru
测试结果可以看出执行时间的变化
running 4 tests
test calc_arc ... bench: 4,361,427.70 ns/iter (+/- 983,661.07)
test calc_lfu ... bench: 3,170,039.17 ns/iter (+/- 571,925.64)
test calc_lru ... bench: 1,306,854.55 ns/iter (+/- 198,070.97)
test calc_lruk ... bench: 1,282,446.16 ns/iter (+/- 226,388.14)
但是我们无法看出命中率这些参数,单纯时间的消耗并缓存结构并不公平。
测试命中率
我们将从速度和命中率两个维度来衡量,但是数据集目前不是很优,看不到Lfu及Arc的大优势。
完整代码放置在:https://github.com/tickbh/algorithm-rs/blob/master/examples/bench_lru.rs
顺序的数据集
插入数据的时候就快速获取该数据
名字 | 耗时 | 命中率 |
---|---|---|
LruCache | 4121 | 100.00% |
LruKCache | 3787 | 100.00% |
LfuCache | 12671 | 100.00% |
ArcCache | 13953 | 100.00% |
前部分数据相对高频
插入数据的时候就获取之前插入的随机数据
名字 | 耗时 | 命中率 |
---|---|---|
LruCache | 3311 | 77.27% |
LruKCache | 4040 | 77.47% |
LfuCache | 10268 | 93.41% |
ArcCache | 10907 | 89.92% |
相对来说,在非高频的场景中,Lfu需要维护频次的列表信息,耗时会Lru高很多,但是高频的访问场景中命中率的提高相对于cpu的消耗是可以接受的。
此处编写测试的时候不想大量的重复代码,且我们的实例并没有trait化,此处我们用的是运用宏处理来指的处理:
macro_rules! do_test_bench {
($name: expr, $cache: expr, $num: expr, $evict: expr, $data: expr) => {
let mut cost = vec![];
let now = Instant::now();
let mut all = 0;
let mut hit = 0;
for v in $data {
if v.1 == 0 {
all += 1;
if $cache.get(&v.0).is_some() {
hit += 1;
}
} else {
$cache.insert(v.0, v.1);
}
}
cost.push(now.elapsed().as_micros());
println!("|{}|{}|{:.2}%|", $name, cost.iter().map(|v| v.to_string()).collect::<Vec<_>>().join("\t"), hit as f64 * 100.0 / all as f64);
};
}
后续调用均可调用该宏进行处理:
fn do_bench(num: usize) {
let evict = num * 2;
let mut lru = LruCache::<usize, usize, RandomState>::new(num);
let mut lruk = LruKCache::<usize, usize, RandomState>::new(num);
let mut lfu = LfuCache::<usize, usize, RandomState>::new(num);
let mut arc = ArcCache::<usize, usize, RandomState>::new(num / 2);
println!("|名字|耗时|命中率|");
println!("|---|---|---|");
// let data = build_freq_data(evict);
let data = build_high_freq_data(evict);
// let data = build_order_data(evict);
do_test_bench!("LruCache", lru, num, evict, &data);
do_test_bench!("LruKCache", lruk, num, evict, &data);
do_test_bench!("LfuCache", lfu, num, evict, &data);
do_test_bench!("ArcCache", arc, num, evict, &data);
}
进行数据优化
编写代码尽量的不要过早优化,先实现完整功能,然后再根据火焰图耗时占比来进行热点函数优化。所以此时我们需要实现火焰图的显示:
安装火焰图https://github.com/flamegraph-rs/flamegraph
cargo install flamegraph
在这里我使用的wsl启用的debian系统,安装perf
sudo apt install -y linux-perf
然后安装完之后就可以执行:
cargo flamegraph --example bench_lru
如果出现以下提前错误,则证明没有正确的连接perf版本,可以拷贝一个或者建一个软连接
/usr/bin/perf: line 13: exec: perf_5.15.133: not found
E: linux-perf-5.15.133 is not installed.
那么用如下的解决方案:
cp /usr/bin/perf_5.10 /usr/bin/perf_5.15.133
如果是macOs需要安装dtrace,如果未安装直接进行安装即可
brew install dtrace
此处需注意,macOs权限控制,需要用sudo权限。
然后运行完之后就可以得到一个flamegraph.svg
的火焰图就可以查看耗时的程序了。
总结
好的测试用例及性能测试是对一个库的稳定及优秀的重要标准,尽量的覆盖全的单元测试,能及早的发现bug,使程序更稳定。
标签:mut,bench,lfu,arc,lru,测试,test,let From: https://www.cnblogs.com/wmproxy/p/18253640