我们先尝试在不借助任何工具函数的情况下来解决这个问题。笔者能想到的最简单的方法是:因前一个readFile
的回调运行下一个readFile
,同时跟踪记录迄今已触发的回调次数,并最终显示输出。下面是笔者的实现结果。
Asyncjs/seriesByHand.js
var fs = require('fs');
process.chdir('recipes'); // 改变工作目录
var concatenation = '';
fs.readdir('.', function(err, filenames) {
if (err) throw err;
function readFileAt(i) {
var filename = filenames[i];
fs.stat(filename, function(err, stats) {
if (err) throw err;
if (! stats.isFile()) return readFileAt(i + 1);
fs.readFile(filename, 'utf8', function(err, text) {
if (err) throw err;
concatenation += text;
if (i + 1 === filenames.length) {
// 所有文件均已读取,可显示输出
return console.log(concatenation);
}
readFileAt(i + 1);
});
});
}
readFileAt(0);
});
如你所见,异步版本的代码要比同步版本多很多。如果使用filter
、forEach
这些同步方法,代码的行数大约只有一半,而且读起来也要容易得多。如果这些漂亮的迭代器存在异步版本该多好啊!使用Async.js就能做到这一点!
何时抛出亦无妨?
大家可能注意到了,在上面那个代码示例中笔者无视了自己在第1.4节中提出的建议:从回调里抛出异常是一种糟糕的设计,尤其在成品环境中。不过,一个简单如斯的示例直接抛出异常则完全没有问题。如果真的遇到代码出错的意外情形,throw
会关停代码并提供一个漂亮的堆栈轨迹来解释出错原因。这里真正的不妥之处在于,同样的错误处理逻辑(即if(err) throw err
)重复了多达3次!在4.2.2节,我们会看到Async.js如何帮助减少这种重复。
Async.js的函数式写法
我们想把同步迭代器所使用的filter
和forEach
方法替换成相应的异步方法。Async.js给了我们两个选择。async.filter
- 和
async.forEach
- ,它们会并行处理给定的数组。
async.filterSeries
- 和
async.forEachSeries
- ,它们会顺序处理给定的数组。
并行运行这些异步操作应该会更快,那为什么还要使用序列式方法呢?原因有两个。
- 前面提到的工作流次序不可预知的问题。我们确实可以先把结果存储成数组,然后再
joining
- (联接)数组来解决这个问题,但这毕竟多了一个步骤。
- Node及其他任何应用进程能够同时读取的文件数量有一个上限。如果超过这个上限,操作系统就会报错。如果能顺序读取文件,则无需担心这一限制。
所以现在先搞明白async.forEachSeries
再说。下面使用了Async.js的数据收集方法,直接改写了同步版本的代码实现。
Asyncjs/forEachSeries.js
var async = require('async');
var fs = require('fs');
process.chdir('recipes'); // 改变工作目录
var concatenation = '';
var dirContents = fs.readdirSync('.');
async.filter(dirContents, isFilename, function(filenames) {
async.forEachSeries(filenames, readAndConcat, onComplete);
});
function isFilename(filename, callback) {
fs.stat(filename, function(err, stats) {
if (err) throw err;
callback(stats.isFile());
});
}
function readAndConcat(filename, callback) {
fs.readFile(filename, 'utf8', function(err, fileContents) {
if (err) return callback(err);
concatenation += fileContents;
callback();
});
}
function onComplete(err) {
if (err) throw err;
console.log(concatenation);
}
现在我们的代码漂亮地分成了两个部分:任务概貌(表现形式为async.filter
调用和async.forEachSeries
调用)和实现细节(表现形式为两个迭代器函数和一个完工回调onComplete
)。filter
和forEach
并不是仅有的与标准函数式迭代方法相对应的Async.js工具函数。Async.js还提供了以下方法:reject
- /
rejectSeries
- ,与
filter
- 刚好相反;
map
- /
mapSeries
- ,1:1变换;
reduce
- /
reduceRight
- ,值的逐步变换;
detect
- /
detectSeries
- ,找到筛选器匹配的值;
sortBy
- ,产生一个有序副本;
some
- ,测试是否至少有一个值符合给定标准;
every
- ,测试是否所有值均符合给定标准。
这些方法是Async.js的精髓,令你能够以最低的代码重复度来执行常见的迭代工作。在继续探索更高级的方法之前,我们先来看看这些方法的错误处理技术。
Async.js的错误处理技术
要怪就怪Node的fs.exists
首开这一先河吧!而这也意味着使用了Async.js数据收集方法(filter
/filterSeries
、reject
/rejectSeries
、detect
/detectSeries
、some
、every
等)的迭代器均无法报告错误。对于非布尔型的所有Async.js迭代器,传递非null
/undefined
的值作为迭代器回调的首参数将会立即因该错误值而调用完工回调。这正是readAndConcat
不用throw
也能工作的原因。
Asyncjs/forEachSeries.js
function readAndConcat(filename, callback) {
fs.readFile(filename, 'utf8', function(err, fileContents) {
if (err) return callback(err);
concatenation += fileContents;
callback();
});
}
所以,如果callback(err)
确实是在readAndConcat
中被调用的,则这个err
会传递给完工回调(即onComplete
)。Async.js只负责保证onComplete
只被调用一次,而不管是因首次出错而调用,还是因成功完成所有操作而调用。
Asyncjs/forEachSeries.js
function onComplete(err) {
if (err) throw err;
console.log(concatenation);
}
Node的错误处理约定对Async.js数据收集方法而言也许并不理想,但对于Async.js的所有其他方法而言,遵守这些约定可以让错误干净利落地从各个任务流向完工回调。下一节会看到更多这样的例子。
标签:function,异步,编程,err,JavaScript,js,fs,async,Async From: https://blog.51cto.com/u_15767091/6528188