我最近在做一个需求:批量去往数据库里存储一些东西,数量可能一次性达到几百个,也就意味着我需要一次性往数据库里存储几百次,我是这么做的:
我们提供的服务有:网站设计、网站建设、微信公众号开发、网站优化、网站认证、泾源ssl等。为近千家企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的泾源网站制作公司
const save = (data) => {
// 数据库操作(Promise)
return insert(data)
}
const datas = [...几百个数据]
// 进行存储
Promise.all(datas.map(save))
正当我觉得这个需求很轻松的时候。在 Code Review 上,我被团队的大佬们给呵斥了一顿,理由是:存储的操作发生在服务器,服务器是很脆弱的,你一次性存储几百个,服务器崩了怎么办?
随后大佬们提出解决方案:控制并发,大佬们是真的强,感觉这种东西已经是大佬们的常规操作了。
意思就是,比如我有几百个存储操作,我不能一次性去全部执行,而是要控制一次性只能执行10个操作,10个中有一个执行完了,就拿还没执行的操作补上去,就这样一直到这几百个操作全部执行完为止。
其实很简单,可以直接用库,比如async-pool、es6-promise-pool、p-limit,只要是能用库的,我建议不要自己去写,因为不定因素很多,你自己写的肯定没有库写的好,你说呢~
看到一位兄弟实现的挺不错的,链接:https://segmentfault.com/a/1190000016389127
这是async-pool这个库的核心源码:
function asyncPool(poolLimit, array, iteratorFn) {
let i = 0;
const ret = [];
const executing = [];
const enqueue = function () {
// 边界处理,array为空数组
if (i === array.length) {
return Promise.resolve();
}
// 每调一次enqueue,初始化一个promise
const item = array[i++];
const p = Promise.resolve().then(() => iteratorFn(item, array));
// 放入promises数组
ret.push(p);
// promise执行完毕,从executing数组中删除
const e = p.then(() => executing.splice(executing.indexOf(e), 1));
// 插入executing数字,表示正在执行的promise
executing.push(e);
// 使用Promise.rece,每当executing数组中promise数量低于poolLimit,就实例化新的promise并执行
let r = Promise.resolve();
if (executing.length >= poolLimit) {
r = Promise.race(executing);
}
// 递归,直到遍历完array
return r.then(() => enqueue());
};
return enqueue().then(() => Promise.all(ret));
}
大概的逻辑可以总结为:
使用方式:
const timeout = i => new Promise(resolve => setTimeout(() => resolve(i), i));
return asyncPool(2, [1000, 5000, 3000, 2000], timeout).then(results => {
...
});
名称栏目:几百个数据,Promise.all没做控制并发?那你心可真大啊!
网站路径:http://www.shufengxianlan.com/qtweb/news24/12324.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联