问题场景: 服务端用 nodejs+mongoose+node-schedule 跑了些定时任务,执行 bulkWrite 操作,代码大概如下:
updateOne: {
filter: {id: id},
update: {$set: item},
upsert: false
}
在某时刻跑太多任务时,mongodb 偶发性会挂掉,出现以下错误:
MongoBulkWriteError: connection 20 to 127.0.0.1:27017 closed
这时我只能临时执行一下systemctl restart mongod
命令重启一下就好了,请问大佬们,这是不是写入的数据太多了超过限制呢?是什么原因呢?该如何优化?谢谢!
1
defunct9 273 天前
开 ssh ,让我上去看看
|
2
qloog 273 天前
跑脚本的时候也可以适当的 sleep 个几秒, 让 mongodb 休息下
|
4
CivAx 273 天前 via iPhone
建议优先检查连接池的配置或者 keepalive 参数,有可能是你调的库默认一直在用 reconnect() 而不是开新连接导致某一时段 TTL 到期被杀掉了。
|
6
dorothyREN 272 天前
定时任务 加个锁,顺序执行就行了
|