直接先贴代码吧:
for result in nminfo['scan'].values():
if result['status']['state'] == "up":
ip = result['addresses']['ipv4']
host_os = "xxx"
# 位置 1
host_assets_id = db.session.query(HostAsset.host_id).filter(HostAsset.host_ip == ip).first()
if host_assets_id:
query_host_id = host_assets_id[0]
# 位置 2
HostAsset.query.filter_by(host_id=query_host_id).update({'host_os': host_os})
HostAssetsHistory.query.filter_by(host_id=query_host_id, task_stream_id=self.task_stream_id).update({'host_os': host_os})
db.session.commit()
else:
pass
我这个 for 是循环一个特别大的 json 文件内容,跟数据库的操作主要是位置 1 和位置 2。
位置 1 是一个根据条件查询 id 的操作,为了在位置 2 中入其他库。
数据量少的时候没问题,但是当 for 循环的数据非常多(几千条)的时候,就报错了:
sqlalchemy.exc.OperationalError: (mysql.connector.errors.OperationalError)
在网上查解决方法,也尝试更改了 SQLALCHEMY_POOL_RECYCLE 等配置(改成与 mysql 的 wait_time 一致,或小于 wait_time ),但还是一样报错。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.