首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX 提问指南
广告
V2EX
›
问与答
求问 hive 和 sparkSQL 的问题
mortonnex
·
2018-08-07 11:55:03 +08:00
· 735 次点击
这是一个创建于 2305 天前的主题,其中的信息可能已经有所发展或是发生改变。
如果每天执行一次 job
表是每天建一个,还是更新之前的表?
还有就是,你们是这么写数据到 FS,然后再从 FS 到 hive 的
Hive
sparksql
job
更新
2 条回复
•
2018-08-07 14:38:56 +08:00
1
atomstar
2018-08-07 14:25:42 +08:00
如果是同类数据,肯定是根据时间分区啊 每天写入新的分区即可。
至于数据怎么写入,要看你的源从哪里流来的,可以直接写 hdfs,也是根据日期分区写,然后做一下分区关联
2
mortonnex
OP
2018-08-07 14:38:56 +08:00
@
atomstar
谢谢
如果用 FS 作源,那么一般是怎么写 HDFS 的? 一天中某个时间统一写入?还是持续写入?
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1266 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms ·
UTC 18:11
·
PVG 02:11
·
LAX 10:11
·
JFK 13:11
Developed with
CodeLauncher
♥ Do have faith in what you're doing.