先给看效果:
刚重跑的,知道能加快,但没想到能加快这么多
先说下数据量吧,每天20亿+
这次的优化灵感,来自于牛逼的群友们
源于群里一个同学的疑惑,看图:
只能说,以后大家看到一个看似没用的条件的时候,千万不要随便删除,这个条件很有可能起到了优化的大作用。
由于群里的同学公司用的spark版本比较早,我们知道原因就好,暂且不细去追究。
可是,这个思路提醒了我,我们有个任务,也可以用这个方法来优化,并且走的是另外一个原理。
之前有写一篇
先给看效果:
刚重跑的,知道能加快,但没想到能加快这么多
先说下数据量吧,每天20亿+
这次的优化灵感,来自于牛逼的群友们
源于群里一个同学的疑惑,看图:
只能说,以后大家看到一个看似没用的条件的时候,千万不要随便删除,这个条件很有可能起到了优化的大作用。
由于群里的同学公司用的spark版本比较早,我们知道原因就好,暂且不细去追究。
可是,这个思路提醒了我,我们有个任务,也可以用这个方法来优化,并且走的是另外一个原理。
之前有写一篇