共3页
XXX数据倾斜有哪些原因造成的?化过程中,遇到了数2.数据倾斜可以修改哪些参数?3.有数据倾斜的时候进行负载均衡,可以通过哪个参数来设置?在做Shuffle阶段的优化过程中,遇到了数据倾斜的问题,造成了对一些情况下优化效果不明显。主要是因为在Job完成后的所得到的Counters是整个Job的总和,优化是基于这些Counters得出的平均值,而由于数据倾斜的原因造成map处理数据量的差异过大,使得这些平均值能代表的价值降低。Hve的执行是分阶段的,map处理数据量的差异取决于上一个stage的reduce输出,所以如何将数据均匀的分配到各个reduce中,就是解决数据倾斜的根本所在。规避错误来更好的运行比解决错误更高效。在查看了一些资料后,总结如下。1数据倾斜的原因1.1操作:关键词情形后果Jon其中一个表较小,但是key集中大表与大表,但是分桶的判断字段分发到某一个或几个Reduce上的数据远高于平均值0值或空值过多这些空值都由一个reduce处理,灰常慢groupbygroupby维度过小,处理某值的reduce灰常耗时CountDst某值的数量过多net会有两个MRJob。第一个MRJob中,Map的输出结果集合会随机分布到分聚喻luce中,每个Reduce做部GroupByKey有可操作,并输出结果,这样处理的结果是相同的Reduce中,从能被分发到不同的而达到负载均衡的目的;第二个MRJob再根据预处理的数据结果按照GroupByKey分布到Reduce中(这个过程可以保证相同的GroupByKey被分布到同一个Reduce中),最后完成最终的聚合操作。2.2SQL语句调节:如何Jon:关于驱动表的选取,选用jonkey分布最均匀的表作为驱动表做好列裁剪和flter操作,以达到两表做jon的时候,数据量相对变小的效果。大小表Jon:使用mapjon让小的维度表(1000条以卜的记录条数)先进内存。在map端完成reduce.大表Jon大表:把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的值关联不上,处理后并不影响最终结果。countdstnct大量相同特殊值countdstnct将值为空的情况单独处理,如果是计算reduce上,由于nullcountdstnct,可以不用处理,直接过滤,在最后结果中加lo如果还有其他计算,需要进行groupby,可以先将值为空的记录单独处理,再和其他计算结果进行unonogroupby维度过小:米用sum()groupby的方式来替换count(dstnet)完成计算。特殊情况特殊处理:在业务逻辑优化效果的不大情况下,有些时候是可以将倾斜的数据单独拿出来处理。最后unon回去。3典型的业务场景3.1空值产生的数据倾斜场景:如日志中,常会有信息丢失的问题,比如日志中的user_d,如果取其中的user_dfO用户表中的user_d关联,会碰到数据倾斜的问题。解决方法1:user_d为空的不参与关联XXX.user_d=XXX.user_dsnu;=b.user_d;XXX(。少了,而且作业数也少了。解决方法1中log读hve解决方法2:赋与空值分新的key值select_fromlogaleftouterjonusersb结论:方法2比方法1效率更好,不但取两次,jobs是2。解决方法2job数是1。这个优化适合无效d(比如-99等)生的倾斜问题。把空值的key变成一个字符串加上随机数,就能把倾斜的数据分到不同的reduce上,解决数据倾斜问题。3.2不同数据类型关联产生数据倾斜场景:用户表中usejd字段为nt,log表中usejd字段既有strng类型也有nt类型。当按照usejd进丁两个表的Jon操作时,默认的Hash操作会按nt型的d来进行分配,这样会导致所有strng类型d的记录都分配到一个解决方法:把数字类型转换成字符串类型Reducer中XXX(XXXrng)3.3小表不小不大,怎么用mapjon解决倾斜问题使用mapjon解决小表(记录数少)关联大表的数据倾斜问题,这个方法使用的频率非常高,但如果小表很大,大到mapjon会出现bug或异常,这时就需要特别的处理。以下例子:XXX.user_d;users表有600W 的记录,把users分发到所有的map上也是个不小的开销,而且mapjon不支持这么大的小表。如果用普通的jon,又会碰到数据倾斜的问题。解决方法:from(selectdstnctuuvselect/_ mapjon(_)_/_fromlogaleftouterjon(select/_ mapjon(c)_/XXX)XXX.user_d)XXX.user_d;假如,log里.usejd有上百万个,这就又回到原来mapjon问题。所幸,每日的会员不会太多,有交易的会员不会太多,有点击的会员不会太多,有佣金的会员不会太多等等。所以这个方法能解决很多场景下的数据倾斜问题。4总结使map的输出数据更均匀的分布到reduce中去,是我们的最终目标。由于Hash算法的局限性,按keyHash会或多或少的造成数据倾斜。大量经验表明数据倾斜的原因是人为的建表疏忽或业务逻辑可以规避的。在此给出较为通用的步骤:
1、采样log表,哪些usejd比较倾斜,得到一个结果表tmplo由于对计算框架来说,所有的数据过来,他都是不知道数据分布情况的,所以采样是并不可少的。
2、数据的分布符合社会学统计规则,贫富不均。倾斜的key不会太多,就像一个社会的富人不多,奇特的人不多一1样。所以tmpl记录数会很少。把tnpl和users做mapjon生成tmp2,tmp2读至dstrbuteflecacheo这是一个map过程。如果是,输member,生成hdfso
3、map读入users和log,假如记录来自log,则检查usejd是否在tmp2里,出到本地文件a,否则生成的key,value对,假如记录来自的key,value对,进入reduce阶段。
4、最终把a文件,把Stage3reduce阶段输出的文件合并起写到如果确认业务需要这样倾斜的逻辑,考虑以下的优化方案:
1、对于jon,在判断小表不大1G的情况下,使用mapjon
2、对于groupby或dstnet,设定XXX.skewndata=true
3、尽量使用上述的SQL语句调节进行优化
举报
