MaxCompute计算长尾问题

长尾问题是分布式计算里最常见的问题之一,也是典型的疑难杂症。究其原因,是因为数据分布不均,导致各个节点的工作量不同,整个任务就需要等最慢的节点完成才能完成。处理这类问题的思路就是把工作分给多个Worker去执行,而不是一个Worker单独抗下最重的那份工作。本文希望就平时工作中遇到的一些典型的长尾问题的场景及其解法做一些分享。

Join

Join能出现长尾,是因为Join时出现某个Key里的数据特别多的情况。不讨论两张表都是小表的情况。如果两张表里有一张大一张小,可以考虑使用Mapjoin,对小表进行缓存。具体语法和说明可以参考这里。如果是MapReduce作业,可以使用资源表的功能,对小表进行缓存。

但是如果两张表都比较大,就需要先尽量去重。实在不行的话,就需要从业务上考虑,为什么会有这样的两个大数据量的Key要做笛卡尔积,能否从业务上进行优化。

Group By

Group By Key 出现长尾的原因是因为某个Key内的计算量特别大。

对SQL进行改写,添加随机数,把长Key进行拆分是解决Group By长尾的一种比较好的方法,具体的原理也比较容易懂。对于一个SQL:

Select    Key,Count(*)  As  Cnt  From  TableName  Group  By  Key;

不考虑Combiner,M节点会Shuffle到R上,然后R再做Count操作。对应的执行计划是M->R

但是如果对长尾的Key再做一次工作再分配,就变成:

--    假设长尾的Key已经找到是KEY001
SELECT a.Key
    , SUM(a.Cnt) AS Cnt
FROM (
    SELECT Key
        , COUNT(*) AS Cnt
    FROM TableName
    GROUP BY Key,
        CASE
            WHEN Key = 'KEY001' THEN Hash(Random()) % 50
            ELSE 0
        END
) a
GROUP BY a.Key;

可以看到,这次的执行计划变成了M->R->R。虽然执行的步骤变长了,但是长尾的Key经过了2个步骤的处理,整体的时间消耗可能反而有所减少。不过大家也可以很容易看出来,如果数据的长尾并不严重,用这种方法人为地增加一次R的过程,最终的时间消耗可能反而更大。

对于这种优化方法,有一个通用的实现方法,就是使用系统参数,设置

    set    odps.sql.groupby.skewindata=true。

但是通用性的优化策略无法针对具体的业务进行分析,得出的结果不总是最优的。开发人员也可以根据实际的数据情况,用更加高效的方法来改写SQL。

Distinct

可以看到,对于Distinct,上面的策略已经不生效了。对这种场景,我们可以考虑:

--原始SQL,不考虑Uid为空
SELECT COUNT(uid) AS Pv
    , COUNT(DISTINCT uid) AS Uv
FROM UserLog;

可以改写成

SELECT SUM(PV) AS Pv
    , COUNT(*) AS UV
FROM (
    SELECT COUNT(*) AS Pv
        , uid
    FROM UserLog
    GROUP BY uid
) a;

可以看到,我们把Distinct改成了普通的Count,这样的计算压力不会落到同一个Reducer上。而且这样改写后,既能支持前面提到的Group By优化,系统又能做Combiner,性能会有较大的提升。

动态分区

动态分区功能为了整理小文件,会在最后起一个Reduce,对数据进行整理。所以如果使用动态分区写入数据时有倾斜的话,就会发生长尾。

另外就平时经验来看,滥用动态分区的功能也是产生这类长尾的一个常见原因。如果写入的数据已经确定需要把数据写入某个具体分区,那可以在Insert的时候指定需要写入的分区,而不是使用动态分区。

Combiner

对于MapRedcuce作业,使用Combiner是一种常见的长尾优化策略。在WordCount的例子里,就已经有提到这种做法。通过Combiner,减少Maper Shuffle往Reducer的数据,可以大大减少网络传输的开销。对于MaxCompute SQL,这种优化会由系统自动完成。

需要注意的是,Combiner只是Map端的优化,需要保证是否执行Combiner的结果是一样的。以WordCount为例,传2个(KEY,1)和传1个(KEY,2)的结果是一样的。但是比如在做平均值的时候,就不能在Combiner里就把(KEY,1)和(KEY,2)合并成(KEY,1.5)。

系统优化

其实针对长尾这种场景,除了前面提到的Local Combiner,MaxCompute系统本身还做了一些优化。比如在跑任务的时候,日志里突然打出这样的内容(+N backups部分):

M1_Stg1_job0:0/521/521[100%]    M2_Stg1_job0:0/1/1[100%]    J9_1_2_Stg5_job0:0/523/523[100%]    J3_1_2_Stg1_job0:0/523/523[100%]    R6_3_9_Stg2_job0:1/1046/1047[100%]
M1_Stg1_job0:0/521/521[100%]    M2_Stg1_job0:0/1/1[100%]    J9_1_2_Stg5_job0:0/523/523[100%]    J3_1_2_Stg1_job0:0/523/523[100%]    R6_3_9_Stg2_job0:1/1046/1047[100%]
M1_Stg1_job0:0/521/521[100%]    M2_Stg1_job0:0/1/1[100%]    J9_1_2_Stg5_job0:0/523/523[100%]    J3_1_2_Stg1_job0:0/523/523[100%]    R6_3_9_Stg2_job0:1/1046/1047(+1    backups)[100%]
M1_Stg1_job0:0/521/521[100%]    M2_Stg1_job0:0/1/1[100%]    J9_1_2_Stg5_job0:0/523/523[100%]    J3_1_2_Stg1_job0:0/523/523[100%]    R6_3_9_Stg2_job0:1/1046/1047(+1    backups)[100%]

可以看到1047个Reducer,有1046个已经完成了,但是最后一个一直没完成。系统识别出这种情况后,自动启动了一个新的Reducer,跑一样的数据,然后看两个哪个快,取快的数据归并到最后的结果集里。

业务优化

虽然前面的优化策略有很多,但是实际上还是有限。有时候碰到长尾问题,还需要从业务角度上想想是否有更好的解决方法,比如:

  • 实际数据可能包含非常多的噪音,比如如果想根据访问者的ID进行计算,看看每个用户的访问记录的行为,那就需要先去掉爬虫的数据(不过现在的爬虫也越来越难识别了)。否则爬虫数据很容易长尾计算的长尾。类似的情况还包含根据xxid进行关联的时候,需要考虑这个关联字段是否存在为空的情况。
  • 因为业务的情况,总会有一些特殊情况,比如ISV的操作记录,在数据量、行为方式上都会和普通的个人会有很大的区别。那么可以考虑针对大客户,使用特殊的分析方式进行单独处理。
  • 数据分布不均匀的情况下,不要使用常量字段做Distribute by字段来实现全排序。

优化实战

前面洋洋洒洒说了一堆的理论,这里咱们就动手做个调优。数据来源天池的移动推荐算法线下赛,已经过脱敏。因为线下赛供的数据提比较少,所以我对数据做了一些冗余加权以便让长尾更加明显。
我首先想看看数据的分布,跑了个SQL

SELECT user_id
    , COUNT(*) AS cnt
    , COUNT(DISTINCT item_id) AS item_cnt
FROM tianchi_fresh_comp_train_user_lt a1
GROUP BY user_id
ORDER BY item_cnt DESC
LIMIT 100;

结果因为前面提到的造数据的时候长尾数据多复制了一些,长尾严重地把backup的优化策略都给跑出来了

我们这时候不能直接拿到这个数据就直接想技术上怎么优化,作为数据分析师,需要先了解数据,看下这个key是什么。虽然Count()多的Count(Distinct item_id)不一定多,但是一般来说Count()和其他人明显不一样的数据总是有问题的,可以从这里入手。于是跑了个

SELECT user_id
    , COUNT(*) AS cnt
FROM tianchi_fresh_comp_train_user_lt
GROUP BY user_id
ORDER BY cnt DESC
LIMIT 100;

很快跑好了,结果如下(这个长尾造的有点多)。不过如果怕Count(*)和Count(Distinct item_id)的Key不同,可以参考本文最后的SQL


正想看看是不是就是这个Key(15330397)的问题,前面的那个长尾也跑好了(跑了25:13),一看,还真是

这么明显的数据肯定是异常数据了,回头到底是爬虫还是什么特殊情况再单独研究,这里根据之前的策略,有2种方法:

直接对异常数据做单独处理,这里不计算异常数据:

SELECT user_id
    , COUNT(*) AS cnt
    , COUNT(DISTINCT item_id) AS item_cnt
FROM tianchi_fresh_comp_train_user_lt a1
WHERE user_id <> '15330397'
GROUP BY user_id
ORDER BY item_cnt DESC
LIMIT 100;

这个SQL很快,一分钟就得出结果。根据这个结果做个可视化,就能够很清楚看到天猫移动端用户的购买情况了。但是有个缺点就是我们这里的长尾比较少,就造了一条。但是实际上,可能会有很多爬虫在爬数据,那就没办法在SQL里写死这些过滤的USER_ID。我们可以考虑先取到这些长尾的数据后做mapjoin过滤异常数据,具体的实现这里就不做了。

另外我们再试试前面提到的MRR的方法以进行SQL改写:

SELECT user_id
    , SUM(cnt) AS cnt
    , COUNT(*) AS item_cnt
FROM (
    SELECT user_id
        , item_id
        , COUNT(*) AS cnt
    FROM tianchi_fresh_comp_train_user_lt a1
    GROUP BY user_id,
        item_id
) sub
GROUP BY user_id
ORDER BY item_cnt DESC
LIMIT 100;

这个SQL一共花了(3:25)。
通过这两种方法的实验,我们更好地了解到数据里的信息,同时更快地得出结果。

本文使用的产品涉及大数据计算服务(MaxCompute),地址为https://www.aliyun.com/product/odps
配合大数据开发套件 https://data.aliyun.com/product/ide 完成的。
如果有问题,可以加入我们的钉钉群来咨询

时间: 2024-11-04 14:18:43

MaxCompute计算长尾问题的相关文章

阿里云大数据MaxCompute计算资源分布以及LogView分析优化

MaxCompute(原ODPS)的概念 大数据计算服务(MaxCompute,原名ODPS)是一种快速.完全托管的PB/EB级数据仓库解决方案,具备万台服务器扩展能力和跨地域容灾能力,是阿里巴巴内部核心大数据平台,支撑每日百万级作业规模.MaxCompute向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全.(官方文档有这里就不多做介绍了)官方文档链接 优势 用户不必关心分布式计算细节,从而达到分析大数据的目的.

阿里巴巴大数据计算平台MaxCompute(原名ODPS)全套攻略(持续更新20171122)

  概况介绍 大数据计算服务(MaxCompute,原名ODPS,产品地址:https://www.aliyun.com/product/odps)是一种快速.完全托管的TB/PB级数据仓库解决方案.MaxCompute向用户提供了完善的数据导入方案以及多种经典的分布式计算模型,能够更快速的解决用户海量数据计算问题,有效降低企业成本,并保障数据安全.本文收录了大量的MaxCompute产品介绍.技术介绍,帮助您快速了解MaxCompute/ODPS. MaxCompute 2.0:阿里巴巴的大数

帮助企业做好MaxCompute大数据平台成本优化的最佳实践

阿里云大数据计算服务MaxCompute通过灵活性.简单性和创新为您企业的业务环境带来了变革,但是您企业是否通过其实现了原本预期的节省成本的目标呢?本文中,我们将为广大读者诸君介绍优化您企业MaxCompute开销的一些关键性的策略. 自从MaxCompute于2010年进入市场以来,计算服务MaxCompute就已然永远地改变了整个IT世界了.尽管其价格优势已经领先业界了,但仍然有许多企业客户了解到,迁移到公共云服务并不总是能够帮助他们实现预期的成本节约的目标. 这并不意味着迁移到公共云服务是

三分钟教你学会分析MaxCompute消费明细

很多用户经常被MaxCompute收费所困扰,比如执行了一条 select xxx from yyy 然后扣费1元 ,使用了机器学习后扣了1分钱,不知道如何查询到明细,也无法做优化. 接下来,我来教大家学习如何通过控制台消费功能查看你在MaxCompute(DataWorks/Studio)中每一条SQL/MR计算.存储.下载的消费明细. 场景1,查看昨天的收费情况 出账后,通过控制台消费明细来查看. 出账时间: 预付费出账单时间次日12点 后付费出账单时间是次日9点 step1 进入阿里云控制

MaxCompute执行作业慢的原因排查

大家在平时开发过程中经常遇到作业(SQL.MR等)执行慢的原因,今天带大家一起学习自排查方法. 1.waiting ,waiting,Job Queueing... Job Queueing... 遇到这个提示,就是资源出现了排队. 排查分析:如果你是后付费用户,那就是整个后付费的共享池已经没有富余的资源了. 解决方案:要等共享池中的前一个作业处理完或者根据作业使用的CU情况,购买预付费CU. 排查分析:如果你是预付费用户,很有可能是其他人的作业占用了过多资源,导致了排队. 解决方案:同一账户多

MaxCompute Studio使用心得系列3——可视化分析作业运行

上一篇写分享了通过MaxCompute Studio 编写sql脚本时"编译"功能带来的便捷,这次分享脚本编译好提交运行后,自助查看作业的执行情况. 我们很熟悉的是通过logview,去分析作业的执行情况,logview上有很详细的执行日志,而Studio不仅仅提供可视化的信息,还会明确给出一些分析结论如job是有否长尾或数据倾斜情况. 比如我写完一个sql脚本,编译成功 接着执行脚本,Studio自动打开当前job的执行详细信息页面,包括job基本信息列表.详情展示和分析区(执行计划

MaxCompute访问TableStore(OTS) 数据(20170601更新)

免费开通大数据服务:https://www.aliyun.com/product/odps 0. 前言 MaxCompute作为阿里云大数据平台的核心计算组件,承担了集团内外大部分的分布式计算需求.而MaxCompute SQL作为分布式数据处理的主要入口,为快速方便处理/存储EB级别的离线数据提供了强有力的支持. 随着大数据业务的不断扩展,新的数据使用场景在不断产生,在这样的背景下,MaxCompute计算框架也在不断的演化,原来主要面对内部特殊格式数据的强大计算能力,也正在一步步的开放给不同

MaxCompute( 原名ODPS)大数据容灾方案与实现(及项目落地实例)专有云

一,背景与概述     复杂系统的灾难恢复是个难题,具有海量数据及复杂业务场景的大数据容灾是个大难题.     MaxCompute是集团内重要数据平台,是自主研发的大数据解决方案,其规模和稳定性在业界都是领先的.在周边系统众多,业务场景复杂,海量数据存储和计算调度都是一个难题的情况下,需要保证大数据系统在灾难发生时能够尽快切换到备用系统服务,最小限度影响客户使用.     容灾系统及方案的建设有很多种方式,如同城双活,异地多活,冷备容灾等.MaxCompute大数据的容灾方案是在多年集团内部断

MaxCompute与OSS非结构化数据读写互通(及图像处理实例)

0. 前言 MaxCompute作为阿里巴巴集团内部绝大多数大数据处理需求的核心计算组件,拥有强大的计算能力,随着集团内外大数据业务的不断扩展,新的数据使用场景也在不断产生.在这样的背景下,MaxCompute(ODPS)计算框架持续演化,而原来主要面对内部特殊格式数据的强大计算能力,也正在一步步的通过新增的非结构化数据处理框架,开放给不同的外部数据. 我们相信阿里巴巴集团的这种需求,也代表着业界大数据领域的最前沿实践和走向,具有相当的普适性.在之前我们已经对MaxCompute 2.0新增的非