2023-02-21 16:54发布
欢迎关注:阿里妈妈技术公众号本文作者:阿里妈妈风控团队1. 背景介绍阿里妈妈流量质量算法团队的主要职责是对无效流量的清洗,包括:低质量:重复点击计费策略、频率控
欢迎关注:阿里妈妈技术公众号本文作者:阿里妈妈风控团队
阿里妈妈流量质量算法团队的主要职责是对无效流量的清洗,包括:
作弊流量转化期望概率一定为0,如爬虫产生的无效点击; 但成交频率为0的流量不一定是作弊,如新商品累计10万点击后仍没有转化;
常见的无效流量包括:1)消耗竞争对手;2)提升自身排名;3)自然宝贝刷单误伤;4)非恶意无效流量。具体定义可以参考《阿里妈妈流量反作弊算法实践》。
我们将广告主套利总结为:广告主通过作弊(虚假点击、成交...),欺骗平台机制,使得其以偏少的成本,获得更多广告的资源。
今年双十一期间,重点管控的套利风险有2类:1)质量分作弊;2)恶意超投。
套利风险还包括“诱骗点击”、“恶意引流”...等,见微知著,此处不做过多引申。
即无效流量中的“提升自身排名”。因为广告排名由出价和质量评分决定。某些广告主会雇佣黑灰产,通过众包人工刷点击、刷成交...等手段来提高广告的转化率,通过低成本获得靠前的广告排名。
根据调研显示,当前广告主的作弊成本极高。但这些广告主仍选择将这些成本长期用于雇佣黑灰产,而不是投入广告平台中,背后的收益一定远超其成本。
由于平台计费链路存在一定程度上的延时,且日终负账会被清零。部分广告主通过够买大量搜索词,单价高、预算少,导致短时间内获得远超预算的点击量。风控团队可以通过对广告主后台操作的异常检测,预判广告主的动向,实施刚性处罚,来控制超投的数量。
套利的目的是提高销量。作弊入口是全站的(包括自然搜索结果),不局限于直通车广告。其利益驱动属性强,在618、双11...等大促期间尤其明显。而且易被平台和相关广告主感知到,对生态的影响比较恶劣。
目前我们在线上已产出数万套套利广告主名单,并追回数百万的广告点击。考虑到技术耦合度,本文主要以“质量分作弊”为代表,总结一下团队近期在广告主套利检测上的一些进展。
由于平台的有效总曝光有限,当套利广告主占据了高质量位置后,真实点击率和成交率低于模型预期,平台产生的总点击、总成交就会相应减少,从而导致该资源位的收入降低。这里我们统一使用千次展现收益(Revenue Per Mile,以下简称:RPM)来代表地价。即套利会在一定程度上使对应位置的RPM降低。
由于现阶段ctr、cvr预估模型有在线更新机制,从长周期来看是具备自愈能力的。但模型的更新有一段时间延迟,在每个模型更新的空窗期内,广告主不会恰好都补单补量至模型的预期水平。最终就导致了模型不断被欺骗又修复的过程。如下图所示。
因此,在与排序模型的博弈中,广告主周期性地实现着套利。随着online模型更新的时效性提升,套利空间在不断被压缩。也导致广告主更加倾向于高频、低程度地进行操作,识别难度进一步增大。
由于套利广告主占据了有利位置,导致其他广告主需要不断提高出价,才能获得相应的曝光。长此以往,不仅损害了多方利益,更会对平台整体生态产生极其恶劣的影响。
由于作弊手法千变万化、真实标签难以界定、作弊Ground-Truth未知,风控场景很难通过监督训练等手段获得通用解。具体到广告主套利上,我们还面临着一些其他的问题。
相比于以往的无效流量甄别,众包人工流量往往更加贴近平常用户的行为。难度远超以往的爬虫、机械性攻击。高并发的广告场景,对识别的精度和召回,要求都非常高。而且即使是刷手,也会产出正常的流量。
如何精细化区分刷手的每次行为以及是否是受雇佣的,是极具挑战的一个课题。
由于众包人工流量会有一定比例的成交,不符合0转化假设。高效评价流量识别模型的精度和召回,是很困难的。 此外,套利广告主检测本身也需要找到合适的假设,没有客观高效的评价方式,难以指导模型迭代。
存在任务流量的广告主,不仅是主动套利的,还有一部分是被其他广告主雇佣的刷手误伤、或者受到人工攻击消耗的。如何无监督、高精度、高召回、鲁棒地挖掘广告主的主动性,也是我们需要重点关注的。
在正式开始介绍方案之前,我们针对1.3节的问题,分别介绍一下思路。 为了解决1.3中提到的3个问题,我们针对广告主套利开发了一套同样集感知、洞察、处置、评价于一体的检测框架,其架构图如下图所示。框架理念可以参考这篇文章:《阿里妈妈流量反作弊算法实践》
接下来我们详细介绍每个环节的一些具体问题与思考。
在介绍感知、洞察、处置体系之前,我们首先对挖掘套利广告主的基础能力进行介绍——众包人工流量识别。该流量不满足0成交转化,模型的迭代和监控保障,也显然不能依赖低效的人工抽检。首先需要寻找一种可以批量校验、又和处置严格正交的评价方法。整体方案如下图所示。
考虑到直通车场景下,刷手需要高频地进行搜索,从而定位到自己的任务目标,不可能所有的内容都手敲。风控工程团队基于淘宝的搜索记录,对历史文本信息进行了系统地整合,使得黑话凝聚在标准化的文本库中。
黑搜索的文本信息采集,受受设备型号、手滑粘贴、误点搜索的影响,导致产出上并不稳定,所以没有直接用于召回。但同设备类型、应用、天维度同比是有意义的,可以作为精度和召回的评价指标。因此,我们构造了和众包流量构成强相关、但召回有限的黑话模型。
典型的黑话如下所示:
根据我们的分析显示,黑话具有以下特点:1)文字语序混乱;2)拼音、中、英文混输;3)表情、形近字替代;4)快速迭代、分析低效。这涉及到多种语义的还原,并且新的变种不断产生。基于文本出发的黑话模型开发非常困难。
综合考虑各个方案的性价比后,我们尝试不完全依赖文本,而是从用户出发,2段式、半监督地召回黑话。
当前召回的黑话样本库已达千万级,且人工抽检准确率超过99%。现有算法架构如下图所示。
我们基于黑话样本库与大盘可信白样本,训练了基于Bert的2分类模型,用于对全量文本进行打分,从而减轻黑话样本库覆盖度不足的影响。使用召回人群多日黑话得分均值,来作为众包流量识别的精度指数,指导模型快速迭代,并持续以黑话精度作为模型的监控指标。
众包人工流量虽然更难以识别,但是我们始终相信黑灰产用户是不可能完美隐藏的。我们从用户行为角度设计了一系列的异常检测方案。 首先调研了黑灰产平台。发现用户需要通过一系列行为来完成任务的交付(考虑到攻防属性,暂不透出具体行为)。据此我们构造了本质、鲁棒性的统计特征,结合统计异常检测模型,产出了套利识别的基线。
在《阿里妈妈流量反作弊算法实践》中介绍过,本质特征更有助于挖掘异常; 如用“偏离对应人群的分布的程度”,代替“绝对数量”。
由于统计特征的粒度偏粗,导致我们并不能区分刷手当天的哪部分流量属于众包,哪部分属于正常流量。所以还需要更加精细化的识别能力建设。
近期我们一直在尝试,使用更为细粒度的原始行为序列、良好的序列设计、以及合理的辅助任务,训练大规模无监督预训练模型。Zero-shot在下游进行应用,实现精细化地捕捉众包流量特点。当前行为序列研究的整体框架如下图所示。
首先是通用的行为选择。为了更好地适用于大多数场景,我们只选择了搜索和点击两个行为,并辅以行为的属性与时间信息,共同组成行为序列。
为了方便刻画行为模式,我们使用下划线拼接行为和属性,构造类似于NLP中单词概念的行为元素,形式为:()()()_()。例如:clk_true_3_2 表示为 一次点击 & 是广告点击 & 商品属性为编号3 & 距离上一次行为时间间隔属于分箱编号2。
由于刷手需要接单大量的任务,产品类型、任务目的可能各不相同。通过合理的session划分,将不同的基础行为进行聚合,可以使信息更加凝聚。
结合搜索广告的特点,我们限制一个session必须以搜索开始,时间间隔在一定范围内都同属于一个session。
为了使模型学习到session排列的模式,我们使用Transformer结构 + Cut-paste任务,对序列整体进行表示。
Cut-paste算法是用于图像异常检测的一种辅助任务。通过对原始图片进行随机地局部剪裁,再随机粘贴至新的位置,原位置以黑 {MOD}阴影覆盖(向量值均为0),从而获得大量的负样本,并以大量的数据增强产生正样本。然后通过原图与新图的二分类任务,促使模型学习到剪裁边缘的连续性。算法内容详见[1]。
类似地,根据刷手行为特点,对序列进行Cut-paste衍生,得到大量的样本用于二分类任务,从而得到完整序列表示。最终的预训练网络结构如下所示。
根据序列表示的结果,我们得到了N维的Embedding向量:
将2个方案计算的异常分结合,得到下游任务的打分。
截止目前,我们通过统计基线 + 行为序列对众包人工流量进行了识别。在阿里妈妈广告场景下,这些流量会在受害者/套利者维度上呈现出聚集。且因为模型的评估依赖于人工抽检,为了保证精度符合预期,显然单体识别模型的精度与召回都会受限。
因此我们增加了基于图关联的召回。以统计基线为基础节点,用行为序列结果剪枝,最终通过半监督的GAT网络对行为稀疏、但访问宝贝和基础节点重合度高的人工众包流量进行扩召回。
下图是2021年至今为止,最新挖掘的每日人工众包的设备数量趋势(具体数字已隐藏)。除大型节日外外,流量基本趋于稳定。相比于原始统计基线,组合模型可以精细定位到刷手与宝贝的对应关系,目前已额外新增30%的广告点击召回。
为了建立内部自驱循环的异常检测框架,感知系统是必备的。 在《阿里妈妈流量反作弊算法实践》文章中我们介绍过:感知重召回,其理念是召回一切认知之外的异常。从作弊的结果(果性)出发,才能召回受害者可感知的全部流量。
在广告主套利场景下,受害者是平台。但广告主的手法各不相同,从结果上看,未必会成功。虽然都需要处置,但在感知角度,我们更关注那些成功套利的案例。因此,我们从RPM低于平台预期的广告主的流量出发,召回套利成功流量的超集。
除了作为感知手段以外,估准RPM才能计算出该问题究竟为平台带来了多大影响。而且先找到一批RPM低于预期的广告主,才能用于最终,套利广告主名单的精度、召回评价。
在正常的广告主上的RPM自然是预估的越精准越好。但在疑似异常的部分,比较难以界定。 因为疑似部分的数值差异是难以直接刻画,所以我们转变思路为:1)先确定一批一定成功套利的广告主,构造验证集;2)计算预估RPM与实际RPM的diff,计算验证集的AUC/Max-F1值。问题就转化为,如何确定广告主套利成功的具体时间。
我们从套利的本质出发,为广告主训练个性化的双模型进行因果推断,从而定义“因历史作弊而当日RPM偏低”的广告主。并以这批广告主作为验证集,如下图所示。
最终挑选了,A模型估计的RPM偏高(实际RPM偏低),且B模型精度显著升高的数千个广告主,我们定义为“因历史作弊而当日RPM偏低”。由于量级远小于大盘套利水位,我们判断至少这些广告主,是RPM显著低于真实值的。至此,我们将完全开放的问题,收敛至简单置信的逻辑推导。验证问题得到了初步的解决。
当前算法架构如下所示。包含2部分:1)节点层次聚类;2)浓度差域迁移;
我们对理想节点设计了多条约束。在算法过程中,首先将全部特征进行笛卡尔积组合,得到最小单位的基础节点。
然后在有约束的层次聚类过程中对进行节点合并。将套利广告主流量的超集,分散至大盘自然流量组成的多个节点中。并以节点中的白样本RPM,作为无偏估计来代替整体RPM值。
由于约束2和3的存在,最终一定存在无法满足约束的高浓度灰节点。我们基于线性影响因子的假设,将比例系数K通过领域自适应算法,从满足要求的节点上迁移至这部分节点。
由于当前迁移算法是基于线性假设的,未来更贴合实际的迁移方案,也是我们研究的重点。
广告主套利洞察的目的是获取新认知。其核心是通过建立高效的分析工具,帮助算法同学快速理解感知到的异质成分,以及排查一些特定case。
由于被处置的case是不在感知候选范围内的。我们将被召回的case分为2种:
在广告主套利的场景下,我们通过2个角度来判断广告主是否属于套利。分别是:1)流量的分布变化;2)广告主后台行为;
然后构建精细化演示曲线变化的联动图、以及高度抽象的广告主行为序列降维图,来帮助风控同学快速洞察广告主的套利风险。洞察平台的部分图例如下所示(明细内容已隐藏)。
当前我们对套利的认知还不充分。在未来仍需要不断打磨洞察平台,对作弊进行高度抽象表示,最小化人工成本。
在进行处置之前,我们要产出套利广告主的名单,从而区分主动套利与被误伤广告主。基于“误伤不可能成交”的假设,我们通过规则挖掘出了“长期有刷单/补单流量”的广告主,作为验证集。
由于验证集是利用作弊描述特征(刷单流量浓度)得到的。我们在算法设计上,应该避免直接使用作弊描述类特征训练模型。
最终,我们根据洞察得到的认知,抽取广告主近M个月的流量分布变化的时间序列、以及BP行为序列。最终的算法结构如下图所示。
与4.1节中的方案非常相似,同样采取双模型的因果推断方案。只不过这次不是寻找“因作弊而RPM偏低广告主”,而是寻找“通过作弊手段调整RPM走势”的广告主。为了避免,因使用了不合理的相关系数,而发生漏召回。我们通过计算“引入作弊描述特征对回归模型的增益”,来评价作弊流量与RPM变化的相关性。
基于上述机制,目前线上已例行产出数万套利广告主名单,以及数百万级人工众包点击流量。
产出套利广告主名单后,我们针对不同层级的广告主,制定专门的处罚策略。并结合运营侧的宣传教育,最终实现对生态的净化。
广告主套利检测目前取得了一些阶段性的进展。但前路仍然坎坷崎岖。其中很多问题与技术,都是当前风控技术团队面临问题的缩影:有极大业务价值、但过程艰难、且业内鲜有研究。希望我们的攻坚过程能为大家带来一些思路上的启发。
由于篇幅所限,没有对算法方案做过多的展开。如果对我们的工作感兴趣,欢迎深入交流细节。
最后,真心希望未来能有更多志同道合的同学加入我们,欢迎点击「JD详情」投递简历。感谢阅读❤
[1] https://arxiv.org/pdf/2104.04015.pdf
最多设置5个标签!
欢迎关注:阿里妈妈技术公众号
本文作者:阿里妈妈风控团队
1. 背景介绍
阿里妈妈流量质量算法团队的主要职责是对无效流量的清洗,包括:
常见的无效流量包括:1)消耗竞争对手;2)提升自身排名;3)自然宝贝刷单误伤;4)非恶意无效流量。具体定义可以参考《阿里妈妈流量反作弊算法实践》。
1.1 广告主套利
我们将广告主套利总结为:广告主通过作弊(虚假点击、成交...),欺骗平台机制,使得其以偏少的成本,获得更多广告的资源。
今年双十一期间,重点管控的套利风险有2类:1)质量分作弊;2)恶意超投。
1.1.1 质量分作弊
即无效流量中的“提升自身排名”。因为广告排名由出价和质量评分决定。某些广告主会雇佣黑灰产,通过众包人工刷点击、刷成交...等手段来提高广告的转化率,通过低成本获得靠前的广告排名。
根据调研显示,当前广告主的作弊成本极高。但这些广告主仍选择将这些成本长期用于雇佣黑灰产,而不是投入广告平台中,背后的收益一定远超其成本。
1.1.2 恶意超投
由于平台计费链路存在一定程度上的延时,且日终负账会被清零。部分广告主通过够买大量搜索词,单价高、预算少,导致短时间内获得远超预算的点击量。风控团队可以通过对广告主后台操作的异常检测,预判广告主的动向,实施刚性处罚,来控制超投的数量。
1.1.3 套利特点
套利的目的是提高销量。作弊入口是全站的(包括自然搜索结果),不局限于直通车广告。其利益驱动属性强,在618、双11...等大促期间尤其明显。而且易被平台和相关广告主感知到,对生态的影响比较恶劣。
目前我们在线上已产出数万套套利广告主名单,并追回数百万的广告点击。考虑到技术耦合度,本文主要以“质量分作弊”为代表,总结一下团队近期在广告主套利检测上的一些进展。
1.2 套利的影响
1.2.1 地价受损
由于平台的有效总曝光有限,当套利广告主占据了高质量位置后,真实点击率和成交率低于模型预期,平台产生的总点击、总成交就会相应减少,从而导致该资源位的收入降低。这里我们统一使用千次展现收益(Revenue Per Mile,以下简称:RPM)来代表地价。即套利会在一定程度上使对应位置的RPM降低。
由于现阶段ctr、cvr预估模型有在线更新机制,从长周期来看是具备自愈能力的。但模型的更新有一段时间延迟,在每个模型更新的空窗期内,广告主不会恰好都补单补量至模型的预期水平。最终就导致了模型不断被欺骗又修复的过程。如下图所示。
因此,在与排序模型的博弈中,广告主周期性地实现着套利。随着online模型更新的时效性提升,套利空间在不断被压缩。也导致广告主更加倾向于高频、低程度地进行操作,识别难度进一步增大。
1.2.2 劣币驱逐良币
由于套利广告主占据了有利位置,导致其他广告主需要不断提高出价,才能获得相应的曝光。长此以往,不仅损害了多方利益,更会对平台整体生态产生极其恶劣的影响。
1.3 困难与挑战
由于作弊手法千变万化、真实标签难以界定、作弊Ground-Truth未知,风控场景很难通过监督训练等手段获得通用解。具体到广告主套利上,我们还面临着一些其他的问题。
1.3.1 众包人工流量的识别
相比于以往的无效流量甄别,众包人工流量往往更加贴近平常用户的行为。难度远超以往的爬虫、机械性攻击。高并发的广告场景,对识别的精度和召回,要求都非常高。而且即使是刷手,也会产出正常的流量。
如何精细化区分刷手的每次行为以及是否是受雇佣的,是极具挑战的一个课题。
1.3.2 精度难评价
由于众包人工流量会有一定比例的成交,不符合0转化假设。高效评价流量识别模型的精度和召回,是很困难的。 此外,套利广告主检测本身也需要找到合适的假设,没有客观高效的评价方式,难以指导模型迭代。
1.3.3 区分主动与被动
存在任务流量的广告主,不仅是主动套利的,还有一部分是被其他广告主雇佣的刷手误伤、或者受到人工攻击消耗的。如何无监督、高精度、高召回、鲁棒地挖掘广告主的主动性,也是我们需要重点关注的。
2. 方案概览
在正式开始介绍方案之前,我们针对1.3节的问题,分别介绍一下思路。 为了解决1.3中提到的3个问题,我们针对广告主套利开发了一套同样集感知、洞察、处置、评价于一体的检测框架,其架构图如下图所示。框架理念可以参考这篇文章:《阿里妈妈流量反作弊算法实践》
接下来我们详细介绍每个环节的一些具体问题与思考。
3. 众包流量识别
在介绍感知、洞察、处置体系之前,我们首先对挖掘套利广告主的基础能力进行介绍——众包人工流量识别。该流量不满足0成交转化,模型的迭代和监控保障,也显然不能依赖低效的人工抽检。首先需要寻找一种可以批量校验、又和处置严格正交的评价方法。整体方案如下图所示。
3.1 黑话模型
考虑到直通车场景下,刷手需要高频地进行搜索,从而定位到自己的任务目标,不可能所有的内容都手敲。风控工程团队基于淘宝的搜索记录,对历史文本信息进行了系统地整合,使得黑话凝聚在标准化的文本库中。
3.1.1 特性
黑搜索的文本信息采集,受受设备型号、手滑粘贴、误点搜索的影响,导致产出上并不稳定,所以没有直接用于召回。但同设备类型、应用、天维度同比是有意义的,可以作为精度和召回的评价指标。因此,我们构造了和众包流量构成强相关、但召回有限的黑话模型。
典型的黑话如下所示:
根据我们的分析显示,黑话具有以下特点:1)文字语序混乱;2)拼音、中、英文混输;3)表情、形近字替代;4)快速迭代、分析低效。这涉及到多种语义的还原,并且新的变种不断产生。基于文本出发的黑话模型开发非常困难。
3.1.2 用户维度、关键词与树
综合考虑各个方案的性价比后,我们尝试不完全依赖文本,而是从用户出发,2段式、半监督地召回黑话。
当前召回的黑话样本库已达千万级,且人工抽检准确率超过99%。现有算法架构如下图所示。
3.1.3 Bert提效
我们基于黑话样本库与大盘可信白样本,训练了基于Bert的2分类模型,用于对全量文本进行打分,从而减轻黑话样本库覆盖度不足的影响。使用召回人群多日黑话得分均值,来作为众包流量识别的精度指数,指导模型快速迭代,并持续以黑话精度作为模型的监控指标。
3.2 统计基线
众包人工流量虽然更难以识别,但是我们始终相信黑灰产用户是不可能完美隐藏的。我们从用户行为角度设计了一系列的异常检测方案。 首先调研了黑灰产平台。发现用户需要通过一系列行为来完成任务的交付(考虑到攻防属性,暂不透出具体行为)。据此我们构造了本质、鲁棒性的统计特征,结合统计异常检测模型,产出了套利识别的基线。
由于统计特征的粒度偏粗,导致我们并不能区分刷手当天的哪部分流量属于众包,哪部分属于正常流量。所以还需要更加精细化的识别能力建设。
3.3 行为序列
近期我们一直在尝试,使用更为细粒度的原始行为序列、良好的序列设计、以及合理的辅助任务,训练大规模无监督预训练模型。Zero-shot在下游进行应用,实现精细化地捕捉众包流量特点。当前行为序列研究的整体框架如下图所示。
3.3.1 序列信息
首先是通用的行为选择。为了更好地适用于大多数场景,我们只选择了搜索和点击两个行为,并辅以行为的属性与时间信息,共同组成行为序列。
为了方便刻画行为模式,我们使用下划线拼接行为和属性,构造类似于NLP中单词概念的行为元素,形式为:()()()_()。例如:clk_true_3_2 表示为 一次点击 & 是广告点击 & 商品属性为编号3 & 距离上一次行为时间间隔属于分箱编号2。
由于刷手需要接单大量的任务,产品类型、任务目的可能各不相同。通过合理的session划分,将不同的基础行为进行聚合,可以使信息更加凝聚。
结合搜索广告的特点,我们限制一个session必须以搜索开始,时间间隔在一定范围内都同属于一个session。
3.3.2 辅助任务设计
为了使模型学习到session排列的模式,我们使用Transformer结构 + Cut-paste任务,对序列整体进行表示。
Cut-paste算法是用于图像异常检测的一种辅助任务。通过对原始图片进行随机地局部剪裁,再随机粘贴至新的位置,原位置以黑 {MOD}阴影覆盖(向量值均为0),从而获得大量的负样本,并以大量的数据增强产生正样本。然后通过原图与新图的二分类任务,促使模型学习到剪裁边缘的连续性。算法内容详见[1]。
类似地,根据刷手行为特点,对序列进行Cut-paste衍生,得到大量的样本用于二分类任务,从而得到完整序列表示。最终的预训练网络结构如下所示。
3.3.3 异常检测
根据序列表示的结果,我们得到了N维的Embedding向量:
将2个方案计算的异常分结合,得到下游任务的打分。
3.4 图关联挖掘
截止目前,我们通过统计基线 + 行为序列对众包人工流量进行了识别。在阿里妈妈广告场景下,这些流量会在受害者/套利者维度上呈现出聚集。且因为模型的评估依赖于人工抽检,为了保证精度符合预期,显然单体识别模型的精度与召回都会受限。
因此我们增加了基于图关联的召回。以统计基线为基础节点,用行为序列结果剪枝,最终通过半监督的GAT网络对行为稀疏、但访问宝贝和基础节点重合度高的人工众包流量进行扩召回。
下图是2021年至今为止,最新挖掘的每日人工众包的设备数量趋势(具体数字已隐藏)。除大型节日外外,流量基本趋于稳定。相比于原始统计基线,组合模型可以精细定位到刷手与宝贝的对应关系,目前已额外新增30%的广告点击召回。
4. 套利感知
为了建立内部自驱循环的异常检测框架,感知系统是必备的。 在《阿里妈妈流量反作弊算法实践》文章中我们介绍过:感知重召回,其理念是召回一切认知之外的异常。从作弊的结果(果性)出发,才能召回受害者可感知的全部流量。
在广告主套利场景下,受害者是平台。但广告主的手法各不相同,从结果上看,未必会成功。虽然都需要处置,但在感知角度,我们更关注那些成功套利的案例。因此,我们从RPM低于平台预期的广告主的流量出发,召回套利成功流量的超集。
除了作为感知手段以外,估准RPM才能计算出该问题究竟为平台带来了多大影响。而且先找到一批RPM低于预期的广告主,才能用于最终,套利广告主名单的精度、召回评价。
4.1 评价方案
在正常的广告主上的RPM自然是预估的越精准越好。但在疑似异常的部分,比较难以界定。 因为疑似部分的数值差异是难以直接刻画,所以我们转变思路为:1)先确定一批一定成功套利的广告主,构造验证集;2)计算预估RPM与实际RPM的diff,计算验证集的AUC/Max-F1值。问题就转化为,如何确定广告主套利成功的具体时间。
我们从套利的本质出发,为广告主训练个性化的双模型进行因果推断,从而定义“因历史作弊而当日RPM偏低”的广告主。并以这批广告主作为验证集,如下图所示。
最终挑选了,A模型估计的RPM偏高(实际RPM偏低),且B模型精度显著升高的数千个广告主,我们定义为“因历史作弊而当日RPM偏低”。由于量级远小于大盘套利水位,我们判断至少这些广告主,是RPM显著低于真实值的。至此,我们将完全开放的问题,收敛至简单置信的逻辑推导。验证问题得到了初步的解决。
4.2 RPM鲁棒预估
当前算法架构如下所示。包含2部分:1)节点层次聚类;2)浓度差域迁移;
我们对理想节点设计了多条约束。在算法过程中,首先将全部特征进行笛卡尔积组合,得到最小单位的基础节点。
然后在有约束的层次聚类过程中对进行节点合并。将套利广告主流量的超集,分散至大盘自然流量组成的多个节点中。并以节点中的白样本RPM,作为无偏估计来代替整体RPM值。
由于约束2和3的存在,最终一定存在无法满足约束的高浓度灰节点。我们基于线性影响因子的假设,将比例系数K通过领域自适应算法,从满足要求的节点上迁移至这部分节点。
由于当前迁移算法是基于线性假设的,未来更贴合实际的迁移方案,也是我们研究的重点。
5. 洞察平台
广告主套利洞察的目的是获取新认知。其核心是通过建立高效的分析工具,帮助算法同学快速理解感知到的异质成分,以及排查一些特定case。
5.1 召回分类
由于被处置的case是不在感知候选范围内的。我们将被召回的case分为2种:
5.2 洞察角度
在广告主套利的场景下,我们通过2个角度来判断广告主是否属于套利。分别是:1)流量的分布变化;2)广告主后台行为;
然后构建精细化演示曲线变化的联动图、以及高度抽象的广告主行为序列降维图,来帮助风控同学快速洞察广告主的套利风险。洞察平台的部分图例如下所示(明细内容已隐藏)。
当前我们对套利的认知还不充分。在未来仍需要不断打磨洞察平台,对作弊进行高度抽象表示,最小化人工成本。
6. 下游处置
6.1 套利广告主名单
在进行处置之前,我们要产出套利广告主的名单,从而区分主动套利与被误伤广告主。基于“误伤不可能成交”的假设,我们通过规则挖掘出了“长期有刷单/补单流量”的广告主,作为验证集。
由于验证集是利用作弊描述特征(刷单流量浓度)得到的。我们在算法设计上,应该避免直接使用作弊描述类特征训练模型。
最终,我们根据洞察得到的认知,抽取广告主近M个月的流量分布变化的时间序列、以及BP行为序列。最终的算法结构如下图所示。
与4.1节中的方案非常相似,同样采取双模型的因果推断方案。只不过这次不是寻找“因作弊而RPM偏低广告主”,而是寻找“通过作弊手段调整RPM走势”的广告主。为了避免,因使用了不合理的相关系数,而发生漏召回。我们通过计算“引入作弊描述特征对回归模型的增益”,来评价作弊流量与RPM变化的相关性。
基于上述机制,目前线上已例行产出数万套利广告主名单,以及数百万级人工众包点击流量。
6.2 下游处置
产出套利广告主名单后,我们针对不同层级的广告主,制定专门的处罚策略。并结合运营侧的宣传教育,最终实现对生态的净化。
7. 展望
广告主套利检测目前取得了一些阶段性的进展。但前路仍然坎坷崎岖。其中很多问题与技术,都是当前风控技术团队面临问题的缩影:有极大业务价值、但过程艰难、且业内鲜有研究。希望我们的攻坚过程能为大家带来一些思路上的启发。
由于篇幅所限,没有对算法方案做过多的展开。如果对我们的工作感兴趣,欢迎深入交流细节。
最后,真心希望未来能有更多志同道合的同学加入我们,欢迎点击「JD详情」投递简历。感谢阅读❤
8. 引用
[1] https://arxiv.org/pdf/2104.04015.pdf
一周热门 更多>