在线AI技术在搜索与推荐场景的应用

  • 时间:
  • 浏览:0
  • 来源:大发5分快乐8_大发5分快乐8官方

大会所有资源(视频回放、PDF、文章分类整理)一键下载:https://yq.aliyun.com/articles/65238

电商搜索和推荐的智能化演进路程可不这样 划分为5个阶段:人工运营和非智能时代、机器学习时代、准人工智能时代、人工智能时代。人工运营和非智能时代,主要靠领域知识人工专业运营,平台的流量投放策略是基于简单的相关性+商品轮播;在机器学习时代,利用积累的大数据分析用户购物意图,最大化消费者在整个链路中机会感兴趣的商品;准人工智能时代,将大数据防止能力从批量防止升级到实时在线防止,有效地消除流量投放时的误区,有效地提高平台流量的探索能力;人工智能时代,平台不仅具有极强的学习能力,也这样 具备一定的决策能力,真正地实现流量智能投放。

双11采用Q-learning的最好的法律措施进行实时策略排序的学习,将情况汇报值函数从情况汇报和策略空间将其参数化,映射到情况汇报值函数的参数空间中,在参数空间中利用Policies Gradient进行求解;将情况汇报值函数Q拆解成情况汇报值函数V(s)和优势函数A(s,a)进行表达。

借他山之石以攻玉。在线服务体系中,有些人基于参数服务器构建了基于流式引擎的Training体系,该体系消费实时数据,进行Online Training;On Training的起点是基于离线的Batch Training进行Pre-train和Fine Tuning;假如基于实时的流式数据进行Retraining;最终,实现模型捕捉实时数据的效果。

总结

在双11采用的基于强化学习的实时搜索排序调控的实现体系如上图所示。当用户输入query时,会向系统询问哪這個排序策略最适合本人;该查询策略请求会上传至在线策略决策引擎,在线策略决策引擎通过实时学习的Q(s,a)模型合理选折 有效策略,假如再返回给搜索引擎;搜索引擎最好的法律措施当前情况汇报下最有效策略执行搜索排序;在搜索排序页面展示的并肩,系统会及时搜集相应的情况汇报 action以及用户feedback的信号,并进入到Online Training Process;而Online Training Process会通过Off-policy model-free RL最好的法律措施学习State To Action的映射关系,再从映射关系中得到线上排序所这样 的策略参数;该策略参数由在线策略决策引擎通过Policy Invalid Process输出给在线搜索引擎。

这样 要怎样会防止Offline Reward Signal不等于Online Dashboard Metrics的大大问题呢?有些人引入了强化学习,通过引入Online User Feedback更好地定义Reward,对线上排序策略进行调整,使其具有更强的自适应性。

电商搜索推荐技术演变过程

其算法逻辑如上图所示,基本算法是实现线上几5个排序分的有效组合,样本包括日志搜集到的情况汇报空间、Action Space(这里对应的是排序分空间),奖赏是用户有效的Feedback,具体的排序策略表达公式以及策略更新和值函数更新的公式可不这样 参考Maei,HR的《Toward off-policy learning control with function approximation》一文。

有些人的目标是希望搜索引擎决策体系进化为具有强化学习能力的智能化平台。过去的搜索,有些人这样 做到遇到同样的用户购物诉求下,尽机会保证做得未必时候最好的最好的法律措施差,也时候 所谓的Historical Signal==Best Strategy;一切模型都不 建立在优化直接收益的基础上。未来的搜索,有些人希望不想回会 保证长期收益最大化来决定引擎的排序策略,也时候 Immediate Reward+Future Expectation=Best Strategy;未来的排序融合入模式都不 建立在优化马尔科夫决策过的基础上,最大化The Discounted Reward。

智能化体系中的决策环节

整体搜索/推荐希望建立5个 Close-loop for iCube learning体系,其中iCube要求系统具备immediate、interactive、intelligent的能力。整体从日志搜集到maximize rewards、minimize dynamic regret实现Online Training;其中Training模块不想回会 高效地部署到Online Service;而Online Service这样 具有很强的探索和overcome bias能力,进而使得整个体系不想回会 适应新的数据,提升流量投放波特率,并肩不想回会 探索新奇和未知的空间。

上图是基于Wide & Deep Learning for Recommender Systems的工作建立的Large Scale Sparse&Dense DNN训练体系的架构,该架构中利用Batch Learning进行Pre-Train,加进去去进去Online数据的Retrain&fine Tuning。模型在双11当天完成一天五百万次的模型更新,那先 模型会实时输送到在线服务引擎,完成Online的Prediction。

Online Learning和Batch Learning有很大的区别,在Online Learning的研发过程中,总结了有些技巧:

双11当天的成交额是是普通成交日的十到十二倍,点击量将近三十倍。在用户行为密集处在的情况汇报下,有理由相信数据分布在一天内处在了显著的变化,基于原先的考虑,GBDT的Training由原先的日级别升级到小时级别(每小时进行GBDT Training),那先 Training的模型部署到Streaming的计算体系中,对于实时引入的训练样本做实时的预测来生成对应的顶端节点,那先 顶端节点和人工的底部形态并肩送入FTRL决出相应底部形态的重要性。

基于强化学习的实时搜索排序调控

对于强化学习,它的目标是最大化时刻T所选折 的策略的长期收益最大。对于离散state和离散Action的情况汇报,可不这样 采用Tabular RL最好的法律措施求解;对于连续State和连续Action,采用RL with Function Approximation。其中State表示用户近期处在行为商品的可量化底部形态,Action表示权重量化(维度是排序底部形态分),Reward是Systematic Valid User Feedback。

电商平台下的大数据是源自于平台的投放策略和商家的行业活动,那先 数据的肩上处在很强Bias信息。所有的学习手段都不 通过日志数据发现样本空间的底部形态和目标之间的相关性;进而生成模型;时候利用模型预测线上的点击率或转化率,机会预测模型用于未来流量投放中,假如两者之间处在一定的时间滞后(systematic bias),也就观测到的数据和实际失效的数据处在着Gap。在工作逻辑中,机会5个 底部形态和目标处在很强的Correlation,则该底部形态就应该在线上的预测中起到重要作用。

智能化时代,对于搜索和推荐而言,可不这样 提炼为两点:学习能力和决策能力。学习能力原应搜索体系会学习、推荐平台具有很强的建模能力以及不想回会 索引原始数据到索引知识提升,学习能力更多是捕捉样本底部形态空间与目标的相关性,最大化历史数据的波特率。决策能力经历了从LTR到MAB再到CMAB再到DRL的演变过程,使得平台具备了学习能力和决策能力,形成了智能化体系。

对于阿里巴巴电子商务平台而言,它涉及到了买家、卖家和平台三方的利益,假如这样 最大化提升消费者体验;最大化提升卖家和平台的收益。在消费者权益中,涉及到了有些人工智能可不这样 发力的课题,如购物券和红包的发放,根据用户的购物意图合理地控制发放波特率和生奖概率,更好地刺激消费和提升购物体验;对于搜索,人工智能主要用于流量的精细化匹配以及在给定需求下实现最佳的人货匹配,以实现购物路径波特率最大化。经过几年的努力,阿里研发了一套基于个性化技术的动态市场划分/匹配技术。

搜索引擎和投放页面天然处在互动:搜索引擎观测消费者的交互情况汇报;搜索引擎根据交互情况汇报执行投放策略;投放策略时候,呈现商品结果页,消费者在商品结果页中的操作行为反馈给搜索引擎。引擎决策实际可不这样 改变投放环境,进而影响消费者的交互,改变消费者的情况汇报。机会不这样 建立从情况汇报到动作的策略映射,可不这样 采用Multi-armed Bandits最好的法律措施进行流量探索;机会这样 建立该映射时,这样 采用Contextual MAB最好的法律措施;在新情况汇报下,考虑消费者的滞后Feedback对于引擎在时候情况汇报下的Action正确不是产生影响,这样 引入强化学习的思想。

大会系列分类整理文章:

在AI应用到商业的过程中,未来努力方向是:

借他山之石以攻玉

12月6日-7日,由阿里巴巴集团、阿里巴巴技术发展部、阿里云云栖社区联合主办,以“2016双11技术创新”为主题的阿里巴巴技术论坛(Alibaba Technology Forum,ATF)成功在线举办。在本次分享中,来自阿里巴巴集团的研究员徐盈辉带了题为《在线AI技术在搜索与推荐场景的应用》的精彩演讲,他结合本届双11搜索和推荐场景全版介绍了电商搜索推荐的技术演变、阿里搜索推荐的新技术体系以及未来的发展方向。

在整个体系中,Systematic Bias好难做到理想化的控制,假如离线模型预期效果与线上的实际生效效果处在差异,这肩上的根本原应是Correlation未必等于Causation,也时候 底部形态与目标相关未必原应底部形态出显 一定原应目标处在。

下面简要介绍下为应对今年双11提出的基于强化学习的实时搜索排序调控算法。

以下内容根据在线分享和幻灯片分类整理而成。

Streaming FTRL stacking@offline GBDT的基本理念是通过离线的训练,在批量数据上建立GBDT的模型;在线的数据通过GBDT的预测,找到相应的叶子节点作为底部形态的输入,每5个 底部形态的重要性由online training FTRL进行实时调整。

搜索/推荐引擎决策体系

搜索和推荐过程可不这样 抽象成5个 序列决策大大问题,从消费者与引擎的交互过程中寻找每5个 不同情况汇报下的最优排序策略(各种排序因子的合理组合)。