Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

仵冀颖作者H4O编辑

RecSys提前看 | 深度学习在推荐系统中的最新应用

2019 年 9 月 16 日至 20 日,第 13 届 ACM Conference on Recommender System(RecSys)在丹麦哥本哈根召开。作为推荐系统的顶会,RecSys 一如既往受到了业界的广泛关注。与其他机器学习会议相比,RecSys 一向重视解决实际的问题,即结合在实际应用场景中推荐系统性能提升、效果提高等问题提出设计策略和算法解决方案等。随着深度学习研究的进一步深入,深度学习推荐系统中的应用依然是研究热点之一,本次会议中神经网络(Graph Neural Network,GNN)、经典深度学习模型都有所应用及改进。本文从中选取三篇,进行针对性的分析:

  • Addressing Delayed Feedback for Continuous Training with Neural Networks in CTR prediction,提出一种基于损失函数神经网络模型,用于解决连续学习过程中的延迟反馈问题。

  • Tripartite Heterogeneous Graph Propagation for Large-scale Social Recommendation,提出一种应用于社会化推荐系统的异构图传播结构。

  • On Gossip-based Information Dissemination in Pervasive Recommender Systems,提出一种离线手机端与邻近区域内其他设备之间推荐评分数据交换问题的普适推荐系统策略。

Addressing Delayed Feedback for Continuous Training with Neural Networks in CTR prediction

原文地址:https://arxiv.org/abs/1907.06558?context=stat.ML

应用于广告展示的推荐系统面临的一个重要难点是,由于季节性、广告活动的变化和其他因素,广告特征分布和点击率(click through rate,CTR)会随着时间而发生巨大的变化。解决这一问题的主要策略是不断地基于新数据连续训练预测模型。然而一些应用场景中数据标签仅存在一段时间且会出现一定的随机延迟,这些延迟的反馈标签对连续训练中的数据新鲜度提出了挑战:新数据在被训练算法接收时可能没有完整的标签信息。一个简单的解决这个问题的方案是除非用户给数据打正标签,否则任何一个数据点都是一个负样本。这种方案往往带来较低的 CTR,从而导致用户体验差和性能差。

本文的重点是找到推荐系统损失函数深度学习模型的最佳组合,使其在存在标签延迟反馈的情况下,能够从连续数据流中进行有效的大规模学习。本文考虑两种模型:一是简单 Logistic 回归模型,该模型应用简单、性能良好以及易于接收和处理在线训练的新训练样本,在展示广告中得到了广泛的应用。二是广度-深度(wide-deep)模型,该模型能够有效解决推荐系统的特征复杂性和多样性问题。此外,本文考虑五种损失函数:对数损失、假阴性(fake negative,FN)加权损失、FN 校准、正未标记损失和延迟反馈损失。

本文是首次使用深度学习模型来评估展示广告中的概率 CTR(pCTR),同时解决数据标签延迟反馈问题。考虑到由于时间成本较高,深度神经网络很难在在线训练中应用,本文在不增加工程成本的情况下,对延迟反馈问题进行基准测试并提出时间成本可行的解决方案。

模型分析

本文提出了一种连续训练机制,假设前提是等待有限长的时间能够得到广告的正向参与标签。针对这一类问题,传统方法一般是预先给定样本数据负标签,直到用户标记后改为正标签。有偏数据分布,即观测到的分布情况,包含了标记为负的实际数据分布的所有样本。

本文考虑两种学习模型,简单 Logistic 回归模型和广度-深度(wide-deep)模型。

(1)简单 Logistic 回归模型

本文使用标准 Logistic 回归模型,该模型在展示广告领域得到了广泛的应用。

其中 sigma(.) 表示 sigmoid 函数,输入 x 是与特定请求的用户和候选广告相关的数千个特征的稀疏表示。

(2)广度-深度模型

广度-深度模型包含两个组成部分:广度模块(广义线性模型)和深度模块(标准前向-后向神经网络)。广度模块处理原始输入特征和转换后的特征,例如交叉产品特征,将非线性特征添加到广义线性模型中。而深度模块主要是将高维稀疏特征转化为嵌入向量,从而将分类特征转换为密集的低维表示。广度-深度模型对 CTR 的预测如下:

其中,w_wide 表示广度模块的权重,w_deep 表示深度模块的权重,phi(x) 表示交叉产品变换,alpha 为深支末级激活。

损失函数分析

(1)延迟反馈损失(delayed feedback loss)

在延迟反馈损失函数中,假定时滞服从指数分布,并将此模型与 Logistic 回归或深度模型联合训练。参数θ和 w_d 的正则对数似然优化为:

其中 alpha 为正则化参数,L_DF 表示为:

f_θ(x)对应 pCTR 模型的输出,d 对应于点击一个正样本的时间,而 e 代表自广告播放以来经过的时间。延迟反馈损失函数的数值计算格式为:

(2)正未标记损失(positive-unlabeled loss, PU 损失)

本文在 FN 设置下使用正未标记(positive unlabeled,PU) 损失,将有偏训练数据中的所有负样本视为未标记。损失函数为:

损失函数可以看作是对正样本和负样本的传统对数损失。此外,只要观察到一个正样本,就向负梯度的相反方向递进。这个假设是合理的,因为对于每个正样本,都有基于假负样本梯度的参数更新。

(3)假阴性加权损失(fake negative weighted,FN 加权损失)

这种损失依赖于重要性抽样。在本文的训练设置中,样本被标记为负后进入训练队列,一旦用户参与后立即使用正标签进行复制。给定下面的假设:

其中 b 为偏移观测分布,p 为真实数据分布。由于所有样本数据初始标签都为负,所以有:

假阴性加权损失函数为:

L_IS 对于 f_θ的梯度为:

当∂L_IS/∂f_θ = 0 时,f_θ (x) = p(y = 1|x)

(4)FN 校准(fake negative calibration)

FN 校准中,模型估计偏移分布 b,L_IS(θ) 中 p(y=1|x) 改为:

由于对于偏移分布中的每一个正分布都能观察到 FN,即 b(y=1|x)≤0.5 和 p)y=1|x≤1,该分布始终有效。

实验设置

(1)离线指标

实验目的:离线指标实验目的是验证所提出的损失函数是否适用于 CTR 预测问题,并用两个不同的数据集(一个内部数据集和一个公共数据集)对模型进行了训练和测试。

评价指标:Log 损失(Log loss)、相对交叉熵(relative cross entropy,RCE),精确召回曲线下面积(area under precision-recall curve, PR-AUC)。

(2)在线指标

实验目的:在线指标实验目的是对离线情况下效果最优的模型和损失函数进行进一步评估。在线指标反映了不同方法解决延迟反馈问题的实际性能。

数据库:以 Twitter 数据的延迟评估数据集执行评估,比较「控制」和「处理」(在 A/B 测试框架中)之间的性能。评估结束后 9 小时内删除假负样本标签。

评价指标:集合相对交叉熵(pooled RCE)、每千个请求收益(revenue per thousand requests,RPMq)。

(3)参数

本文在在线和离线实验中均使用随机梯度下降优化算子(stochastic gradient descent,SGD),学习速率为 0.02,衰退速率 0.000001,批处理大小为 128,延迟反馈损失学习速率为 0.005,延迟反馈模型的 L_2 正则化参数为 2。广度-深度模型中 4 层模型大小为 [400,300,200,100],中间层使用 ReLu 激活函数权重参数使用 Glorot 优化。

(4)数据

离线实验中使用 Criteo 公开数据库。此数据库描述单击后的转换,因此与 CTR 预测相比,时间延迟通常更长。每个样本由一组散列分类特征和几个连续特征描述。训练样本总数为 1550 万个,测试样本为 350 万个。为了从原始的公共数据集中创建伪负数据,执行以下过程:使用最新的转换时间或单击时间作为快照时间,并在单击所有正样本时引入伪负样本。原始数据集用于验证 Logistic 和延迟反馈损失函数估计的实验,而包含单击时 FN 样本的数据库则用于评估 PU、FN 加权和 FN 校准损失函数

对于离线指标实验中的内部数据,使用线下 Twitter 4 天的数据。评估过程是基于第二天的数据进行的。由于仅有一小部分广告提供了用户点击功能,数据标签的严重不平衡给算法带来了很大难度。为解决这一问题,本文的训练设置中将负样本减少到原始数据集的 5%,并且在损失函数中对负样本采用更高的权重。经过上述处理,训练样本约为 6.68 亿条视频广告,而测试数据为 700 万条广告。

在线指标中使用 Twitter 在线库,在在线实验中,所有的模型都在一个连续的数据流上进行训练,这个数据流是由回调数据实时生成的。将每个训练样本发布到模型的训练服务订阅的数据流中。连续训练过程每 10 分钟输出一个模型,然后由预测服务提取这些模型以服务于在线场景。

实验结果

(1)离线评估

基于 Criteo 公开数据库的离线实验结果在表 1 中。使用延迟反馈损失函数产生的 RCE 最高(17.32),其次是 FN 校准损失函数(RCE 为 17.29),与 Log 损失的 RCE 持平。使用 PU 损失函数的结果最差,且在不同循环轮次实验中效果也最不稳定。实验结果表明,延迟反馈损失函数更适合于简单的 pCTR 模型(例如 Logistic 回归)和较少的训练样本。对于复杂的广度-深度模型则需要更稳健的解决方案,例如应用重要样本抽样策略等。

表 1. 基于公共 Criteo 数据的线性模型的离线结果。

使用离线 Twitter 数据的实验结果在表 2 和表 3 中,分别用的是 Logistic 回归模型和广度-深度模型。由实验结果可知,广度-深度模型在应用不同损失函数的情况下,效果都优于 Logsitc 回归模型。

表 2. Twitter 数据的 Logistic 回归模型离线结果

表 3. Twitter 数据的广度-深度模型离线结果

(2)在线评估

表 4 给出使用最优损失函数的广度-深度模型结果。应用 FN 加权损失函数和 FN 校正损失函数的 RPMq 值均高于传统的对数损失函数(分别提升了 55.10% 和 54.37%)。

表 4. 广度-深度模型以及性能最佳的损失函数(Twitter 数据)的在线结果

总结与分析

本文重点研究具有损失函数神经网络模型在连续学习过程中的延迟反馈问题。由本文的分析可知,对于损失函数的选择需重点考虑梯度的时间依赖性,即基于伪负样本的参数更新先于来自正样本的更新。基于本文工作,后续考虑将重要样本抽样策略与时滞建模相结合,为训练样本分配与时间相关的权重。此外,还将继续研究连续学习中的其他问题,例如灾难性遗忘和过度拟合,以及研究更系统的方法来处理数据集偏差。

Tripartite Heterogeneous Graph Propagation for Large-scale Social Recommendation

原文地址:https://arxiv.org/abs/1908.02569?context=stat

神经网络(GNN)是一种有效的关系表示方法。应用于推荐系统 GNN 还存在一些难点,例如复杂的噪声连接和高度的异构性、过平滑等。本文提出了一种新的图嵌入方法——异构图传播(Heterogeneous Graph Propagation, HGP)来解决这些问题。HCP 使用 组-用户-项目(group-user-item)三部分图作为输入,以减少大规模社会化推荐系统图中的边缘数和路径复杂性。为了解决过平滑问题,HCP 将节点嵌入到一个基于 PageRank 的个性化传播方案中,分别用于组-用户图和用户-项目图。每个图中的节点嵌入使用注意力机制进行集成。

模型分析

GNN 有多重不同的架构,本文基于图卷积神经网络(Graph convolutional networks)结构的 GNN 来处理属性化的多重异构网络,同时利用了个性化的 PageRank 方案。对于社会化推荐系统来说,项目、用户和社会关系构成了节点和边类型多样的复杂网络。单纯地将传播方案直接应用到异构图中,可能会导致对具有优势的边缘的偏差训练。本文提出的 HCP 能够独立地传播每种边类型的邻域,然后将最终的节点表示与注意力模型相结合。

对于一个异构图 G,节点映射函数为ϕ : V → O,边映射函数为ψ : E → R。Ar 表示包含类型为 r 的边的邻域矩阵。Aˆr 表示 Ar 的对称规范化邻接矩阵。将节点划分为不同种类:X1,X2, ...,X|O|,分别应用预测神经网络 Hi=f_i(Xi),将结果连接起来得到:H =[H1,H2, ...,H|O |]。HGP 使用具有附加可学习权重的非线性传播来学习深度节点表示:

将最终的节点表示矩阵与注意力模型(attention model)相结合。在保持通用性的前提下,我们从 z(k)_r 中为每种边缘类型选择第 i 个节点(行)。将这些向量叠加形成一个矩阵 Y_i,使用单层传感器的注意力模型:

其中,d_k 表示输入查询和键的维度。利用该模型,HCP 对 Y_i 进行注意力计算如下:

其中,查询、键和值是相同的,只是基于不同的权重矩阵相乘。然后,HGP 将 Y′_i 的所有行连接起来,并将其传递给线性层,生成第 i 个节点的表示向量 z_i。在本文提出的社会化推荐系统的应用中,计算用户和项目表示之间的点积相似性来预测 CTR

其中 X_i 是特征矩阵 X 的第 i 行向量。本文利用随机梯度下降算法,通过降低交叉熵损失来优化模型。递归的跨层邻域扩展需要消耗大量的时间和较高内存来训练大而密集的图,本文通过调整采样概率使其与每种类型的节点数成比例来解决这个问题。为了减小近似方差,采样概率与节点的阶数成正比。HGP 完整的模型架构见图 1。

图 1. 应用于社会化推荐系统的 HGP 的示意结构。HGP 为每种边缘类型独立地传播邻域,然后将最终的节点表示与注意力模型相结合。本文计算用户和项目表示之间的点积相似度来预测 CTR。

实验分析

数据库:本文使用从大型社交网络收集的数据库,包含组、用户和项目三种节点类型。当用户属于同一组,则组和用户节点相连。与传统图中组所有用户都连接的方式比较,组节点有效地减少了边的数量和路径的复杂性。当用户与项目有交互行为时,项目和用户节点相连接。数据库中共有 1645279 个节点连接 4711208 个边。使用 BERT 和 VGG16 提取视觉语言属性的高级特征。利用线性嵌入层将分类属性转化为密集特征。最后,聚合所有特征来表示节点。使用前 11 天的数据作为训练集,随后 2 天的数据作为验证集,最后 4 天的数据作为测试集。

对比模型:metapath2vec、metapath2vec+EGES、MNE+EGES、FastGCN、HGP。

验证指标:ROC-AUC、PR-AUC、F1 score。

实验平台:NAVER Smart 机器学习平台(NSML)。

表 1. 对比模型的性能比较。连字符「-」表示由于结果存在较大方差,无法得到稳定的性能。

对比实验结果见表 1,由实验可知,PR-AUC 和 F1 值与 ROC-AUC 成正比。不使用节点属性的 metapath2vec 无法完成 CTR 预测。HGP 的性能优于 FastGCN,这是由于 FastGCN 存在过平滑问题,不适用于异构图。HGP 性能优于其他异构图网络模型。此外,HGP 的验证损失能够在半天内收敛,因而能够满足实际应用场景中推荐系统所需的服务模型日常更新的要求。

图 2. 不同传播步骤下的 HGP 性能比较

图 2 给出不同传播步骤下 HGP 的性能。HGP 需要至少两个步骤才能获知统一组内其他节点的信息(用户节点→组节点→用户节点)。如果传播步骤为 4 步,则可以接近具有共同偏好的用户的其他首选项(用户节点→组节点→用户节点→组节点)。传统架构的性能随着传播步骤数目的增加而降低。而 HGP 在步骤为 10 时达到最佳性能,并成功地避免了过平滑现象。

总结与分析

本文提出了一种应用于社会化推荐系统的图结构,即群-用户-项目三方的多重异构网络。本文提出的图形配置方案将计算时间和内存消耗减少为节点数的平方,组节点的属性有助于挖掘用户之间的社会关系。此外,本文还提出了一种基于图的推荐方法,称为异构图传播(HGP)机制。为了避免过平滑问题,HGP 使用个性化 PageRank 方案传播邻域信息。HGP 能够有效地处理图的异构性。为解决扩展性问题,本文采用了适合于异构环境的采样方法。后续可以通过添加其他社会属性(如地址、教育背景和共同兴趣)等来扩展图表,从而有效提升社会化推荐系统的效果。

On Gossip-based Information Dissemination in Pervasive Recommender Systems

原文地址:https://arxiv.org/abs/1908.05544

普适计算采用分布式和嵌入式设备随时随地完成通信和数据处理。随着手机的推广使用、手机性能的提升以及网络通信能力的提升,普适计算的应用价值越来越高。本文重点研究离线手机端与邻近区域内其他设备之间推荐评分数据的交换问题。本文提出了一种传播和过滤策略,将传统的寻找相似的对等设备和交换项目偏好的方法从分散领域转化为普适推荐系统问题。同时本文还给出了一个移动应用程序原型,实现了所提出的设备到设备的信息交换。

普适计算模型选择

近年来,随着数据获取、存储、处理的渠道越来越多,关于数据隐私保护的技术受到越来越多的关注。欧盟于 2018 年 5 月通过了《通用数据保护条例》,针对数据处理、获取等提出了严格的限制,但是这些限制仅停留在用户规则的层面,并不涉及技术层面的约束。

目前,解决大规模授权数据池隐私问题的推荐系统架构主要有三种:一是,联邦学习(Federated Learning),基于分布在客户端中的数据,通过中央服务器和客户端之间的通信生成集中的推荐模型。二是,分散推荐系统,在没有中央服务器的情况下,分布式客户端直接对等通信交互。它们通常建立在使用八卦机制(Gossip)的文件共享对等网络的基础上,在对等节点加入或网络扰动的情况下,建立起用于快速网络搜索和网络恢复的逻辑覆盖网络。三是,基于位置感知推荐的普适系统,无需将本地数据传输到中央服务器进行推荐。

在这三种方法中,本文认为普适推荐系统效果最好。一是,由于智能手机本身的数据和移动计算能力提升,使得在智能手机端训练和生成推荐模型变得更加可行。二是,普适系统中推荐模型构建过程仅在设备上完成,因此对网络连通的情况没有任何要求。本文提出了一种基于 Gossip 机制的普适推荐系统数据传播和过滤策略,利用 Google 的 Nearby Connection API,通过安卓手机应用程序的方式实现了传播过程。

策略分析

本文提出一种基于运动中的人携带的移动设备的推荐数据传播策略。当设备物理空间位置靠近时,设备之间会进行后台数据交换,之后进行设备内的定制过滤过程。作者将此方法称为传播(Propagate)和过滤(Filter)。

图 1:Propagate 和 Filter 提出的四种数据类型及其在传播中的应用

整个传播和过滤机制的设计流程如下:

a. 数据类型定义

规定每个设备携带四种类型的数据(参见图 1),基于四种类型的数据生成本地个性化推荐。

  1. 对等首选项列表(Peer Preference List):对等设备中评定的项目列表,数据格式为二进制数或标量等级。在本文的原型实现中,对等设备中实现对电影的分级打分,其中每个电影都由公共可用的网络电影数据库(Internet Movie Database,IMDb)提供的唯一标识符进行标识。对等首选项列表数据保存在设备上。

  2. 邻域首选项列表(Neighborhood Preference List):每一个节点将之前从 k 个最相似的节点收集到的打分数据整合到一个项目评分列表中。因此,它是未知对等设备中数据子集的首选项列表。邻域首选项列表能够传播给其他对等设备,同时每个对等设备也能够控制将自己的哪些对等首选项列表传播到附近对等设备中。

  3. 相似数据(Similarity Data):任何类型的数据都可用于计算对等相似度。相似数据能够传播给附近的对等设备,因此必须保证其隐私性。隐私保护相似性比较可以在项目向量和文本数据上进行。

  4. 上下文数据(Context Data):用于描述特征的数据,如位置、时间、天气或对等活动(跑步、吃饭、通勤)等,能够被感知(例如通过传感器)或检索(例如通过网络)。

b. 传播

当两个或多个对等设备在物理空间上相互靠近时,智能手机建立快速和安全的配对连接,并交换他们的邻域首选项列表和相似数据。在上述传播过程中,接收到的数据包含上下文数据,例如描述相遇的时间或位置。

c. 过

传播过程中收集到的数据包含大量未过滤的原始数据。为了得到有用信息,需要通过相似性进行数据过滤。从对等设备接收到数据后,设备开始执行过滤过程。首先,基于相似数据对比发送方和接收方的相似度;第二,如果对等相似度高于 k-最高值,则基于 k-最相似对等设备的对等首选项列表和邻域首选项列表对邻域首选项列表进行重新采样;第三,基于本地可用的数据运行推荐算法,以获得新的或更新以前生成的推荐评级结果。

d. 通过断开连接实现隐私保护

传播和过滤的传播过程通过特殊的方式在邻近的智能手机之间建立无线连接,交换相似数据和邻域首选项列表,然后终止连接。此时网络拓扑结构基本上是断开的,没有可利用的对等关系信息(例如,社交网络、推荐系统或车辆网络中的对等网络重叠情况等)。能够访问到的对等方的数据总量由连接时间和对等方公开的数据量所决定。

e. 增强本地可用的配置文件数据

Gossip 协议需要一个连接的对等网络以便聚合相似的对等设备,同时通过对等采样保持网络连接。在传统的分散推荐系统中,为了实现对等采样,即使项目和对等设备都不在邻域空间内,即它们在网络中随意移动,仍需要保证网络连接。当一个对等设备从一个类似的对等设备接收数据时,会重新取样他/她的邻域偏好列表;如果不是相似对等节点,则什么也不做。因此,传播和过滤会创建一个恒定的项目推荐清单,清单能够在相似的对等设备之间流转,而不会在不同的对等设备之间流转。该属性允许在从未在地理位置上彼此接近的对等设备之间传递信息,并避免不同对等节设备间的信息传输。从这个意义上讲,传播和过滤解决了普适推荐系统容易出现的数据稀缺性问题。

应用情况

基于本文的算法已经开发完成了一个 Android 移动应用程序,且在 Google Play 商店中提供(https://play.google.com/store/apps/details?id=de.tub.affinity.android)。该应用程序的活动共享模式为广播-发现,即设备向其近邻的其它设备发送广播,同时侦听其它设备的广播。共享过程由 Google Nearby Connetions API 处理 (https://developers.google.com/nearby/connections/overview),完全在后台运行。当两个手机端相互连通,迅速交换评分数据并将数据存储在本地,值得注意的是,在评分数据交换的过程中手机并不需要联网。

本文应用场景数据为在 IMDb 中注册和唯一标识的电影。电影的评分结论为 1 到 5 星不等,并以格式如下格式存储:(用户 ID、电影 ID、评分数据)。电影分级列表实现了对等首选项列表。一旦用户完成了评级打分,他/她就可以激活共享。

实验分析

本文进行了六个不同的实验,设备为 Nexus 5 智能手机,手机具备最新的蓝牙版本(包括 BLE)和 Wi-Fi 连接功能。

a. 大量评分数据共享:共享评分数据约为 1000 条,大小为 100KB。一旦建立连接,全部 1000 条数据同时立刻传输,且不会丢失任何数据。

b. 在多个设备之间共享数据:在四个智能手机之间共享评分数据,这四个手机的评分是独立不相交的。评分数据得以正确和无损的传输。

c. 公共交通工具中的数据共享:我们成功地在柏林的公交车和地下铁的三个设备之间共享评分数据,这些设备暴露在许多 WiFi 和蓝牙干扰信号下。实验表明,瞬时的网络连接中断并不会影响数据传输。一旦重新建立网络连接,共享的占位推荐信息被经由开放电影数据库(http://www.omdbapi.com/)API 获取得到的电影元数据填充。

d. 有效传输范围:在包含蓝牙、BLE、Wifi 等通信 API 条件下,二类设备例如手机等一般有效的传输半径为 10 米。本文在室内和户外 3 至 12 米无障碍半径范围内进行实验,实验结果见表 1。实验结论是,评分数据的有效传播半径在 3 到 6 米之间。

表 1. 不同传输范围的连接成功率

e. 平均初始连接延迟:测量两个设备的初始连接延迟,即在建立连接之前所需的时间。为保证成功连接,设备之间距离为 1 米,连接是通过不同的应用程序实现的(待连接设备的 ID 不在缓存中)。平均连接延迟为 25.9 秒,最小连接延迟为 11 秒,最大连接延迟为 41 秒。

f. 电池耗尽:由于广播和发现步骤(预连接)必须连续执行,因此通过实验验证长时间在后台进行广播、发现和共享信息是否可行。由于无法模拟现实场景,因此只测量应用程序的预连接电池消耗量,这就为电池消耗量提供了一个下限。将两个设备重置为出厂设置。跟踪三种不同情况下的电池电量:(1)在后台运行并打开共享的应用程序;(2)关闭共享的应用程序;(3)出厂设置条件下,在所有三种情况下,显示器都关闭。实验结果见表 2。

表 2. 预连接的平均电池消耗(广播和发现)

实验结果表明,本文提出的传播-过滤策略在大规模评分数据和多设备交互的情况下,以及在诸如地铁等没有互联网连接的地区,都可以可靠工作。当然,该策略目前还存在一定的局限性。首先,数据的可靠传输半径为 6 米,这一方面加强了隐私保护,另一方面却限制了能够共享数据的潜在对等设备的数量。第二,平均初始连接延迟(25.9 秒)过长,这就造成了经过的行人之间,或在红绿灯处等待、在咖啡馆或餐厅中彼此相邻或乘坐公共交通工具等场景中该策略都不适用。第三,电池的耗电量相对较高,每小时至少耗电 5%,这就造成无法持续广播和发现。

总结与讨论

后续工作重点是启动移动应用程序来收集使用数据。本文中的策略对采样过程和推荐算法都采用保留占位符的方式,一旦能够收集使用数据,就可以测试采样和推荐策略的不同组合。此外,还将继续收集和评估用户对应用程序的反馈,包括用户界面和用户体验等。

作者介绍:仵冀颖,工学博士,毕业于北京交通大学,曾分别于香港中文大学和香港科技大学担任助理研究员和研究助理,现从事电子政务领域信息化新技术研究工作。主要研究方向为模式识别计算机视觉,爱好科研,希望能保持学习、不断进步。

RecSys
RecSys

作为推荐系统的顶会,RecSys 一如既往受到了业界的广泛关注。与其他机器学习会议相比,RecSys 一向重视解决实际的问题,即结合在实际应用场景中推荐系统性能提升、效果提高等问题提出设计策略和算法解决方案等。

理论深度学习推荐系统ACM RecSys图网络图神经网络
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

重要性抽样技术

重要性采样是基于采样的,也就是基于所谓的蒙特卡洛法(Monte Carlo)。蒙特卡洛法,本身是一个利用随机采样对一个目标函数做近似。

激活函数技术

在 计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到"开"(1)或"关"(0)输出的数字网络激活函数。这与神经网络中的线性感知机的行为类似。 一种函数(例如 ReLU 或 S 型函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

交叉熵技术

交叉熵(Cross Entropy)是Loss函数的一种(也称为损失函数或代价函数),用于描述模型预测值与真实值的差距大小

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

VGG技术

2014年,牛津大学提出了另一种深度卷积网络VGG-Net,它相比于AlexNet有更小的卷积核和更深的层级。AlexNet前面几层用了11×11和5×5的卷积核以在图像上获取更大的感受野,而VGG采用更小的卷积核与更深的网络提升参数效率。VGG-Net 的泛化性能较好,常用于图像特征的抽取目标检测候选框生成等。VGG最大的问题就在于参数数量,VGG-19基本上是参数量最多的卷积网络架构。VGG-Net的参数主要出现在后面两个全连接层,每一层都有4096个神经元,可想而至这之间的参数会有多么庞大。

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

收敛技术

在数学,计算机科学和逻辑学中,收敛指的是不同的变换序列在有限的时间内达到一个结论(变换终止),并且得出的结论是独立于达到它的路径(他们是融合的)。 通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

普适计算技术

普适计算是一个强调和环境融为一体的计算概念,而计算机本身则从人们的视线里消失。在普适计算的模式下,人们能够在任何时间、任何地点、以任何方式进行信息的获取与处理。普适计算是一个涉及研究范围很广的课题,包括分布式计算、移动计算、人机交互、人工智能、嵌入式系统、感知网络以及信息融合等多方面技术的融合。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

验证集技术

验证数据集是用于调整分类器超参数(即模型结构)的一组数据集,它有时也被称为开发集(dev set)。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

推荐系统技术

推荐系统(RS)主要是指应用协同智能(collaborative intelligence)做推荐的技术。推荐系统的两大主流类型是基于内容的推荐系统和协同过滤(Collaborative Filtering)。另外还有基于知识的推荐系统(包括基于本体和基于案例的推荐系统)是一类特殊的推荐系统,这类系统更加注重知识表征和推理。

数据库技术

数据库,简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据运行新增、截取、更新、删除等操作。 所谓“数据库”系以一定方式储存在一起、能予多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

随机梯度下降技术

梯度下降(Gradient Descent)是遵循成本函数的梯度来最小化一个函数的过程。这个过程涉及到对成本形式以及其衍生形式的认知,使得我们可以从已知的给定点朝既定方向移动。比如向下朝最小值移动。 在机器学习中,我们可以利用随机梯度下降的方法来最小化训练模型中的误差,即每次迭代时完成一次评估和更新。 这种优化算法的工作原理是模型每看到一个训练实例,就对其作出预测,并重复迭代该过程到一定的次数。这个流程可以用于找出能导致训练数据最小误差的模型的系数。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

规范化技术

规范化:将属性数据按比例缩放,使之落入一个小的特定区间,如-1.0 到1.0 或0.0 到1.0。 通过将属性数据按比例缩放,使之落入一个小的特定区间,如0.0到1.0,对属性规范化。对于距离度量分类算法,如涉及神经网络或诸如最临近分类和聚类的分类算法,规范化特别有用。如果使用神经网络后向传播算法进行分类挖掘,对于训练样本属性输入值规范化将有助于加快学习阶段的速度。对于基于距离的方法,规范化可以帮助防止具有较大初始值域的属性与具有较小初始值域的属相相比,权重过大。有许多数据规范化的方法,包括最小-最大规范化、z-score规范化和按小数定标规范化。

广义线性模型技术

在统计学上, 广义线性模型 (Generalized linear model) 是一种应用灵活的线性回归模型,简称GLM。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。此模型假设实验者所量测的随机变量的分布函数与实验中系统性效应(即非随机的效应)可经由一链接函数(link function)建立起可资解释其相关性的函数。

假阴性技术

假阳性是指模型因为种种原因将应该分类成特定情况的人/物错误地分类到了其他分类的情况。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

正则化技术

当模型的复杂度增大时,训练误差会逐渐减小并趋向于0;而测试误差会先减小,达到最小值后又增大。当选择的模型复杂度过大时,过拟合现象就会发生。这样,在学习时就要防止过拟合。进行最优模型的选择,即选择复杂度适当的模型,以达到使测试误差最小的学习目的。

图神经网络技术

图网络即可以在社交网络或其它基于图形数据上运行的一般深度学习架构,它是一种基于图结构的广义神经网络。图网络一般是将底层图形作为计算图,并通过在整张图上传递、转换和聚合节点特征信息,从而学习神经网络基元以生成单节点嵌入向量。生成的节点嵌入向量可作为任何可微预测层的输入,并用于节点分类或预测节点之间的连接,完整的模型可以通过端到端的方式训练。

模型选择技术

模型选择是从给定数据的一组候选模型中选择统计模型的任务。对于具有类似预测或解释力的候选模型,最简单的模型最有可能是最佳选择(奥卡姆剃刀)。

A/B 测试技术

一种统计方法,用于将两种或多种技术进行比较,通常是将当前采用的技术与新技术进行比较。A/B 测试不仅旨在确定哪种技术的效果更好,而且还有助于了解相应差异是否具有显著的统计意义。A/B 测试通常是采用一种衡量方式对两种技术进行比较,但也适用于任意有限数量的技术和衡量方式。

图网技术

ImageNet 是一个计算机视觉系统识别项目, 是目前世界上图像识别最大的数据库。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

港科大机构

香港科技大学(The Hong Kong University of Science and Technology),位于中国香港,简称港科大(HKUST),为环太平洋大学联盟、全球大学校长论坛、东亚研究型大学协会、亚洲大学联盟、中国大学校长联谊会重要成员,并获AACSB和EQUIS双重认证,是一所亚洲顶尖、国际知名的研究型大学。该校以科技和商业管理为主、人文及社会科学并重,尤以商科和工科见长。截至2019年9月,学校设有理学院、工学院、工商管理学院、人文社会科学学院等4个学院及跨学科课程事务处;校园占地超过900亩,有教员697人,各类学生16054人,其中本科生10148人,研究生5906人。

https://hkust.edu.hk/
联邦学习技术

如何在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,这部分研究被称为「联邦学习」(Federated Learning)。

图网络技术

2018年6月,由 DeepMind、谷歌大脑、MIT 和爱丁堡大学等公司和机构的 27 位科学家共同提交了论文《Relational inductive biases, deep learning, and graph networks》,该研究提出了一个基于关系归纳偏置的 AI 概念:图网络(Graph Networks)。研究人员称,该方法推广并扩展了各种神经网络方法,并为操作结构化知识和生成结构化行为提供了新的思路。

暂无评论
暂无评论~