Datasets:

ArXiv:
License:
Dataset Viewer

The dataset viewer is not available because its heuristics could not detect any supported data files. You can try uploading some data files, or configuring the data files location manually.

BD4UI 实验室 组会分享仓库

PPT文件见Files and versions. PPT文件按分享日期与方法名缩写来命名.

日期 分享人 期刊或会议 论文标题 论文链接 论文摘要
2024/4/9 于志刚 WWW2024 GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks https://arxiv.org/pdf/2402.07197 图模型(GM)往往仅限于预定义格式(如节点分类)内的任务,无法完成开放式任务。LLM则可以完成开放式任务。尽管已经有几种将LLM应用于图的方法,但是它们不能同时处理预定义和开放式任务。本文试图将图模型与大语言模型对齐,从而使得模型能够同时处理预定义和开放式任务。
2024/4/16 杨珂懿 NeurIPS2023 DYffusion: A Dynamics-informed Diffusion Modelfor Spatiotemporal Forecasting https://arxiv.org/pdf/2306.01984 提出了一种方法,用于有效地训练扩散模型进行概率时空预测,在这方面,生成稳定和准确的预测仍然是一个挑战。我们的方法,DYffusion,利用数据中的时间动态,将其与模型中的扩散步骤直接耦合。我们训练了一个随机的、时间条件的插值器和预测网络,分别模仿标准扩散模型的正向和反向过程。DYffusion自然地促进了多步骤和长范围的预测,允许高度灵活的、连续时间的采样轨迹,并能在推断时用加速采样来权衡性能。与传统基于高斯噪声的扩散模型相比,显著提高了计算效率。
2024/4/23 曹敏君 Arxiv.2312 Mamba: Linear-Time Sequence Modeling with Selective State Spaces https://arxiv.org/pdf/2312.00752 本文介绍了一种新的序列模型架构,名为Mamba,它通过选择性状态空间模型(Selective State Space Models, SSMs)来改进传统的状态空间模型。Mamba通过输入依赖的方式调整SSM参数,允许模型根据当前的数据选择性地传递或遗忘信息,从而解决了以前模型在处理离散和信息密集型数据(如文本)时的不足。此外,尽管这种改变使得模型不能使用高效的卷积计算,研究者设计了一种硬件感知的并行算法,以递归模式运行,使得Mamba在推理速度上比传统的Transformer快5倍,并且在序列长度上实现线性缩放。
2024/4/30 程铭 NeurIPS2023 Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and Treatment https://arxiv.org/pdf/2309.13378 时空神经图网络在时空预测过程中存在时间OOD问题和动态空间因果关系问题。 本文提出了一个新的框架CaST,通过使用一种新的解纠缠块的后门调整,将时间环境从输入数据中分离出来。此外,利用前门调整和边缘级卷积来模拟因果关系的连锁效应。
2024/4/30 王颖 Arxiv.2404 FUXI-DA: A GENERALIZED DEEP LEARNING DATA ASSIMILATION FRAMEWORK FOR ASSIMILATING SATELLITE OBSERVATIONS https://arxiv.org/pdf/2404.08522 深度学习模型在匹配甚至超过全球领先的NWP模型的预测精度方面显示出了希望。这一成功激发了为天气预报模型量身定制的基于dl的数据分析框架的探索。本文介绍了一种基于dl的广义数据分析框架FuXi-DA,用于同化卫星观测数据。通过吸收风云四号b上先进地球同步辐射成像仪(AGRI)的数据,“FuXi-DA”不断减少分析误差,显著提高预报性能。
2024/5/7 颜浩 NeurIPS2023 Provable Training for Graph Contrastive Learning https://arxiv.org/pdf/2309.13944 GCL的学习过程主要包括:图数据增强;增强视图经过GNN获取节点表征,最后根据InfoNCE准则来进行优化。但考虑到图结构的复杂性,在GCL过程中,是否所有节点都能很好的遵循InfoNCE准则呢?本文对主流GCL方法进行了分析,发现了GCL训练过程中出现的不平衡现象,并提出了"Node Compactness"概念来度量不同的节点在GCL过程中对准则的遵循程度,所提方法POT能即插即用到其他GCL方法中。
2024/5/14 王梓辰 NeurIPS2023 BCDiff: Bidirectional Consistent Diffusion for Instantaneous Trajectory Prediction https://openreview.net/pdf?id=FOFJmR1oxt 本文提出用于瞬时轨迹预测的双向一致扩散模型:BCDiff,通过设计一个相互指导机制来开发两个耦合扩散模型,该机制可以双向一致地逐步生成未观察到的历史轨迹和未来轨迹,以利用它们的互补信息相互指导进行预测。其次,由于去噪步骤初始阶段的轨迹存在较高噪声,模型引入一种门控机制学习轨迹预测和有限观察轨迹之间的权重,以平衡它们的贡献。BCDiff是一个无编码器的框架,可以和现有轨迹模型兼容。
2024/5/21 徐榕桧 ACL2023 Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes https://arxiv.org/pdf/2305.02301 部署大型语言模型(llm)具有挑战性,因为它们在实际应用中内存效率低下且计算密集型。通常,研究人员通过使用标签数据进行微调或使用llm生成的标签进行蒸馏来训练更小的特定任务模型。然而,微调和蒸馏需要大量的训练数据才能达到与llm相当的性能。本文提出了一种新的机制Distilling Step-by-Step,作者通过提取LLM原理,作为在多任务框架内训练小模型的额外监督。实现(a)训练比llm更小的模型,(b)与微调或蒸馏相比,需要更少的训练数据。
2024/5/28 刘若尘 NeurIPS2023 Direct Preference Optimization: Your Language Model is Secretly a Reward Model https://arxiv.org/pdf/2305.18290 如何将大语言模型与人类行为对齐一直以来是NLP领域研究的重点,其中使用人类反馈的强化学习(reinforcement learning from human feedback,RLHF)是其中的代表性工作。然而RLHF的训练过程复杂且不稳定,需要先训练一个奖励函数再通过强化学习过程对大语言模型进行微调,第一篇论文利用了一种奖励函数与最优生成策略(我们需要的LLM)之间的映射关系,将绕过了强化学习过程,实现了端到端的训练。
2024/5/28 张舜洋 Arxiv.2404 KAN:Kolmogorov–Arnold Networks https://arxiv.org/pdf/2404.19756 本篇论文自官宣以来,便受到了学术圈广泛关注。它号称是能在部分任务上以更少的参数量,实现MLPs的实验结果。那么本周组会我将介绍KAN的设计思路,并简单分析它的计算量从哪儿来
2024/6/4 金志晗 J.Comput.Phys2024 Multi-stage neural networks: Function approximator of machine precision https://arxiv.org/pdf/2307.08934 本文主要针对在实践中即使神经网络规模大,训练迭代时间长,也很难将预测误差降低到𝑂(1e−05)以下。为解决这个问题,作者开发了多阶段神经网络,将训练过程分为不同的阶段,每个阶段使用一个新的网络经优化以适应前一阶段的残差,使残差幅度大幅减小,证明多阶段神经网络有效地减轻了常规神经网络相关的频谱偏差,使其能够捕获目标函数的高频特征。此外,本文还证明回归问题和物理信息神经网络的多阶段训练的预测误差在有限次迭代内几乎可以达到双浮点的机器精度𝑂(1e−16),而仅使用单个神经网络很难达到这样的精确度。
2024/6/4 殷珺 KDD2023 When to Pre-Train Graph Neural Networks? From Data Generation Perspective! https://arxiv.org/pdf/2303.16458 本文针对图神经网络预训练的可行性(预期收益)进行研究,基于"当下游任务数据能够以高概率从预训练数据中生成时,预训练具有高可行性"这一假设,引入Graphon作为图生成模块,提出W2PGNN框架。该框架对于给定的下游任务数据和预训练数据,能够估计出GNN预训练的预期收益。作者在节点分类、图分类任务的多个现实数据集上展开实验,验证了W2PGNN可行性估计和下游任务最佳性能之间存在较高的相关性。
2024/6/11 于志刚 Arxiv.2402 Towards Versatile Graph Learning Approach: from the Perspective of Large Language Models https://arxiv.org/pdf/2402.11641 图结构数据是现实世界中最常用和最广泛的应用场景。对于不同的应用程序,大量不同的学习任务以及图领域中复杂的图学习过程给人类专家设计通用的图学习方法带来了挑战。面对这些挑战,大语言模型(LLMs)因为具有广泛的知识和类人智能,为之提供了一个潜在的解决方案。本文提出了一个新颖的概念原型,用于设计具有LLMs的通用图学习方法。
2024/6/19 杨珂懿 ICLR2024 DIFFUSION-TS: INTERPRETABLE DIFFUSION FOR GENERAL TIME SERIES GENERATION https://arxiv.org/pdf/2403.01742 本文提出了Diffusion-TS,这是一种新颖的基于扩散的框架,通过使用具有解耦时间表示的transformer生成高质量的多变量时间序列样本,设计了深度分解结构来引导Diffusion-TS捕捉时间序列的语义意义,而transformer从噪声模型输入中挖掘详细的序列信息。不同于现有的基于扩散的方法,本文训练模型在每个扩散步骤中直接重建样本而不是噪声,并结合基于傅里叶的损失项。Diffusion-TS有望生成既满足解释性又真实的时间序列。此外,研究表明,Diffusion-TS可以扩展到条件生成任务,如预测和插补,而无需进行任何模型更改。
2024/6/19 曹敏君 AAAI2024 Higher-Order Graph Convolutional Network with Flower-Petals Laplacians on Simplicial Complexes https://arxiv.org/pdf/2309.12971 尽管GNN在各种任务上取得了成功,但基于成对网络的基础本质上限制了它们在复杂系统中识别潜在高阶相互作用的能力。为了弥补这一能力差距,本文提出了一种利用简单复合物(SCs)丰富的数学理论的新方法。目前基于SC的GNN具有较高的复杂性和刚性,高阶相互作用强度的量化仍然具有挑战性。本文创新性地提出了一个higher-order Flower-Petals(FP)模型,将FP拉普拉斯算子纳入到SCs中。此外,本文引入了一个基于FP拉普拉斯算子的高阶图卷积网络(HiGCN),能够在不同的拓扑尺度上识别内在特征。通过使用可学习的图过滤器(每个FP拉普拉斯域中的一个参数组),可以识别不同的模式,其中过滤器的权重作为高阶交互强度的可量化度量。实证研究表明,本文所提出的模型在一系列图任务上实现了最先进的性能,并提供了一个可扩展和灵活的解决方案来探索图中的高阶交互。
2024/7/3 颜浩 Arxiv.2405 TAGA: Text-Attributed Graph Self-Supervised Learning by Synergizing Graph and Text Mutual Transformations https://arxiv.org/pdf/2405.16800 本属性图上表示学习最近取得了广泛关注,但现有方法大多关注于监督学习范式,对标签数据较为依赖。本文介绍了一种新的文本图上自监督学习框架TAGA。其构造了两种可相互转化的视图,Text-of-Graph与Graph-of-Text,并通过对齐两个视图的表示来同时捕获文本图上的结构与语义知识。
2024/7/31 殷珺 Arxiv.2405 Vector Quantization for Recommender Systems: A Review and Outlook https://arxiv.org/pdf/2405.03110 推荐系统中的向量量化技术综述,主要内容包括经典向量量化技术简介、推荐系统中的向量量化以及向量随机量化技术简介。向量量化旨在将大规模的数据向量表示压缩到可学习的小规模编码本(codebook),被用于加速最近邻搜索、注意力机制等。近年来,其离散化索引能力受到关注,与生成式推荐系统紧密结合,作为推荐系统索引模块(indexer)得到广泛应用。
2024/7/31 程铭 KDD2024 Spatio-temporal Early Prediction based on Multi-objective Reinforcement Learning https://arxiv.org/pdf/2406.04035 在预测任务中,准确性和时效性往往难以同时优化。过早得到的预测结果可能会导致较高的误报率,而能够获取更多信息的延迟预测可能会使结果失去时效性。在野外火灾、犯罪和交通拥堵等现实场景中,及时预测对于保障人类生命财产安全至关重要。因此,平衡准确性和时效性是研究的一大热点。本文提出了一种基于多目标强化学习的时空早期预测模型,该模型可以根据偏好实施最优策略,或基于少量样本推断偏好。该模型解决了两个主要挑战:1)提高早期预测的准确性;2)提供了一种能够确定每个区域最优预测时间的优化策略。
2024/8/28 刘若尘 SIGIR2024 Enhancing Sequential Recommenders with Augmented Knowledge from Aligned Large Language Models https://dl.acm.org/doi/pdf/10.1145/3626772.3657782 传统序列推荐往往只考虑user-item之间的交互信息,而没有利用关于item的真实世界的知识,将大语言模型应用于序列推荐中则可以弥补了这一缺陷。然而由于大语言模型缺乏对序列行为模型的建模能力以及推理时间过长,如何将LLM用于序列推荐仍然是一个挑战。为解决上述挑战,本文提出了一种将传统ID-based 序列推荐与LLM相结合的方法,使用LLM来为item生成与交互相对齐的文本,以此达到语义增强的效果。
2024/9/4 王梓辰 AAAI2024 BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous Driving https://arxiv.org/pdf/2312.06371 在实现全自动驾驶汽车的过程中,准确预测周围车辆的未来轨迹是一项重大挑战。本文提出了一种新的行为感知轨迹预测模型(BAT),由行为感知、交互感知、优先级感知和位置感知模块组成,可以感知潜在交互,从而在不严格分类驾驶行为的情况下实现更高级的学习。本文最关键的贡献是,使用动态几何图方法,并设计行为感知准则,不需要在训练过程中人工标注行为类别,解决了离散行为分类和选择适当时间窗口的挑战。实验结果表明,模型在NGSIM、highD、RounD和MoCAD四个数据集上均实现了较好的效果,即使在减少训练数据部分(25%)的情况下,模型也优于大多数baseline。
2024/9/11 徐榕桧 KDD2024 PATE: Proximity-Aware Time series anomaly Evaluation https://arxiv.org/pdf/2405.12096 评估时间序列数据中的异常检测算法至关重要,因为在实时分析和数据驱动策略至关重要的各个领域,不准确性可能导致错误的决策。传统的性能指标无法捕捉复杂的时间动态和时间序列异常的特定特征,例如早期检测和延迟检测。本文提出了一种结合预测与异常区间间时间关系的新型评价指标——邻近感知时间序列异常评价(PATE)。PATE使用基于邻近度的加权方法,考虑异常区间周围的缓冲区,从而能够对探测进行更详细、更明智的评估。实验表明,许多SOTA模型可能在某些场景下被过度评估,而PATE能够提供更公平的模型比较,从而指导未来的研究朝着开发更有效和更准确的检测模型的方向发展。
2024/9/18 于志刚 KDD2024 GAugLLM: Improving Graph Contrastive Learning for Text-Attributed Graphs with Large Language Models https://arxiv.org/pdf/2406.11945 GAugLLM,它是为文本属性图设计的,能够利用丰富的文本属性和 LLM 联合进行特征级和边级扰动。它分为两个模块:混合 prompt 专家的方法通过直接干扰输入文本属性来生成增强特征;协同边修改器方案利用文本属性进行结构扰动。
2024/9/18 吴微 Arxiv.2312 Towards an end-to-end artificial intelligence driven global weather forecasting system https://arxiv.org/pdf/2312.12462v1 该文章提出了一种基于AI的数据同化模型Adas,并和先进的基于AI的预报模型风乌结合,构建了首个端到端的基于AI的全球天气预报系统:FengWu-Adas。Adas引入了置信度矩阵,使用门控卷积处理稀疏观测,并使用门控交叉注意力捕获背景与观测之间的相互作用。研究表明,Adas能够同化全球观测数据,产生高质量的分析,使系统能够长期稳定运行。
2024/9/25 杨珂懿 ICDE2024 PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy https://arxiv.org/pdf/2404.03873 本文提出了 PrivShape,这是一种基于用户级别 LDP 的 Trie 机制,用于保护所有元素。PrivShape 首先转换时间序列以减少其长度,然后采用 Trie 扩展和两级细化来提高效用。通过对真实世界数据集的大量实验,我们证明了 PrivShape 在适应离线使用时优于 PatternLDP,并且可以有效地提取频繁的形状。
2024/10/10 曹敏君 ICLR2024 Biased Temporal Convolution Graph Network for Time Series Forecasting with Missing Values https://openreview.net/forum?id=O9nZCwdGcG 本文提出了一种偏置时间卷积图网络BiTGraph,同时捕获时间依赖性和空间结构。多元时间序列预测在气象研究、交通管理和经济规划等各种应用中发挥着重要作用。在过去的几十年中,通过探索时间动态和空间相关性,人们为实现准确可靠的预测做出了许多努力。特别是,近年来基于 Transformer 的方法的发展显着提高了长期预测的准确性。现有的预测方法通常假设输入数据完整,然而,在实践中,由于设备故障或昂贵的数据采集,时间序列数据经常被部分观察到,这可能严重阻碍现有方法的性能。简单地使用插补方法不可避免地会涉及误差积累并导致次优解决方案。本文提出的BiTGraph方法将偏差注入到两个精心开发的模块中(多尺度实例 PartialTCN 和偏差 GCN)以解释缺失的模式。实验结果表明提出的模型能够达到在五个真实世界基准数据集上相比现有方法提高9.93%。论文和代码大家感兴趣可以先了解一下。
2024/10/17 程铭 KDD2023 Hierarchical Reinforcement Learning for Dynamic Autonomous Vehicle Navigation at Intelligent Intersections https://dl.acm.org/doi/pdf/10.1145/3580305.3599839 文章提出了 NavTL,这是一种基于学习的框架,用于人类驾驶车辆和自动驾驶汽车共存的混合交通场景中联合控制交通信号计划和自动车辆重新路由。其目标是通过最大限度地减少十字路口的拥堵,同时引导自动驾驶车辆避开暂时拥堵的道路,从而提高出行效率并减少总出行时间。
2024/10/24 颜浩 Arxiv.2410 GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs https://arxiv.org/pdf/2410.10329 本文提出的GraphCLIP通过将图与文本总结进行对比预训练来学习图基础模型。主要包括利用LLM生成大规模"图-总结"配对数据,并设计了一种图提示方法来减轻少样本学习场景下的灾难性遗忘。
2024/10/31 殷珺 Arxiv.2405 NoteLLM-2: Multimodal Large Representation Models for Recommendation https://arxiv.org/pdf/2405.16789 本文探索基于大语言模型的多模态推荐系统,尝试采用:(1)multi-modal in-context learning和(2)late fusion来缓解现有模型过度依赖文本、忽视视觉信息的问题。
2024/10/31 金志晗 Nature 2023 Skilful nowcasting of extreme precipitation with NowcastNet https://www.nature.com/articles/s41586-023-06184-4 这篇文章于2023年7月发表于Nature正刊,清华大学与中国气象局基于极端降水预报目前的方法容易出现强度、位置误差的问题,提出NowcastNet,它将物理演化方案和生成式学习统一到具有端到端预测优化的神经网络中,效果上超越了谷歌的短临降水预报模型DGMR。
2024/11/07 刘若尘 KDD 2023 Generative Flow Network for Listwise Recommendation https://dl.acm.org/doi/abs/10.1145/3580305.3599364 List-wise recommendation旨在将呈现在用户面前的所有item作为一个整体向用户进行推荐。研究表明,基于列表的方式能通过建模列表内部的物品关联性提升推荐效果。然而,探索组合列表空间具有挑战性,使用交叉熵损失的方法可能存在多样性不足的问题。本文提出GFN4Rec,一种生成式方法,借鉴流网络的思想以确保列表生成概率与其奖励的对齐。其核心优势在于对数尺度奖励匹配损失,提升了生成的多样性,并通过自回归物品选择模型捕捉物品间的相互影响和列表的未来奖励。感兴趣的同学可以提前浏览论文
2024/11/28 徐榕桧 KDD 2023 DM-PFL: Hitchhiking Generic Federated Learning for Efficient Shift-Robust Personalization https://dl.acm.org/doi/pdf/10.1145/3580305.3599311 个性化联邦学习上的已有方法容易受到客户端本地训练和测试数据之间分布变化的影响,并且在本地设备上涉及高训练工作量。为了克服这些缺点,作者探索了联邦学习的高效漂移鲁棒(Shift-Robust)个性化。其原理是搭全局模型的便车,并以最小的额外训练开销来提高个性化模型的移位鲁棒性。具体来说,作者提出了一种新的框架DM-PFL,它利用双重掩蔽机制来训练全局和个性化模型,实现权重级参数共享和端到端稀疏训练。
2024/12/05 王梓辰 CVPR 2024 SocialCircle: Learning the Angle-based Social Interaction Representation for Pedestrian Trajectory Prediction https://arxiv.org/pdf/2310.05370 在预测行人轨迹的时候,行人之间社会交互的多样性和不确定性使预测具有很大的挑战性。目前轨迹预测中建模交互的方法可以分为基于模型的和无模型的两类,基于模型的方法以特定的“规则”作为预测的主要基础,无模型的方法主要由数据驱动的方式进行预测。然而,基于模型的方式难以设计一个适合大多数社会交互的通用“规则”,无模型的方式严重依赖不同的网络结构,缺乏可解释性。本篇文章受海洋动物在水下通过回声定位同伴位置的启发,提出基于角度的可训练社会交互表示法,即SocialCircle,用于持续反应目标行人的不同角度方向上的社会交互环境。实验表明,SocialCircle 不仅在提高了预测性能,而且定性分析实验表明它有助于在预测行人轨迹时更好地模拟社会互动,从而与人类的直觉保持一致。
2024/12/12 于志刚 NeurIPS 2024 Beyond Redundancy: Information-aware Unsupervised Multiplex Graph Structure Learning https://arxiv.org/abs/2409.17386 现实图数据通常包含大量与任务无关的噪声,严重影响了无监督多重图学习(UMGL)的性能。此外,现有的方法主要依赖于对比学习来最大化不同视图之间的互信息,这将它们限制于多视图冗余场景,在非冗余场景有一定的局限性。本文聚焦于如何以无监督的方式从原始多重图中学习融合图,从而减轻与任务无关的噪声,同时保留充分的任务相关信息,提出了一种信息感知的无监督多重图融合框架(InfoMGF)。
2024/12/19 杨珂懿 NeurIPS 2024 Large Language Models as Urban Residents: An LLM Agent Framework for Personal Mobility Generation https://arxiv.org/abs/2402.14744 本文介绍了一种使用大型语言模型(LLM)集成到智能体框架中的新颖方法,以实现灵活高效的个人移动轨迹生成。LLM通过有效处理语义数据并提供对各种任务建模的多功能性,克服了以前模型的局限性。本文的方法解决了将LLM与现实世界城市交通数据结合起来的迫切需求,重点关注三个研究问题:将LLM与丰富的移动数据结合起来,制定可靠的移动生成策略,以及探索LLM在城市交通中的应用。关键的技术贡献是提出了一个新颖的LLM智能体框架,该框架考虑了个人移动模式和动机,包括使LLM与现实世界移动数据保持一致的自洽方法以及用于生成可解释移动的检索增强策略。在实验研究中,使用真实世界数据进行综合验证。这项研究标志着基于现实世界人类移动数据设计用于移动生成的 LLM 智能体框架的开创性工作,为城市交通分析提供了一个有前景的工具。
2024/12/26 曹敏君 NeurIPS 2024 AutoTimes:Autoregressive Time Series Forecasters via Large Language Models https://arxiv.org/abs/2402.02370 作者团队来自清华大学。本文探索基于大语言模型的自回归时间序列预测,(1)提出AutoTimes将 LLM 重新用作自回归时间序列预测器,该预测器可以处理灵活的序列长度并实现与流行模型一样的有竞争力的性能。(2)提出了token-wise prompting,利用相应的时间戳使该方法适用于多模态场景。(3)AutoTimes继承了LLM的零样本和上下文学习能力。
2025/01/09 颜浩 NeurIPS 2023 MeZO: Fine-Tuning Language Models with Just Forward Passes https://arxiv.org/abs/2305.17333 随着LMs大小的增长,通过一般化的反向传播算法来微调模型需要大量内存。本文基于零阶优化算法,改进了一种内存高效的零阶优化器MeZO,使得能以与推理相同的内存占用进行微调。与上下文学习、线性探测、全参数微调等进行了比较,验证了算法的高效性与有效性。
2025/01/09 胡杨 AAAI 2025 STD-PLM: Understanding Both Spatial and Temporal Properties of Spatial-Temporal Data with PLM https://arxiv.org/abs/2407.09096 本文提出了一种基于预训练语言模型的空间-时间数据理解框架(STD-PLM),能够同时执行空间-时间预测与数据补全任务。STD-PLM 通过专门设计的spatial and temporal tokenizer来理解空间和时间的关联关系。此外,设计了拓扑感知的节点嵌入,使预训练语言模型能够理解并利用数据的拓扑结构。为缓解预训练语言模型带来的效率问题,本文设计了一种sandglass attention module,这显著提升了模型的效率,同时保证了性能。
2025/01/16 程铭 TKDE 2024 FELight: Fairness-Aware Traffic Signal Control via Sample-Efficient Reinforcement Learning https://ieeexplore.ieee.org/document/10471901/ 本文提出了一种提出了一种公平意识强、样本效率高的交通信号控制方法FELight。具体来说,首先设计一种新颖的公平性指标并将其集成到决策过程中,通过设置激活公平机制的阈值来惩罚高延迟的情况。与其他公平性研究的理论比较证明了我们的公平性为何以及何时可以带来优势。此外,采用反事实数据增强来丰富交互数据,提高了FELight的样本效率。引入自监督状态表示以从原始状态中提取信息特征,进一步提高样本效率。在真实交通数据集上进行的实验表明,与最先进的方法相比,FELight 提供了相对更公平的交通信号控制,同时又不影响性能。
2025/02/21 曹敏君 ICML 2024 Timer: Generative Pre-trained Transformers Are Large Time Series Models https://arxiv.org/abs/2402.02368 本文探索了基于大规模预训练模型的时间序列分析方法,提出了 Timer 模型,旨在通过预训练提升时间序列任务的性能,尤其是在数据稀缺场景下。(1)作者构建了包含高达 10 亿时间点 的大规模时间序列数据集,并提出了 单序列序列(S3)格式,将异构时间序列统一为单序列格式,以便更好地进行预训练。(2)Timer 采用类似 GPT 的架构,通过预测下一个时间点(标记)来进行预训练,并将时间序列的预测、填补缺失值和异常检测等任务统一为一个生成任务。(3)Timer 继承了大规模预训练模型的泛化能力和可扩展性,在少样本情况下展现出与流行任务专用模型相媲美甚至更优的性能。
2025/02/28 刘若尘 WWW 2025 SPRec: Self-Play to Debias LLM-based Recommendation https://arxiv.org/abs/2412.09243 现有的基于大语言模型的推荐方法往往使用有监督微调的方式进行训练,而在SFT的基础之上,DPO由于其能够直接将LLM与用户的兴趣进行对齐,所以受到关注。而本文发现,使用DPO的微调方法天然地会加剧推荐是的偏移,使模型更加青睐于高流行度的物品。为了解决这个问题,本文设计了一个自我博弈框架,具体来说,在每次自我博弈迭代中,模型首先进行SFT步骤,然后进行DPO步骤,将离线交互数据视为正样本,并将前一次迭代的预测输出视为负样本。通过使用模型的logits重新加权DPO损失函数,从而自适应地抑制偏倚项。
2025/03/07 杨珂懿 AAAI 2025 Holistic Semantic Representation for Navigational Trajectory Generation https://arxiv.org/abs/2501.02737 本文提出了一个用于导航轨迹生成的全息语义表示(HOlistic SEmantic Representation,HOSER)框架。给定一个起终点(OD)对和潜在轨迹的起始时间点,该框架首先提出了一个道路网络编码器来扩展道路级和区域级语义的感受野。其次,设计了一个多粒度轨迹编码器来整合生成轨迹的时空语义,同时考虑点级和轨迹级特征。最后,采用目的地导向导航器来无缝集成目的地导向引导。在三个真实世界数据集上的广泛实验表明,HOSER在性能上显著优于最先进的基准方法。此外,该模型在少样本学习和零样本学习场景下的表现进一步验证了全息语义表示的有效性。这项研究为轨迹生成领域提供了一个重要的多层次语义理解框架,有助于生成更符合实际导航行为的高质量轨迹。
2025/03/14 徐榕桧 NeurIPS 2024 From Similarity to Superiority: Channel Clustering for Time Series Forecasting https://arxiv.org/abs/2404.01340 时序数据建模策略可以分为通道独立策略(CI)和通道依赖策略(CD)。CI策略忽视了通道之间可能必要的交互作用,且在未见实例上的泛化能力较差。CD策略虽然可以捕捉复杂的通道关系,但容易导致过度平滑问题,限制了预测准确性。本文提出了一种自适应通道聚类模块(CCM)来提高时间序列预测模型的性能,CCM通过动态聚类具有内在相似性的通道,并结合这两种策略的优点。CCM的框架主要包括聚类分配器和基于聚类的前馈网络。聚类分配器根据内在相似性学习通道聚类,并通过交叉注意机制生成每个聚类的原型嵌入。CCM能够为每个聚类分配一个单独的前馈网络,并利用相似性进行加权聚合得到预测输出。此外,CCM通过学习聚类原型可以实现零样本预测,使得模型在处理未见样本时不需要重新训练。
2025/03/28 罗子罗文 AAAI 2024 Fast Machine Unlearning without Retraining through Selective Synaptic Dampening https://arxiv.org/abs/2308.07707 随着当今机器学习模型规模日益庞大,其(预)训练数据集增长到难以理解的体量,人们越来越关注“机器遗忘”这一概念——旨在无需从头重新训练模型的情况下,通过编辑手段移除私有数据、过时知识、受版权保护内容、有害/不安全信息、危险能力及错误信息等不必要元素。然而,现有的一些MU方法需要对模型部分参数进行重训,开销往往很大,同时需要过往模型训练的权重参数以及训练数据已知,这在实际应用场景中往往难以支撑。鉴于此,本文提出了一种基于选择性参数抑制(Selective Synaptic Dampening)的两阶段方法 ,该方法无需重新训练,快速简单,只需要选择少量参数进行修改,即可完成高效遗忘。首先,该方法基于 Fisher information matrix 计算参数与遗忘数据集的相关性,然后基于稀疏性约束从中抑制与数据集高相关性的参数量,从而达成对Unlearning Request的快速处理。充分实验表明,无需重新训练的 SSD 方法在 Resnet18 以及 ViT 上几种不同种类的遗忘请求的基准测试中表现与重新训练的模型一致。
2025/04/11 于志刚 KDD 2024 Representation Learning of Temporal Graphs with Structural Roles https://dl.acm.org/doi/10.1145/3637528.3671854 结构角色是指节点在图中的连接模式和结构特征。具有相似连接模式的节点被认为属于同一结构角色。现有的大多数时序图方法通常基于局部连接邻近性生成节点表示,忽略了全局结构相似性,没有发挥节点的结构角色带来的积极作用。简单来说,节点的表示学习不仅仅依赖于与之相邻的节点,那些与目标节点具有相似结构特征的不相邻的节点也可能会对目标节点的表示学习有一定帮助。因此,本文将全局结构角色信息引入时序图的表示学习中,能够充分利用时序图中的全局结构角色信息,以克服现有方法在捕捉全局结构相似性方面的不足。
2025/04/18 赵远博 ICLR 2025 Language Representations Can Be What Recommeders Need: Findings and Potentials https://arxiv.org/abs/2407.05441 大量研究已经证明语言模型能够在少量语义信息上编码丰富的知识。然而在推荐系统领域,语言模型能否编码用户偏好信息仍然是未知的。与通常认为的语言模型和传统推荐模型学习到的是两种不同的表示相反,这一工作重新检验了这一理解并探索直接从语言表示空间中提取推荐空间,最终导向语言表示空间和行为空间的同态。基于此,本文提出只依赖语言表示而不使用ID信息的推荐算法。具体来说,只使用MLP、图卷积和InfoNCE loss等关键组件就能够搭建出简单而有效的模型。大量实验证明在多个数据集上该模型的表现优于领先的协同过滤模型,并且能够提供对item表示的较好初始化,极强的zero-shot性能和用户感知能力。这一发现从实验上证明了语言建模和行为建模之间的联系。
2025/04/25 王梓辰 ECCV 2024 Progressive Pretext Task Learning for Human Trajectory Prediction https://arxiv.org/abs/2407.11588 人类轨迹预测旨在预测行人的未来轨迹,通常涵盖从短期到长期的所有时间范围。然而现有工作往往使用统一的训练范式来处理整个轨迹预测任务,忽略了人类轨迹中短期动态和长期依赖的区别。为了解决这个问题,本文提出了一种新颖的渐进式预训练任务学习框架,该框架逐步增强模型捕捉短期动态与长期依赖的能力,以实现最终的轨迹预测。该模型框架PPT包含三个阶段的训练任务:第一阶段,模型通过逐步的下一位置预测任务来学习短期动态;第二阶段,模型进一步通过终点预测任务增强对长期依赖的理解;第三阶段,模型在前两个阶段所学知识的基础上,解决整体轨迹预测任务。
2025/05/09 张安奇
Downloads last month
142