• Prefix Tuning —— Optimizing Continuous Prompts for Generation

    在自然语言生成任务中,微调是使用大型预训练语言模型的常见方式。然而,微调需要修改所有模型参数,因此每个任务都需要存储一份完整的模型副本,这对存储和计算成本提出了很高的要求。本文提出了一种新的方法:Prefix-Tuning,它通过优化一个小的任务特定连续向量(称为前缀),而保持语言模型参数不变。与微调相比,Prefix-Tuning只需存储前缀,显著降低了存储需求。

  • Integrating Large Language Models with Graphical Session-Based Recommendation

    在现代推荐系统领域,如何根据用户的短期行为来预测其未来的点击行为是一个重要问题。传统的推荐系统多依赖于用户的长期偏好数据,而在实际应用中,用户的会话(session)行为也往往能很好地反映用户的即时需求。为了解决这一问题,基于会话的推荐系统(Session-based Recommendation, SBR)逐渐兴起。本文介绍的SR-GNN(Session-based Recurrent Graph Neural Network) 是一种将图神经网络(GNN)引入到会话推荐中的方法,能够有效捕捉用户在单个会话中的短期行为,从而预测用户的下一个点击行为。SR-GNN 在会话推荐系统中引入了图神经网络,能够有效捕捉物品之间的复杂依赖关系,并结合自注意力机制和门控循环单元(GRU)建模时间顺序。这使得 SR-GNN 能够在短期会话中进行准确的推荐,尤其适用于动态变化的用户行为场景。

  • Graph Contextualized Self-Attention Network for Session-based Recommendation

    GC-SAN 是一种新型的会话推荐模型,旨在通过结合图神经网络(GNN)和自注意力机制(Self-Attention),有效捕捉用户当前会话中的物品转移模式。模型首先利用 GNN 处理局部的物品依赖关系,再通过多层自注意力网络捕捉会话中的全局偏好。最终,模型将会话中的局部兴趣和全局兴趣加权融合,生成用户的最终会话表示,以预测下一步的点击物品。实验结果表明,GC-SAN 在多个真实数据集上优于现有的会话推荐方法,尤其在建模长距离物品依赖和捕捉复杂物品关系上表现突出。

  • HCGR —— Hyperbolic Contrastive Graph Representation Learning for Session-based Recommendation

    本文提出了一种新的超曲面对比图表示学习方法(HCGR),用于解决基于会话的推荐系统中的挑战。会话推荐系统需要从用户的短期行为中推断用户的兴趣,而传统的方法通常依赖于欧氏空间进行图神经网络的表示学习。这种方法难以捕捉用户行为中的层次结构,尤其是在用户的兴趣是多层次或呈现树状结构时。HCGR通过引入洛伦兹超曲面几何空间,将推荐问题嵌入到非欧空间中,以更有效地捕捉用户行为中的层次信息。此外,论文提出了一种自适应超曲面注意力机制,以及对比学习方法来优化模型,提升推荐性能。实验结果表明,该方法在多个公开数据集上的表现优于当前的先进基准方法,显著提高了命中率、NDCG和MRR等指标。

  • 项目介绍 - 社交媒体驱动的地震灾害信息快速提取研究

    Here's something encrypted, password is required to continue reading.
  • 项目介绍 - 货架图建模应用实践

    Here's something encrypted, password is required to continue reading.
  • 优化算法的演进 —— 从梯度下降到ADAM

    在机器学习和深度学习领域,优化算法是驱动模型训练的核心要素。随着研究的深入,优化算法经历了从基础到复杂的不断演进,旨在提升训练效率、加快收敛速度,并克服各种训练中的挑战。本文将系统性地介绍几种主流的优化算法,重点讲解它们的思路演变和参数设计背后的逻辑。

  • 项目介绍 - 推荐系统应用实践

    Here's something encrypted, password is required to continue reading.
  • 重参数化详解与Gumbel Softmax深入探讨

    在现代机器学习中,重参数化(Reparameterization) 技巧成为优化包含随机变量模型的关键方法,尤其在变分自编码器(VAE)和生成对抗网络(GANs)等深度生成模型中发挥着重要作用。重参数化通过将随机变量 表示为确定性函数与独立噪声变量 的组合,即 ,使得梯度能够通过采样过程进行有效传播,从而实现端到端的训练。然而,对于离散分布的处理仍然面临挑战,因为离散采样过程如 操作不可微,Gumbel Softmax 技巧应运而生,通过引入Gumbel噪声并应用softmax函数的光滑近似,使得离散变量的采样过程可微,从而结合重参数化的优势,促进了包括文本生成和强化学习在内的多种应用领域的进步。近年来,随着研究的深入,Gumbel Softmax不断被优化和扩展,进一步提升了其在复杂模型中的适用性和效率,为处理连续与离散随机变量提供了统一且高效的解决方案。

  • 变分自编码器(VAE)详解

    在深度学习的生成模型领域,变分自编码器(Variational Autoencoder, VAE) 作为一种创新的模型架构,展现出了强大的数据生成和潜在表示学习能力。VAE不仅能够有效地压缩和重建输入数据,还能通过学习数据的潜在分布来生成与训练数据高度相似的新样本。其核心在于结合了自编码器和概率图模型的优点,并通过重参数化技巧实现了端到端的可微优化。这使得VAE在图像生成、数据压缩、异常检测等多个应用场景中得到了广泛的应用和认可。本文将深入分析VAE的基本原理、工作机制以及其在实际应用中的优势与挑战,帮助初学者全面掌握这一重要的生成模型。