本文讨论了在投资组合优化中如何平衡收益与风险,并提出了一种使用修改后的螺旋优化算法(SOA)解决带有买入门槛和基数约束的均值-方差投资组合优化问题。通过将该问题建模为混合整数非线性规划问题(MINLP),验证了该算法在投资组合优化问题上的有效性。
-
Solving Constrained Mean-Variance Portfolio Optimization Problems Using Spiral Optimization Algorithm
-
矩阵低秩近似 —— 伪逆
伪逆(Pseudo-Inverse),也称为广义逆(Generalized Inverse),是线性代数中的一个重要工具,尤其是在处理不可逆或非方阵时。与标准的逆矩阵不同,伪逆可以扩展矩阵求逆的概念,适用于更广泛的矩阵类型。这在机器学习、优化以及控制理论等多个领域中都有广泛应用。本文将详细探讨伪逆的定义、推导过程及其应用,并提供数学证明。
-
近端算子
在现代数学优化理论中,近端算子(Proximal Operators)、莫洛厄包络(Moreau Envelope)、子梯度方法(Subgradient Methods)、支持向量机(Support Vector Machines, SVM)以及稀疏优化(Sparse Optimization)等概念占据着核心地位。这些工具不仅在理论研究中具有重要意义,而且在机器学习、信号处理、统计学等应用领域展现出广泛的实用性。本文旨在深入讲解这些知识点,全面覆盖相关理论基础、性质、计算方法以及实际应用,通过一些的习题解答帮助读者巩固理解。
-
LeetCode(一)—— 哈希表
哈希表是一种在计算机科学中广泛应用的数据结构,其高效的查找、插入和删除操作使其在解决各种算法问题时表现出色。在本文中,我们将通过解析三道Leetcode经典问题——“两数之和”(Two Sum)、“最长连续序列”(Longest Consecutive Sequence)以及“字母异位词分组”(Group Anagrams),深入理解哈希表的强大功能,并探讨其在实际应用中的潜在场景。
-
时间序列模型(四)—— Attention机制
本文讨论了时间序列模型中的Attention机制,深入探讨了其数学原理和代码实现。Attention机制通过计算输入序列中各位置之间的相似性来生成新的表示,是近年来自然语言处理和时间序列分析中的一项重要技术。它允许模型在处理序列数据时关注不同的输入部分,从而更有效地捕捉序列中的长距离依赖关系。
-
时间序列模型(三)—— GRU
GRU(Gated Recurrent Unit)模型是循环神经网络(RNN)的一种变体,由Cho等人在2014年提出。GRU模型通过引入门控机制来解决传统RNN存在的长期依赖问题和梯度消失问题。本文将详细介绍GRU模型的基本结构、原理、优缺点,以及其在实际应用中的表现。
-
时间序列模型(二)—— LSTM
长短期记忆网络(Long Short-Term Memory, LSTM)是一种特殊的递归神经网络(Recurrent Neural Network, RNN),由Sepp Hochreiter和Jürgen Schmidhuber在1997年提出。LSTM被设计用来解决传统RNN在处理长序列时的梯度消失和梯度爆炸问题。它通过引入记忆单元(Memory Cell)和门控机制(Gating Mechanisms),实现了对长期依赖关系的有效捕捉。LSTM在自然语言处理、时间序列预测、音频处理等领域有广泛应用。
-
时间序列模型(一)—— 传统模型
本文详细介绍了几种经典的时间序列模型,包括非深度学习模型的公式和方法。涵盖的模型包括ARIMA、SARIMA、VAR、GARCH、指数平滑、Prophet和卡尔曼滤波器。希望通过详细的数学公式和解释,帮助理解这些模型背后的数学逻辑及其在实际时间序列数据中的应用场景。