作者归档 | Stefania Cristina

attention_research_cover

注意力研究概览

注意(Attention)是一个在多个学科领域被科学研究的概念,包括心理学、神经科学,以及近期的机器学习。尽管所有学科可能都有自己对注意力的定义,但它们都能达成一致的核心品质是:注意力是使生物和人工神经网络更具灵活性的机制。在 […]

继续阅读
neural_networks_cover

微积分在行动:神经网络

人工神经网络是一种计算模型,用于近似输入和输出之间的映射。它受到人脑结构的启发,即它同样由相互连接的神经元网络组成,这些神经元在接收到来自相邻神经元的刺激时会传播信息。训练神经网络涉及一个 […]

继续阅读
more_chain_rule_cover

微积分链式法则 – 更多函数

链式法则是一个重要的导数法则,它使我们能够处理复合函数。它对于理解反向传播算法的工作原理至关重要,该算法广泛应用链式法则来计算损失函数相对于神经网络每个权重的误差梯度。我们将 […]

继续阅读
laplacian_cover

拉普拉斯算子的温和介绍

拉普拉斯算子(Laplace operator)最早由皮埃尔-西蒙·拉普拉斯(Pierre-Simon de Laplace)应用于天体力学,即外太空物体的运动研究,并因此得名。自那时以来,拉普拉斯算子已被用于描述许多不同的现象,从电势到热量和流体的扩散方程 […]

继续阅读
jacobian_cover

雅可比矩阵简明介绍

在文献中,“雅可比行列式”(Jacobian)一词通常可以互换地用于指代雅可比矩阵或其行列式。矩阵和行列式都有有用且重要的应用:在机器学习中,雅可比矩阵汇集了反向传播所需的偏导数;行列式在改变 […] 的过程中很有用。

继续阅读
higher_order_cover

高阶导数

高阶导数可以捕获一阶导数本身无法捕获的函数信息。一阶导数可以捕获重要信息,例如变化率,但它们本身无法区分局部最小值或最大值,在这些地方变化率都为零。一些优化算法解决了这个限制 […]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。