×

PyTorch教程22.1之几何和线性代数运算

消耗积分:0 | 格式:pdf | 大小:0.31 MB | 2023-06-05

李艳

分享资料个

2.3 节中,我们了解了线性代数的基础知识,并了解了如何使用它来表达转换数据的常见操作。线性代数是我们在深度学习和更广泛的机器学习中所做的大部分工作的关键数学支柱之一。虽然第 2.3 节 包含足够的机制来传达现代深度学习模型的机制,但该主题还有更多内容。在本节中,我们将更深入地介绍线性代数运算的一些几何解释,并介绍一些基本概念,包括特征值和特征向量。

22.1.1. 向量几何

首先,我们需要讨论向量的两种常见几何解释,即空间中的点或方向。从根本上说,向量是一个数字列表,例如下面的 Python 列表。

v = [1, 7, 0, 1]
v = [1, 7, 0, 1]
v = [1, 7, 0, 1]

数学家最常将其写成列向量 向量,也就是说

(22.1.1)x=[1701],

或者

(22.1.2)x⊤=[1701].

这些通常有不同的解释,其中数据示例是列向量,而用于形成加权和的权重是行向量。但是,保持灵活性可能是有益的。正如我们在2.3 节中所述 ,尽管单​​个向量的默认方向是列向量,但对于表示表格数据集的任何矩阵,将每个数据示例视为矩阵中的行向量更为常规。

给定一个向量,我们应该给它的第一个解释是空间中的一个点。在二维或三维中,我们可以通过使用向量的分量来定义这些点在空间中相对于称为原点的固定参考的位置来可视化这些这可以在图 22.1.1中看到

../_images/网格点.svg

图 22.1.1将向量可视化为平面中的点的图示。向量的第一个分量给出x-坐标,第二个分量给出y-协调。更高的维度是类似的,尽管更难形象化。

这种几何观点使我们能够在更抽象的层面上考虑问题。不再面临一些看似无法克服的问题,例如将图片分类为猫或狗,我们可以开始将任务抽象地视为空间中的点集合,并将任务描绘为发现如何分离两个不同的点簇。

平行地,人们经常对矢量采取第二种观点:作为空间中的方向。我们不仅可以想到向量 v=[3,2]⊤作为地点3右边的单位和2从原点向上的单位,我们也可以把它看作是要采取的方向本身3向右的步骤和2 加强。这样,我们认为图 22.1.2中的所有向量都是相同的。

https://file.elecfans.com/web2/M00/AA/49/pYYBAGR9PmGABNSiAAAwdYVnpLA017.svg

图 22.1.2任何向量都可以看成是平面中的箭头。在这种情况下,绘制的每个向量都是向量的表示 (3,2)⊤.

这种转变的好处之一是我们可以从视觉上理解向量加法的行为。特别是,我们遵循一个向量给出的方向,然后遵循另一个向量给出的方向,如图22.1.3所示

https://file.elecfans.com/web2/M00/AA/49/pYYBAGR9PmSABpmpAABGgDuMluA421.svg

图 22.1.3我们可以通过首先跟随一个向量,然后跟随另一个向量来可视化向量加法。

矢量减法有类似的解释。通过考虑身份u=v+(u−v), 我们看到向量u−v是带我们离开点的方向v直截了当 u.

22.1.2。点积和角

正如我们在2.3 节中看到的,如果我们取两个列向量uv,我们可以通过计算形成他们的点积:

(22.1.3)u⊤v=∑iui⋅vi.

因为(22.1.3)是对称的,我们将镜像经典乘法的符号并写成

(22.1.4)u⋅v=u⊤v=v⊤u,

强调交换向量的顺序将产生相同答案的事实。

点积(22.1.3)也有一个几何解释:它与两个向量之间的角度密切相关。考虑图 22.1.4中所示的角度

https://file.elecfans.com/web2/M00/AA/49/pYYBAGR9PmeAcl52AAA1NsNzHF0178.svg

图 22.1.4平面内任意两个向量之间有一个明确的角度 θ. 我们将看到这个角度与点积密切相关。

首先,让我们考虑两个特定的向量:

(22.1.5)v=(r,0)andw=(scos⁡(θ),ssin⁡(θ)).

载体v是长度r并平行于x

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !