欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

人工智能必知 - 向量的加减和缩放

最编程 2024-05-22 15:28:02
...

每天五分钟带你解决一个深度学习问题。

向量的数学运算

在很多文献中你看到的向量会这么表示:\vec{a} ,代表向量a。
关于向量最重要的就是你要知道它的起点和终点,如果没有说明起点,我们把原点 \begin{bmatrix} {0} \\ {0} \\ \end{bmatrix} 认为是默认起点。所以你看到的向量:\begin{bmatrix} {2} \\ {5} \\ \end{bmatrix} 代表的就是以为(0,0)为起点以(2,5)为终点的向量。\begin{bmatrix} 3 \\ 2 \\ \end{bmatrix} 代表的就是以为(0,0)为起点以(3,2)为终点的向量。
这代表了一个向量的方向

2个向量

另外你要知道向量是有距离的也就是我们常数的模长。数学符号为|\vec{a}|或者 |a|。

模长

向量(3,4),就代表以(0,0)为起点,以(3,4)为终点的线段。模长为5 (\sqrt{{(3-0)^2} + {(4-0)^2}})

向量的运算我们重点回顾加减法与内积

向量的加减

重点要掌握向量加减的物理意义:
加法,两相加之后的结果会与原向量角度变近
减法,两相加之后的结果会与原向量角度变远

加法的平行四边形法则 u + v :

向量的加法准备

第一步,移动v构建平行四边形
第二步,画出对角线就是结果

所以向量u+v 可以这么理解,就是一个人从起点(0,0)沿着u方向行走了若干距离(u的模长)以后又沿着平移后的v方向走了若干距离(v的模长)最后到达的终点与(0,0)构成了一个新的向量。
并且u+v这个向量,和原来的向量v的角度变近了,原来u和v之间的角度目测是90度!

减法的平行四边形法则 u - v

向量u-v 准备
第一步把v沿着相反的方向做变换
第二步移动-v构建平行四边形
第三步画出对角线就是结果

所以你看,其实u-v 不就是u+(-v)吗?

所以向量u - v 可以这么理解,就是一个人从起点(0,0)沿着u方向行走了若干距离(u的模长)以后又沿着平移后的-v方向走了若干距离(v的模长)最后到达的终点与(0,0)构成了一个新的向量。
并且u-v这个向量,和原来的向量v的角度变远了,原来u和v之间的角度目测是90度!

向量的缩放

向量缩放

向量的缩放就直接上图了,向量 与数字进行乘法运算2 * =

向量与一个标量做乘法运算的物理意义就是向量本身方向不变,模长做缩放变化。

这里不要急着去敲代码,把上面的物理意义记住!!!!!

使用numpy来进行运算,你可以使用其它运算工具来进行运算。

import numpy as np
v1 = np.array([1,0])
v2 = np.array([0,1])
v1 + v2

输出

array([1, 1])
v3 = np.array([1,1])
v3 - v1

输出

array([0, 1])
v4 = np.array([3, 0])
2 * v4

输出

array([6, 0])

各位可以尝试把这个过程画到纸上,再感受一下向量加减的物理感觉。

目录:
人工智能必知必会-前言
人工智能必知必会-标量,向量,矩阵,张量
人工智能必知必会-向量的加减与缩放
人工智能必知必会-向量的内积
人工智能必知必会-向量之间的距离
人工智能必知必会-初识矩阵
人工智能必知必会-矩阵与向量
人工智能必知必会-矩阵的加减法
人工智能必知必会-矩阵乘法
人工智能必知必会-矩阵与方程组
人工智能必知必会-再看矩阵与向量
人工智能必知必会-矩阵与向量乘法的物理意义
人工智能必知必会-词向量(案例)
人工智能必知必会-矩阵相乘上
人工智能必知必会-矩阵相乘下