Book4_Power-of-Matrix icon indicating copy to clipboard operation
Book4_Power-of-Matrix copied to clipboard

Book_4_《矩阵力量》 | 鸢尾花书:从加减乘除到机器学习;上架!

Results 97 Book4_Power-of-Matrix issues
Sort by recently updated
recently updated
newest added

以下是OPENAI的回答,但我看你的书又好像不是这么一回事,在这里能补充下吗。 ![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/129148313/71eafd68-5bf4-4143-a035-abed4ef178d0)

![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/69316331/d1b2c179-734d-4f5f-a2dd-ec79a7f142ff)

矩阵乘法规则A@B=C这个图,C的结果乱了。 ![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/44010982/3a1ad939-d33d-488e-9c87-ea7ed687a8bd)

Page 10 | Chapter 6 分块矩阵 | Book 4《矩阵力量》的图7展示矩阵的乘法第二视角:外积展开的时候,示意图 $a_i @ b^{(i)} = a_i b^{(i)} $,对于b行向量取的是m=3,也就是3列,最后的乘积示意图却是4列(意思表达出来了,但是图文不统一)您公开这样的书给大家,真的太厉害了

“细高的X显然不存在转置”,这里的“转置”应该是“矩阵的逆”吧? ![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/69316331/0e476940-1893-4a26-9e20-0bb4d3bac5f2)

![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/69316331/6a8d8879-62da-4f73-9728-b70558ed7321)

![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/51576471/3c40cc8a-5f2b-4901-aab0-c66509bc0e46) ![image](https://github.com/Visualize-ML/Book4_Power-of-Matrix/assets/51576471/44edd7ef-44cf-43ce-8365-e498441f70bc) 公式符号不一致

因为X向单位向量v方向投影得到的标量投影,即X在span(v) 的坐标为 ”Z=Xv“,那么X向单位向量v方向投影得到的向量投影坐标不应该是”Z=Xvv“吗?为什么公式25中后一个单位向量v要使用转置的形式,即"Z=XvvT" ?

这个地方有两个小建议: 1. 公式 2.39 应该附带解释,因为向量内积的几何表示并不是很“理所当然”,要从 a1b1 + a2b2 直接得到 ||a||||b||cos_theta 并不是很“直观”,实际上我看到这个地方想了很久,为什么向量内积,也就是 a1b1 + a2b2 等于 ||a||||b||cos_theta 。后来才想明白,如果用 2.16 图去理解,以 b 作为坐标“基础”,那么 a 在垂直于 a 的轴上,大小为 0,因此那个轴的乘积为 0,所以两者的内积才等于 (||a||cos_theta) ||b|| ,也就是书中给的...

使用numpy.einsum()时,大家记住一个要点——输入中重复的索引代表元素相乘,输出中消去的索引意味着相加。 --- 前半句话这句话不对。输入中的任何索引都代表相乘,消失的索引表示相加。 ``` A = np.array([[1, 2], [3, 4]]) B = np.array([[5, 6], [7, 8]]) C = np.einsum('ij,kl->il', A, B) ``` 比如这个,输入中没有任何重复索引,但结果仍然是相应元素的乘积。`C_{il} =\Sum_{jk} A_{ij} B_{kl}`。