c****x 发帖数: 6601 | 1 来来来,做题。
http://www.mitbbs.com/article_t/Mathematics/31236369.html
follow up: 如果A不是列满秩的时候,可以有通解时,工程上如何进行数据的取舍?
【 以下文字转载自 Mathematics 讨论区 】
发信人: mingzhen (haoren), 信区: Mathematics
标 题: 一个矩阵数学问题: Ax=b
发信站: BBS 未名空间站 (Sun Jun 24 19:25:02 2018, 美东)
一个矩阵数学问题: Ax=b
假如A 是m x n的二维矩阵, x 是 n x 1的向量,b 就是 m x 1的向量。
假如A,b均已知, 且m不等于n, 问题:
1) 能否反求出x?
2) x是否唯一?能否数学上证明之。 |
d****o 发帖数: 32610 | 2 学傻了吧
这是初中数学题
【在 c****x 的大作中提到】 : 来来来,做题。 : http://www.mitbbs.com/article_t/Mathematics/31236369.html : follow up: 如果A不是列满秩的时候,可以有通解时,工程上如何进行数据的取舍? : 【 以下文字转载自 Mathematics 讨论区 】 : 发信人: mingzhen (haoren), 信区: Mathematics : 标 题: 一个矩阵数学问题: Ax=b : 发信站: BBS 未名空间站 (Sun Jun 24 19:25:02 2018, 美东) : 一个矩阵数学问题: Ax=b : 假如A 是m x n的二维矩阵, x 是 n x 1的向量,b 就是 m x 1的向量。 : 假如A,b均已知, 且m不等于n, 问题:
|
c****x 发帖数: 6601 | 3 暴露了吧。
【在 d****o 的大作中提到】 : 学傻了吧 : 这是初中数学题
|
R*****i 发帖数: 2126 | |
d****o 发帖数: 32610 | 5 拿矩阵那套语言解释当然可以,
初中生当个n元一次方程组就知道怎么回事
【在 c****x 的大作中提到】 : 暴露了吧。
|
c****x 发帖数: 6601 | 6 俺和小蒙古一样,法轮功政庇。怎么可能知道秩。
【在 R*****i 的大作中提到】 : 卧槽,这么简单的问题。楼猪知道秩是什么吗?
|
f*******1 发帖数: 522 | 7 线性空间和映射。看是超定还是欠定问题。
欠定问题的解应该是一个仿射子空间
超定问题没有精确解,用子空间投影的办法(最小二乘)求最佳近似 |
a********i 发帖数: 1611 | |
w*******e 发帖数: 269 | 9 是SVD
SVD也常被人拿去做PCA
所以你以為SVD就是PCA
: PCA
【在 a********i 的大作中提到】 : PCA
|
s**********a 发帖数: 1853 | 10 这几个看起来是真的政治庇护。而且爱科学学科学。
但凡大学毕业的,应该不会有兴趣纠结这个问题。
m=n而且是满秩的话,能求出唯一解就求。求不出唯一解就用最小二乘法搞个近似解。
如果方程个数小于未知数个数,那么就决定一个超平面子空间。
我们大学毕业生,一般也不会纠结这个问题。
【在 c****x 的大作中提到】 : 来来来,做题。 : http://www.mitbbs.com/article_t/Mathematics/31236369.html : follow up: 如果A不是列满秩的时候,可以有通解时,工程上如何进行数据的取舍? : 【 以下文字转载自 Mathematics 讨论区 】 : 发信人: mingzhen (haoren), 信区: Mathematics : 标 题: 一个矩阵数学问题: Ax=b : 发信站: BBS 未名空间站 (Sun Jun 24 19:25:02 2018, 美东) : 一个矩阵数学问题: Ax=b : 假如A 是m x n的二维矩阵, x 是 n x 1的向量,b 就是 m x 1的向量。 : 假如A,b均已知, 且m不等于n, 问题:
|
|
|
m**********e 发帖数: 12525 | 11 对
楼主看上去也属于买提上窜下跳的名人了,
妈的竟然智商就这么一点
太他妈让人惊讶了
【在 s**********a 的大作中提到】 : 这几个看起来是真的政治庇护。而且爱科学学科学。 : 但凡大学毕业的,应该不会有兴趣纠结这个问题。 : m=n而且是满秩的话,能求出唯一解就求。求不出唯一解就用最小二乘法搞个近似解。 : 如果方程个数小于未知数个数,那么就决定一个超平面子空间。 : 我们大学毕业生,一般也不会纠结这个问题。
|
B*Q 发帖数: 25729 | |
s**********a 发帖数: 1853 | 13 其实不会解线性方程组本来没啥,很正常。好多数学要求不高的系,线代学完了
就忘了。
问题是:他还显得很有兴趣,觉得这是个高深问题。
楼主主要不是智商问题,主要是学历不够。初中毕业就偷渡了,没好好上学。
要是楼主有机会上大学,搞不好还是个好学生呢。
【在 m**********e 的大作中提到】 : 对 : 楼主看上去也属于买提上窜下跳的名人了, : 妈的竟然智商就这么一点 : 太他妈让人惊讶了
|
a********i 发帖数: 1611 | 14 SVD只是被PCA拿来求主成分用的,你不要以为SVD就是PCA
【在 w*******e 的大作中提到】 : 是SVD : SVD也常被人拿去做PCA : 所以你以為SVD就是PCA : : : PCA :
|
s**********a 发帖数: 1853 | 15 你这里的PCA是个什么鸡巴玩意?
统计里面的主成分分析?
【在 a********i 的大作中提到】 : SVD只是被PCA拿来求主成分用的,你不要以为SVD就是PCA
|
s**********a 发帖数: 1853 | 16 操他妈妈的,终于看到一个大学以上学历的网友了。
高知网友,你好,你辛苦了。
【在 f*******1 的大作中提到】 : 线性空间和映射。看是超定还是欠定问题。 : 欠定问题的解应该是一个仿射子空间 : 超定问题没有精确解,用子空间投影的办法(最小二乘)求最佳近似
|
a********i 发帖数: 1611 | 17 楼主问了“工程上如何进行数据的取舍?”
得到了主成分就能对数据进行取舍,你丫狗屁不懂就别瞎叫唤了
【在 s**********a 的大作中提到】 : 你这里的PCA是个什么鸡巴玩意? : 统计里面的主成分分析?
|
m**********e 发帖数: 12525 | 18 码农machine learning里的玩意
所以啊,目前所谓人工智能对“智能”的理解就这档次
【在 s**********a 的大作中提到】 : 你这里的PCA是个什么鸡巴玩意? : 统计里面的主成分分析?
|
m**********e 发帖数: 12525 | 19 丫楼上说了,用数学的语言就是最小二乘,用物理的语言就是误差最小
【在 a********i 的大作中提到】 : 楼主问了“工程上如何进行数据的取舍?” : 得到了主成分就能对数据进行取舍,你丫狗屁不懂就别瞎叫唤了
|
s**********a 发帖数: 1853 | 20 原来ML就是这个玩意儿啊?
我还以为什么因子分析,聚类分析,主成分分析,现在早没人搞了呢。
真是out了。
【在 m**********e 的大作中提到】 : 码农machine learning里的玩意 : 所以啊,目前所谓人工智能对“智能”的理解就这档次
|
|
|
m**********e 发帖数: 12525 | 21 machine learning目前主要停留在统计相关这个层次上
也就是说,大数据分析女人都是长头发的,于是看到一个长头发的人就断定是女人这个
层次
同样,machine learning看到每天太阳东升西落,立马得出结论地球是宇宙的中心,万
物绕着地球转
【在 s**********a 的大作中提到】 : 原来ML就是这个玩意儿啊? : 我还以为什么因子分析,聚类分析,主成分分析,现在早没人搞了呢。 : 真是out了。
|
d****o 发帖数: 32610 | 22 现在DL要搞独立,不说自己是ML了
ML专指这些过时东西
【在 s**********a 的大作中提到】 : 原来ML就是这个玩意儿啊? : 我还以为什么因子分析,聚类分析,主成分分析,现在早没人搞了呢。 : 真是out了。
|
s**********a 发帖数: 1853 | 23 那DL到底是怎么搞的啊?
【在 d****o 的大作中提到】 : 现在DL要搞独立,不说自己是ML了 : ML专指这些过时东西
|
d****o 发帖数: 32610 | 24 ML是统计,
DL是自己都搞不清楚在统计啥的统计
【在 s**********a 的大作中提到】 : 那DL到底是怎么搞的啊?
|
a********i 发帖数: 1611 | 25 还是有区别的,最小二乘起码得确定用什么样的超平面,而找主成分能通过结果选择符
合要求的主成分
比如一个多维数据,你不知道拟合到哪个超平面上就可以用主成分分析找出来
【在 m**********e 的大作中提到】 : 丫楼上说了,用数学的语言就是最小二乘,用物理的语言就是误差最小
|
p******g 发帖数: 8316 | 26 Hah?
Gauss-Markov Theorem 是1800年发明的,其实是1722年做的铺垫,
Machine Learning啥时候才有的?
这个Least Square早就用的满大街都是了,怎么算成ML里的了? 你不是80年代读大学
的时候就有了么?
而且这也不是码农的基本功啊,就是数学和统计,发明者是著名数学家高斯啊
【在 m**********e 的大作中提到】 : 码农machine learning里的玩意 : 所以啊,目前所谓人工智能对“智能”的理解就这档次
|
c****x 发帖数: 6601 | 27 哈哈哈。你太狠了。
【在 s**********a 的大作中提到】 : 其实不会解线性方程组本来没啥,很正常。好多数学要求不高的系,线代学完了 : 就忘了。 : 问题是:他还显得很有兴趣,觉得这是个高深问题。 : 楼主主要不是智商问题,主要是学历不够。初中毕业就偷渡了,没好好上学。 : 要是楼主有机会上大学,搞不好还是个好学生呢。
|
p******g 发帖数: 8316 | 28 还有那个gradient decent和conjugate gradient 都是存在上百年了,咋到了你们这里
,就成了人工智能的了。
人工智能用到这些理论知识,但也不能倒打一耙说成是人工智能带来的吧 |
m**********e 发帖数: 12525 | 29 安了
知道伊藤君什么时候出生的?
伊藤君还没出生前,什么markov都是空中楼阁
【在 p******g 的大作中提到】 : Hah? : Gauss-Markov Theorem 是1800年发明的,其实是1722年做的铺垫, : Machine Learning啥时候才有的? : 这个Least Square早就用的满大街都是了,怎么算成ML里的了? 你不是80年代读大学 : 的时候就有了么? : 而且这也不是码农的基本功啊,就是数学和统计,发明者是著名数学家高斯啊
|
m*****n 发帖数: 4015 | 30 PCA 都没听说过?你学过线性代数吗
[在 shanghaibaba (上海爸爸) 的大作中提到:]
:你这里的PCA是个什么鸡巴玩意?
:统计里面的主成分分析? |
|
|
c****x 发帖数: 6601 | 31 我政庇的身份这么快就曝露了。汗!
【在 m**********e 的大作中提到】 : 对 : 楼主看上去也属于买提上窜下跳的名人了, : 妈的竟然智商就这么一点 : 太他妈让人惊讶了
|
p******g 发帖数: 8316 | 32 ???
什么乱七八糟的
【在 m**********e 的大作中提到】 : 安了 : 知道伊藤君什么时候出生的? : 伊藤君还没出生前,什么markov都是空中楼阁
|
m*****n 发帖数: 4015 | 33 自己 google
pseudoinverse
[在 cccpwx (暱稱太短) 的大作中提到:]
:来来来,做题。
:http://www.mitbbs.com/article_t/Mathematics/31236369.html
:follow up: 如果A不是列满秩的时候,可以有通解时,工程上如何进行数据的取舍?
:一个矩阵数学问题: Ax=b
:假如A 是m x n的二维矩阵, x 是 n x 1的向量,b 就是 m x 1的向量。
:假如A,b均已知, 且m不等于n, 问题:
:1) 能否反求出x? |
m**********e 发帖数: 12525 | 34 你数学基础不扎实
祖国复旦大学概率论第一卷就是普通大学内容。
由于概论空间黎曼不可积,所以第二卷开始就涉及概论空间的伊藤积分
伊藤清,20世纪40年代才提出伊藤积分
在伊藤清提出伊藤积分以前,概论是伪科学
【在 p******g 的大作中提到】 : ??? : 什么乱七八糟的
|
p******g 发帖数: 8316 | 35 你这扯的都是啥啊?
我说的是least square这个知识段是几百年前就有了,跟人工智能没关系,整个工程领
域到处都用,现在火爆的人工智能也在用。
你现在说的都是些啥?
这跟我数学基础扎实不扎实的关系又是怎么扯出来的?
【在 m**********e 的大作中提到】 : 你数学基础不扎实 : 祖国复旦大学概率论第一卷就是普通大学内容。 : 由于概论空间黎曼不可积,所以第二卷开始就涉及概论空间的伊藤积分 : 伊藤清,20世纪40年代才提出伊藤积分 : 在伊藤清提出伊藤积分以前,概论是伪科学
|
c****x 发帖数: 6601 | 36 超定是一般不存在精确解,并不必然。
【在 f*******1 的大作中提到】 : 线性空间和映射。看是超定还是欠定问题。 : 欠定问题的解应该是一个仿射子空间 : 超定问题没有精确解,用子空间投影的办法(最小二乘)求最佳近似
|
a***e 发帖数: 27968 | 37 代数学基本定理很难证明的
★ 发自iPhone App: ChinaWeb 1.1.4
【在 d****o 的大作中提到】 : 拿矩阵那套语言解释当然可以, : 初中生当个n元一次方程组就知道怎么回事
|
f**********d 发帖数: 4960 | 38 你说的概论空间是要说概率空间么?
伊藤积分解决的是对于布朗运动的积分问题,
概率论在cantor的集合论测度论之后就已经公理化了。
【在 m**********e 的大作中提到】 : 你数学基础不扎实 : 祖国复旦大学概率论第一卷就是普通大学内容。 : 由于概论空间黎曼不可积,所以第二卷开始就涉及概论空间的伊藤积分 : 伊藤清,20世纪40年代才提出伊藤积分 : 在伊藤清提出伊藤积分以前,概论是伪科学
|
s**********a 发帖数: 1853 | 39 a?
雇员姐,你到底知不知道高斯马可夫定理是什么东西啊?
另外,马可夫貌似1856年才出生,你确定高斯马可夫定理是1800年发明的吗?
【在 p******g 的大作中提到】 : Hah? : Gauss-Markov Theorem 是1800年发明的,其实是1722年做的铺垫, : Machine Learning啥时候才有的? : 这个Least Square早就用的满大街都是了,怎么算成ML里的了? 你不是80年代读大学 : 的时候就有了么? : 而且这也不是码农的基本功啊,就是数学和统计,发明者是著名数学家高斯啊
|
F********2 发帖数: 807 | 40 以后请自称文科生或者小学生
谢谢
【在 c****x 的大作中提到】 : 来来来,做题。 : http://www.mitbbs.com/article_t/Mathematics/31236369.html : follow up: 如果A不是列满秩的时候,可以有通解时,工程上如何进行数据的取舍? : 【 以下文字转载自 Mathematics 讨论区 】 : 发信人: mingzhen (haoren), 信区: Mathematics : 标 题: 一个矩阵数学问题: Ax=b : 发信站: BBS 未名空间站 (Sun Jun 24 19:25:02 2018, 美东) : 一个矩阵数学问题: Ax=b : 假如A 是m x n的二维矩阵, x 是 n x 1的向量,b 就是 m x 1的向量。 : 假如A,b均已知, 且m不等于n, 问题:
|
|
|
s**********a 发帖数: 1853 | 41 雇员姐你这几个名词炒作了很久了,该更新知识点了。
下山法和共轭梯度法都是数值分析里面的内容。
数值分析里面其实更装逼一点的名词是冯纽曼测试。
赶紧去google一下学习一下,以后可以用冯纽曼测试来砸他们。
【在 p******g 的大作中提到】 : 还有那个gradient decent和conjugate gradient 都是存在上百年了,咋到了你们这里 : ,就成了人工智能的了。 : 人工智能用到这些理论知识,但也不能倒打一耙说成是人工智能带来的吧
|
p******g 发帖数: 8316 | 42 Died: February 23, 1855, Göttingen, Germany
高斯1855年去世
【在 s**********a 的大作中提到】 : a? : 雇员姐,你到底知不知道高斯马可夫定理是什么东西啊? : 另外,马可夫貌似1856年才出生,你确定高斯马可夫定理是1800年发明的吗?
|
s**********a 发帖数: 1853 | 43 在现代里面真美学过PCA。
本科第一次学线代的时候,最后老师倒是提了一下奇异值分解。
后来学过计算线代,高斯法,共轭梯度法,伽辽金法都学过。
再后来研究生课又学现代,主要学什么商空间,核空间。
这个家宝的PCA,真没学过。
【在 m*****n 的大作中提到】 : PCA 都没听说过?你学过线性代数吗 : [在 shanghaibaba (上海爸爸) 的大作中提到:] : :你这里的PCA是个什么鸡巴玩意? : :统计里面的主成分分析?
|
s**********a 发帖数: 1853 | 44 他把柯尔莫戈罗夫的贡献给弄错给Ito了。
Ito的贡献主要是解决了布朗运动和一般半鞅类型的随机过程的积分。
【在 f**********d 的大作中提到】 : 你说的概论空间是要说概率空间么? : 伊藤积分解决的是对于布朗运动的积分问题, : 概率论在cantor的集合论测度论之后就已经公理化了。
|
s**********a 发帖数: 1853 | 45 高斯马可夫定理是高斯一个人的定理吗?
那为啥要放马可夫的名字?
【在 p******g 的大作中提到】 : Died: February 23, 1855, Göttingen, Germany : 高斯1855年去世
|
F********2 发帖数: 807 | 46 传统线代不讲pca
初等概率统计也不讲
到中级统计或者数据分析才讲,算这些课程的核心内容之一
【在 s**********a 的大作中提到】 : 在现代里面真美学过PCA。 : 本科第一次学线代的时候,最后老师倒是提了一下奇异值分解。 : 后来学过计算线代,高斯法,共轭梯度法,伽辽金法都学过。 : 再后来研究生课又学现代,主要学什么商空间,核空间。 : 这个家宝的PCA,真没学过。
|
c****x 发帖数: 6601 | 47 这是我转的,又不是我问的。
带不带这样羞辱人的?
【在 F********2 的大作中提到】 : 以后请自称文科生或者小学生 : 谢谢
|
m*****n 发帖数: 4015 | 48 PCA = centering + SVD
SVD 你不可能没学过。这个是线性代数基本内容。
[在 shanghaibaba (上海爸爸) 的大作中提到:]
:在现代里面真美学过PCA。
:本科第一次学线代的时候,最后老师倒是提了一下奇异值分解。
:后来学过计算线代,高斯法,共轭梯度法,伽辽金法都学过。
:再后来研究生课又学现代,主要学什么商空间,核空间。
:这个家宝的PCA,真没学过。 |
d****o 发帖数: 32610 | 49 属实
骑大马没学过测度论
【在 s**********a 的大作中提到】 : 他把柯尔莫戈罗夫的贡献给弄错给Ito了。 : Ito的贡献主要是解决了布朗运动和一般半鞅类型的随机过程的积分。
|
s**********a 发帖数: 1853 | 50 我不是说了么?我学过SVD。上文中第二行。
但PCA到底是什么,我肯定在线性代数课里面没学过。
自己翻多元统计课本,倒是见过主成分分析的名称。
但我以为这种烂东西早没人搞了呢。
【在 m*****n 的大作中提到】 : PCA = centering + SVD : SVD 你不可能没学过。这个是线性代数基本内容。 : [在 shanghaibaba (上海爸爸) 的大作中提到:] : :在现代里面真美学过PCA。 : :本科第一次学线代的时候,最后老师倒是提了一下奇异值分解。 : :后来学过计算线代,高斯法,共轭梯度法,伽辽金法都学过。 : :再后来研究生课又学现代,主要学什么商空间,核空间。 : :这个家宝的PCA,真没学过。
|
|
|
m*****n 发帖数: 4015 | 51 用svd 解pseudo inverse 这是最基本的线性代数解法了。楼上弃婴 扯什么概率论 这
是犯什么
病了吗 |
s**********a 发帖数: 1853 | 52 对。弃大妈刚才讲的内容是勒贝格积分的内容。
但正常的勒贝格积分只能解决有界变差函数的积分。
而布朗运动,是无界变差,但有有界二次变差。Ito就针对这种现象
构造了ito积分
【在 d****o 的大作中提到】 : 属实 : 骑大马没学过测度论
|
p******g 发帖数: 8316 | 53 Gauss proved the method under the assumption of normally distributed errors
(see Gauss–Markov theorem; see also Gaussian). The method had been
described earlier by Adrien-Marie Legendre in 1805, but Gauss claimed that
he had been using it since 1794 or 1795.[58] In the history of statistics,
this disagreement is called the "priority dispute over the discovery of the
method of least squares."[59]
Least square的实际发明时间比1800年还早,是1794年就开始了 |
p******g 发帖数: 8316 | 54 原来你以为这个Markov是发明Markov chain的那个Markov,哈哈哈
我说我怎么看不明白呢
【在 s**********a 的大作中提到】 : 高斯马可夫定理是高斯一个人的定理吗? : 那为啥要放马可夫的名字?
|
d****o 发帖数: 32610 | 55 不是吗?
俺一直以为是一个人
难道是伯努利那样一家子?
【在 p******g 的大作中提到】 : 原来你以为这个Markov是发明Markov chain的那个Markov,哈哈哈 : 我说我怎么看不明白呢
|
s**********a 发帖数: 1853 | 56 雇员姐你别google了。我给你讲清楚吧。
gauss markov 定理的假设,不光是normally distributed,而且还要不相关。
这个gauss markov定理,是讲,满足gauss markov假设的线性回归的ols,也
就是普通最小二乘解,是回归的最小方差无偏解。
这个定理,和楼主方程,完全没有关系...
【在 p******g 的大作中提到】 : Gauss proved the method under the assumption of normally distributed errors : (see Gauss–Markov theorem; see also Gaussian). The method had been : described earlier by Adrien-Marie Legendre in 1805, but Gauss claimed that : he had been using it since 1794 or 1795.[58] In the history of statistics, : this disagreement is called the "priority dispute over the discovery of the : method of least squares."[59] : Least square的实际发明时间比1800年还早,是1794年就开始了
|
s**********a 发帖数: 1853 | 57 你别继续说了,雇员姐,收工,然后学习我今天的帖子。
这样你明天装逼手法就能又多一点了。
【在 p******g 的大作中提到】 : 原来你以为这个Markov是发明Markov chain的那个Markov,哈哈哈 : 我说我怎么看不明白呢
|
s**********a 发帖数: 1853 | 58 就是一个人啊。你听她扯呢。
【在 d****o 的大作中提到】 : 不是吗? : 俺一直以为是一个人 : 难道是伯努利那样一家子?
|
d****o 发帖数: 32610 | 59 吓我一跳
还以为今天学习到新知识了
【在 s**********a 的大作中提到】 : 就是一个人啊。你听她扯呢。
|
p******g 发帖数: 8316 | 60 确实是一个人,是我看错了,我的失误。
抱歉了。
【在 d****o 的大作中提到】 : 吓我一跳 : 还以为今天学习到新知识了
|
|
|
p******g 发帖数: 8316 | 61 不过你又说对了,马可夫也是一大家子的数学家,lol
【在 d****o 的大作中提到】 : 吓我一跳 : 还以为今天学习到新知识了
|
s**********a 发帖数: 1853 | 62 只有这个markov厉害。别的称不上大家。
【在 p******g 的大作中提到】 : 不过你又说对了,马可夫也是一大家子的数学家,lol
|
p******g 发帖数: 8316 | 63 他这个病也很好解读
我纠正他说的错误论断“LS methods这是码农才用的,是ML的”
然后他就扯出概率论来向我示威,他觉得他写的那几行terms我应该看不懂,所以他就
急急忙忙地出来摆酷了。
姐作为山大毕业的文科生啊,搞不懂概率论,那不是太正常了?lol
【在 m*****n 的大作中提到】 : 用svd 解pseudo inverse 这是最基本的线性代数解法了。楼上弃婴 扯什么概率论 这 : 是犯什么 : 病了吗
|
s**********a 发帖数: 1853 | 64 弃妈今天出手太急了,露了破绽。
【在 p******g 的大作中提到】 : 他这个病也很好解读 : 我纠正他说的错误论断“LS methods这是码农才用的,是ML的” : 然后他就扯出概率论来向我示威,他觉得他写的那几行terms我应该看不懂,所以他就 : 急急忙忙地出来摆酷了。 : 姐作为山大毕业的文科生啊,搞不懂概率论,那不是太正常了?lol
|
h*******i 发帖数: 9 | 65 LS 解 X= inv(transpose(A)*A) * transpose(A)*b,A 得是列满秩 或者说方程正定或
超定。 |
s**********a 发帖数: 1853 | 66 A不是列满秩的话就可以把方程消掉。
最后方程数目就小于未知数数目了。这样的话,方程能确定一个超平面子空间。
前面有人不是说过了吗?
【在 h*******i 的大作中提到】 : LS 解 X= inv(transpose(A)*A) * transpose(A)*b,A 得是列满秩 或者说方程正定或 : 超定。
|
c****x 发帖数: 6601 | 67 你这个和我原link回的没区别。
【在 h*******i 的大作中提到】 : LS 解 X= inv(transpose(A)*A) * transpose(A)*b,A 得是列满秩 或者说方程正定或 : 超定。
|
h*******i 发帖数: 9 | 68 嗯 我只是抛砖引玉 用式子总结一下平常情况下的解法。希望有人也用formula的形式
解答 只是文字吵吵看不懂
【在 c****x 的大作中提到】 : 你这个和我原link回的没区别。
|
d*****u 发帖数: 17243 | 69 代数应该讲过奇异值分解,哪怕不考。
简单说奇异值对应的那些向量就是主成份。
统计里可以用来给数据降维。
【在 s**********a 的大作中提到】 : 在现代里面真美学过PCA。 : 本科第一次学线代的时候,最后老师倒是提了一下奇异值分解。 : 后来学过计算线代,高斯法,共轭梯度法,伽辽金法都学过。 : 再后来研究生课又学现代,主要学什么商空间,核空间。 : 这个家宝的PCA,真没学过。
|
d*****u 发帖数: 17243 | 70 你不要听那个弃婴瞎说。
PCA在本科计算机视觉课程里会讲,但不是什么主流工具。
【在 s**********a 的大作中提到】 : 我不是说了么?我学过SVD。上文中第二行。 : 但PCA到底是什么,我肯定在线性代数课里面没学过。 : 自己翻多元统计课本,倒是见过主成分分析的名称。 : 但我以为这种烂东西早没人搞了呢。
|
|
|
t*******o 发帖数: 1 | 71 靠,都答不上么
当然有确定的解啦
就是零么
这些人,书都白读了 |
t*******o 发帖数: 1 | |