1
sanddudu 2014 年 4 月 7 日
线性回归方程?
|
3
rock_cloud 2014 年 4 月 7 日
这个是最简单的线性分类啊,把OO的所有点坐标带入kx+b得到y1,XX的所有点坐标带入kx+b得到y2,然后最大化(y2-y1)^2就可以了。
|
4
11 2014 年 4 月 7 日
线性判别分析(Linear Discriminant Analysis, LDA)
|
5
u 2014 年 4 月 7 日
同楼上。最基本的模式识别。
|
6
wuyazi OP https://gist.github.com/10017286
代码转自: http://blog.csdn.net/ranchlai/article/details/10303031 是这种方法吗? 第六行shift的变量原来是3,我改成1,想得到OO和XX交叉的分类结果,可是得到的图是这样的。。。 http://ntu.me/di/0TOLB/.jpg |
7
wuyazi OP |
8
die4live 2014 年 4 月 7 日
SVM
|
9
wuyazi OP |
10
msg7086 2014 年 4 月 7 日
LDA 我记得是 machine learning 的技术吧……
|
11
wuyazi OP |
13
yangzh 2014 年 4 月 7 日
请考虑 svm
|
15
die4live 2014 年 4 月 7 日 理论方面可以看看 [支持向量机通俗导论(理解SVM的三层境界) - 结构之法 算法之道 - 博客频道 - CSDN.NET](http://blog.csdn.net/v_july_v/article/details/7624837#t34) [支持向量机系列 « Free Mind](http://blog.pluskid.org/?page_id=683)
刚才用R试了下是可行的 设为线性核的话 也是可以得到k和b的 |