spark 凸优化使用

文章来源:补丁网 时间:2018-07-28 17:24

作者:ming Astro

链接:https://www.zhihu.com/question/20970802/answer/132347165

来源:知乎

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


一本晦涩难懂的经书、这是一本作者装逼的书,这本书的作者为了显示自己的数学功底和机器学习的神秘而把浅显易懂的内容搞得特别抽象化,数学化。建议初学者不要看,中等学者不要细看,权当一本杂志随便翻翻。为什么这么说呢?机器学习是一门实践学科,是engineering,不是理论物理学。如果你是一名机器学习的小白,高等数学学的还不错,会用Python做for,if,那你应该这样做:把斯坦福Andrew 的讲义看一遍,大约需要五天,然后再看一遍,并且把里面感兴趣的习题做一遍,不感兴趣的就不用做了,十天后你就可以走出理论世界,尝试去解决现实世界中的问题吧。那去哪?上kaggle,里面有很多竞赛,但图像处理的先不要去碰,找一个数据小,玩的人多的竞赛,就参加吧,这时你可能会写出你人生中第一个自己解决实际问题的程序。好的,你的程序出结果了,你提交你的答案,你的排名可能是在最底下,没关系,看看这个竞赛的论坛吧。这个时候你可能会碰到很多专业名词,事实上这些词你在Andrew的教程中都见过。和real world problem离这么近,你会对机器学习里面的概念理解的更好。大约一个多月后你对机器学习是怎么回事心里有底了,不那么慌了,这时你需要充电,回炉重造,找一些大牛的书好好梳理一下理论结构,但千万别碰题主的这本书。如果让我推荐,Bengio最近新出了一本书叫Deep Learning。那本书写的很好,里面应该是对过去机器学习成果的很好的总结,比PRML这本老古董更适合去学。记住机器学习是engineering不是理论物理。有时间再更,手机码字,累




作者:Scofield

链接:https://www.zhihu.com/question/35866596/answer/236886066

来源:知乎

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


一、监督:{


1.1

 分类算法(线性和非线性):

{


    感知机


    KNN


    概率{

        朴素贝叶斯(NB)

        Logistic Regression(LR)

        最大熵MEM(与LR同属于对数线性分类模型)

    }


    支持向量机(SVM)


    决策树(ID3、CART、C4.5)


    assembly learning{

        Boosting{

            Gradient Boosting{

                GBDT

                xgboost(传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题);xgboost是Gradient Boosting的一种高效系统实现,并不是一种单一算法。)

            }

            AdaBoost

        }   

        Bagging{

            随机森林

        }

        Stacking

    }


    ……

}


1.2 概率图模型:{

    HMM

    MEMM(最大熵马尔科夫)

    CRF

    ……

}



1.3 回归预测:{

    线性回归

    树回归

    Ridge岭回归

    Lasso回归

    ……

}


……  

}



二、非监督:{

2.1 聚类:{

    1. 基础聚类

        K—mean

        二分k-mean

        K中值聚类

        GMM聚类

    2. 层次聚类

    3. 密度聚类

    4. 谱聚类()

}


2.2 主题模型:{

    pLSA

    LDA隐含狄利克雷分析

}


2.3 关联分析:{

    Apriori算法

    FP-growth算法

}


2.4 降维:{

    PCA算法

    SVD算法

    LDA线性判别分析

    LLE局部线性嵌入

}


2.5 异常检测:

……

}


三、半监督学习


四、迁移学习


更多

猜你喜欢