范数 L0 L1 L2 核范数 概念和应用
概念理解和应用 http://blog.csdn.net/zouxy09/article/details/24971995定义 http://blog.csdn.net/xlinsist/article/details/51213593PCA
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。PCA的数学原理 http://blog.codinglabs.org/articles/pca-tutorial.html最大似然函数、EM算法
求最大似然函数估计值的一般步骤: 写出似然函数;对似然函数取对数,并整理;求导数,令导数为0,得到似然方程;解似然方程,得到的参数即为所求从最大似然函数到EM算法 http://blog.csdn.net/zouxy09/article/details/8537620EM算法:期望最大算法是一种从不完全数据或有数据丢失的数据集(存在隐含变量)中求解概率模型参数的最大似然估计方法。EM http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html逻辑回归
逻辑回归梯度下降法详解 http://blog.csdn.net/lookqlp/article/details/51161640感知器算法?
深度学习word2vec
http://suanfazu.com/t/shen-du-xue-xi-word2vec-bi-ji/192 http://latex.codecogs.com/eqneditor/editor.php深度学习框架
tensorflow http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/overview.htmlhttps://github.com/jikexueyuanwiki/tensorflow-zh/blob/master/TOC.mdhttps://github.com/nlintz/TensorFlow-Tutorials 例子 卷积 http://www.zhihu.com/question/22298352http://deeplearning.stanford.edu/wiki/index.php/Feature_extraction_using_convolution池化 http://deeplearning.stanford.edu/wiki/index.php/Poolingpaddle https://github.com/baidu/paddlehttp://www.paddlepaddle.org/doc_cn/demo/quick_start/index.htmlsoftmax回归
http://ufldl.stanford.edu/wiki/index.php/Softmax回归对于k类分类,是选择softmax分类器呢,还是k个独立的logic二元分类好?取决于类别之间是否互斥,如果互斥则softmax,如果不互斥(可能是其中的一类或者多类),则多个独立logic。深度学习(多层神经网络)
http://deeplearning.stanford.edu/wiki/index.php/神经网络
http://deeplearning.stanford.edu/wiki/index.php/UFLDL教程
神经网络的沉浮 http://www.36dsj.com/archives/39775梯度下降
梯度下降(批量),随机梯度下降,批量随机梯度下降,http://www.cnblogs.com/louyihang-loves-baiyan/p/5136447.html 在样本数据量少的时候使用批量梯度下降(下降速度最快),而在数据量大的时候建议使用批量随机梯度下降。LR vs. DT vs. SVM
http://blog.csdn.net/oliverkehl/article/details/50129999。。。持续更新