前言
本文的是台湾大学2020机器学习Semi-supervised leraning的笔记。奉行Lazy evaluation策略,对这些知识更深层次的探究只在绝对必要时完成。
本文的是台湾大学2020机器学习Semi-supervised leraning的笔记。奉行Lazy evaluation策略,对这些知识更深层次的探究只在绝对必要时完成。
支持向量机(Support Vector Machine,SVM)是一个能求解通用二元分类问题的模型。SVM使用Kernel trick,使得自己在能够表示非线性函数的同时Loss是有闭式解的Convex function。也有人把SVM当作线性模型向神经网络过渡的中间阶段。
主成分分析(Principal component analysis,PCA)是一种常用的无监督学习算法。经过PCA后的数据会在它所处理的维度上会不相关(decorelation)。 而PCA所选的维度又通常比本来的维度要小,因此也可以用来做降维处理。
梯度下降法大部分时间都在进行向量和矩阵运算。这些运算是天然可以并行化的。因此使用GPU进行运算会比CPU运算快得多。而常用的框架Tensorflow就通过CUDA提供了GPU运算的支持。
Recurrent Neural network(RNN)是一种专门处理序列的神经网络。正如CNN可以轻易地处理大规模的“网格状”数据,RNN能够处理其他网络架构都无法处理的长的序列。
任何一个机器学习的任务都可以被拆解为三步
这三步在神经网络中同样成立。但在神经网络中,要找的不是一组函数,而是一种网络架构(architecture)。本文中的卷积神经网络(CNN)就是一种网络架构
Deep learning algorithms are typically applied to extremely complicated domains where the true generation process essentially involves simulating the entire universe… Controlling the complexity of the model is not a simple matter of finding the model of the right size, with the right number of parameters. Instead, we might find—and indeed in practical deep learning scenarios, we almost always do find—that the best fitting model (in the sense of minimizing generalization error) is a large model that has been regularized appropriately
本文是NTU ML 2020中BackPropagation部分的笔记。
梯度下降是非常常用的优化算法。而在深度学习中,一个神经网络的参数动辄几百万,像线性模型那样人手工算好再告诉机器的方式已经不合适了,需要一种更高效的算法来计算梯度。
本文的是台湾大学2020机器学习的Classification1和2的笔记,奉行Lazy evaluation策略,对这些知识更深层次的探究只在绝对必要时完成。
本文的主体是Ian Goodfellow 「Deep Learning」第五章「MACHINE LEARNING BASICS」,未经动手实做,故称纸上谈兵。目前奉行Lazy evaluation,对相关知识的补充会在实践后进行。