学完算法,还想更深入一步,那么接触一下机器学习,是很有必要的,你需要知道当下为什么ML这么火,包括自动驾驶,人脸识别等都与之相关。有些甚至基本算法理论无法解释。
参考周志华《机器学习》
任务:
分类(classification): 预测离散值。
回归(regression):预测连续值。
一般地,我们对训练集 ( x 1 , y 1 ) , ⋅ ⋅ ⋅ , ( x m , y m ) {(x_1,y_1),···,(x_m,y_m)} (x1,y1),⋅⋅⋅,(xm,ym)进行学习,建立一个从输入空间 χ \chi χ到输出空间 Υ \Upsilon Υ的映射,对于二分类任务,通常 Υ = { − 1 , + 1 } 或 { 0 , 1 } \Upsilon=\{-1,+1\}或\{0,1\} Υ={−1,+1}或{0,1};对于多分类任务, ∣ Υ ∣ > 2 |\Upsilon|>2 ∣Υ∣>2,对于回归任务, Υ = R , R \Upsilon=\R,\R Υ=R,R为实数集。
学习完之后需要进行预测(testing)。
我们还可以进行聚类(clustering)操作,将训练集中数据分成若干组,每组称为一个簇(cluster),这些自动形成的簇可能对应一些潜在的概念划分。
根据训练数据是否有标记,学习任务可以大致分为两类:“监督学习”(supervised learning)和 “无监督学习”(unsupervised learning),分类和回归属于前者,而聚类属于后者。
泛化(generalization),指模型适应新样本的能力。我们可以把学习过程看作是在所有假设(hypothesis)组成的空间中进行搜索的过程,搜索目标是找到与训练集“匹配”的假设。
书中介绍了NFL定理,即“天下没有免费午餐的定理”。不同的学习算法期望相同。
最后让我们一睹顶会的风采。
I C M L ICML ICML:国际机器学习会议;
N I P S NIPS NIPS:国际神经信息处理系统会议;
C O L T COLT COLT:国际学习理论会议;
E C M L ECML ECML:欧洲机器学习会议;
A C M L ACML ACML:亚洲机器学习会议;
然后是顶级期刊:
J M L R JMLR JMLR: Journal of Machine Learning Research;
M L ML ML: Machine Learning;
I J C A I IJCAI IJCAI:International Joint Conference on Artificial Intelligence
A A A I AAAI AAAI:(就是这么AI) Association for the Advance of Artificial Intelligence
A I AI AI, J A I R JAIR JAIR, K D D KDD KDD, I C D M ICDM ICDM, C V P R CVPR CVPR,以及IEEE一些期刊。
如果能投给一篇,cs人生也算圆满了
第二章:模型评估与选择。