你将获得什么?
- 机器学习的必备核心理论
- 30 个最流行的机器学习模型
- 基于 Python 语言的实例练习
- 完整的机器学习知识体系
课程介绍
“机器学习 40 讲”终于和你见面了!
2017 年 12 月,王天一老师在极客时间开设了“人工智能基础课”专栏,带你进入人工智能的大门,介绍了人工智能所需要的基础数学、当前流行的深度学习技术、以及其他可能突破的技术路径等方方面面的内容。
人工智能基础课的第 2 季聚焦于机器学习。在新技术层出不穷的今日,机器学习依然占据着人工智能的核心地位,也是人工智能中发展最快的分支之一。
那么,怎样入门机器学习?又有哪些学习路径呢?无论机器学习领域充斥着多少花哨的技术,归根结底,都是基本模型与基本方法的结合,而理解这些基本模型和基本方法就是掌握机器学习的要义所在。那么,问题来了,这么多模型到底要怎么学习呢?其实,这里面最关键的,是要梳理出机器学习的主线,把握不同模型之间的内在关联,能够融会贯通、系统地理解机器学习。
在本专栏中,王天一老师会从机器学习中的共性问题讲起,从统计机器学习和概率图模型两个角度,详细解读 30 个最流行的机器学习模型。除了理论之外,在每个模型的介绍中还会穿插一些基于 Python 语言的简单实例,帮你加强对于模型的理解。
专栏共 3 大模块。
机器学习概观。这一模块将从频率学派与贝叶斯学派这两个视角来看机器学习,并讨论超脱于模型和方法之外的一些共性问题,包括模型的分类方式、设计准则、评估指标等。
统计机器学习模型。这一模块将以线性模型为主线,讨论模型的多种扩展和修正,如正则化、线性降维、核方法、基函数变化、随机森林等,探究从简单线性回归到复杂深度网络的发展历程。
概率图模型。这一模块将以高斯分布为起点,将高斯分布应用到从简单到复杂的图模型中,由此认识不同的模型特性与不同的计算技巧,如朴素贝叶斯、高斯混合模型、马尔科夫随机场等。
课程目录
开篇词 (1讲)
开篇词 | 打通修炼机器学习的任督二脉
机器学习概观 (10讲)
01 | 频率视角下的机器学习
02 | 贝叶斯视角下的机器学习
03 | 学什么与怎么学
04 | 计算学习理论
05 | 模型的分类方式
06 | 模型的设计准则
07 | 模型的验证方法
08 | 模型的评估指标
09 | 实验设计
10 | 特征预处理
统计机器学习模型 (18讲)
11 | 基础线性回归:一元与多元
12 | 正则化处理:收缩方法与边际化
13 | 线性降维:主成分的使用
14 | 非线性降维:流形学习
15 | 从回归到分类:联系函数与降维
16 | 建模非正态分布:广义线性模型
17 | 几何角度看分类:支持向量机
18 | 从全局到局部:核技巧
19 | 非参数化的局部模型:K近邻
20 | 基于距离的学习:聚类与度量学习
21 | 基函数扩展:属性的非线性化
22 | 自适应的基函数:神经网络
23 | 层次化的神经网络:深度学习
24 | 深度编解码:表示学习
25 | 基于特征的区域划分:树模型
26 | 集成化处理:Boosting与Bagging
27 | 万能模型:梯度提升与随机森林
总结课 | 机器学习的模型体系
概率图模型 (14讲)
28 | 最简单的概率图:朴素贝叶斯
29 | 有向图模型:贝叶斯网络
30 | 无向图模型:马尔可夫随机场
31 | 建模连续分布:高斯网络
32 | 从有限到无限:高斯过程
33 | 序列化建模:隐马尔可夫模型
34 | 连续序列化模型:线性动态系统
35 | 精确推断:变量消除及其拓展
36 | 确定近似推断:变分贝叶斯
37 | 随机近似推断:MCMC
38 | 完备数据下的参数学习:有向图与无向图
39 | 隐变量下的参数学习:EM方法与混合模型
40 | 结构学习:基于约束与基于评分
总结课 | 贝叶斯学习的模型体系
结束语 (1讲)
结课 | 终有一天,你将为今天的付出骄傲
加餐 (2讲)
如何成为机器学习工程师?
结课测试 | 这些机器学习知识你都掌握了吗?
讲师介绍
王天一,毕业于北京邮电大学,获得工学博士学位,在读期间主要研究方向是连续变量量子通信理论与系统,主持并参与了多项国家级 / 省部级科研项目,以第一作者身份发表了 5 篇 SCI 论文。目前在贵州大学大数据与信息工程学院担任副教授。 著有《人工智能革命》一书。
人工智能基础课两季的内容相互联系也各自独立,可以分别订阅。但如果想先学习数学基础,对人工智能各方面的技术有一个宏观把握,建议和第一季一起订阅。