Daniel Geng和Shannon Shih在Berkeley的ML博客上分享了一套机器学习速成的课程,课程持续更新,目前更新了四期。第一部分发布于2016年11月,而最后一个在2017年7月分享,也是最新的。
第一部分主要介绍机器学习的基本概念:回归/分类,成本函数和渐变下降。第2部分介绍感知器,逻辑回归和支持向量机等简单模型。第3部分介绍神经网络。第4部分介绍偏差和差异的概念。分享课程目录如下:
第1部分 - 介绍,回归/分类,成本函数和渐变下降
第2部分 - 感知器,逻辑回归和支持向量机
第3部分 - 神经网络
第4部分 - 偏差和差异
原网页:
https://steemit.com/programming/@cristi/machine-learning-crash-course-berkeley
获取更多深度学习最新资讯快速通道:
获取最新消息快速通道 - lqfarmer的博客 - CSDN博客
更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLP”或“DeepLearning_NLP”或扫描二维码添加关注。