2018人工智能 XX学院 机器学习升级版V 第五期


2018人工智能 XX学院 机器学习升级版V 第五期

升级版V的内容特色:
1.每个算法模块按照“原理讲解→分析数据→自己动手实现→特征与调参”的顺序,“原理加实践,顶天立地”。
2.拒绝简单的“调包”——增加3次“机器学习的角度看数学”和3次“Python数据清洗和特征提取”,提升学习深度、降低学习坡度。
3.增加网络爬虫的原理和编写,从获取数据开始,重视将实践问题转换成实际模型的能力,分享工作中的实际案例或Kaggle案例:广告销量分析、环境数据异常检测和分析、数字图像手写体识别、Titanic乘客存活率预测、用户-电影推荐、真实新闻组数据主题分析、中文分词、股票数据特征分析等。
4.强化矩阵运算、概率论、数理统计的知识运用,掌握机器学习根本。
5.阐述机器学习原理,提供配套源码和数据;确保“懂推导,会实现”。
6.删去过于晦涩的公式推导,代之以直观解释,增强感性理解。
7.对比不同的特征选择带来的预测效果差异。
8.重视项目实践(如工业实践、Kaggle等),重视落地。思考不同算法之间的区别和联系,提高在实际工作中选择算法的能力。
9.涉及和讲解的部分Python库有:Numpy、Scipy、matplotlib、Pandas、scikit-learn、XGBoost、libSVM、LDA、Gensim、NLTK、HMMLearn,涉及的其他“小”库在课程的实践环节会逐一讲解。
课程大纲:包括视频和课件。
第一课:机器学习的数学基础1 – 数学分析

  1. 机器学习的一般方法和横向比较
  2. 数学是有用的:以SVD为例
  3. 机器学习的角度看数学
  4. 复习数学分析
  5. 直观解释常数e
  6. 导数/梯度
  7. 随机梯度下降
  8. Taylor展式的落地应用
  9. gini系数
  10. 凸函数
  11. Jensen不等式
  12. 组合数与信息熵的关系
    第二课:机器学习的数学基础2 – 概率论与贝叶斯先验
  13. 概率论基础
  14. 古典概型
  15. 贝叶斯公式
  16. 先验分布/后验分布/共轭分布
  17. 常见概率分布
  18. 泊松分布和指数分布的物理意义
  19. 协方差(矩阵)和相关系数
  20. 独立和不相关
  21. 大数定律和中心极限定理的实践意义
  22. 深刻理解最大似然估计MLE和最大后验估计MAP
  23. 过拟合的数学原理与解决方案
    第三课:机器学习的数学基础3 – 矩阵和线性代数
  24. 线性代数在数学科学中的地位
  25. 马尔科夫模型
  26. 矩阵乘法的直观表达
  27. 状态转移矩阵
  28. 矩阵和向量组
  29. 特征向量的思考和实践计算
  30. QR分解
  31. 对称阵、正交阵、正定阵
  32. 数据白化及其应用
  33. 向量对向量求导
  34. 标量对向量求导
  35. 标量对矩阵求导
    第四课:Python基础1 – Python及其数学库
  36. 解释器Python2.7与IDE:Anaconda/Pycharm
  37. Python基础:列表/元组/字典/类/文件
  38. Taylor展式的代码实现
  39. numpy/scipy/matplotlib/panda的介绍和典型使用
  40. 多元高斯分布
  41. 泊松分布、幂律分布
  42. 典型图像处理
  43. 蝴蝶效应
  44. 分形
    第五课:Python基础2 – 机器学习库
  45. scikit-learn的介绍和典型使用
  46. 损失函数的绘制
  47. 多种数学曲线
  48. 多项式拟合
  49. 快速傅里叶变换FFT
  50. 奇异值分解SVD
  51. Soble/Prewitt/Laplacian算子与卷积网络
  52. 卷积与(指数)移动平均线
  53. 股票数据分析
    第六课:Python基础3 – 数据清洗和特征选择
  54. 实际生产问题中算法和特征的关系
  55. 股票数据的特征提取和应用
  56. 一致性检验
  57. 缺失数据的处理
  58. 环境数据异常检测和分析
  59. 模糊数据查询和数据校正方法、算法、应用
  60. 朴素贝叶斯用于鸢尾花数据
  61. GaussianNB/MultinomialNB/BernoulliNB
  62. 朴素贝叶斯用于18000+篇/Sogou新闻文本的分类
    第七课: 回归
  63. 线性回归
  64. Logistic/Softmax回归
  65. 广义线性回归
  66. L1/L2正则化
  67. Ridge与LASSO
  68. Elastic Net
  69. 梯度下降算法:BGD与SGD
  70. 特征选择与过拟合
    第八课:Logistic回归
  71. Sigmoid函数的直观解释
  72. Softmax回归的概念源头
  73. Logistic/Softmax回归
  74. 最大熵模型
  75. K-L散度
  76. 损失函数
  77. Softmax回归的实现与调参
    第九课:回归实践
  78. 机器学习sklearn库介绍
  79. 线性回归代码实现和调参
  80. Softmax回归代码实现和调参
  81. Ridge回归/LASSO/Elastic Net
  82. Logistic/Softmax回归
  83. 广告投入与销售额回归分析
  84. 鸢尾花数据集的分类
  85. 交叉验证
  86. 数据可视化
    第十课:决策树和随机森林
  87. 熵、联合熵、条件熵、KL散度、互信息
  88. 最大似然估计与最大熵模型
  89. ID3、C4.5、CART详解
  90. 决策树的正则化
  91. 预剪枝和后剪枝
  92. Bagging
  93. 随机森林
  94. 不平衡数据集的处理
  95. 利用随机森林做特征选择
  96. 使用随机森林计算样本相似度
  97. 数据异常值检测
    第十一课:随机森林实践
  98. 随机森林与特征选择
  99. 决策树应用于回归
  100. 多标记的决策树回归
  101. 决策树和随机森林的可视化
  102. 葡萄酒数据集的决策树/随机森林分类
  103. 波士顿房价预测
    第十二课:提升
  104. 提升为什么有效
  105. 梯度提升决策树GBDT
  106. XGBoost算法详解
  107. Adaboost算法
  108. 加法模型与指数损失
    第十三课:提升实践
  109. Adaboost用于蘑菇数据分类
  110. Adaboost与随机森林的比较
  111. XGBoost库介绍
  112. Taylor展式与学习算法
  113. KAGGLE简介
  114. 泰坦尼克乘客存活率估计
    第十四课:SVM
  115. 线性可分支持向量机
  116. 软间隔的改进
  117. 损失函数的理解
  118. 核函数的原理和选择
  119. SMO算法
  120. 支持向量回归SVR
    第十五课:SVM实践
  121. libSVM代码库介绍
  122. 原始数据和特征提取
  123. 调用开源库函数完成SVM
  124. 葡萄酒数据分类
  125. 数字图像的手写体识别
  126. SVR用于时间序列曲线预测
  127. SVM、Logistic回归、随机森林三者的横向比较
    第十六课:聚类(上)
  128. 各种相似度度量及其相互关系
  129. Jaccard相似度和准确率、召回率
  130. Pearson相关系数与余弦相似度
  131. K-means与K-Medoids及变种
  132. AP算法(Sci07)/LPA算法及其应用
    第十七课:聚类(下)
  133. 密度聚类DBSCAN/DensityPeak(Sci14)
  134. DensityPeak(Sci14)
  135. 谱聚类SC
  136. 聚类评价AMI/ARI/Silhouette
  137. LPA算法及其应用
    第十八课:聚类实践
  138. K-Means++算法原理和实现
  139. 向量量化VQ及图像近似
  140. 并查集的实践应用
  141. 密度聚类的代码实现
  142. 谱聚类用于图片分割
    第十九课:EM算法
  143. 最大似然估计
  144. Jensen不等式
  145. 朴素理解EM算法
  146. 精确推导EM算法
  147. EM算法的深入理解
  148. 混合高斯分布
  149. 主题模型pLSA
    第二十课:EM算法实践
  150. 多元高斯分布的EM实现
  151. 分类结果的数据可视化
  152. EM与聚类的比较
  153. Dirichlet过程EM
  154. 三维及等高线等图件的绘制
  155. 主题模型pLSA与EM算法
    第二十一课:主题模型LDA
  156. 贝叶斯学派的模型认识
  157. 共轭先验分布
  158. Dirichlet分布
  159. Laplace平滑
  160. Gibbs采样详解
    第二十二课:LDA实践
  161. 网络爬虫的原理和代码实现
  162. 停止词和高频词
  163. 动手自己实现LDA
  164. LDA开源包的使用和过程分析
  165. Metropolis-Hastings算法
  166. MCMC
  167. LDA与word2vec的比较
    第二十三课:隐马尔科夫模型HMM
  168. 概率计算问题
  169. 前向/后向算法
  170. HMM的参数学习
  171. Baum-Welch算法详解
  172. Viterbi算法详解
  173. 隐马尔科夫模型的应用优劣比较
    第二十四课:HMM实践
  174. 动手自己实现HMM用于中文分词
  175. 多个语言分词开源包的使用和过程分析
  176. 文件数据格式UFT-8、Unicode
  177. 停止词和标点符号对分词的影响
  178. 前向后向算法计算概率溢出的解决方案
  179. 发现新词和分词效果分析
  180. 高斯混合模型HMM
  181. GMM-HMM用于股票数据特征提取
熊猫库——教学素材模板图纸自学资源平台
熊猫库 » 2018人工智能 XX学院 机器学习升级版V 第五期

发表评论

提供最优质的资源集合

立即查看 了解详情