本课程介绍了机器学习核心的关键数学概念。重点是矩阵方法和统计模型,并介绍了从分类和聚类到去噪和推荐系统的实际应用。
数学主题包括线性方程、矩阵秩、子空间、回归、正则化、奇异值分解和迭代优化算法。
机器学习主题包括最小二乘分类和回归、岭回归、主成分分析、主成分回归、核方法、矩阵完成、支持向量机、聚类、随机梯度下降、神经网络和深度学习。
学生需要具备微积分基础,并接触数值计算(如Matlab、Python、Julia或R)。课程比较适合高年级本科生及研究生。
01 讲师简介
Rebecca Willett
芝加哥大学数据科学研究所统计和计算机科学教授兼人工智能主任,芝加哥丰田技术学院客座教授。AI+科学博士后项目教师。
Willett教授在机器学习和信号处理方面的工作反映了广泛和跨学科的专业知识和观点。她因对机器学习、大规模数据科学和计算成像的数学基础的贡献而享誉国际。
特别是,Willett教授研究了学习和利用大规模数据集中隐藏结构的方法;根据这些结构表示数据允许 ML 方法在数据包含缺失条目、受限制的传感或通信资源、对应于罕见事件或反映复杂物理现象的间接测量时产生更准确的预测。这些挑战在科学和技术数据中无处不在,Willett教授在这一领域的工作对国家安全、医学成像、材料科学、天文学、气候科学和其他几个领域产生了重要影响。
02 内容大纲
Lecture 1: Introduction
Lecture 2: Vectors and Matrices
Lecture 3: Least Squares and Geometry
Lecture 4: Least Squares and Optimization
Lecture 5: Gradient descent for least squares
Lecture 6: Subspaces, Bases, and Projections
Lecture 7: Finding Orthogonal Bases
Lecture 8: Introduction to the Singular Value Decomposition
Lecture 9: The Singular Value Decomposition
Lecture 10: SVD, PCA, and Dimensionality Reduction
Lecture 11: PCR & Ridge Regression
Lecture 12: Bias in ML and Matrix Completion (with notes on PageRank)
Lecture 13: Kernel Ridge Regression
Lecture 14: Support Vector Machines
Lecture 15: Stochastic Gradient Descent
Lecture 16: Deeper Neural Networks
Lecture 17: Backpropagation
Lecture 18: Clustering and K-means
微信扫码,获取课程地址