跳转至

最优化方法

最优化方法(凸优化)是一门 AI 学院的课。

这门课是 20级 信息与计算科学同学接触到的第一门选修课之一,就 20级 而言,选这门课的人数还是挺多的。

这门课使用的教材是 Stephen Boyd 的 Convex Optimization.

去年的 课程网站,上面包含了所有的 PPT, 作业.

课程内容有一定难度,首先是对数学基础的要求,开始有几节课会介绍这门课的数学背景(见课程网站PPT),这里感觉十分困难的同学可以考虑开润。就笔者本人而言,一开始理解凸优化这个概念非常的困难,不是很懂将约束条件转来转去的意义何在,一度非常痛苦(x),但随着学习的深入,尤其是理解了对偶性这一概念之后,会感觉有所收获。

这门课的讲课主要还是以 PPT 为主,感觉效率太低的同学可以考虑自学,PPT和教材的重合度非常之高,同时还可以参照教材作者本人的网课,bilibili上可以搜到。b站链接

opt2021(20届)的考试包含10*1的判断和90分的大题(可能是6题,记不得了,欢迎补充说明),其中大题涉及到了作业的原题(答案在最后一节习题课上会讲,建议参加,Github上也能搜到往届的很多作业题)。考试范围涵盖了所有PPT的内容,如果想拿高分,还是需要至少复习一遍基本概念。

这门课给分给人感觉还是不错的,就笔者认识的一位同学而言,他没能做出一道线性规划的小问,最后关于迭代方法的一题也是在胡扯,最后总评依然拿到了90+。(上面提到的这两部分在作业中出现的比较少或者是没出现过类似体型,但是各自占了一道大题)

关于选课的建议:从方向上来说,如果你对AI、优化方向感兴趣,非常建议选修。从对后续课程来说,在大二下的计算方法(20级必修),还会再接触一次线性规划(甚至凸优化,虽然计算方法最后没考这个),因此对后续课程也是很有帮助的。

23级情况:

最优化导论前面的内容比较繁杂,主要是罗列定义和公式,但是不会给出详细的证明(不过这部分也基本没考他罗列的xxx范数之类的,可以自行推理)后面的内容,也就是从 convex function 开始,笔者认为是凸优化这个课的核心部分。

张老师讲课不错,但是由于课程设计的缘故,笔者认为学习这门课收获比较有限。对于想多学一些数学,或者对ai方向感兴趣的同学,可以考虑选择。数分高代没学懂的同学不建议修读。最终23级强基班有5/23人选择该门课。

考核:判断题20分+大题80分,期末考试约有50%的内容来自课后作业以及ppt。前面题目偏定义,比较容易。中间的题目非原题,比较考验能力。然后后面的题基本都是原题或者改编,可以顺着题解的来。所以考试建议把作业吃透。

评论