最优化方法

最优化方法(凸优化)是一门 AI 学院的课。

这门课是 20级 信息与计算科学同学接触到的第一门选修课之一,就 20级 而言,选这门课的人数还是挺多的。

这门课使用的教材是 Stephen Boyd 的 Convex Optimization.

去年的 课程网站,上面包含了所有的 PPT, 作业.

课程内容有一定难度,首先是对数学基础的要求,开始有几节课会介绍这门课的数学背景(见课程网站PPT),这里感觉十分困难的同学可以考虑开润。就笔者本人而言,一开始理解凸优化这个概念非常的困难,不是很懂将约束条件转来转去的意义何在,一度非常痛苦(x),但随着学习的深入,尤其是理解了对偶性这一概念之后,会感觉有所收获。

这门课的讲课主要还是以 PPT 为主,感觉效率太低的同学可以考虑自学,PPT和教材的重合度非常之高,同时还可以参照教材作者本人的网课,bilibili上可以搜到。b站链接

opt2021(20届)的考试包含10*1的判断和90分的大题(可能是6题,记不得了,欢迎补充说明),其中大题涉及到了作业的原题(答案在最后一节习题课上会讲,建议参加,Github上也能搜到往届的很多作业题)。考试范围涵盖了所有PPT的内容,如果想拿高分,还是需要至少复习一遍基本概念。

这门课给分给人感觉还是不错的,就笔者认识的一位同学而言,他没能做出一道线性规划的小问,最后关于迭代方法的一题也是在胡扯,最后总评依然拿到了90+。(上面提到的这两部分在作业中出现的比较少或者是没出现过类似体型,但是各自占了一道大题)

关于选课的建议:从方向上来说,如果你对AI、优化方向感兴趣,非常建议选修。从对后续课程来说,在大二下的计算方法(20级必修),还会再接触一次线性规划(甚至凸优化,虽然计算方法最后没考这个),因此对后续课程也是很有帮助的。

评论