略,分为两步,一者为期望步(e步),一者为极大步(m步),通过这两步的不断迭代以此得出最优解,所以被称为期望最大化算法(em),其实在机器学习的强化学习中,类似的迭代算法非常多,诸如蒙特卡罗同步和异步策略,又如q-learning算法……”
台下的同学们其实是有些懵逼的,因为台上这位大老的思路跳跃得实在是有些快,从em算法跳到机器学习的一些相似算法剖析了一通,然后又从数学角度浅浅理解了下,最后又跳回统计学这边。
部分算是学霸的勉强还能跟上,剩下的那就全是一脸“我是谁,我在哪,我在干什么”这哲学三问的脸。
章节报错(免登录)