900字范文,内容丰富有趣,生活中的好帮手!
900字范文 > 【勘误清单】《机器学习》 周志华 北京: 清华大学出版社

【勘误清单】《机器学习》 周志华 北京: 清华大学出版社

时间:2019-03-22 08:39:31

相关推荐

【勘误清单】《机器学习》 周志华  北京: 清华大学出版社

周志华著.机器学习, 北京: 清华大学出版社, 1月.

(ISBN 978-7-302-206853-6) 425页,62.6万字

勘误修订

(第一版第一次印刷, 1月)

p.6, 图1.2: 图中两处"清脆" --> "浊响"p.28, 第3段倒数第2行: "大量" --> "不少"p.28, 边注: "例如 ……上百亿个参数" --> "机器学习常涉及两类参数: 一类是算法的参数, 亦称"超参数", 数目常在10以内; 另一类是模型的参数, 数目可能很多, 例如……上百亿个参数. 两者调参方式相似, 均是产生多个模型之后基于某种评估方法来进行选择; 不同之处在于前者通常是由人工设定多个参数候选值后产生模型, 后者则是通过学习来产生多个候选模型(例如神经网络在不同轮数停止训练)." p.31, 倒数第3行: "Event" --> "Even"p.256, 第4段: "固定住${\bf \alpha}_i$" --> "以${\bf \alpha}_i$为初值"p.256, 最后一段第1行: "${\bf E}_i =$" --> "${\bf E}_i = {\bf X} - $"p.385, 式(16.25)和(16.26): 两处"$r_i$" --> "$R_i$"p.385, 式(16.25)下一行: "若改用……" --> "其中$R_i$表示第$i$条轨迹上自状态$x$至结束的累积奖赏. 若改用……"p.386, 式(16.28)下一行: "始终为1" --> "对于$a_i=\pi(x_i)$始终为1"p.386, 图16.11, 第4步: 两处 "$\pi(x)$" --> "$\pi(x_i)$" p.386, 图16.11, 第6步的式子 --> "$R=\frac{1}{T-t}\left(\sum_{i=t+1}^T r_i\right) \prod_{i=t+1}^{T-1} \frac{\mathbb I(a_i=\pi(x_i))}{p_i}$" p.386, 图16.11, 边注"计算修正的累积奖赏." --> "计算修正的累积奖赏. 连乘内下标大于上标的项取值为1."; 去掉边注"重要性采样系数."

(第一版第二次印刷, 2月)

p.38, 第6行: "$\epsilon^{m'}$" --> "${m \choose m'} \epsilon^{m'}$"p.119, 第14行: "318--362" --> "533--536"p.404, 式(B.3)最后一行的式子 --> "$\lambda g({\bm x})=0$"

(第一版第三次印刷, 3月)

p.15, 第5行: "居功" --> "厥功"p.55, 最后一行: 式子括号中的逗号改为分号p.125, 第3行: "减小" --> "增大"p.125, 第4行,第6行: "减幅" --> "增幅"p.125, 第5行: "减小" --> "增长"

(第一版第四次印刷, 3月)

p.59, 式(3.27)加边注: "考虑 $y_i \in \{0, 1\}$"

(第一版第五次印刷, 3月)

p.62, 第1行加边注: "$(\bm{\mu}_0 - \bm{\mu}_1)^{\rm T} \bm{w}$是标量"p.78, 图4.4, 从右往左数: 第二个叶结点改为“好瓜”,第三个叶结点改为“坏瓜”p.85, 图4.8, 从右往左数: 第二个叶结点改为“好瓜”,第三个叶结点改为“坏瓜”p.85, 图4.8, 中间分支底层: “硬挺”--> “硬滑”p.89, 图4.9, 中间分支底层: “硬挺”--> “硬滑”p.103, 最后一行的式子: 求和的"$q$" --> "$l$"p.399, 式(A.9): "$A_{1 \sigma n}$" --> "$A_{n \sigma n}$"p.400, 第1行: "(1,4,3,2)" --> "(3,1,2)"p.402, 式(A.32)最后一行的式子中: "$2{\mathbf A}$" --> "2{\mathbf A}^{\rm T}"

(第一版第六次印刷, 4月)

p.56, 图3.1中,红色第一和第二个点的坐标互换p.114, 图5.15中, 卷积层 16@10x10 和 采样层 16@5x5 各去掉 8 个方块p.301, 式(13.12)的下一行: "$({\bm f}_l^{\rm T}\,{\bm f}_u^{\rm T})^{\rm T}$" --> "$({\bm f}_l^{\rm T}; {\bm f}_u^{\rm T})$"p.372, 图16.2: 从"s=健康"到"s=溢水"的 "r=1" --> "r=-1"p.376, 图16.5的边注: "第 4 行中式(16.4)的参数" --> "该参数在第4行使用"p.385, 第二行: "在使用策略时并不需要$\epsilon-$贪心" --> "而不是为了最终使用"p.387, 倒数第二行: "$\epsilon-$贪心策略, 而执行(第5行)的是原始策略" --> "原始策略, 而执行(第4行)的是$\epsilon-$贪心策略"p.393, 第四段第一行: 去掉 "[Kuleshov and Precup, 2000]和"p.395, 去掉最后一行p.396, 去掉第一行p.402, 式(A.32)加边注: "机器学习中 $\bf W$ 通常是对称矩阵"

勘误表转自周志华教授的主页:

http://cs./zhouzh/index.htm

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。