『Pythonではじめる機械学習』第2刷正誤表
下記の誤りがありました。お詫びして訂正いたします。
本ページに掲載されていない誤植など間違いを見つけた方は、japan@oreilly.co.jpまで お知らせください。
2017年12月6日更新
場所 | 誤 | 正 |
---|---|---|
p49、In[28]の直前 | このデータセットには導出された105の特徴量を持つ506のサンプル | このデータセットには導出された104の特徴量を持つ506のサンプル |
p54、Out[35]の下 | さらに、105の特徴量のうちの | さらに、104の特徴量のうちの |
p54、In[36]の5行目(行頭のnを削除) | nprint("Test set score: {:.2f}".format(lasso001.score(X_test, y_test))) |
print("Test set score: {:.2f}".format(lasso001.score(X_test, y_test))) |
p54、最後 | 105の特徴量のうち、 | 104の特徴量のうち、 |
p76、6行目 | ルートから右の枝をたどると、worst radius <= 16.795 |
ルートから右の枝をたどると、worst radius > 16.795 |
p76、10行目 | ルートから左に行った場合、つまりworst radius > 16.795 |
ルートから左に行った場合、つまりworst radius <= 16.795 |
p139、12行目 | このデータセットには特徴量が30もあるので、30×14=420の散布図 | このデータセットには特徴量が30もあるので、30×29 / 2=435の散布図 |
p204、囲みの最後 | 表3-1のX_train とy_train は訓練データと訓練ラベル、X_test とy_test はテストデータとテストラベルである。 |
表3-1のX_train とy_train は訓練データと訓練ラベル、X_test はテストデータである。 |
p280、下から7行目 | ダミークラス分類器のf-値は0.13だが、(ロジスティック回帰では0.89)、「9以外」を陽性とすると、0.90対0.99となってしまい、双方ともかなり良いように見えてしまう。 | ダミークラス分類器のf-値は0.10だが、(ロジスティック回帰では0.89)、「9以外」を陽性とすると、0.91対0.99となってしまい、双方ともかなり良いように見えてしまう。 |
p283、注意 | スレッショルドを設定する場合には、テストセットを使わないように注意しよう。 | ここでは話を簡単にするためにテストセットの結果を用いてスレッショルドを設定したが、実際にはテストセットを使ってはいけない。 |
p331、数式の下4行目 | ユークリッド距離になるようにスケール変換を行う。 | ユークリッド長になるようにスケール変換を行う*2。 *2 これは各文書の個々の特徴量を、その文書のすべての特徴量の自乗和の平方根で割ることを意味する。 |
p331、Out[23]の直下 | この結果からわかるように、ワード頻度だけを用いるのに比べて | この場合にはtf-idf変換を行っても性能は向上しなかった。 |
p355、最終行 | 和書未刊 | 邦題『バンディットアルゴリズムによる最適化手法』オライリー・ジャパン、電子書籍のみ |