前言
第1章 機器學習概述 1
1.1 什麼是機器學習 1
1.2 機器學習的幾個需求層次 3
1.3 機器學習的基本原理 5
1.4 機器學習的基本概念 7
1.4.1 書中用到的術語介紹 7
1.4.2 機器學習的基本模式 11
1.4.3 優化方法 12
1.5 機器學習問題分類 14
1.6 常用的機器學習算法 15
1.7 機器學習算法的性能衡量指標 16
1.8 數據對算法結果的影響 18
第2章 機器學習所需的環境 20
2.1 常用環境 20
2.2 Python簡介 21
2.2.1 Python的安裝 23
2.2.2 Python的基本用法 24
2.3 Numpy簡介 25
2.3.1 Numpy的安裝 26
2.3.2 Numpy的基本用法 26
2.4 Scikit-Learn簡介 27
2.4.1 Scikit-Learn的安裝 28
2.4.2 Scikit-Learn的基本用法 28
2.5 Pandas簡介 29
2.5.1 Pandas的安裝 30
2.5.2 Pandas的基本用法 31
第3章 綫性迴歸算法 33
3.1 綫性迴歸:“鋼鐵直男”解決迴歸問題的正確方法 33
3.1.1 用於預測未來的迴歸問題 35
3.1.2 怎樣預測未來 38
3.1.3 綫性方程的“直男”本性 40
3.1.4 最簡單的迴歸問題—綫性迴歸問題 44
3.2 綫性迴歸的算法原理 46
3.2.1 綫性迴歸算法的基本思路 46
3.2.2 綫性迴歸算法的數學解析 48
3.2.3 綫性迴歸算法的具體步驟 53
3.3 在Python中使用綫性迴歸算法 54
3.4 綫性迴歸算法的使用場景 60
第4章 Logistic迴歸分類算法 61
4.1 Logistic迴歸:換上“S型麯綫馬甲”的綫性迴歸 61
4.1.1 分類問題:選擇睏難癥患者的自我救贖 63
4.1.2 Logistic函數介紹 66
4.1.3 此迴歸非彼迴歸:“LR”辨析 70
4.2 Logistic迴歸的算法原理 71
4.2.1 Logistic迴歸算法的基本思路 71
4.2.2 Logistic迴歸算法的數學解析 74
4.2.3 Logistic迴歸算法的具體步驟 78
4.3 在Python中使用Logistic迴歸算法 78
4.4 Logistic迴歸算法的使用場景 81
第5章 KNN分類算法 82
5.1 KNN分類算法:用多數錶決進行分類 82
5.1.1 用“同類相吸”的辦法解決分類問題 84
5.1.2 KNN分類算法的基本方法:多數錶決 86
5.1.3 錶決權問題 89
5.1.4 KNN的具體含義 89
5.2 KNN分類的算法原理 90
5.2.1 KNN分類算法的基本思路 90
5.2.2 KNN分類算法的數學解析 93
5.2.3 KNN分類算法的具體步驟 94
5.3 在Python中使用KNN分類算法 95
5.4 KNN分類算法的使用場景 96
第6章 樸素貝葉斯分類算法 98
6.1 樸素貝葉斯:用骰子選擇 98
6.1.1 從統計角度看分類問題 99
6.1.2 貝葉斯公式的基本思想 102
6.1.3 用貝葉斯公式進行選擇 104
6.2 樸素貝葉斯分類的算法原理 106
6.2.1 樸素貝葉斯分類算法的基本思路 106
6.2.2 樸素貝葉斯分類算法的數學解析 108
6.2.3 樸素貝葉斯分類算法的具體步驟 111
6.3 在Python中使用樸素貝葉斯分類算法 111
6.4 樸素貝葉斯分類算法的使用場景 112
第7章 決策樹分類算法 114
7.1 決策樹分類:用“老朋友”if-else進行選擇 114
7.1.1 程序員的選擇觀:if-else 116
7.1.2 如何種植一棵有靈魂的“樹” 118
7.1.3 決策條件的選擇藝術 119
7.1.4 決策樹的剪枝問題 122
7.2 決策樹分類的算法原理 125
7.2.1 決策樹分類算法的基本思路 125
7.2.2 決策樹分類算法的數學解析 127
7.2.3 決策樹分類算法的具體步驟 133
7.3 在Python中使用決策樹分類算法 134
7.4 決策樹分類算法的使用場景 135
第8章 支持嚮量機分類算法 137
8.1 支持嚮量機:綫性分類器的“王者” 137
8.1.1 距離是不同類彆的天然間隔 139
8.1.2 何為“支持嚮量” 140
8.1.3 從更高維度看“綫性不可分” 142
8.2 支持嚮量機分類的算法原理 146
8.2.1 支持嚮量機分類算法的基本思路 146
8.2.2 支持嚮量機分類算法的數學解析 150
8.2.3 支持嚮量機分類算法的具體步驟 153
8.3 在Python中使用支持嚮量機分類算法 154
8.4 支持嚮量機分類算法的使用場景 156
第9章 K-means聚類算法 157
9.1 用投票錶決實現“物以類聚” 157
9.1.1 聚類問題就是“物以類聚”的實施問題 159
9.1.2 用“K”來決定歸屬類彆 162
9.1.3 度量“相似”的距離 164
9.1.4 聚類問題中的多數錶決 165
9.2 K-means聚類的算法原理 168
9.2.1 K-means聚類算法的基本思路 168
9.2.2 K-means聚類算法的數學解析 169
9.2.3 K-means聚類算法的具體步驟 170
9.3 在Python中使用K-means聚類算法 171
9.4 K-means聚類算法的使用場景 172
第10章 神經網絡分類算法 174
10.1 用神經網絡解決分類問題 174
10.1.1 神經元的“內心世界” 177
10.1.2 從神經元看分類問題 180
10.1.3 神經網絡的“細胞”:人工神經元 181
10.1.4 構成網絡的魔力 184
10.1.5 神經網絡與深度學習 188
10.2 神經網絡分類的算法原理 188
10.2.1 神經網絡分類算法的基本思路 188
10.2.2 神經網絡分類算法的數學解析 190
10.2.3 神經網絡分類算法的具體步驟 193
10.3 在Python中使用神經網絡分類算法 194
10.4 神經網絡分類算法的使用場景 195
第11章 集成學習方法 197
11.1 集成學習方法:三個臭皮匠賽過諸葛亮 197
11.1.1 集成學習方法與經典機器學習算法的關係 198
11.1.2 集成學習的主要思想 199
11.1.3 幾種集成結構 200
11.2 集成學習方法的具體實現方式 202
11.2.1 Bagging算法 202
11.2.2 Boosting算法 202
11.2.3 Stacking算法 202
11.3 在Python中使用集成學習方法 203
11.4 集成學習方法的使用場景 205
· · · · · · (
收起)