机器学习与优化
罗伯托·巴蒂蒂(Roberto Battiti),毛罗·布鲁纳托(Mauro Brunato), (意) 巴蒂蒂, (Battiti, Robert), 罗伯托·巴蒂蒂 毛罗·布鲁纳托 王彧弋
1 (p1): 第1章 引言
1 (p1-1): 1.1 学习与智能优化:燎原之火
3 (p1-2): 1.2 寻找黄金和寻找伴侣
5 (p1-3): 1.3 需要的只是数据
5 (p1-4): 1.4 超越传统的商业智能
6 (p1-5): 1.5 LION方法的实施
6 (p1-6): 1.6 “动手”的方法
9 (p2): 第2章 懒惰学习:最近邻方法
14 (p3): 第3章 学习需要方法
16 (p3-1): 3.1 从已标记的案例中学习:最小化和泛化
18 (p3-2): 3.2 学习、验证、测试
21 (p3-3): 3.3 不同类型的误差
26 (p4): 第一部分 监督学习
26 (p4-1): 第4章 线性模型
27 (p4-1-1): 4.1 线性回归
28 (p4-1-2): 4.2 处理非线性函数关系的技巧
29 (p4-1-3): 4.3 用于分类的线性模型
30 (p4-1-4): 4.4 大脑是如何工作的
31 (p4-1-5): 4.5 线性模型为何普遍,为何成功
32 (p4-1-6): 4.6 最小化平方误差和
34 (p4-1-7): 4.7 数值不稳定性和岭回归
37 (p4-2): 第5章 广义线性最小二乘法
38 (p4-2-1): 5.1 拟合的优劣和卡方分布
42 (p4-2-2): 5.2 最小二乘法与最大似然估计
42 (p4-2-3): 5.2.1 假设检验
44 (p4-2-4): 5.2.2 交叉验证
44 (p4-2-5): 5.3 置信度的自助法
50 (p4-3): 第6章 规则、决策树和森林
52 (p4-3-1): 6.1 构造决策树
56 (p4-3-2): 6.2 民主与决策森林
59 (p4-4): 第7章 特征排序及选择
60 (p4-4-1): 7.1 特征选择:情境
62 (p4-4-2): 7.2 相关系数
63 (p4-4-3): 7.3 相关比
64 (p4-4-4): 7.4 卡方检验拒绝统计独立性
64 (p4-4-5): 7.5 熵和互信息
67 (p4-5): 第8章 特定非线性模型
67 (p4-5-1): 8.1 logistic回归
69 (p4-5-2): 8.2 局部加权回归
72 (p4-5-3): 8.3 用LASSO来缩小系数和选择输入值
76 (p4-6): 第9章 神经网络:多层感知器
78 (p4-6-1): 9.1 多层感知器
80 (p4-6-2): 9.2 通过反向传播法学习
81 (p4-6-3): 9.2.1 批量和bold driver反向传播法
82 (p4-6-4): 9.2.2 在线或随机反向传播
83 (p4-6-5): 9.2.3 训练多层感知器的高级优化
84 (p4-7): 第10章 深度和卷积网络
85 (p4-7-1): 10.1 深度神经网络
86 (p4-7-2): 10.1.1 自动编码器
88 (p4-7-3): 10.1.2 随机噪声、屏蔽和课程
89 (p4-7-4): 10.2 局部感受野和卷积网络
94 (p4-8): 第11章 统计学习理论和支持向量机
96 (p4-8-1): 11.1 经验风险最小化
98 (p4-8-2): 11.1.1 线性可分问题
100 (p4-8-3): 11.1.2 不可分问题
100 (p4-8-4): 11.1.3 非线性假设
101 (p4-8-5): 11.1.4 用于回归的支持向量
103 (p4-9): 第12章 最小二乘法和健壮内核机器
104 (p4-9-1): 12.1 最小二乘支持向量机分类器
106 (p4-9-2): 12.2 健壮加权最小二乘支持向量机
107 (p4-9-3): 12.3 通过修剪恢复稀疏
108 (p4-9-4): 12.4 算法改进:调谐QP、原始版本、无补偿
110 (p4-10): 第13章 机器学习中的民主
111 (p4-10-1): 13.1 堆叠和融合
113 (p4-10-2): 13.2 实例操作带来的多样性:装袋法和提升法
114 (p4-10-3): 13.3 特征操作带来的多样性
115 (p4-10-4): 13.4 输出值操作带来的多样性:纠错码
115 (p4-10-5): 13.5 训练阶段随机性带来的多样性
115 (p4-10-6): 13.6 加性logistic回归
118 (p4-10-7): 13.7 民主有助于准确率拒绝的折中
121 (p4-11): 第14章 递归神经网络和储备池计算
122 (p4-11-1): 14.1 递归神经网络
124 (p4-11-2): 14.2 能量极小化霍普菲尔德网络
126 (p4-11-3):…
1 (p1-1): 1.1 学习与智能优化:燎原之火
3 (p1-2): 1.2 寻找黄金和寻找伴侣
5 (p1-3): 1.3 需要的只是数据
5 (p1-4): 1.4 超越传统的商业智能
6 (p1-5): 1.5 LION方法的实施
6 (p1-6): 1.6 “动手”的方法
9 (p2): 第2章 懒惰学习:最近邻方法
14 (p3): 第3章 学习需要方法
16 (p3-1): 3.1 从已标记的案例中学习:最小化和泛化
18 (p3-2): 3.2 学习、验证、测试
21 (p3-3): 3.3 不同类型的误差
26 (p4): 第一部分 监督学习
26 (p4-1): 第4章 线性模型
27 (p4-1-1): 4.1 线性回归
28 (p4-1-2): 4.2 处理非线性函数关系的技巧
29 (p4-1-3): 4.3 用于分类的线性模型
30 (p4-1-4): 4.4 大脑是如何工作的
31 (p4-1-5): 4.5 线性模型为何普遍,为何成功
32 (p4-1-6): 4.6 最小化平方误差和
34 (p4-1-7): 4.7 数值不稳定性和岭回归
37 (p4-2): 第5章 广义线性最小二乘法
38 (p4-2-1): 5.1 拟合的优劣和卡方分布
42 (p4-2-2): 5.2 最小二乘法与最大似然估计
42 (p4-2-3): 5.2.1 假设检验
44 (p4-2-4): 5.2.2 交叉验证
44 (p4-2-5): 5.3 置信度的自助法
50 (p4-3): 第6章 规则、决策树和森林
52 (p4-3-1): 6.1 构造决策树
56 (p4-3-2): 6.2 民主与决策森林
59 (p4-4): 第7章 特征排序及选择
60 (p4-4-1): 7.1 特征选择:情境
62 (p4-4-2): 7.2 相关系数
63 (p4-4-3): 7.3 相关比
64 (p4-4-4): 7.4 卡方检验拒绝统计独立性
64 (p4-4-5): 7.5 熵和互信息
67 (p4-5): 第8章 特定非线性模型
67 (p4-5-1): 8.1 logistic回归
69 (p4-5-2): 8.2 局部加权回归
72 (p4-5-3): 8.3 用LASSO来缩小系数和选择输入值
76 (p4-6): 第9章 神经网络:多层感知器
78 (p4-6-1): 9.1 多层感知器
80 (p4-6-2): 9.2 通过反向传播法学习
81 (p4-6-3): 9.2.1 批量和bold driver反向传播法
82 (p4-6-4): 9.2.2 在线或随机反向传播
83 (p4-6-5): 9.2.3 训练多层感知器的高级优化
84 (p4-7): 第10章 深度和卷积网络
85 (p4-7-1): 10.1 深度神经网络
86 (p4-7-2): 10.1.1 自动编码器
88 (p4-7-3): 10.1.2 随机噪声、屏蔽和课程
89 (p4-7-4): 10.2 局部感受野和卷积网络
94 (p4-8): 第11章 统计学习理论和支持向量机
96 (p4-8-1): 11.1 经验风险最小化
98 (p4-8-2): 11.1.1 线性可分问题
100 (p4-8-3): 11.1.2 不可分问题
100 (p4-8-4): 11.1.3 非线性假设
101 (p4-8-5): 11.1.4 用于回归的支持向量
103 (p4-9): 第12章 最小二乘法和健壮内核机器
104 (p4-9-1): 12.1 最小二乘支持向量机分类器
106 (p4-9-2): 12.2 健壮加权最小二乘支持向量机
107 (p4-9-3): 12.3 通过修剪恢复稀疏
108 (p4-9-4): 12.4 算法改进:调谐QP、原始版本、无补偿
110 (p4-10): 第13章 机器学习中的民主
111 (p4-10-1): 13.1 堆叠和融合
113 (p4-10-2): 13.2 实例操作带来的多样性:装袋法和提升法
114 (p4-10-3): 13.3 特征操作带来的多样性
115 (p4-10-4): 13.4 输出值操作带来的多样性:纠错码
115 (p4-10-5): 13.5 训练阶段随机性带来的多样性
115 (p4-10-6): 13.6 加性logistic回归
118 (p4-10-7): 13.7 民主有助于准确率拒绝的折中
121 (p4-11): 第14章 递归神经网络和储备池计算
122 (p4-11-1): 14.1 递归神经网络
124 (p4-11-2): 14.2 能量极小化霍普菲尔德网络
126 (p4-11-3):…
Рік:
2018
Видання:
2018
Видавництво:
北京:人民邮电出版社
Мова:
Chinese
ISBN 10:
711548029X
ISBN 13:
9787115480293
Файл:
PDF, 61.24 MB
IPFS:
,
Chinese, 2018