图书介绍
智能科学技术著作丛书 多智能体机器人系统信息融合与协调PDF|Epub|txt|kindle电子书版本网盘下载
![智能科学技术著作丛书 多智能体机器人系统信息融合与协调](https://www.shukui.net/cover/21/30996194.jpg)
- 范波,张雷著 著
- 出版社: 北京:科学出版社
- ISBN:9787030447623
- 出版时间:2015
- 标注页数:172页
- 文件大小:25MB
- 文件页数:186页
- 主题词:智能机器人
PDF下载
下载说明
智能科学技术著作丛书 多智能体机器人系统信息融合与协调PDF格式电子书版下载
下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!
(文件页数 要大于 标注页数,上中下等多册电子书除外)
注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具
图书目录
第1章 绪论1
1.1 引言1
1.2 多机器人系统中的信息融合2
1.2.1 机器人传感器系统2
1.2.2 机器人多传感器信息融合2
1.3 多机器人协调与合作研究现状4
1.4 多Agent信息融合与协调的研究现状6
1.4.1 多Agent信息融合7
1.4.2 多Agent协调与合作7
1.5 机器人足球及其研究进展9
1.5.1 机器人足球的发展概况9
1.5.2 FIRA机器人足球比赛系统10
1.5.3 机器人足球的关键技术和研究热点11
1.6 本书的结构和内容安排13
参考文献14
第2章 多Agent的信息融合模型与方法16
2.1 引言16
2.2 Agent与MAS的概念及特性17
2.2.1 Agent的由来及定义17
2.2.2 Agent的特性18
2.2.3 MAS的概念与特性21
2.2.4 MAS与复杂系统21
2.2.5 MAS与智能系统23
2.3 信息融合技术概述25
2.3.1 信息融合的概念与定义26
2.3.2 信息融合的模型27
2.3.3 信息融合应用与发展现状31
2.4 多Agent信息融合模型33
2.4.1 Agent体系结构33
2.4.2 MAS体系结构35
2.4.3 基于多Agent的信息融合模型36
2.5 小结37
参考文献38
第3章 多Agent协调的学习与对策41
3.1 引言41
3.2 多Agent协调的理论与方法42
3.2.1 协调的基本概念42
3.2.2 MAS协调及其理论43
3.3 Agent的学习模型与方法46
3.3.1 强化学习47
3.3.2 Markov决策过程49
3.3.3 Q学习算法50
3.4 多Agent的协调模型52
3.4.1 黑板模型52
3.4.2 合同网53
3.4.3 通用部分全局规划55
3.5 多Agent协调的对策与学习方法55
3.5.1 Markov对策概述56
3.5.2 冲突博弈59
3.5.3 多Agent强化学习60
3.6 小结61
参考文献61
第4章 基于证据推理的多Agent分布式决策63
4.1 引言63
4.2 证据推理理论64
4.2.1 概率的几种解释及其性质64
4.2.2 证据理论的数学基础64
4.2.3 证据推理的基本概念67
4.2.4 Dempster组合规则68
4.2.5 证据决策规则71
4.2.6 Dempster组合规则存在的问题72
4.3 Agent信息模型73
4.3.1 单支置信函数73
4.3.2 基于证据推理的Agent信息模型73
4.4 可传递置信模型74
4.4.1 可传递置信模型的基本结构74
4.4.2 辨识框架的粗分和细化75
4.4.3 Pignistic概率转换75
4.5 基于多Agent的分布式决策融合框架及算法76
4.5.1 系统框架76
4.5.2 融合中心77
4.5.3 决策中心78
4.6 仿真算例79
4.6.1 赛场状态信息79
4.6.2 对手的策略81
4.7 多Agent分布式决策融合策略83
4.7.1 异构融合83
4.7.2 可靠性分配84
4.7.3 融合处理84
4.7.4 在机器人足球中的应用84
4.8 小结88
参考文献89
第5章 强化函数设计方法及其在学习系统的应用91
5.1 引言91
5.2 强化学习应用中的关键问题92
5.2.1 泛化方法92
5.2.2 探索与利用的权衡94
5.2.3 强化函数与算法结构设计95
5.3 强化学习的奖惩函数95
5.4 基于平均报酬模型的强化学习算法98
5.4.1 报酬模型98
5.4.2 最优策略99
5.4.3 基于平均报酬模型的强化学习主要算法99
5.5 一种基于知识的强化函数设计方法101
5.5.1 强化函数的基本设计思想101
5.5.2 基于知识的强化函数103
5.5.3 仿真实验103
5.6 小结107
参考文献107
第6章 基于分布式强化学习的多Agent协调方法109
6.1 引言109
6.2 多Agent强化学习基本理论110
6.2.1 基于局部合作的Q学习111
6.2.2 基于区域合作的Q学习111
6.2.3 算法的收敛性113
6.3 多Agent强化学习方法的特性114
6.3.1 多Agent强化学习理论及假设的不同114
6.3.2 多Agent强化学习模型及框架的差异115
6.3.3 多Agent强化学习内容的区别115
6.3.4 多Agent强化学习算法设计的迥异116
6.4 多Agent强化学习算法的分类与比较116
6.4.1 绝对合作型多Agent强化学习算法116
6.4.2 绝对竞争型多Agent强化学习算法117
6.4.3 混合型多Agent强化学习算法117
6.4.4 平衡型多Agent强化学习算法117
6.4.5 最佳响应型多Agent强化学习算法118
6.4.6 分析与比较118
6.5 MAS中的分布式强化学习模型及结构118
6.5.1 中央强化学习结构119
6.5.2 独立强化学习结构119
6.5.3 群体强化学习结构120
6.5.4 社会强化学习结构120
6.6 基于分布式强化学习的多Agent协调模型及算法120
6.6.1 协调级121
6.6.2 行为级121
6.6.3 强化信息的分配121
6.6.4 仿真实验122
6.7 小结129
参考文献130
第7章 基于Markov对策的多Agent协调132
7.1 引言132
7.2 多Agent交互的协调与博弈分析133
7.2.1 多Agent协调与博弈的性质133
7.2.2 多Agent协调失败的处理134
7.3 多Agent冲突博弈强化学习模型136
7.3.1 多Agent冲突博弈136
7.3.2 最优策略137
7.3.3 基于后悔值的Q学习模型138
7.4 Nash-Q学习140
7.5 零和Markov对策和团队Markov对策141
7.5.1 零和Markov对策141
7.5.2 团队Markov对策143
7.6 基于Markov对策的多Agent协调策略144
7.6.1 对策框架144
7.6.2 Team级对策144
7.6.3 Member级对策145
7.6.4 仿真实验145
7.7 小结155
参考文献155
第8章 Agent技术在机器人智能控制系统的应用157
8.1 引言157
8.2 智能机器人系统应用研究158
8.2.1 概况158
8.2.2 传统研究方法的缺陷160
8.2.3 智能机器人系统的共性160
8.3 开放式机器人智能控制系统应用研究161
8.3.1 开放式控制系统的典型特征161
8.3.2 基于PC的开放式控制系统的实现162
8.4 多机器人系统应用研究162
8.4.1 多机器人队形控制163
8.4.2 机器人救援165
8.4.3 多机器人追捕问题166
8.5 总结与展望168
8.5.1 总结168
8.5.2 未来工作展望169
参考文献170