ad holder

并行计算的编程模型

并行计算的编程模型 下载 mobi epub pdf 电子书 2024


简体网页||繁体网页
[美] 帕万·巴拉吉(Pavan Balaji) 著,李士刚 译



点击这里下载
    


想要找书就要到 图书大百科
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

发表于2024-04-27

类似图书 点击查看全场最低价

图书介绍

出版社: 机械工业出版社
ISBN:9787111573340
版次:1
商品编码:12225770
品牌:机工出版
包装:平装
丛书名: 计算机科学丛书
开本:16开
出版时间:2017-07-01
用纸:胶版纸
页数:289


相关图书





图书描述

内容简介

本书以使用说明的形式对当今主流的并行编程模型进行了详细描述,内容包括分布式内存架构上常见的MPI(消息传递接口)编程模型;单边通信模型,范围从低层的运行时库(GASNet、OpenSHMEM)到高层的编程模型(UPC、GA、Chapel);面向任务的编程模型,包括Charm++、ADLB、Scioto、Swift、CnC,由运行时系统来管理计算和数据移动;面向节点内并行(多核架构以及附带加速器)的并行编程模型,包括OpenMP、CilkPlus、TBB、CUDA以及OpenCL。每章配备大量应用和程序实例,可以使读者很好地理解各种编程模型所提供的功能及特点。本书可作为高等院校并行编程课程的研究生教材,也可作为具有一定并行编程经验的软件开发人员、科研人员以及任何与数据集及大规模计算打交道的科学家的参考资料。

目录

出版者的话
译者序
前言
第1章 消息传递接口 1
1.1 引言 1
1.2 MPI基础 1
1.3 点对点通信 2
1.4 数据类型 3
1.5 非阻塞式通信 4
1.6 聚合通信 5
1.7 单边通信 7
1.8 并行I/O 9
1.9 其他特性 11
1.10 MPI开发心得 12
1.11 总结 13
第2章 全局地址空间网络 14
2.1 研究背景与动机 14
2.2 GASNet概述 14
2.2.1 相关术语 15
2.2.2 线程 15
2.2.3 API组织 16
2.3 核心API 16
2.3.1 开始和结束 16
2.3.2 段信息 18
2.3.3 屏障 18
2.3.4 锁与中断 19
2.3.5 活动消息 20
2.3.6 活动消息进程 22
2.3.7 活动消息规则与约束 22
2.3.8 出错代码 23
2.4 扩展API 23
2.4.1 GASNet段 23
2.4.2 排序与内存模型 24
2.4.3 阻塞与非阻塞 24
2.4.4 批量与单个 24
2.4.5 寄存器–内存与远程memset操作 24
2.4.6 扩展API总结 25
2.5 附加内容 26
2.5.1 GASNet工具 26
2.5.2 可移植平台头文件 27
2.6 示例 27
2.6.1 编译和运行示例 27
2.6.2 Hello World示例 28
2.6.3 AM Ping-Pong示例 28
2.6.4 AM Ring示例 30
2.6.5 MCS Locks示例 32
2.7 未来方向 35
第3章 OpenSHMEM 37
3.1 引言 37
3.2 设计理念和根据 37
3.3 OpenSHMEM存储模型 39
3.4 对称堆管理 39
3.4.1 初始化和查询 40
3.4.2 分配和释放 40
3.4.3 关于分配和对称堆的说明 41
3.5 远程内存访问:put和get 41
3.5.1 RMA函数语义 41
3.5.2 RMA函数使用 42
3.6 排序和同步 44
3.6.1 全局同步屏障 44
3.6.2 fence和quiet:RMA操作排序 45
3.6.3 锁 46
3.6.4 wait和wait_until 46
3.7 集合操作 47
3.7.1 选择集合参与者 47
3.7.2 同步数组和工作数组 47
3.7.3 非全局同步屏障 48
3.7.4 广播 48
3.7.5 收集 49
3.7.6 归约 50
3.8 原子内存操作 51
3.8.1 原子加和递增 52
3.8.2 原子取–加和取–递增 52
3.8.3 原子交换和条件交换 53
3.9 未来方向 54
第4章 统一并行C 55
4.1 UPC简史 55
4.2 UPC编程模型 56
4.2.1 术语 56
4.2.2 全局地址空间 56
4.2.3 执行模型 57
4.3 UPC概览 57
4.3.1 自省 57
4.3.2 数据布局 57
4.3.3 通信 59
4.3.4 UPC内存一致性模型 60
4.3.5 同步 61
4.3.6 集合操作 62
4.4 UPC程序示例 63
4.4.1 随机访问基准 63
4.4.2 雅可比5点stencil 64
4.4.3 排序示例 65
4.4.4 一维FFT 68
4.5 未来方向 71
第5章 全局数组 72
5.1 引言 72
5.2 编程模型与设计原则 73
5.3 核心功能 74
5.4 进程组 77
5.5 扩展的数组结构 78
5.6 稀疏数组操作的支持 79
5.7 数组上的集合操作 80
5.8 动态负载均衡 80
5.9 实际应用 80
第6章 Chapel 82
6.1 Chapel简史 82
6.1.1 全面启动 82
6.1.2 初始方向 83
6.1.3 HPCS时代 83
6.1.4 后HPCS时代 84
6.2 Chapel的主题思想 84
6.2.1 通用并行性表达 84
6.2.2 支持多线程执行模型 85
6.2.3 支持全局视图编程 85
6.2.4 支持多尺度设计 85
6.2.5 支持局部性控制 86
6.2.6 支持以数据为中心的同步 86
6.2.7 用户与编译器的不同角色 86
6.2.8 缩小主流语言和HPC语言之间的差距 87
6.2.9 从头开始(但争取令人熟悉) 87
6.2.10 远大目标 88
6.2.11 促使Chapel成为可移植的开源软件 88
6.3 Chapel特性概述 88
6.3.1 基本语言特性 89
6.3.2 任务并行 92
6.3.3 数据并行 96
6.3.4 位置特性 98
6.4 总结与未来方向 100
第7章 Charm++ 102
7.1 引言 102
7.2 Charm的编程范例以及执行模型 102
7.2.1 以过分解作为核心思想 102
7.2.2 消息驱动的执行模型 103
7.2.3 授权自适应运行时系统 104
7.3 基本语言 104
7.3.1 chare:分解的基本单元 104
7.3.2 入口方法:基本的调度单元 105
7.3.3 异步方法调用 105
7.3.4 带索引的chare集合:chare数组 105
7.3.5 只读变量 106
7.3.6 Charm++对象:用户及系统角度 107
7.3.7 结构化匕首符号 108
7.3.8 示例:一维分解的5点stencil代码 108
7.4 过分解的好处以及消息驱动执行 110
7.4.1 不依赖于处理器个数 110
7.4.2 异步归约 110
7.4.3 自适应计算与通信重叠 110
7.4.4 合成性 111
7.4.5 软件工程方面的好处:逻辑实体的相互独立 111
7.5 一个设计示例:分子动力学模拟 111
7.6 自适应运行时特性 112
7.6.1 Charm++中负载均衡功能 112
7.6.2 容错 113
7.6.3 缩小或扩展处理器集合 114
7.6.4 异构处理器以及加速器的支持 115
7.6.5 额外特性 115
7.6.6 实验特性:热能与功耗管理 115
7.7 底层架构概述 115
7.8 基于Charm++的高层次语言家族 116
7.9 通过Charm++来开发应用程序 117
7.10 作为研究工具的Charm++ 118
7.11 Charm++:历史以及现状 118
7.12 总结 118
第8章 异步动态负载均衡 119
8.1 引言 119
8.2 manager-worker模型与负载均衡 119
8.3 ADLB库定义 121
8.3.1 API简介 121
8.3.2 基本的ADLB API 122
8.3.3 使用批处理优化内存使用 123
8.3.4 获取和使用ADLB 124
8.4 实现ADLB 124
8.4.1 ADLBM实现 124
8.4.2 其他实现 125
8.5 示例 125
8.5.1 一个简单的批处理调度 125
8.5.2 动态任务创建:数独解法 126
8.5.3 任务单元类型:旅行推销员问题 127
8.5.4 GFMC 127
8.5.5 Swift 128
8.6 DMEM:一个处理大数据的辅助库 128
8.7 总结与未来方向 129
第9章 可拓展任务对象集合 130
9.1 Scioto任务并行执行模型 131
9.1.1 任务对象 131
9.1.2 任务输入/输出模型 132
9.1.3 任务执行模型 132
9.2 多级并行任务集合 133
9.3 Scioto + GA编程接口 134
9.3.1 核心编程结构 134
9.3.2 实现一个Scioto任务 135
9.3.3 示例:矩阵–矩阵乘法 135
9.4 Scioto运行时系统 136
9.4.1 共享任务队列方法 136
9.4.2 动态负载均衡方法 137
9.4.3 终止检测 137
9.5 总结 138
第10章 Swift:极端规模的隐式并行脚本 139
10.1 第一个示例:并行因式分解 140
10.2 一个真实的示例:晶体坐标转换 140
10.3 Swift发展历史 142
10.4 Swift语言和编程模型 142
10.4.1 Hello World示例 143
10.4.2 变量和标量数据类型 143
10.4.3 数据流执行 144
10.4.4 条件判断语句 145
10.4.5 数据依赖控制流 145
10.4.6 foreach循环和数组 145
10.4.7 Swift函数 146
10.4.8 外部函数 147
10.4.9 文件和app函数 148
10.5 Swift执行模型 148
10.6 大规模并行运行时系统 150
10.7 运行时架构 151
10.8 性能分析 153
10.9 Swift的大规模并行编译 153
10.10 相关工作 154
10.11 总结 155
第11章 并发集合编程模型 157
11.1 引言 157
11.2 研究动机 158
11.3 CnC领域语言 158
11.3.1 概述 158
11.3.2 特征 160
11.3.3 示例 161
11.3.4 执行语义 162
11.3.5 CnC编程 163
11.3.6 未来工作 167
11.4 CnC调优语言 168
11.4.1 描述 168
11.4.2 特征 171
11.4.3 示例 171
11.4.4 执行模型 173
11.4.5 未来工作 175
11.5 当前状态 175
11.6 相关工作 175
11.7 总结 177
第12章 OpenMP 178
12.1 引言 178
12.2 概述 179
12.2.1 术语 179
12.2.2 管理数据环境 180
12.2.3 OpenMP概念简述 181
12.3 OpenMP特性 182
12.3.1 并行区域 182
12.3.2 同步 186
12.3.3 工作共享 187
12.3.4 任务并行化 191
12.3.5 向量化 195
12.3.6 加速器支持 196
12.3.7 区域取消 199
12.4 性能优化建议 200
12.5 关于正确性的思考 201
12.6 总结与未来方向 201
第13章 Cilk Plus 202
13.1 引言 202
13.2 向量并行化 203
13.2.1 数组标注 204
13.2.2 pragma SIMD 205
13.2.3 支持SIMD的函数 206
13.3 线程并行 208
13.4 并行性能 211
13.5 数据竞争 215
13.6 实践技巧 216
13.7 历史 219
13.8 总结 220
第14章 Intel TBB工具 221
14.1 引言 221
14.1.1 概述 221
14.1.2 基本信息 221
14.2 泛型并行算法 222
14.2.1 简单循环的并行化 222
14.2.2 在STL容器中处理数据 223
14.2.3 复杂迭代空间 224
14.2.4 其他算法 226
14.3 流图 226
14.3.1 概述 227
14.3.2 节点通信协议 227
14.3.3 控制依赖图 228
14.3.4 数据流图 230
14.3.5 流图、算法和无环图的选择 232
14.4 总结 232
第15章 CUDA 233
15.1 CUDA简史 233
15.2 CUDA编程结构 234
15.3 示例:向量加法 235
15.4 设备内存和数据传输 236
15.5 kernel函数与线程 238
15.6 线程组织 240
15.7 线程和多维数据的映射 242
15.8 同步与透明可扩展性 243
15.9 线程块的资源分配 244
15.10 CUDA流与任务并行 244
15.11 总结 248
第16章 OpenCL开放计算语言 249
16.1 计算语言与OpenCL 249
16.2 基本定义 250
16.3 计算机、编程和异构 250
16.4 OpenCL的诞生 251
16.5 OpenCL的核心模型 252
16.5.1 平台模型 252
16.5.2 执行模型 253
16.5.3 内存模型 255
16.5.4 编程模型 257
16.6 OpenCL主机程序:向量加法 258
16.7 总结 266
参考文献 268

精彩书摘

  《并行计算的编程模型》:
  绝大多数OpenMP指令与代码域有着明确的关系,通常后面为结构块动态区域或者循环嵌套。一些指令(barrier和flush)没有响应的代码。一些特性影响线程的行为和使用。因此,采用了一种绑定线程集的想法。特别是,一些运行库函数对调用线程有影响(或者只返回信息给调用线程),而其他运行库函数与一个线程组或者程序运行的全部线程有关联。本节将只讨论一些重要的和难理解的绑定问题。
  12.2.2管理数据环境
  OpenMP程序中的每个任务拥有自身的数据环境,数据环境中包含所有使用的变量。该变量可以是在应用中声明并对任务区域可见的,也可以是OpenMP实现所使用的内部控制变量(ICV)。数据环境中的变量可以是共享(shared)或者私有(private)类型。共享变量可被当前线程组中线程的所有任务访问,或者被一簇线程中的一组线程访问。私有变量是在并行域中的一个线程或者一簇线程中一组线程的本地拷贝。另一种变量类型为线程私有(threadprivate),该类型存在于主机设备中特殊线程的静态内存上并且只被该线程上执行的任务访问。在目标设备上访问线程私有变量是被禁止的。
  ……

前言/序言

对于正在编程的程序员,编程模型可被看作一台虚拟机,并可通过编程语言和函数库实现。如果某个编程模型成为计算机科学研究中的热点,需要具有以下特性:高效性(易于描述各种抽象算法)、移植性(兼容各种硬件计算平台)、高性能(高效均衡地利用硬件平台的计算能力)、通用性(广泛地描述各种算法)。针对特定的编程模型,同时具有上述四种特性中的一种或两种相对容易,但同时具备这四种特性几乎是不可能的。特定的编程模型无法同时具备四种特性的主要原因在于编程模型的多样性,因此需要根据具体的科学应用,选择不同的编程模型特性。
随着并行计算技术的发展,计算机科学领域的专家将研究重点转移到能够适应高性能并行计算和超级计算系统的编程模型设计方向。并行编程模型包含执行模型(选择代码执行路径)和内存模型(管理计算节点间和节点内的数据流)。多核计算需要并发计算和移动数据,这增加了程序运行结果和性能的不确定性,导致并行编程模型变得更加复杂。
从技术上分析,编程模型和编程系统间存在一定区别。编程模型是一种编程方式,例如采用大量同步或者隐含编译器协助的并行化方式,而编程系统指程序员编写程序时实际使用的系统抽象接口。随着时间推移,编程模型和编程系统间的区别逐渐变得模糊。目前,编程模型既是一种编程方式,也是模型实例化过程中所使用的系统抽象接口。
与通用的编程模型设计不同,在大多数并行系统中,程序开发人员往往不采用单一的并行编程模型。不同的开发人员会选择不同层次的虚拟化方式,并在高效性、移植性、高性能和通用性四种编程模型特性中选择不同的组合。针对面向终端的程序开发应用,具体研究领域的科学家通常倾向于选择更高效和高级别的编程模型,即使该编程模型只能针对特定的算法而缺乏通用性。针对编程语言和函数库,程序开发者一般更倾向于选择高性能和低级别的编程模型,即使该编程模型具有较高的使用难度。然而,针对面向终端的程序应用以及编程语言和函数库开发,上述编程模型选择并非是绝对的,可根据实际的开发应用情况进行调整。
关于本书  本书对当今高性能计算以及超级计算系统上的几种最主要的并行编程模型进行了概述。书中包含多种并行编程模型,它们拥有不同的生产效率、可移植性、性能以及表达范围。因此,读者可以学习和理解每种编程模型提供了哪些折中。
第1章讨论了消息传递接口(MPI)。MPI是当今面向分布式内存计算的最重要的并行编程模型。该章对MPI最常用的功能进行了概述,并涉及MPI标准的第三个主要版本 ——MPI-3。
第2~5章从低层次的运行时库到高层次的编程模型,对单边通信模型进行了讨论。第2章介绍了全局地址空间网络(GASNet),它是一种低层次的编程模型,用于多种分区全局地址空间(PGAS)模型的一种通用可移植运行时系统。第3章讨论了OpenSHMEM单边通信库,它用于向用户直接呈现本地硬件通信功能。OpenSHMEM通过扩展库的形式模拟了许多PGAS模型的功能,这样做的好处是不依赖于语言扩展及相应的编译器支持。第4章提供了Unified Parallel C(UPC)编程模型的概述。UPC是基于C语言的PGAS模型,它为全局地址空间内存的创建与管理提供了 并行计算的编程模型 下载 mobi epub pdf txt 电子书 格式

并行计算的编程模型 mobi 下载 pdf 下载 pub 下载 txt 电子书 下载 2024

并行计算的编程模型 下载 mobi pdf epub txt 电子书 格式 2024

并行计算的编程模型 下载 mobi epub pdf 电子书
想要找书就要到 图书大百科
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

用户评价

评分

评分

评分

评分

评分

评分

评分

评分

评分

类似图书 点击查看全场最低价

并行计算的编程模型 mobi epub pdf txt 电子书 格式下载 2024


分享链接








相关图书


本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

友情链接

© 2024 book.qciss.net All Rights Reserved. 图书大百科 版权所有