1 / 14
文档名称:

2007年溧水房地产市场研究报告.doc

格式:doc   大小:2,092KB   页数:14页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

2007年溧水房地产市场研究报告.doc

上传人:wangzhidaol 2018/3/2 文件大小:2.04 MB

下载得到文件列表

2007年溧水房地产市场研究报告.doc

相关文档

文档介绍

文档介绍:三月 18
MPI并行程序设计
1/217
机群应用开发 并行编程原理及 程序设计 Parallel Programming: Fundamentals and Implementation
曙光信息产业有限公司
三月 18
三月 18
MPI并行程序设计
2/217
参考文献
黄铠,徐志伟著,陆鑫达等译. 可扩展并行计算技术,结构与编程. 北京:机械工业出版社, ~56,~237, 2000.
—结构、算法、编程. 北京:高等教育出版社,1999.
Barry Wilkinson and Michael Allen. Parallel Programming(Techniques and Applications worked Workstations and puters). Prentice Hall, 1999.
李晓梅,莫则尧等著. 可扩展并行算法的设计与分析. 北京:国防工业出版社,2000.
张宝琳,谷同祥等著. 数值并行计算原理与方法. 北京:国防工业出版社,1999.
都志辉著. 高性能计算并行编程技术—MPI并行程序设计. 北京:清华大学出版社, 2001.
三月 18
MPI并行程序设计
3/217
相关网址
MPI: -,
/mpi
Pthreads: : /
OpemMP: 索:
三月 18
MPI并行程序设计
4/217
MPI并行程序设计
Parallel Programming with the
Massage Passing Interface (MPI)
三月 18
MPI并行程序设计
5/217
多线程库标准
– Win32 API.
– POSIX threads.
编译制导标准
– OpenMP –可移植共享存储并行编程标准.
消息传递库标准
– MPI
– PVM
并行编程标准
本讨论的重点
三月 18
MPI并行程序设计
6/217
消息传递并行程序设计
消息传递并行程序设计
指用户必须通过显式地发送和接收消息来实现处理机间的数据交换。
在这种并行编程中,每个并行进程均有自己独立的地址空间,相互之间访问不能直接进行,必须通过显式的消息传递来实现。
这种编程方式是大规模并行处理机(MPP)和机群(Cluster)采用的主要编程方式。
并行计算粒度大,特别适合于大规模可扩展并行算法
由于消息传递程序设计要求用户很好地分解问题,组织不同进程间的数据交换,并行计算粒度大,特别适合于大规模可扩展并行算法.
消息传递是当前并行计算领域的一个非常重要的并行程序设计方式
三月 18
MPI并行程序设计
7/217
什么是MPI?
Massage Passing Interface:是消息传递函数库的标准规范,由MPI论坛开发,支持Fortran和C
一种新的库描述,不是一种语言。共有上百个函数调用接口,在Fortran和C语言中可以直接对这些函数进行调用
MPI是一种标准或规范的代表,而不是特指某一个对它的具体实现
MPI是一种消息传递编程模型,并成为这种编程模型的代表和事实上的标准
三月 18
MPI并行程序设计
8/217
MPI的发展过程
发展的两个阶段
MPI : 1995
MPICH:是MPI最流行的非专利实现,由Argonne国家实验室和密西西比州立大学联合开发,具有更好的可移植性.
MPI ~:动态进程, 并行 I/O, 支持F90和C++(1997).
三月 18
MPI并行程序设计
9/217
为什么要用MPI?
高可移植性
MPI已在IBM PC机上、MS Windows上、所有主要的Unix工作站上和所有主流的并行机上得到实现。使用MPI作消息传递的C或Fortran并行程序可不加改变地运行在IBM PC、MS Windows、Unix工作站、以及各种并行机上。
三月 18
MPI并行程序设计
10/217
讲座内容提示
基本的MPI
基本概念
点到点通信(Point to point)
MPI中API的主要内容,为MPI最基本,最重要的内容
MPI程序的编译和运行
深入MPI
用户自定义(/派生)数据类型(User-defined(Derived) data type)
事实上MPI的所有数据类型均为MPI自定义类型
支持异构系统
允许消息来自不连续的或类型不一致的存储区(结构,数组散元)
集合通信(Collective)
数据移动,数据聚集,同步
基于point to point 构建
MPI环境管理函数
组,上下文和通信空间/通信子的管理
实例