处理机结构,全部高速缓冲存储器组成了全局地址空间,远程高速存储访问则借助于分布的高速缓存目录进行,系统复杂,同样不适合应用于星载并行计算机系统。
MPP结构的每个计算节点使用一个或多个商品化的高性能微处理器,也可以使用SMP机器作为其计算节点;每个物理节点上都有自己的本地存储器,即存储器是分布的:采用高通信带宽和低通信延迟的互连网络;体系结构可扩展性强,能扩充至成千甚至上万个计算节点。
但由于每个处理机不能直接访问非本地存储器,只能通过消息传递方式来解决这一问题,使得编程困难且增加了通信开销。
由通用计算机组成的机群系统其每个节点往往都是一个完整的高档商品微机或者工第6页国防科学技术大学研究生院学位论文作站,各个节点用高速互连网络连接起来,具有群体可扩展性。
每个节点内部都有本地磁盘,都驻留一个完整的操作系统。
但由于其远程数据访问全部是通过消息传递机制实现,时延很大,故无法满足星上计算任务的实时性要求。
容错系统具有很高的可用性,但扩展性较差。
图3比较了上面几种系统的可扩展性和可用性。
可扩展性系统可用性图3几种系统的可扩展性和可用性比较为了达到星载并行计算机高可靠性的要求,其体系结构设计不能过于复杂。
星载计算机系统对可扩展性的要求不是很高,因而可以考虑采用较少的处理单元组成相对简单又能保证处理能力的并行结构。
在这种情况下,采用处理节点数目多且通信开销大的MPP结构,或耦合度小且通信开销大的机群结构都不合适。
DsM的分布共享存储结构有效地降低了通信开销,可扩展性好,编程容易,有较好的软件移植性,值得借鉴。
已有的研究结果表明,在分布共享存储结构上编制的程序比用消息传递方式编制的程序效率要高,因为数据以块或高速缓存行的方式进行传送,如果一个程序具有较好的局部性,则当把一个数据块传送到一个结点后,该结点对它的访问就成为本地访问,而消息传递方式的每次访问都需要通信。
由于目前星上应用要求的处理节点数目不是很多,因而实现起来相对简单的SMP体系结构值得我们借鉴。
考虑到星载计算机低功耗的要求,系统适合采取冷备份策略。
I/O设备同样消耗较大的系统功耗,故功0设备应该被多个处理节点共享使用。
由于存储器和MD设备的共享使用,我们更加偏重于借鉴对称式共享存储体系结构。
由于星上计算任务的相关性较小,通信粒度也较小,如果采用消息传递作为通信机制,需要操作系统的参与和管理,造成额外的处理开销。
在共享存储体系结构方案下,在通信机制上采用共享变量通信模型,处理器只需对同一个地址单元进行读写操作即可实现通信,当然还需要实现保证同步的硬件原语。
此外,采用对称式体系结构和共享变量通信机制还可以简化应用程序的编写,符合星上计算任务的要求。
考虑到星上计算任务的相关性较小,适合于采用静态任务划分,避免动态调度,降低系统开销。
sMP结构中所以处理器使用单一运行队列,可靠性不高,而MPP和机群中使用多运行队列,各运行队列相互合作以平衡负载,但是开销较大。
为了防止系统中的某个处理节点故障而降低系统可靠性,考虑将关键任务同时分配到多个处理节点上,从而在某个处理节点故障后,仍能保证系统关键任务的完成。
由于每个处理节点执行其私有任务时第7页国防科学技术大学研究生院学位论文相互之间无通信,故考虑为每个处理节点设置本地存储器以存放私有任务和私有数据,而不将私有数据放置于共享存储器,避免对共享存储器访问造成的串行化,提高私有任务的执行效率。
§2.2星载并行计算机硬件体系结构根据上一节的讨论,我们采用如下设计。
系统由具有相同双CPU并行体系结构的甲机、乙机两个计算单元,容错模块以及二次电源模块构成双cPu并行双机冷备份体系结构。
其中乙机作为甲机的冷备份,容错模块监控系统状态,二次电源模块在容错模块的控制下提供系统各部分所需的电压。
甲(乙)机由CPU模块和I/O模块组成,其中CPU模块包括两个Tsc695F处理器、总线桥接器以及存储器,这部分构成了双cPu并行体系结构的核心部分;∞模块通过compactPcI总线与cPu模块相连,提供1553B和1394等外设总线接口。
系统结构如图4所示。
图4星载并行计算机系统结构甲(乙)机双CPU并行结构中,每个CPU具有私有随机存储器和只读存储器,总线桥接器将两个cPu的存储器总线连接起来并提供它们之间的通信。
cPuO与cPul之间的通信通过cPu0存储器总线上的共享存储器进行。
cPuO对共享存储器的访问与访问本地存储器的方式相同;CPUl访问共享存储器时,由桥接器捕获访存请求并向CPU0发出DMA请求,通过DMA的方式来访问共享存储器。
CPU0内部的总线仲裁器保证了对共享存储器的访问不会发生冲.
上一篇:
冰清影的聊天室论文
下一篇:
高校毕业生档案管理系统的研究和运用