您当前的位置:首页 > 新闻动态 > 实验室新闻 >
计算机体系结构国家重点实验室2018年开放课题申请指南
时间:2018-09-29 14:42:22      点击 :次      来源:      收藏

一、简介
计算机体系结构国家重点实验室是我国计算机系统结构领域的重要科研基地之一。它的主要任务是研究和发展计算机系统结构相关领域的基础理论和关键技术。现阶段重点围绕超并行计算机系统和多核处理器开展基础研究和高技术前沿探索,为高性能计算机系统和高性能处理器设计领域的发展持续提供创新方法和关键技术。为提高实验室的开放层次,提高学术水平和技术水平,增进国内外学术交流与合作,促进人才流动与学科交叉渗透,特设开放研究课题。欢迎国内外相关领域的科研工作者参与实验室的开放课题研究。

二、指南的制定原则
为促进计算机系统结构领域内的新理论、新思想和新技术、新方法的发展,加强国内外学术思想与人才的交流,本实验室特设立开放研究课题,资助有关人员来本实验室从事计算机系统结构的基础理论、关键技术研究和应用基础研究。
指南的制定原则如下:
1、根据我国计算机系统结构领域的发展战略,着眼于国民经济建设的当前和长远的需要和国际学科发展的前沿;
2、鼓励具有开拓性、前瞻性、创造性和高层次理论和技术的自主创新研究及具有重大应用前景的项目;
3、利于促进多学科的交叉渗透和多部门的联合攻关,有利于建立和发展国际合作的新格局,有利于人才培养和学科的发展;
4、鼓励和支持具备博士学位、高级职称的国内外科技工作者;
5、资助项目的申请者要求与本室科研人员协同工作。

三、本年度建议开放课题的研究方向
 
本年度建议开展课题如下(可不限于以下课题)
 
题目1:国产密码算法SM2运算加速器结构设计及实现
研究内容:
相比于目前被广泛使用的RSA(Rivest-shamir-Adleman)算法,椭圆曲线加密(Elliptic Curve Cryptography,ECC)拥有加密强度强、计算量小、处理速度快等优点。然而为了充分保证安全性,目前的公钥与私钥都在256位以上,因此在密钥的生成与验证中需要进行大数运算,而且数据在加解密的过程中也需要进行大数运算,所以可保证大数运算的高效运算器是必不可少的。该项研究基于SM2算法,拟运用并行和流水加速逻辑,设计高速公钥密码体系结构,并且搭载数字签名算法完成身份认证。最后用FPGA可重构的实现,为国产密码算法提供运算加速器逻辑的技术支撑。研究内容主要包括:
(1)研究设计可进行大数运算的并行流水运算加速器,完成适于SM2算法的乘法运算部件设计;
(2)用并行流水逻辑实现SM2算法中公钥加密和解密逻辑,即完成数据加解密算法逻辑设计;
(3)用并行流水逻辑方法实现SM2算法中数字签名算法,在保证数据加密的基础上完成认证工作;
(4)利用FPGA可重构实现基于SM2算法的公钥密码体系结构,并开展应用研究。
 
 
题目2:编译器测试的语义导向研究
研究内容:
编译器是软件开发的基础支撑工具,它的正确性直接影响着应用软件的质量。对编译器进行大规模测试是检测和排除编译器错误、验证编译器正确性,保障其质量的最主要方法之一。自动化生成有效的测试用例是大规模测试中的核心环节。编译器的特殊之处在于其测试用例是程序源代码,具有复杂的输入空间,其功能包括处理源代码的语法和语义、生成二进制代码等复杂的软件行为。为了实现编译器的深度测试,需要生成具有语法和语义多样性的高质量测试用例。程序源代码是高度复杂的结构化数据,自动化生成既符合编程语言的语法规范又具有特定的明确语义的程序源代码具有挑战性。现有的测试用例生成方法主要有基于种子变异和基于语法生成两种。基于种子变异生成的测试用例大多存在词法或语法错误,对编译器的测试容易停滞在其起始阶段的词法和语法分析处,难以测试到编译器的深层功能;基于语法生成的测试用例符合编程语言的语法规范,但语句之间语义连续性和关联性差,仍然难以对编译器进行深度测试。
本课题将探索基于语义导向的编译器测试用例生成,从而对编译器进行深度测试。
课题的主要研究内容包括:
(1)程序代码中语义相关性的分析和判断的研究;
(2)对语义进行描述与分类,构建丰富的语料库;
(3)研究语义与程序语言中元语的关系;
(4)研究语义和具体语法的联系,从而指导完成语义到具体源程序代码的转换;
 
 
题目3:容错增强的安全关键实时应用设计优化研究
研究内容:
伴随着网络化发展,嵌入式实时系统面临着由系统脆弱性和网络攻击带来的严峻安全威胁,特别是在国内外主推的无人机或无人汽车方面,面临着更加严重的安全威胁。这类系统被称为安全关键实时系统。安全关键实时系统面临着严峻的容错挑战,特别是安全攻击导致的容错挑战。原因在于它们大多应用于恶劣的自然环境下(高温、电磁辐射等),并且时刻面临着十分严峻的外部攻击威胁。安全关键实时系统在运行过程中产生错误,是不可避免的。自然环境产生的错误,将影响系统功能的正确执行;而安全攻击产生的错误,将帮助攻击者高效地获得安全密钥(比如错误注入攻击),甚至感染破坏整个系统(木马攻击等)。然而安全关键实时系统的当前研究缺乏对容错因素的考虑,不适用于错误敏感的安全关键实时系统的健康发展。因此,考虑安全关键实时系统的特有容错需求,系统性地从任务层面研究安全关键实时应用的容错增强技术成为势在必行的工作。该课题研究内容重点分布在:
(1)在分析安全关键实时系统错误类型的基础上,构建相应的容错模型,并通过测试建立容错机制的开销模型。
(2)针对分布式硬实时应用,研究最坏情况下容错确保的安全关键实时系统设计优化技术。
(3)针对分布式弱实时应用,考虑任务的真实执行模型,研究性能统计确保的容错增强安全关键实时系统设计方案。
(4)研究基于安全和容错FPGA加速的软/硬件协同优化方案,进一步提高安全关键实时应用的运行效率。
 
 
题目4:基于张量填充的网络测量算法研究
研究内容:
大规模网络测量的突出难题是如何保证测量准确性的同时,降低网络测量代价,提高网络测量效率。当网络规模为n时,现有网络测量系统(如Pingmesh和NetNORAD)所需的测量代价为O(n2)。随着网络规模的增长,尤其是超大规模数据中心网络的出现,大规模网络测量管控极具挑战性。稀疏感知理论表明,如果信号(数据)是稀疏的,可以通过少量采样,重构全部数据。稀疏感知理论提供了一种新的数据采集方式,在遥感、图像等领域得到广泛应用。传统网络性能分析模型通常将网络性能数据建模为矩阵,然而,二维矩阵难以表征网络性能数据的多模式特征。为了充分挖掘网络性能数据内部蕴含的多模式特征,本项目拟将网络性能数据建模为张量,根据稀疏感知领域的最新研究成果——张量填充,本项目拟研究低开销大规模网络测量算法:根据张量填充理论,调度部分网络路径的测量采样过程,基于部分采样测量的性能数据,推测完整全网网络性能数据。相比于其它稀疏感知理论(压缩传感、矩阵填充),张量填充可以用更少的测量代价获得更高的数据推断精度,然而,1)现有张量填充理论主要是离线数据处理,网络测量过程是在线过程,设计基于张量填充的网络测量算法,需要在理论和实践上进行突破;2)现有张量填充算法虽然可以很好的推测正态分布情况下的缺失数据,但是网络性能数据,如网络流流量数据服从尖峰重尾分布,难以直接利用张量填充准确推测大象流;3)虽然张量模型和张量填充算法可以获得更高的数据表示和推测精度,然而,张量填充带来高的计算代价和计算复杂性。为此,本项目的研究重点包括:
(1)提出基于张量填充的在线测量理论,实现理论突破。在线确定测量的位置和路径以及所需的测量数目,最小化网络测量代价的同时,保证依赖所测数据可以精确恢复未测量性能数据。
(2)提出面向网络流分布特征的张量填充算法,该算法可以为网络拥塞控制决策准确推测大象流。
(3)提出基于并行GPU平台的张量填充算法,充分考虑GPU的三级Grid-Block-Thread并行体系结构以及多层memory限制,拆分大张量填充任务为多个子张量填充任务,最大化利用GPU的并行能力。
 
 
题目5:开源系统软件挖掘、理解及其自动重构
研究内容:
开源软件经过数十年的蓬勃发展,已经成为软件领域不可或缺的重要组成部分,其开放、自由分享的特点为软件复用提供了巨大可能的同时,也为系统软件资源的复用、自动分析与定位、自动解决方案的构建等带来了巨大的机遇和挑战:1)如何从大规模的开源系统软件资源中准确定位到所需的可复用对象。2)如何联接跨社区碎片化的知识资源,实现知识的共享和复用。本课题将在综合利用软件协同开发社区和软件知识分享社区中系统软件资源的协同开发数据和知识分享数据等方面展开研究工作,以应对以上挑战。
研究内容重点分布在:
(1)开源系统软件可复用资源的建模与分析方法研究。
(2)开源社区多种数据源的知识图谱构建和开源系统软件资源可信定位的支撑机制研究。
(3)开源系统软件资源的协作可靠性分析研究,从而帮助用户更准确、高效地定位到所需的开源系统软件资源。
 
 
题目6:基于程序语义信息标签的多核处理器系统研究
研究内容:
后摩尔定律时代的到来,不仅让计算机体系结构设计面临前所未有的挑战,也为其带来了新的机遇。基于应用特征分析,订制并优化硬件结构,软硬件结合设计的方法成为当今研究热点。然而已有的离线静态分析方法很难准确、完整的获得程序运行时特征,动态监控缺乏程序语义的支持,如何灵活、高效地将应用特征动态传递给底层硬件成为关键问题。该项研究基于通用多核处理器架构,分析对服务质量敏感的应用,探讨并设计一组带有程序语义信息的软硬件交互接口,辅助以语义信息执行硬件单元,系统级地针对应用性能、安全等需求进行优化。
研究内容重点分布在:
(1)设计一组能够传递应用程序语义信息的软硬件交互接口,通过该接口,底层硬件可以快速地获取上层语义信息
(2)探讨该语义信息交互接口所需具备的基本属性。分析应用程序中的特征,针对敏感数据和特征代码段,归纳、总结出一套可充分表达应用性能关键点的属性组合
(3)设计实现语义信息的硬件模块,这些硬件模块根据语义信息,执行响应策略,为处理器中的关键部件提供反馈控制
(4)基于提出的语义信息接口,将使用场景拓宽至安全领域,提出一种针对敏感数据提供硬件隔离保护的安全机制
 
 
题目7:数据中心光交换网络调度算法的研究
研究内容:
数据中心是云计算、大数据服务的基本支撑架构,当前云计算、大数据服务发展迅速,超大规模、超高灵活、超低时延、超强扩展成为云计算业务模式的特征和基本要求,基于传统电互连技术基础的交换架构在面向大规模、高通量、超密集的通信需求时会出现带宽、能耗、容量、管理开销等瓶颈问题。与电互连技术相比,光互连具有高带宽、低能耗、低开销、高透明的特点,可以较好地满足云计算业务大数据量高速信息交互的需求。但受到缓存结构、控制系统、交换粒度、开关时延等因素的限制,现有数据中心光互连架构存在扩展性不足、控制开销较大、连通性较低、网络容量有限等问题,这限制了光互连架构在大规模数据中心的部署与应用。尤其随着快速光交换技术的发展,光交换矩阵在数据层面具备操作细粒度信息的能力,但在控制层面较为复杂的算法及控制流程限制了光交换网络的响应速度。同时,传统调度算法还存在资源利用率不足、扩展性有限、鲁棒性较差等问题。因此,本课题将对大规模数据中心光交换网络的调度算法展开研究,具体研究任务包括:
(1)总结数据中心典型光互连架构及调度算法,对比传统调度算法的优劣,分析不同光交换技术对调度算法的需求;
(2)针对特定的光互连网络结构和复用技术,设计通信意图敏感的调度算法,解决传统调度算法所存在的决策时延大、算法复杂度高、带宽分配不均、连通性有限等问题;
(3)建立算法仿真模型,评估传统调度算法以及新型算法的性能,包括算法复杂度、扩展性、流完成时延、平均吞吐等。
 
 
题目8:数据并行系统的流水线优化机制与方法
研究内容:
现有数据并行系统在数据分区、传输和计算过程中或多或少受制于串行执行,无法充分利用CPU、内存和I/O等计算资源,显著制约了整体性能。针对该问题,本课题提出一种面向数据并行系统的数据处理流水线并行机制,将数据读取、有效计算、数据分区和数据传输等关键步骤以流水线方式并行处理,隐藏数据传输开销,提高数据并行系统的处理性能。研究的重点内容包括:
(1)研究数据处理过程细分方法,建立细粒度数据块驱动的流水线数据过程模型和优化机制,通过流水线并行机制提高整体性能;
(2)研究适合于流水线机制的中间数据分区优化方法,探讨迭代式数据分区时机、数据分区准则、评价模型,优化各节点接收中间数据的均衡性,实现任务负载平衡;
(3)研究数据块读写性能优化机制,分析数据块大小、块合并策略和传输块大小对流水线整体性能的影响,优化参数选择,提高数据处理流水线并行性能。
 
 
题目9:基于Skymrions自旋电子学器件的神经形态计算研究
研究内容:
与传统计算相比,神经形态计算具有高容错性、可适应性和超低功耗等优点。而自旋电子学器件作为一种非易失性存储器件,可以在纳米尺度上将计算与磁存储相结合。如果利用自旋电子学器件制造神经网络,这样可以允许现场存储系统的参数,例如神经网络的突触权重,进一步降低神经网络的功耗。磁性Skyrmions是一种近年来才被发现的具有新颖拓扑结构的准粒子,而最近提出的一种新型Skyrmions的多位存储器件,利用脉冲电流可以对器件中的多个Skyrmions进行移动,这一种行为可以模拟生物系统的神经突触。本项目主要研究基于磁性Skyrmions的自旋电子学器件的神经形态计算新模型,利用基于GPU的微磁学计算模型来模拟基于Skyrmion的自旋电子学器件行为,构造可行的基于Skyrmions的人工神经网络,并且得到其优化策略。研究内容重点分布在:
(1)利用已有的微磁学仿真软件,例如OOMMF和MuMax3,构造基于Skyrmions自旋电子学器件的微磁学计算模型,并且利用GPU加速仿真,得到Skyrmions的移动速度和幅度与脉冲电流大小之间的关系;
(2)利用Skyrmions自旋电子学器件模拟神经突触行为的基本模型,并且系统的研究基于Skyrmions器件的人工神经突触的优化策略,得到有效的、低功耗和高并行度的基于自旋电子学的人工神经突触;
(3)利用Skyrmions自旋电子学器件模型进一步构建SNN(Spiking Neural Networks),分析其结构特点与行为特征,并研究其优化策略。
 
 
题目10:基于日志的数据中心磁盘健康评估和故障预测技术研究
研究内容:
数据中心存储系统规模的不断扩大以及高性能低成本的追求使得原本偶发的硬件故障成为常态,其中磁盘故障发生率最高,影响也最为严重,提高磁盘可靠性是保障存储系统高效、稳定的关键。磁盘故障预测技术是提高磁盘可靠性的重要手段。传统磁盘故障预测技术仅基于SMART数据构建故障预测模型,再根据磁盘实时数据进行故障预测。由于SMART 数据仅能描述磁盘内部的健康状态、通电时间和温度,无法反映磁盘工作负载、模式、性能等信息,致使传统磁盘故障预测技术性能受限。本项目引入全链路监控日志,结合SMART数据与磁盘基本信息,从磁盘I/O负载、请求模式、I/O性能、内部健康状态和工作环境等多层面反映磁盘故障及其关键影响因素,研究基于全链路监控日志的磁盘故障预测技术,涵盖特征选择策略、磁盘衰退模型及磁盘故障预测模型。基于日志的磁盘故障预测技术克服了传统磁盘故障预测技术的局限性,从特征选择、训练样本筛选、预测模型鲁棒性三方面提高磁盘故障的预测性能,为数据管理和存储资源动态管理等存储系统可靠性技术提供精准的决策支撑,对存储系统可靠性提升有重要意义。研究内容重点分布在以下三个方面:
(1)将监控日志与磁盘SMART数据、磁盘基本信息相结合,通过研究样本特征与故障的相关性以及特征间的冗余性,设计并实现基于全链路监控日志的特征选择策略,为磁盘故障的理解及预测提供一个更为完备准确的特征子集;
(2)针对磁盘故障的多样性,对故障分类研究并构建磁盘健康度量化模型,深度理解磁盘故障及其衰退过程,为故障预测模型训练样本的筛选提供决策依据;(3)构建基于监控日志的磁盘故障预测模型,从训练集构造与模型参数寻优两方面设计并实现模型的优化策略,提高磁盘故障的预测性能。
 
 
题目11:基于容器技术的云化域名系统部署技术研究
研究内容:
域名系统(DNS)是互联网的关键基础设施,实现对各资源的命名、寻址(解析)、查询等服务,为互联网运行提供基础性支撑。作为一个巨大的分布式系统,伴随着互联网的发展,全球域名系统的规模一直在不断扩张。当前,二级注册域名数量已经突破2亿,全球域名服务节点的数量达到百万级别。在系统规模迅速扩张的背景下,如何在满足系统可用性、性能和质量的基础上,进一步促进不同域之间的资源共享,压缩系统部署成本,提高系统部署的灵活度,增强系统的应急响应能力,成为域名系统部署技术的研究热点。容器技术为解决以上问题提供了一个新的突破方向。本项目就此展开研究。
(1)研究基于容器的域名解析服务一体化平台架构,实现物理资源细粒度分配及服务的高效集成部署,支撑精细化多域资源共享;
(2)基于BGP AnyCast、SDN、NFV等技术,研究构建高效可控的域名广域负载均衡架构,实现全网资源动态调配;
(3)研究域名解析请求分布的智能感知和评价算法,动态评价域名解析的全网服务效果;
(4)基于研究1、2和3,进一步研究面向全网的云化域名服务平台管理技术,实现对域名服务的广域云化部署和集中统一管理评价。
 
 
题目12:基于众核处理器的大规模稀疏线性系统快速求解方法研究
研究内容:
求解稀疏线性方程组是许多大规模科学计算任务的核心环节。在一些以预条件迭代共轭梯度算法为基础的科学计算任务中,方程组求解时间会占据任务执行总时间的70%。由此可见,提升稀疏线性方程组的求解速度对于优化整个科学计算任务的性能而言至关重要。硬件计算平台方面,以GPU为代表的众核处理器在通用计算领域展示了强大的优势。其丰富的并行计算资源为求解大规模稀疏线性方程组提供了有力的支撑。然而,已有的方法,无论来自学术界还是工业界,均受限于方程组求解的传统观点,即某一个变量的求解必须等到其所有前继变量求解完成之后才能开始。这种方式限制了稀疏线性方程组求解时可以达到的任务并行度,无法充分利用众核处理器丰富的并行硬件资源。
本项研究旨在提出新的思路和方法以加速大规模稀疏线性方程组的求解。在消除变量求解时的相关性、借助多右端项之间的关联及负载均衡计算三个方面开展研究工作。具体内容如下:
(1)面向基于前代-回代方式的直接求解方法,提出基于变量部分值计算的相关性消除方法,优化三角求解阶段的性能。采用提出的方法,变量的求解无需等待其所有前继变量完成计算。相应的,方程组求解的并行度获得巨大提升,可不低于方程组的阶数。
(2)面向具有多右端项的应用场景,分析多个右端项之间的数值关系与区别。采用近似计算的思想,简化面向多右端项的方程组求解步骤,提升方程组求解速度。
(3)面向以GPU为代表的众核处理器,提出性能分析方法和任务调度与分配算法,分析和量化提出的求解算法在运行时对硬件资源的利用情况、负载分布情况,发现和找出算法尚存的性能瓶颈,指导进一步的性能优化,实现负载均衡计算。
 
 
题目13:程序运行时裁剪技术研究
研究内容:
近年来,ROP/JOP攻击已经成为了一种黑客常用的、主流的攻击方式。这种攻击方式通过在程序的运行时代码中搜索构造一系列的代码块,这些代码块通过控制转移指令(如jmp)相互连接而形成攻击链。攻击者利用程序中存在的漏洞触发这样的攻击链,达到攻击目的。这种攻击方式完全利用程序已有的代码(包括与其相关的运行时库代码等)实现攻击。该项研究准备在动态裁剪应用程序运行时内存代码空间、减小攻击代码链的搜索空间等方面进行研究,达到缩小攻击面、提升安全性的目标,拟研究一种高可靠、低开销、自动化、智能化的动态裁剪技术。主要研究内容包括:
(1)程序动态加载及内存代码空间裁剪技术研究,包括可用性及可靠性研究;
(2)程序依赖关系的精确分析技术研究,确保程序运行时所依赖的库函数的完整性与最小化;
(3)高效化动态裁剪技术研究,以确保较小保护机制的运行时开销。
研究成果将实现为工具原型,发表高水平学术论文。

四、本年度开放课题申请书提交时间及联系方式
 
2018开放课题申请书提交时间:2018年10月30日之前。
 
申请书请下载,一式两份,签字盖章后寄至:
北京市海淀区科学院南路6号 中国科学院计算技术研究所计算机体系结构国家重点实验室(邮编:100190)
金琳(收)
申请书电子版请传至:jinlin@ict.ac.cn
联系人:金琳,董慧;
电话:010-62600600;
Email:jinlin@ict.ac.cn  传真:010-62600600


申请书: