凯发娱乐

您当前的位置:首页 > 新闻动态 > 实验室新闻 >
计算机体系结构国家重点实验室2019年开放课题申请指南
时间:2019-10-10 20:28:33      点击 :次      来源:      收藏

一、简介
计算机体系结构国家重点实验室是我国计算机系统结构领域的重要科研基地之一。它的主要任务是研究和发展计算机系统结构相关领域的基础理论和关键技术。现阶段重点围绕超并行计算机系统和多核处理器开展基础研究和高技术前沿探索,为高性能计算机系统和高性能处理器设计领域的发展持续提供创新方法和关键技术。为提高实验室的开放层次,提高学术水平和技术水平,增进国内外学术交流与合作,促进人才流动与学科交叉渗透,特设开放研究课题。欢迎国内外相关领域的科研工作者参与实验室的开放课题研究。

二、指南的制定原则
为促进计算机系统结构领域内的新理论、新思想和新技术、新方法的发展,加强国内外学术思想与人才的交流,本实验室特设立开放研究课题,资助有关人员来本实验室从事计算机系统结构的基础理论、关键技术研究和应用基础研究。
指南的制定原则如下:
1、根据我国计算机系统结构领域的发展战略,着眼于国民经济建设的当前和长远的需要和国际学科发展的前沿;
2、鼓励具有开拓性、前瞻性、创造性和高层次理论和技术的自主创新研究及具有重大应用前景的项目;
3、利于促进多学科的交叉渗透和多部门的联合攻关,有利于建立和发展国际合作的新格局,有利于人才培养和学科的发展;
4、鼓励和支持具备博士学位、高级职称的国内外科技工作者;
5、资助项目的申请者要求与本室科研人员协同工作。
三、本年度建议开放课题的研究方向
 
本年度建议开展课题如下(可不限于以下课题)
 
题目1:高能效类脑深度脉冲神经网络计算芯片设计研究
研究内容:
    近年来,深度神经网络以其卓越的性能广泛应用于人工智能各相关领域,但其受限于逐层同步密集计算的数据处理方式,即使设计专用小型化芯片进行计算加速,也很难突破能量效率瓶颈用于移动边缘计算。另一方面,模拟人脑运作机制的脉冲型神经网络采用时间上异步、稀疏的脉冲进行信号传递,可以获得显著的能量效率提升。该项研究针对高能效智能边缘计算需求,展开类脑深度脉冲神经网络计算芯片设计关键技术研究,包括网络模型框架、片上训练算法、芯片架构、神经元电路,研究内容重点分布在:
1)  研究提出面向芯片硬件电路实现的轻量级深度脉冲网络模型框架,以及类脑快速片上在线训练算法;
2)  研究提出高能效并行深度脉冲网络计算芯片体系架构和电路设计优化技术,重点设计紧凑型可重构脉冲神经元处理电路,以分时复用计算资源方式实现网络推理识别和片上学习,降低成本功耗;
3)  实现类脑深度脉冲网络芯片FPGA原型及实时演示系统,能效不低于2TPOS/W,在MNIST、CiFAR-10、Caltech-101等标准数据集上达到95%识别率,并实现30帧/秒以上、图像分辨率QVGA以上的目标检测、场景识别等实际应用。
 
 
题目2:新型物理不可克隆安全芯片关键技术研发
研究内容:
    伴随着“雾计算”、“5G通讯”、“人工智能”等新一代技术的兴起,数据安全和隐私也面临新的挑战。如何在成本低廉,数以百亿计的物联网设备上实现轻量级、高安全性的安全功能成为目前的研究领域的热点问题。物理不可克隆技术利用半导体芯片制造过程中不可控制和不可预知的工艺偏差来产生芯片特有且稳定“指纹”的电路模块。它可以作为轻量级硬件安全单元实现密钥管理和安全授权。针对目前物理不可克隆技术在稳定性差,易受机器学习攻击等问题,本课题提出的新型物理不可克隆技术能很好地提升稳定性、可靠性、随机性方便的性能指标,提出的结构同时解决防止机器学习攻击。在制作的物理不可克隆芯片基础上提出新型安全认证。研究内容重点分布在:
1)      新型反馈环式电流控制物理不可克隆芯片,可以抵抗环境温度、电压等变化带来的影响。
2)      研究设计物理不可克隆芯片的最小熵值,理论论证物理不可克隆技术的随机性,论证满足商用的最低条件。
3)      基于物理不可克隆函数的片上安全认证和密钥保护方式,进一步探索硬件层面实现轻量级数据加密和哈希算法。
4)      结合远程轻量级认证及制作的物理不可克隆技术芯片的特点,提出新型安全认证协议,防止机器学习、中间人等攻击。
 
 
题目3:基于第三方不可信IP核的线上硬件木马检测及恢复机制研究
研究内容:
随着集成电路产品市场的迅猛发展,采用第三方IP核搭建片上系统成了一种必不可少的快速迭代方式。然而,由于第三方IP核线下测试的局限性以及潜在的硬件木马电路威胁,其可信赖性成为了搭建可信硬件计算系统的主要障碍。因此,制定相应的线上硬件木马检测及出错恢复策略是保障系统安全性与可靠性的必要手段。该项研究针对由第三方不可信IP核搭建的片上系统,探讨其相应的安全策略,以实现线上硬件木马电路的检测及出错恢复,同时针对片上系统时间/空间等计算资源的限制,研究高效可行的任务调度与映射算法。本项研究的重点分布在:
1)  研究片上系统的线上安全策略,设计精简高效的安全方案,实现对硬件木马电路引发的错误的检测和恢复,消除第三方不可信IP核带来的安全威胁,以不可信功能单元建立可信赖的片上计算系统;
2)  基于时间/空间资源的限制建立片上系统的多目标优化模型,根据不同系统的需求,能够对系统的不同指标进行开销优化;
3)  设计高效的任务调度与映射算法,在满足安全策略的同时,适应多目标优化模型,自动生成优化的硬件资源、任务调度与映射方案。
 
 
题目4:基于存内计算架构的供应链安全保障技术研究
研究内容:
    集成电路芯片高度复杂,其设计、制造、封装及测试等过程涉及到全球化的产业分工,难以对所有环节实施有效监管,设计生产供应链中存在芯片剽窃、硬件木马植入、逆向工程等诸多硬件安全隐患,严重影响经济和国防安全。近期研究表明,存内计算作为后摩尔时代的关键技术,有望突破冯诺依曼瓶颈,同时为硬件安全领域带来重大技术变革。该项研究针对目前的供应链安全隐患,探索突破传统冯诺依曼框架,研究基于存内计算架构实现安全、低开销的集成电路供应链安全保障技术。
研究内容重点分布在:
1)    建立基于存内计算架构的供应链安全保障技术的攻防模型,探明威胁模型、保障范畴和潜在攻击方法;
2)    利用存内计算中数据存储和逻辑计算深度融合的特性,探索抵抗供应链安全隐患的保护技术机制;
3)    优化设计和实现电路模块划分和存内映射算法,降低供应链安全保障技术引起的功耗、面积和性能等开销。
 
 
题目5:基于GPU的通用计算在测试理论中的应用研究
研究内容:
    随着集成电路超深亚微米制造工艺的发展,以及先进工艺节点的制程偏移,导致了测试向量的生成时间和测试数据量呈爆炸式的增长。为了应对不断进步的制造工艺和芯片规模的挑战,产业界对于高效和快速获取测试向量和故障诊断数据,有非常强烈的需求,亟需在测试理论中最基本的仿真和测试算法上有所突破。本项目立足于近十余年来芯片算力及计算架构的快速发展,尤其是基于GPU的通用计算,针对测试理论中最基本的逻辑仿真和故障仿真,探讨新型的并行仿真技术,并研究其合理任务划分与高效映射问题,为测试理论的进一步发展提供支撑。主要研究内容包括:
1)  研究具有良好拓展性的分布式事件驱动仿真技术,并融入测试基本理论中,以期在测试向量的仿真效率方面实现突破;
2)  分析测试基本算法中的任务流程,并探索合理的并行划分技术及映射算法;
3)  为测试理论中的静态学习任务设计高效的并行算法,并探索动态学习任务的新策略。
 
 
题目6:神经网络加速器的可靠性研究
研究内容:
    近年来专用深度学习处理器芯片成为研究热点,目前大部分研究工作都集中于神经网络加速器的高性能、高能效和数据流优化等方面。然而,随着神经网络加速器内部的日益复杂的结构和不断增加的PE,而且,实际工作环境往往极为严苛,特别是在物端系统上,与产品设计预期差距巨大,原本训练好的模型在实际工作环境中,可能会产生精度降低甚至失效。芯片可靠性成为系统可长期有效运行的必不可少的关键保障。本研究在检错上拟提出神经网络加速器的在线检错方法,在微体系结构上拟设计内建自修复容错结构,在模型上拟提出考虑实际工作环境的模型重训练方法,进行多层次的可靠性设计。内容重点分布在:
1)  在模型训练层上,拟提出考虑硬件的CNN在线训练方法,硬件上进行前向传播,每层的前向传播结果,传回训练器,CPU进行反向训练,通过再训练提高对CNN加速器的硬件故障的容忍能力。
2)  在微体系结构层上,拟提出内建自修复容错结构,通过旁路和冗余PE替换来减少硬件故障对系统精度的影响;
3)  在故障检测方面,拟提出神经网络加速器的在线检错方法,采用生成式对抗网络为被测电路生产最高效的测试向量。
 
 
题目7:面向寒武纪智能处理器的深度神经网络模型压缩与应用
研究内容:
 近年来,深度神经网络模型在多个研究领域取得了显著的成绩,具有极大的潜在应用价值。随着物联网、自动驾驶等领域的快速发展,将深度模型应用到实践中解决具体问题的需求愈发迫切。而且,随着边缘计算等技术的发展,越来越多的计算转移到嵌入式设备端,促使如何在资源受限的嵌入式设备上开展模型推理,成为当前一个亟需解决的问题。深度模型一般存在参数量大、计算时间复杂度高等问题,使其难以直接应用在资源受限的小型移动终端上。模型压缩是降低深度模型复杂度的重要方法,本课题拟从两方面解决这个问题,一方面研究深度网络模型的压缩算法,在可接受精度损失的前提下,优化其内存占用和计算量,这对计算资源受限情况下的模型应用非常必要。另一方面,将模型压缩算法与现有神经网络加速芯片进行深度融合,以最大化模型在加速芯片上的运行效率。最后,将以医学疾病诊断模型为例,实现多移动端平台的部署,包括寒武纪M100和FPGA平台等,形成人工智能医疗应用示范。
课题的主要研究内容包括:
1)基于剪枝,量化和知识蒸馏等技术,研究和设计深度神经网络模型压缩方法;
2)基于寒武纪智能处理器和FPGA等平台,实现基于深度学习的医学图像处理模型的压缩和应用加速; 
3)面向边缘智能计算场景,研究和优化压缩模型的运行速度和功耗等指标。
 
 
题目8:神经网络增强符号执行算法研究
研究内容:
    符号执行是一种基于程序路径约束的程序分析方法,在程序安全缺陷自动发现、程序的自动化测试等方面有较多应用,发现了较多的0Day安全漏洞。但是符号执行面临路径爆炸、路径约束条件常超过约束求解器能力、外部调用缺少建模等问题,使得其对大型实用性程序的分析适用性较差。近年来,使用神经网络解决程序建模问题成为新的研究热点。神经网络作为一种复杂规则建模的有效方法,可以用于解决符号执行中复杂子程序的输入输出映射问题。
本课题拟研究通过子程序划分局部求解建模的方式解决大型程序的符号执行相关问题的算法。包括子程序的划分和子程序的抽象表达改进的问题;程序片段划分的原则和优化方法;基于神经网络的子程序建模训练的效率优化问题等。由于对每个子程序抽象的神经网络均需要进行独立训练,因此需研究相关优化和批量处理方法。研究神经网络与约束求解联合求解问题,使得神经网络增强后,可适用于原有符号执行框架,研究使用神经网络提高符号执行的适应性、提高分析效率的方法。研究神经网络增强后相关评价体系,并对算法的有效性进行评估。形成专利和论文研究成果。
 
 
题目9:忆阻交叉阵列逻辑设计与测试方法研究
研究内容:
    大数据和人工智能技术蓬勃发展对集成电路技术提出了更高的要求。清华大学发布的《人工智能芯片技术白皮书(2018)》指出:目前人工智能芯片的技术挑战主要在冯诺依曼结构、CMOS工艺和器件的瓶颈。忆阻器在存储和逻辑运算方面的应用,使得MCA结构能够将存储和计算一体化(Process-in-memory),为改变传统的冯诺依曼结构提供了可能[3]。忆阻交叉阵列(Memristive Crossbar Array, MCA)结构具有规模大、集成度高等特点,主要在阻变存储器(Resistive Radom Access Memory, RRAM)、神经网络和逻辑电路设计等方面广泛应用。忆阻器在存储和逻辑运算方面的应用,使得MCA结构能够将存储和计算一体化(Process-in-memory),为改变传统的冯诺依曼结构提供了可能。构建一套MCA结构的逻辑设计方法,成为当今高性能体系结构和大规模集成电路设计应用中具有现实意义的研究课题。MCA结构面积小、集成度高等特点,将导致测试过程中测试数据量大和测试时间长等问题,从而测试效率低下,影响MCA相关产品的产量。因此,结合MCA结构在阻性存储器的应用中测试的研究成果,提出相应忆阻交叉阵列的逻辑电路测试方法将能够改进产品设计并提高良品率。
 
 
题目10:虚拟数据空间资源聚合系统和算法研究
研究内容:
    当前,国家高性能计算环境中存储资源广域分散且隔离自治,大型计算应用迫切需要可支持跨域统一访问、广域数据共享、存储与计算协同的全局数据空间。项目针对在国家高性能计算环境中建立全局数据空间的需求和技术挑战,拟解决跨域虚拟数据空间构建、广域安全可靠数据共享、计算与存储高效协同、跨域多源数据聚合处理等关键科学问题,突破广域分散自治存储资源聚合、带宽约束下广域数据高效可靠迁移、计算与数据跨域联动调度、高并发数据流协同处理等关键技术,研发虚拟数据空间软件系统,在国家高性能计算环境部署,发挥广域资源聚合效应,形成广域数据共享,有效支撑大型计算应用。最终形成一套面向广域高性能计算环境的虚拟数据空间方法和关键技术,为在广域高性能计算环境中建立虚拟数据空间奠定技术基础。立足当前国家高性能计算环境中存储资源广域分散且隔离自治的现状,研究内容重点分布在:
1)跨域虚拟数据空间模型及构建、虚拟数据空间中数据的共享与迁移、国家高性能计算环境中虚拟数据空间运行支撑技术、面向典型应用的虚拟数据空间验证与优化四个层面开展协同研究,
2)研究构建与本地数据空间一致且能可靠地统一访问与管理的跨域虚拟数据空间,形成可靠安全高效的广域数据共享,有效聚合分散自治存储资源,发挥广域资源聚合效应;
3)实现跨域数据空间构建、广域数据共享与迁移等技术集成,形成完整的虚拟数据空间软件系统;
4)实现虚拟数据空间软件系统与现有高性能计算环境相关软件的对接,形成存储与计算的协同调度能力;
5)优化虚拟数据空间与应用之间的IO 中间层,提升典型数据访问模式的跨域访问能力,选择典型计算应用开展对虚拟数据空间的验证与优化。
 
 
题目11:高安全可信执行环境构建技术研究
研究内容:
    ARM TrustZone技术通过硬件隔离机制为可信应用提供可信执行环境(TEE),TEE是嵌入式系统的安全基础,使其成为软硬件攻击的目标。目前许多TEE操作系统因采用宏内核架构而遭受大量软件攻击(CVE-2017-1000413、CVE-2017-8142、CVE-2016-6129、CVE-2016-10339),并且物理攻击技术的发展使得针对TEE的物理攻击逐渐增加。此外,TEE软硬件机制的安全属性未经过证明,难以保证其达到预期的安全性。针对上述问题,本课题研究高安全可信执行环境构建技术,在TEE操作系统架构、TEE物理安全防护、TEE形式化验证方面展开研究工作。研究内容重点包括:
1)基于微内核的TEE操作系统架构,基于微内核架构为可信应用构建度量、远程证明等基础可信计算服务,使用微内核的强隔离机制保证可信计算服务、可信应用间的隔离,提高TEE系统的安全性。
2)基于片内存储的TEE内存加密保护技术,在容量受限的片内存储上利用内存加密构建TEE系统的物理安全防护方案,提高TEE系统的物理安全性。
3)基于定理证明的TEE关键机制形式化验证,包括对TrustZone隔离机制的正确性、安全性等属性的验证,确保TEE关键机制满足预期安全属性。
 
 
题目12:基于图论的区块链性能分析与改进机制研究
研究内容:
    区块链的有迹可循、不可篡改、去中心化、共建信任等特性,使得在众多领域(数字货币、物联网、数字健康、智能能源、资产追踪、智能交通等)中被应用,以构建安全、可信、一致的服务平台。然而,随着分布式系统规模的不断增长,区块链的性能与安全性对分布式系统具有重要的影响。一方面,由于区块链的设计特性,分叉不可避免,然而,区块链分叉增加了系统易受攻击的可能性,并且浪费了系统计算资源和通信资源等。另一方面,系统效率和安全性相互制约,区块链中块的确认时延越高,安全性越高;但是,块的确认时延越长,相应系统的处理效率越低。基于以上问题,从实际应用系统出发,本课题将从区块链性能分析及提出改进机制方面展开研究,具体研究任务包括:
(1)总结区块链中现有的安全性问题,以及相应的解决方案,然后分析已有的安全性解决方案对区块链性能的影响;
(2)针对分叉问题,利用图论、复杂网络、随机网络等模型对块生成节点的分布、块传播的网络物理特性进行建模分析,建立分叉概率与各个因素之间的关系,从而指导块生成节点的部署方案,以及块传播的物理网络设计方案。
(3)针对确认时延长问题,联合底层网络特性、节点计算资源,依据应用系统的实际需求,设计新型的块确认机制,并分析其安全性。
 
 
题目13:海量节点间数据相关性的查询方法研究
研究内容:
随着互联网中数据处理规模的日益庞大化,蕴含着大量有价值的信息。分析这些数据,挖掘潜在信息,找出网络节点间内在关系是目前关注的重点,特别是如何有效计算依赖于对包含几十、几百个点的大规模图模型,同时针对图节点动态的实时更新,实时从大规模、快速变化的图中发掘复杂模式,对图计算系统提出了全新的挑战。
该项研究针对大规模数据处理中并行匹配和增量计算等相关理论方法。挖掘和利用多样化数据间的语义关联往往可以增强大数据分析,从而更准确地提供个性化的差异性服务,帮助理解具有某种共同属性的群体行为模式,或识别异常和防范风险。研究内容重点分布在:
1)使用图理论和复杂网络知识对网络进行建模,对网络的结构特性进行了分析。建立分析系统的基础理论,得到不同网络在图结构和特征参数等方面的异同等相关信息。
2)在处理变化图时,构造图的可递推的无圈子图算法中分支限界条件的设定,利用设定的分支限界条件逐步完善构造图的含尽可能多顶点的可递推的无圈子图算法,达到仅计算变化增量给结果带来的改变。
3)如何利用数据的特点加以优化,解决大量的复制顶点导致的增加存储和内存开销问题。降低因不平衡划分导致的不平衡负载和对并行计算效率产生负面的影响。
 
四、本年度开放课题申请书提交时间及联系方式
 
2019开放课题申请书提交时间:2019年10月31日之前。
 
申请书请下载,一式两份,签字盖章后寄至:
北京市海淀区科学院南路6号 中国科学院计算技术研究所计算机体系结构国家重点实验室(邮编:100190)
金琳(收)
申请书电子版请传至:jinlin@ict.ac.cn
联系人:金琳,董慧;
电话:010-62600600;
Email:jinlin@ict.ac.cn  传真:010-62600600

申请书请下载附件uploadfile/2019/1011/20191011123220385.doc