当前位置 >>  首页 >> 开放课题 >> 指南通告

2021年开放课题申请指南

撰稿: 摄影: 发布时间:2021年09月16日

  一、简介

  计算机体系结构国家重点实验室是我国计算机系统结构领域的重要科研基地之一。它的主要任务是研究和发展计算机系统结构相关领域的基础理论和关键技术。现阶段重点围绕超并行计算机系统和多核处理器开展基础研究和高技术前沿探索,为高性能计算机系统和高性能处理器设计领域的发展持续提供创新方法和关键技术。为提高实验室的开放层次,提高学术水平和技术水平,增进国内外学术交流与合作,促进人才流动与学科交叉渗透,特设开放研究课题。欢迎国内外相关领域的科研工作者参与实验室的开放课题研究。

  二、指南的制定原则

  为促进计算机系统结构领域内的新理论、新思想和新技术、新方法的发展,加强国内外学术思想与人才的交流,本实验室特设立开放研究课题,资助有关人员来本实验室从事计算机系统结构的基础理论、关键技术研究和应用基础研究。

  指南的制定原则如下:

  1、根据我国计算机系统结构领域的发展战略,着眼于国民经济建设的当前和长远的需要和国际学科发展的前沿;

  2、鼓励具有开拓性、前瞻性、创造性和高层次理论和技术的自主创新研究及具有重大应用前景的项目;

  3、利于促进多学科的交叉渗透和多部门的联合攻关,有利于建立和发展国际合作的新格局,有利于人才培养和学科的发展;

  4、鼓励和支持具备博士学位、高级职称的国内外科技工作者;

  5、资助项目的申请者要求与本室科研人员协同工作。

  三、本年度建议开放课题的研究方向

  本年度建议开展课题如下(可不限于以下课题):

  题目一:面向深度神经网络的内存分配与优化方法研究    

  随着基于深度神经网络的机器学习方法的日益成熟,人工智能应用得到了迅猛的发展。与此同时,深度学习模型日益庞大和复杂,数据规模越来越大,造成内存资源日益紧缺。一方面,GPU等计算设备的迭代周期较慢,不能满足迅速迭代的神经网络模型与人工智能应用的需求;另一方面,学习对象数据规模迅速增长,远远超过硬件增长的速度,例如图像数据大小随着分辨率以平方比的尺度增大。本项目拟研究深度神经网络的内存分配优化方法。通过分析深度神经网络的内存使用模式,以及算子调度方案对于内存分配的影响,研究在维持计算性能的同时减少内存脚印的方法。该项研究,有望支持更经济的计算设备来运行原有的深度学习模型,弥补深度神经网络与计算设备在迭代发展过程中的差距,从而支持未来更广阔的人工智能应用场景。 

  研究内容重点包括: 

1)基于数据流的深度神经网络程序分析方法,研究深度神经网络的内存使用模式。 

2)研究深度神经网络中的算子调度方法,通过优化算子调度方案,改善并发性能。 
3)研究基于深度神经网络的内存分配优化方法,通过减少深度学习模型的内存脚印,以有限的内存容量支持更大的学习模型。

  题目二:面向异构集群的大规模AI模型分布式自适应训练关键技术研究 

  近年来AI技术,受益于算法、算力和数据集等方面的进步,在诸多应用领域取得了惊人成果。AI模型越来越复杂,如NLP领域中,从Bert_Large(4亿参数,32GB)到GPT-3(1750亿参数,350GB)到华为云盘古大模型等,大规模AI模型逐渐发展为下一代AI。单设备计算能力和存储能力有限,无法应对在大数据集上训练这样的大模型,跨设备分布式训练技术成为必然趋势。大规模AI模型结构或计算特性、异构集群硬件特征等导致分布式并行策略搜索和调优方法执行复杂、低效等问题。该项研究分析影响分布式训练性能的因素,构建刻画训练性能的评价模型;研究分布式训练策略自动搜索和性能调优方法,为设计和实现深度学习分布式并行训练策略提供直接、高效的方法。研究内容重点分布在: 

1)研究大规模AI模型特点、异构集群硬件特征等对分布式训练性能的影响,构建性能评价模型,刻画AI模型分布式训练性能指标; 
2)研究分布式并行策略自动搜索和调优方法,为大规模AI模型分布式并行训练策略的设计和实现提供直接、高效的方法;   
3)研究基于计算节点消融或归并算法,简化搜索空间,提升分布式并行策略自动搜索和调优效率。  

  题目三:比特级稀疏加速器架构研究 

  目前,人工智能应用快速发展,智能加速器架构在边缘端及云端等场景均具备着极大的挖掘潜力,受到广泛关注。但是,随着数据量和需要的智能算法结构参数量不断增长,计算复杂度不断上升,给智能加速器的架构设计带来一定的挑战。尤其是在保证硬件加速器算力的前提下,需要维持系统的能效。该项目利用智能处理过程中的比特级稀疏性,对智能算法推理及训练的运算过程进行加速,协同算法加速和硬件加速,设计高效率的智能加速器架构。在此基础上,探讨比特级稀疏计算的优势,为大算力和高能效计算硬件的研发提供支撑。重点的研究内容包括: 

1)研究比特级稀疏性算法及硬件实现,探索智能算法处理过程中存在的比特级稀疏特性,进行算法加速,充分考虑硬件计算特点,设计高效的比特级稀疏性硬件计算单元。 
2)研究基于比特稀疏性硬件计算单元的智能加速器,进行稀疏性计算的架构探索,实现智能算法在此类加速器中的高效映射与计算,提升硬件利用效率。 
  3)研究比特稀疏性运算架构的性能评估方法,考虑逻辑运算及数据调度对硬件架构性能的影响。 

  题目四:智能芯片可靠性关键技术的研究  

  智能计算芯片是当前衡量一个国家科技发展水平和实力的重要参考标准。它是以高性能计算、大数据及机器学习、深度学习三大技术为支撑的综合性高新技术产业。同时我国对配套的智能计算芯片正常运行有极高的要求。随着VLSI 技术与半导体工艺的迅猛发展, 高速片上互联的大规模异构并行处理器已被高密度集成到单个芯片上,但是随着制程工艺的进步,芯片内晶体管间的干扰愈发明显,量子效应不断阻碍高性能芯片在极端领域尤其是工业领域领域的大规模应用和部署,通常来讲,工艺制程越小,抗辐照能力越差。因此,为了确保可靠性,一般会选择较大线宽的制程,比如0.18um、90nm、65nm等,而不会一味追求摩尔定律的前沿制程。致使本来高性能的智能Soc只能使用非常成熟与落后的非高性能工艺。使得芯片具有较低的能耗比,不利于在能量有限且需要高性能智能计算的场景。我们需要在智能芯片设计期间就尽可能考虑到其可否满足工业场景下的可靠性,并且制定一套科学的工业级智能芯片的可靠性流程。该项研究针对目前流行的智能计算平台,探讨其可靠性技术, 并对智能计算系统上运行的任务负载研究其在不同计算负载下的可靠性,为智能计算平台提供可靠性关键技术支撑。研究内容重点分布在: 

1)基于可靠性保障的智能芯片的设计,建立智能芯片可靠性模型,试图在较小的性能损失下注入常见的单粒子翻转故障,并验证智能芯片计算平台的可靠性; 
2)研究给定应用程序下,对当前智能芯片计算平台能够提供的可靠性,并研究符合工业场景下的智能芯片可靠性测试算法; 
3)给未来工业级智能芯片提供设计上的规范,为下一代工业级智能芯片的设计提供新方法。
 

  题目五:基于硬件约束的多模型神经网络应用编译技术研究 

  神经网络的编译技术可以将训练好的模型部署在不同的硬件之上,从而提升模型的运行效率和硬件的资源利用率,是神经网络生产部署的重要问题。现有的编译技术缺乏对多模型应用和多硬件主机的支持,且无法针对运行时间外的目标进行编译优化,导致编译效率的降低、硬件利用率的下降,且无法提供针对运行内存和能耗的编译优化。该项研究针对目前流行的神经网络模型和国产处理器,探讨神经网络的前/后端编译器对多模型应用的编译优化,并探讨编译器中间表达在不同优化目标下的编译方法,为神经网络在不同硬件上的编译优化和高效运行提供理论分析和设计指导。研究内容重点分布在: 

1)通过研究多模型应用中单一模型对应用整体表现的相互关系,针对不同模型进行相应编译优化,从而在保证整体准确度的情况下最大化多模型应用的整体运行效率; 

  2)通过探究多硬件主机不同硬件对不同工作量的运行效率,将神经网络的中间表达在不同硬件间进行合理划分,从而提高多硬件主机的整体硬件利用率,并对不同的优化目标进行针对性的编译优化; 

  3)通过研究国产处理器的性能特性,进行针对性的编译优化,从而提升国产处理器对主流神经网络模型的运行效率。 

  题目六:面向国产智能芯片的Transformer模型性能优化研究 

  自2017年底谷歌提出Transformer模型以来,其发展可以说是日新月异。在自然语言理解方面,Transformer模型的表现已经超越并逐步取代传统的RNN/LSTM架构。计算机视觉和强化学习的工作者通过Transformer模型展开图形图像分析,也取得了大量可喜的成果。在应用方面,享誉全球的BERT、GPT系列、AlphaFold系列等应用,都是基于Transformer模型。 

  注意力机制是Transformer模型的基石,可以通过提取全局关联特征和并行化扩展问题求解规模。但是,这带来了时间复杂度和空间复杂度方面的急剧增加。由于注意力机制直接将序列两两比较,导致计算复杂度为O(n^2*d + n*d^2)。大量的研究提出了Transformer变体,被称之为“X-former”,其核心就是通过算法的改进提高Transformer模型的效率。 

  本课题从系统结构的角度,研究面向国产智能芯片的Transformer模型的性能优化,充分利用系统资源,加速Transformer模型运行。首先,学习和研究基于国产智能芯片的异构计算系统环境的基本性能和特征;其次,Transformer架构的组件Encoder和Decoder、组件的每个网络层、整体架构等方面都存在特定的负载特点,需要从不同层面进行特征分析;第三,围绕国产智能芯片及其相关的智能计算模组和软件开发平台,展开面向国产智能芯片的Transformer模型优化研究。本课题的研究内容重点: 

  1)面向国产智能芯片的异构计算模式研究 

  2)Transformer模型不同层级负载特征分析 

  国产智能芯片异构环境下Transformer模型的计算资源调度与性能优化研究。 

 

  题目七:智能合约执行引擎的硬件防护技术研究 

  区块链作为国家十四五规划和二〇三五远景目标中着重规划的七大数字经济重点产业之一,成为国家核心技术自主创新的重要突破口和着力攻克的一批关键核心技术,保障区块链的安全可控已成为推动区块链产业化应用进一步发展的重大需求,尤其是提升区块链智能合约执行引擎的安全防护能力,对于加快推动区块链技术和数字经济产业创新发展具有重要作用。现有的智能合约执行引擎,如以太坊虚拟机(EVM)、Hyperledger的Docker容器等,采用解释执行或栈的方式,具有良好的可移植性与计算一致性,但是缺少对合约代码与数据进行安全管理的功能及指令,导致在区块链大规模分布式场景下,智能合约安全并行执行的效率低下,存在安全隐患的智能合约在链上运行时更新升级困难。本研究针对链上运行时智能合约执行引擎的安全防护问题,拟从智能合约可验证性隔离策略、安全指令集的自适应性扩展以及合约分布式可信并行执行优化上,进行基于软硬件协同的合约执行引擎优化设计等研究。研究内容重点分布在: 

  1)基于多方安全计算技术,研究和设计可验证性的合约数据与代码的交互协议,以及合约在可信执行环境中的隔离策略; 

  2)基于ARMTrust-Zone的合约执行引擎的安全功能指令集设计,优化合约安全运行时对通用指令的组合调用,提升合约安全执行性能; 

  3)研究合约字节码控制流图等挖掘构建方法,优化合约的指令执行顺序,实现在多个可信节点执行引擎中的一致性部署运行。 

  题目八:高能效多任务深度神经网络加速设计与研究 

  随着深度学习的快速发展,需要处理的智能任务越来越多,多任务学习成为研究的热点课题之一。尽管多任务深度神经网络具有广泛的应用潜力,其精度性能依托于大规模数据和海量计算,需要消耗大量能耗和硬件资源。尤其是在移动智能平台,需要在有限电量和硬件资源的情况下提供高效的智能计算,给多任务深度神经网络硬件加速设计带来极大的挑战。不同于传统的单晶片深度神经网络加速器,基于芯粒(Chiplet)的加速器,得益于芯粒技术在开发模式、生产成本等方面的优秀表现,被认为是未来深度神经网络芯片设计领域的重要分支,迅速成为国内外研究热点。基于以上智能计算需求,本课题的研究内容包括: 

  1)面向多任务DNN的芯粒硬件架构设计。为解决高效加速多任务DNN计算的需求,面向多任务深度神经网络计算特点,在有限硬件资源下设计可配置计算部件(PE)和硬件架构,以灵活支持多任务DNN加速计算; 

  2)高PE利用率的分时调度流技术。为解决计算部件利用率低的关键难题,设计能结合芯粒架构不同子模块延时特点的分时调度流技术,以提高计算部件利用率; 

  3)高能效设计空间探索技术。为解决芯粒加速器能效低的关键挑战,通过分析PE规模、片上存储容量等的影响,探索设计空间上的最优能耗-面积效率方案,以提高计算能效。 

  题目九:基于多模态超声影像智能融合的冠心病辅助诊断与预后评估关键技术 

  急性心血管事件具有突发性和高致死与致残率,心血管疾病的 “早发现、早干预”对疾病控制具有重要意义。从无创的体表超声、计算机断层显像(CT)、心脏磁共振显像(cMR)、核素等影像技术到有创的冠状动脉造影、血管内超声(IVUS)、光学相干断层显像(OCT),各种成像模态在时间和空间分辨率上都有了很大的提升。然而,单一成像模态难以全面获取冠心病的三个核心信息:动脉粥样硬化斑块、冠状动脉血流和心肌功能状态。基于多模态影像的冠心病诊断及风险预测必然是未来发展趋势。然而,其发展依然面临很多挑战: 

  1)心血管影像缺少适用于临床应用的综合评价准则; 

  2)多模态图像目标智能化配准与融合技术尚不成熟,依然缺少量化的和可视化的辅助诊断手段,诊断的直观性不够。 

  3)尚未建立完善可信的风险评估机制。 

  针对以上挑战,本项目针对以下科学问题开展工作: 

  1)跨模态医学影像数据的统一表征问题; 

  2)医学影像语义特征的量化可解释性问题,及如何对医学影像组学特征和影像语义特征实现深度关联建模问题; 

  3)如何实现对心血管及其病灶的全息可视化重构; 

  4)如何将多模医学影像数据组学与多维度临床信息融合,实现小样本弱监督冠心病病灶分类和风险评估建模。 

  题目十:大规模边缘计算的计算卸载及缓存研究 

  随着云VR、增强现实、智能机器人、车联网/自动驾驶等业务的发展壮大,边缘计算的业务需求显著增多,边缘计算节点规模化增加,大规模移动边缘计算(MEC)应运而生。MEC将提供大规模物理分布式部署但是集中化管理控制的边缘计算服务,包括区域化的边缘云节点以及众多(从几百到几千甚至几万)小规模的边缘节点。相比云计算,大规模MEC能够为移动用户提供泛在、低时延的高质量计算服务,适用于未来边缘智能网络 、大规模物联网以及点对点网络等应用场景。MEC服务器的大规模部署,极大提升网络的计算与缓存能力,但也引入一系列问题,包括计算卸载问题、边缘缓存、隐私保护问题等。该项目主要研究大规模移动边缘计算的计算卸载和缓存问题。具体内容主要包括: 

  1)考虑到用户体验、本地设备能耗、网络传输能力和计算能力等多方面因素,建立计算卸载模型,将大规模计算任务下沉到靠近用户端的MEC 服务器上,缓解核心网的数据传输压力,并降低服务的响应时延,提升用户满意度。 

  2)利用边缘网络的感知和存储能力,设计边缘网络缓存系统,生成短程部署、低功耗和低成本的网络模式,以适应大规模无线通信,提高覆盖率和网络容量,有效地优化用户体验。 

  3)边缘计算给用户提供了很大的便利,但由于边缘节点往往工作在不可信的环境下,仍存在安全与隐私保护问题。鉴于此,本项目考虑基于区块链的计算卸载和缓存模型,保证数据的安全和个人的隐私。  

  题目十一:基于MRAM和RRAM的高可靠非易失存储器设计与测试 

  随着物联网(IoT)、人工智能(AI)、5G、工业4.0等应用下信息量的爆炸式生长,传统DRAM、SRAM以及NAND Flash存储器已逐渐无法负荷,加之工艺微缩愈加困难,半导体产业转向发展更高储存效能、更低成本同时又可以朝工艺微缩迈进的新兴存储器——MRAM和RRAM等。MRAM(磁阻式随机存取储存器)兼具非易失、高速、高密度、低功耗、无限次读写等特点,并且其以金属材料为主,因此抗辐射能力较强。RRAM(可变电阻式存储器)同样兼具MRAM的若干优点。然而,基于MRAM与CMOS混合制备的,以及基于RRAM和CMOS混合制备的非易失存储器在先进工艺下面临强辐射干扰、制造缺陷和老化问题,学术界在此方面的研究较少。为此,本课题将探索基于MRAM和RRAM的高可靠非易失存储器设计与测试方法,通过可靠性设计(Design for Reliability)提升全生命期可靠性,完成可测试性设计和测试,提升存储器制造良率。 

  重点研究: 

  1)研究磁性隧道结(MTJ)器件、自旋转移扭矩MRAM(STT-MRAM)、RRAM的基本特性和仿真实验,完成基于MRAM和CMOS混合制备的,以及基于RRAM和CMOS混合制备的非易失锁存器、触发器、SRAM抗辐射设计方法; 

  2)上述存储器抗老化设计与评估方法; 

  3)上述存储器的可测试性设计与测试。 

  研究成果将提出高可靠非易失存储器设计与测试方法,发表高水平学术论文。 

  题目十二:基于AI平台的复杂流场智能可视化方法研究

 

  流场可视化是科学计算可视化的重要内容,在空气动力学和流体力学等领域有重要应用。传统的流场可视化技术,如流场纹理合成和流线放置,实际上是空域偏微分方程的离散求解过程,在处理大规模复杂流场时存在计算量大、精度低的问题。另外,流场可视化效果在很大程度上依赖经验参数的选择,在实际应用中往往需要反复试探与调试才能得到比较满意的结果。新型人工智能技术的出现,带来了计算模式的变革并提供了强大的算力。在现代AI平台上,针对大规模复杂流场的可视化需求,研发空域微分方程的智能求解算法,提高流场可视化效率和效果,是一项具有重要学术意义和应用价值的课题。该课题将从理论分析、算法设计和系统实现等三个层面开展基于AI平台的复杂流场智能可视化方法研究。研究内容重点分布在: 

  1)复杂流场空域微分方程的智能求解算法,利用AI平台的计算模式和算力,提高流场可视化效率; 

  2)复杂流场可视化参数的选择与优化,主要针对流线计算与流场纹理合成的控制参数,研究基于AI的参数优化算法,实现自适应参数选择,以此达到优化可视化效果的目的; 

  3)在AI平台上,设计并实现复杂流场的智能可视化原型系统,开展实际应用验证工作。 

  题目十三:基于高性能计算知识图谱的并行软件性能优化方法研究

 

  随着处理器架构的日趋多样化,研究高性能计算软件设计方法并能够在不同计算平台间实现性能移植已经成为高性能计算领域的热点。算法应用特征感知和硬件架构特征感知兼顾的性能自适应优化框架是应用程序在不同计算平台间实现性能移植的重要方法。元数据是关于领域知识的一个标准化描述,知识图谱通过对复杂多样的异构数据进行体系化建模,可以弥补元数据在语义表达层面的不足,是目前实现知识共享和互操作的关键技术之一。本项目将通过构建高性能计算概念模型及知识图谱,对底层计算平台的硬件架构特征和算法的应用特征进行细粒度的系统化建模,为性能自适应调优框架设计奠定语义逻辑基础。主要研究内容包括: 

  1)研究高性能计算概念模型及知识图谱的构建方法。在高性能计算领域知识的搜集及整理的基础上,结合多个应用领域的模型及数据特征,构建高性能计算领域本体、任务本体和应用本体;对高性能计算相关的多源异构数据进行整合,构建高性能计算知识图谱。 

  2)研究基于高性能计算知识图谱的并行计算模型设计方法。在上述构建的知识图谱的基础上,构建一个融合体系结构特征和应用特征的新型计算模型,能够支持并行算法设计,并可开展程序级别的优化指导。 

  3)研究并行计算模型制导的性能自适应优化方法, 能够实现算法在不同计算平台和应用特征间的性能移植。 

  题目十四:忆阻器并行架构上的解法器性能优化研究 

  稠密与稀疏线性系统解法器是众多科学与工程计算问题的核心,被广泛应用在气象预报、生命科学、新材料研究等诸多关键领域。通用算法加速的思路是利用CPU、GPU等多核或众核处理器以并行方式处理,可带来成倍的性能提升。然而,传统的冯·诺依曼体系结构中计算单元与存储单元之间频繁的数据吞吐会严重影响计算总体性能。近年来,基于忆阻器(memristor)等新型非易失存储器件的存算一体技术有了巨大的进展,具有原位计算能力,可以从根本上避免数据的移动,从而提高计算能效。为此,本课题主要探索忆阻器(memristor)等新型非易失存储器件在数值计算方法如Cholesky分解,LU分解中的应用,研究基于忆阻器的高能效数值计算方法。主要研究内容包含以下三个方面: 

  1)研究适用于忆阻器特性的高性能低功耗的稠密与稀疏解法器关键算法,针对不同数值应用计算精度的差异性需求问题,从原理上探究并分析混合精度对于解法器收敛性及收敛效率的影响。 

  2)研究规约、扫描、合并等重要的基础并行原语在忆阻器阵列架构上的性能优化方法。 

  3)研究适用于上述算法和计算模式的科学计算专用加速器,模拟验证其性能,构建原型电路。  

  题目十五:星上时空网格化数据研究 

  目前国内遥感卫星存量多且增量大,并且涌现了越来越多的高频度、多用户、多样化的遥感应用需求;基于这样的挑战只有多卫星协同工作才能满足新需求,但目前多卫星协同工作的工作模式是将单星的数据下传到地面站,在地面站来进行数据的融合处理,来支撑用户的需求,现实情况是国内目前不同规格的卫星资源分散,数据难以融合,计算缓慢;为满足遥感数据观测服务新需求,除了增加供给(多发星)外,现存的遥感卫星和卫星星座也需要更加合理、高效的管理和调度模式;基于此,本课题借鉴分布式存储概念,从卫星数据存储的源头对数据进行统一化组织管理逻辑和存储,形成卫星能力集群,实现卫星间数据资源共享,甚至支撑实现虚拟卫星。研究内容重点包括: 

  1)时空网格化概念; 

  2)时空离散网格系统; 

  3)星上时空网格文件系统; 

  题目十六:基于近存储计算的地理大数据处理系统优化与应用 

  地理信息系统在自然资源、智慧城市、农林、水利、交通等多方面都得到了广泛的应用,对于政府和企业的数字化转型具有重要的意义。然而,地理大数据处理作为地理信息系统的核心任务表现出数据密集、计算密集以及通信密集等显著特点,给传统计算系统带来了巨大的挑战。为了解决这一问题,高性能地理大数据处理系统已经从并行计算、通信优化、数据库优化等多个不同的维度进行了大量的研究和探索。然而,受到传统存储设备的制约,存储瓶颈问题仍然亟待解决。该项目拟借助新型的计算存储器(Computational Storage),利用近数据计算技术,绕开冗长的存储软件栈,充分挖掘存储器的硬件理论带宽;同时,借助存储端测的计算对数据密集的轻量计算任务进行卸载,避免存储器到内存大规模数据的频繁搬运,进而解决地理大数据处理系统的存储瓶颈,并同时减少数据传输、优化通信效率。研究内容重点分布在以下三个方面: 

  1)根据近存储计算系统的特点构建近存储计算任务卸载的分析模型,以典型的地理大数据处理的核心算子为例,分析近存储技术对于地理大数据处理的优化空间。 

  2)结合地理大数据处理特点,研究其在近存储系统上的数据布局、划分方法、计算任务在主机和存储端的调度机制,实现支持计算存储设备的地理大数据处理系统。 

  3)探索基于近存储计算的地理大数据处理系统的可扩展性方法,实现高精度遥感卫星全球尺度数据的高效处理,并展示地理大数据处理系统的应用。  

  题目十七:细胞流式分析的关键智能计算技术研究 

  细胞流式分析仪主要用于细胞分析分类和实时分选研究,是生物医学和生命健康研究领域的基础装备,其关键核心技术被美日德垄断。 

  随着计算技术的发展,“多维新表型特征+智能算法”的研究范式兴起,本课题拟探索具有强实时、高精度的细胞流式分析智能计算范式,对传感数据挖掘、物理模型求解和特征分析等计算过程进行协同优化,分析和挖掘目标细胞(如肿瘤细胞)更多维的表型特征(如细胞形态形貌、电学、力学等)的特异性规律,为更全面的细胞流式分析研究提供数据基础。研究内容重点分布在: 

  1)建立至少一类细胞新表型特征的高通量流式检测分析方法; 

  2)研究细胞新表型特征流式分析与分类过程中关键计算技术,包括:传感信号中数据流实时处理技术、等效物理模型的快速求解和基于多模态特征数据的实时计算技术深入研究; 

  3)建立示范应用,进行机理探索:在多种应用场景中,验证技术的有效性和先进性,并通过关联分析,研究新特征与传统荧光标记的生物学特征及其他组学特征的关联性。  

  题目十八:无服务器计算架构下边云协同的不确定任务动态调度优化算法研究 

  随着边缘计算技术的成熟、微服务化概念和无服务器(serverless)计算架构的流行,越来越多的云服务供应商开始发展边云协同的无服务器计算服务,在将云资源扩展到本地设备的同时,通过函数即服务(Function as a Service,FaaS)和后端即服务(Backend as a Service, BaaS)技术提供计算服务。这种服务模式大大提高了应用服务的可靠性、安全性和自适应性,但也增加了资源分配与任务调度难度。如何在异构本地边缘设备与云资源上对具有复杂逻辑结构的任务进行高效、鲁棒地调度,是保障服务质量的关键问题。本项目针对无服务器架构下的边云协同计算环境,研究具有动态性、不确定性特征的复杂任务调度问题模型及高效、鲁棒的调度优化算法设计。主要研究内容包括: 

  1)研究边缘设备能耗模型和负载延迟模型,考虑资源处理能力约束、通信带宽约束和截止日期等约束,构建边云协同模式下的复杂任务调度问题模型。 

  2)研究边云协同环境下的不确定因素,基于历史调度信息挖掘不确定性变量统计特征;分析不同随机变量对调度前后影响,构建多种随机变量的熵度量方法。 

  3)研究多目标模糊决策的动态任务调度方法,提出多因素约束的异构资源选择和优化布局策略,设计基于Pareto优化的多目标模糊决策方法;应用熵优化理论,设计具有自适应性和鲁棒性的离线确定性预调度算法和在线自适应重调度策略。 

  四、本年度开放课题申请书提交时间及联系方式

  2021年度开放课题申请书电子版提交时间:2021年1031日之前。 

  申请书请下载:国重开放课题申请书(空) 

  申请书电子版请传至:jinlin@ict.ac.cn 

  联系人:金琳

  电话:010-62600600; 

 
 
 
附件下载: