张伟伟:智能流体力学研究的进展
作为科学发现的第四范式的代表,人工智能已取得令人瞩目的进展,在蛋白质结构预测和博弈等诸多任务中表现出色。当前,大规模科学与工程计算朝着更高精度,以及与人工智能深度融合的方向发展,这可能带来加速科学发现的全新计算范式。
2021年12月16日,西北工业大学航空学院副院长,教育部长江学者特聘教授,流体力学智能化国际联合研究所中方负责人张伟伟在 CNCC 2021 “人工智能在超大规模科学计算领域的应用探索”专题论坛上做了《智能流体力学研究的若干进展》的报告。
张伟伟教授在报告中提到,湍流模型机器学习方法和湍流数据同化方法,将摆脱对传统湍流模型的依赖,实现飞行器高雷诺数湍流场的高精度求解。
针对飞行器大攻角动态失速特性预示,试飞风险大、仿真模拟算不准的困境,张教授及其团队提出风洞动态数据和非定常流动模拟的智能融合方法,将解决飞行器机动飞行的高精度仿真与控制律设计难题。他们建立了基于大数据的复杂流动控制方程识别方法,为燃烧、多相流、多场耦合等复杂工程问题的数学表征提供新的解决方案。
最后,张伟伟教授总结道,通过机器学习方法,利用数值模拟和实验产生的流动大数据,发展智能流体力学,将成为流体力学发展的新范式。
以下是演讲全文,AI科技评论做了不改变原意的删改:
今天给大家汇报的题目是《智能流体力学研究的若干进展》,相关工作也是在刘溢浪、王旭、朱林阳、曹文博、高传强、寇家庆等成员的共同努力下完成的。
汇报分为四个部分:首先是研究背景,以流体力学为例,人类对自然科学的研究手段可以划分为理论分析、数值方法和实验技术。
理论分析依赖于人脑,包括解析解、理论模型和标注律等,数值方法则包括高精度的数值格式和高效的求解方法。
实验技术对流体力学来说就是先进的流场测试和诊断技术。
由于理论解析方法的一些局限性,对复杂的问题,人们很难通过理论方法求解。所以,从上世纪七八十年代开始,计算机水平的提升和实验技术的发展,比如计算流体力学和实验流体力学的发展,推动了我们对流体力学相关问题的认知。
在新时代到来之际,不管是数值计算还是实验研究,都产生了海量数据。利用人工智能技术,通过机器学习方法来缓解人脑在理论和方法方面的一些局限性,已经形成了流体力学研究的新方向。
在这方面,我们团队在近几年做了一些工作,主要包含以下三个部分。
其中第一部分可以归结为流体力学理论与方法的智能化,包括流体力学方程推导的机械化,即智能化推导方程。也包括流体力学里最经典的物理问题——湍流建模的机器学习方法,这应该是流体力学领域现阶段最热的研究方向之一。此外,这一部分还包括流体物理量纲分析,标度的智能化,以及数值模拟过程中的智能化。
第二部分包括流动信息特征提取与融合的智能化。流动本身就是一个大数据问题,包括流动的特征表征,如旋涡、间断、附面层等,以及海量流场信息的数据挖掘。还包括面对设计过程中不同阶段、不同来源的数据,如何综合利用这些数据,发展智能融合的方法。
第三部分涉及到与其它学科的耦合与应用,可以归结为多学科和多场耦合问题模型的智能化,包括多场耦合和分析的模型化,多学科的智能优化设计,气动优化设计可以说是最早进入智能化时代的一个研究方向。还包括近年比较热的流动控制的智能化和自适应化。
1、数据驱动的复杂系统微分方程识别
下面我给大家汇报前面所提工作中的三个点。第一个是数据驱动的复杂系统的偏微分方程的识别,主要涉及方程推导的智能化。
偏微分方程识别是解决复杂动力学系统物理方程匮乏的一个潜在突破口,因为过去推导偏微分方程就是基于第一性原理,包括流体力学的N-S方程、电磁学的麦克斯韦方程等等,都是基于守恒定律和物理原理来推导的。
但对于有些系统来说,很难实现这种推导,比如神经科学、生命科学、社会学等等。而现在传感器、计算能力、数据存储等都得到了迅速发展,基于数据的方法得以大显身手。如何利用这些数据以及基本规律和量纲,在此基础上构建复杂系统的偏微分方程,成了一个新的研究方向。
近年,应用数学领域,基于时域识别方法,利用稀疏回归,发展出了偏微分方程的识别方法。因为偏微分方程的形式相对来说比较固定,尽管包括导数项的非线性组合项,但本身仍然是这些核心项组成的线性组合。通过预设一个候选函数库,然后可以从候选函数库里通过稀疏回归方法来识别偏微分方程里到底有哪些非线性项。
但是这种数据识别方法的局限性在于对噪声不鲁棒,另外,候选函数库过于冗余。
我们可以利用物理函数库构造的一些原则,构造简约的候选函数库。实际上,就是把时域方程转化到频域,在频域里,可以认为这种噪声项是一种高频成分,我们主要利用它的低频部分来进行频域识别,识别后,再把它转化到时域,这就完成了偏微分方程的识别。
我们给出了三种方法,第一种是时域识别方法,它的误差会随着噪声项的增加而变大。
第二种是滤波方法。如果我们使用滤波方法,然后再进行识别,也会产生比较大的误差。因为使用滤波方法以后会带来一个低频项的信息偏差。所以,频域识别方法有效解决了存在噪声的识别问题。
另外,我们也对N-S方程进行了初步尝试,通过求解量纲方程,利用物理量纲的方向以及候选函数库的对称性,成功识别出N-S方程的有效项。
2、高雷诺数湍流机器学习初探
第二部分,介绍团队在湍流机器学习方面的初步工作。可以说湍流问题是流体力学普遍的形态,也是流体力学的一个核心问题,因为它具有三维、非定常、多尺度以及非线性等复杂特征。
所以,诺贝尔奖获得者费曼也指出,湍流是经典物理中的最后一个重要的未解决问题,庄逢甘院士也曾指出,湍流是我国航空航天的“卡脖子”难题,它对飞行器气动力的准确评估、飞行器减阻、增升、降噪以及大攻角机动飞行姿态控制都具有非常重要的意义。
湍流的研究手段,包括理论分析和实验技术。理论分析主要依赖于人脑,实验技术则主要是先进的测试手段。
现有的数值方法大致可以分为两类,一类是基于目前湍流模型下的RANS数值模拟。这种模拟相对来说在工业界使用比较广泛,计算量还可接受。而大涡模拟和DNS方法,它们的计算量目前远超工程应用的接受程度。
最近发展的数据驱动的建模方法,是基于海量的流场以及机器学习技术,我们团队也在这方面做了一些尝试性工作。关于湍流的机器学习,大概有如下几类:第一类是传统湍流模型的修正,比如对经典湍流模型的源项进行修正,或者补充一些非线性的涡粘项,也有基于高精度的模拟方法,比如DNS对RANS雷诺应力的差量进行建模。
这些研究,目前主要还是集中于较低低雷诺数的问题,离工程运用还存在一定差距。我们主要想针对高雷诺数的工程湍流进行机器学习建模。
由于高雷诺数湍流存在薄的边界层,流动特性差异比较大,另外高精度的数值模拟结果难以获取,计算量本身也比较大。此外,传统的偏微分方程模式对大攻角分离流动的模拟精度也比较差。
所以,我们给自己定的研究目标是——针对高雷诺数复杂工程流动问题,发展能够替代经典偏微分方程形式的数据驱动湍流模式,并且能够提升分离湍流场的模拟精度。
该研究的关键问题大概可以总结为以下三点:第一是高置信度样本的获取;第二是缓解薄边界层的尺度效应;第三是湍流模型能够和N-S方程顺利耦合计算。如何在求解过程中保证耦合求解的收敛性和稳定性是一个非常具有挑战性的问题。
在我们的前期工作中,主要分为两部分。第一部分,探索能不能利用经典湍流模型生成的数据,构建机器学习模型,并以此替代经典湍流模型。
第二部分,由于经典模型的计算精度不够,我们探索可以通过什么方法来提升机器学习模型的精度?我们利用实验结果,结合数据同化方法来解决这个问题。
下面主要介绍第一部分的工作。我们初步尝试了机器学习湍流模型如何替代经典的偏微分方程,利用了SA模型生成学习数据,SA模型也是现在使用最广泛的一种湍流模型之一。
我们通过CFD求解器生成流场数据,对数据进行特征选择,然后进行训练。通过构建神经网络型的黑箱模型,实现局部平均流场参数映射湍流涡粘项,再和N-S方程耦合,它就可以完成湍流场的求解。
在这个过程中我们采用了分区建模、数据归一化以及涡粘场变换等手段。学习完以后,看一下测试状态下翼型壁面法向涡粘的对比结果。可以看到,SA模型和机器学习模型所预测的结果,大部分都吻合的非常好。
再看一下摩擦阻力的分布,在状态泛化下,湍流学习模型和SA模型的预测结果相当吻合。另外我们也对其他状态的摩擦阻力分布做了一个对比。对外形泛化,机器学习湍流模型与SA计算的也非常吻合。
这是我们第一部分的工作,但这部分工作有一些局限性:包括分区策略不便于实施,比如对于复杂三维机翼这种构型的湍流预测,工程中不便使用。此外,对神经网络模型参数优化时容易出现一些矩阵病态,而无法获得最优值。神经网络的单层架构也限制了复杂度的提升。
在后面的工作中,我们采用了深度神经网络,也借助了标度分析,来构建一个统一模型,另外还对输入特征进行了优化,以及构建了新的损失函数架构。
特别值得一提的是,我们在现有的架构里融入了一个物理模型,把湍流模型里的混合长公式嵌入到这个模型里,不直接映射涡粘,而是对混合速度进行建模,这个方法很好地实现了对流动雷诺数的泛化。
通过这些研究,我们对三维机翼的湍流建模开展了相关测试工作,基于马赫数、攻角、雷诺数、外形泛化等因素来构建训练集、验证集和测试集。
测试结果表明,在对于截面摩擦阻力系数分布的预测中,相对误差小于3%。
2021年,我们成功把这项工作成功嫁接到风雷软件中,这也成了我们国家数字风洞工程中基础研究课题的一个亮点工作。
3、基于数据融合模型的翼型动态失速气动力预测
最后,介绍一下我们基于数据融合模型的翼形动态失速的载荷预测工作。动态失速与飞机设计研制密切相关,例如,飞机的机动飞行是在很大攻角下的机动过程,而这个机动过程的实现以及控制是非常有挑战性的工作。
目前,在动态失速的研究中,有基于物理假设的经验-半经验模型,另外还有一些经验模型,这些经验模型也是通过实验来拟合,对于新的状态和外形的泛化性是比较低的。不同的模拟方法,差距还非常大。
在上世纪九十年代,人们发展了一种数据驱动的黑箱统计数据模型,而统计模型主要依赖于神经网络。就是给出一些有限的实验样本后,对样本进行建模,然后再对想做的预测状态进行载荷预测。这种方法对样本数据的拟合非常好,但遗憾的是,对其他状态的预测,也就是泛化性相对来说比较低。这主要是因为实验样本量比较少,而这个问题本身的维度比较高,非线性比较强,使得我们面临一个小样本的机器学习难题。
此外,不同来源的数据的精度和成本也不一样。数值模拟要往高精度的方向走,成本是非常高的。飞行实验本身非常昂贵,状态点也很少。所以,我们面临着怎么综合利用各种不同来源数据的问题。同时,也希望在较少的数据获取成本下,能够得到一个更高精度的气动力模型,从而加速这种重大型号的研制。
在这个工作中,我们发展了CFD在回路的集成神经网络模型解决动态失速建模中的小样本建模难题。
具体来说,我们提出了一种多源气动数据融合架构。这里面涉及到通过一个神经网络建立从迎角到气动力之间的映射关系,其中面临着小样本机器学习难题。
我们又通过神经网络构建了一个CFD在回路的常规修正模型,通过流场求解,得到了数值模拟的载荷响应,但载荷响应和实验数据之间存在偏差。然后,我们再通过一个神经网络进行修正。
但这两个方法显然都具有局限性,但通过我们把这两个模型进行集成,测试结果表明,这种集成模型架构有效解决了小样本学习的泛化性难题。
我们对这个模型架构进行了验证。实验表明,模型的泛化能力很好,并且随着样本数增加,预测精度也会增加。这种融合方法可以将升力系数预测误差降低3倍、力矩系数误差降低5倍。
4、总结
人工智能为流体力学的发展提供了一种新的研究范式,而流体力学反过来也为人工智能的发展提供了一个足够复杂的研究对象,可以说这是传统学科和新兴学科的交叉融合,相得益彰。
在研究过程中我也总结出几点心得。第一是要充分利用经典流体力学方法和成果的基础,再结合人工智能技术,不能脱离学科的特点和背景。
另外,流体力学是一个“大数据、小样本”客观环境下的机器学习和建模问题。
最后,在未来发展方向上,我们可以探索智能流体力学的可解释性,也包括探索流体力学新的物理内涵和科学认知。
最后,简要总结一下科学研究的四个范式。第一范式,观测和实验,比如说开普勒定律的发现中扮演重要的角色。第二范式,理论科学范式依然很重要,这在流体力学中包括流动定律、流体力学的N-S方程等等。第三范式,计算科学,也包括理论模型、分子动力学,流体力学的CFD就是一个典型的第三范式研究。本报告涉及的主要是第四范式的研究。但我们也要看到,流体力学问题不光是一个大数据驱动的科学,还需要将四个范式进行一个有机的融合。
我们现在做的很多工作,特别是效果比较好的一些模型,恰恰是各种手段的有机结合。
比如对于载荷的一些稀疏重构,就是从计算中提取特征,以利用实验观测值对实验数据进行精细化重构。
驱动力的变精度模型也是在神经网络架构下,对计算结果和实验结果进行有机的融合。
近年流体力学研究中的数值同化也是从第三范式和第一范式即实验观测值的一个结合。
动态失速预测使用的集成模型融合了实验数据、理论模型以及神经网络的架构,也是在这三种范式有机结合下开展的工作。
而最近计算物理领域比较火热的物理约束神经网络,它就是神经网络架构下把数值方法和控制方程紧密地耦合到一起。
如果再融入实验数据的话,就是四个范式的有机结合。我们最近开展的工作是基于实验数据同化的湍流机器学习手段,正好是四个范式的有机结合。这个方法有实验数据,也有N-S方程,还包括数值求解,此外又是在神经网络架构下对湍流模型的优化。是四个研究范式融合研究的典范。