人工智能助力数学研究
一个国际科研团队近日报告说,他们首次在复杂的数学理论领域利用人工智能技术,以机器学习帮助数学家证明或提出新的数学定理,相关研究结果本周已发表在英国《自然》期刊上。
据研究人员介绍说,数学研究的目的之一是发现模型,并利用这些模型来提出和验证某个猜想,从而形成定理。虽然人工智能技术此前也被引入数学研究,但主要用来帮助分析复杂的数据集,但数学猜想仍然要依靠数学家的直觉。
在新研究中,研究人员利用谷歌旗下“深层思维”公司搭建的一个机器学习框架,帮助数学家从大量已有数据中发现可能被证实的猜想,或者是应用于那些研究对象太庞杂、传统方法无法处理的问题,数学家可以在此基础上开展进一步的研究工作。
参与该研究的澳大利亚悉尼大学数学研究所所长威廉姆森表示,他在这一机器学习框架下,将证实关于卡日丹-卢斯蒂格多项式的古老猜想向前推进了一步,该猜想涉及高维代数中的深度对称性,过去40年未能得到解决。在此基础上,英国牛津大学的两位研究人员进一步发现了纽结理论中代数和几何不变量之间存在的联系,并提出了一个全新的定理理论。
研究团队表示,虽然数学家的直觉在学科研究中起着重要作用,但人工智能系统是很好的工具,可以帮助数学家找到不易发现的规律和联系,由此推动解决复杂的数学问题。这一研究也表明,现在的人工智能技术已非常先进,可以加速很多学科的科学研究。研究团队也希望通过该研究成果,启发其他学科和领域的研究人员把人工智能作为其领域的研究工具。