深度学习是人工智能领域的一个重要学科。从人类发明计算机开始,就一直尝试让计算机具有学习的能力,特别是从20世纪80年代以来,深度学习在算法、理论和应用等方面都获得巨大成功。2006 年以来,“深度学习”开始成为一个新的科研热点,目前已经深入到很多行业,在很多应用领域获得成功,相关的研究工作也得到了大力推广。
HPC应用往往基于**性原理的探索,在面对大量的数据库数据和样本数据时,对于数据的处理显得有些捉襟见肘,同时对于大量的仿真结果与大量计算结果数值的分析,也需要更多的时间完成,但AI是基于大量数据结合算法诞生的技术,擅长对于大量样本数据的提取,同时对于大量仿真结果与计算结果的加速分析,用AI的方式处理HPC任务时,不仅可以有效处理样本数据,对于得到的大量计算结果,可以利用AI的迭代细化的底层模型,完成大量结果的快速分析计算,实现降本增效。同时HPC的大量结果数据又可以为AI提供原始数据,为模型的预测提供更好的支持,二者相辅相成。
大模型的诞生源于深度学习与大数据、大算力的结合。2017年Transformer架构提出后,模型规模迅速扩大。以2018年BERT、2020年GPT-3为代表,大模型展现出强大语言理解和生成能力,随着Deepseek、千问等优质大模型的发布,人工智能领域算力提升、海量互联网文本积累及自监督学习技术进步,共同推动了大模型快速发展,并广泛应用于搜索、对话、创作等领域。