模型的图形优化导论
最编程
2024-07-27 19:04:42
...
- 本文着重介绍是图优化,对于本文出现的Op的定义不作介绍.这些Op名可能是来自于各种框架
- 手画的示意图中矩形代表Op,矩形右边的一般为Op的参数信息,圆形代表tensor。字丑请见谅
- 一些图优化的实现是取决于推理框架自身的Op实现情况,并不是说一种推理框架的图优化就一定能用在另外一个推理框架上
- 每个图优化操作后面都标了来源框架,具体实现可参考下属源代码链接:MNN图优化源代码1、MNN图优化源代码2、NCNN图优化源代码、ONNX-Runtime图优化源代码
- 整理过程以MNN为主,然后在NCNN和ONNX-Runtime中补充MNN没有的操作
上一篇: 6.g2o
下一篇: 深入理解:SLAM技术中的图优化方法探索
推荐阅读
-
终端侧大型模型应用:如何运行适当的矢量资源库,以及如何在资源受限的设备(如 1 个内核和 1G 内存)上对其进行优化
-
特征工程和选择:优化模型性能的关键步骤 ---- 示例:泰坦尼克号生存预测中的特征工程,使用递归特征消除 (RFE) 进行特征选择
-
VisionTS:基于时间序列图形构建的高性能时间序列预测模型,利用图像信息进行时间序列预测
-
如何使用牛顿或L-BFGS优化器来实现最大熵模型的伪代码: L-BFGS_optimal_lasso_pseudo_code
-
用螺旋模型优化设计过程的迭代方法
-
【摩尔线程+Colossal-AI强强联手】MusaBert登上CLUE榜单TOP10:技术细节揭秘 - 技术实力:摩尔线程凭借"软硬兼备"的技术底蕴,让MusaBert得以从底层优化到顶层。其内置多功能GPU配备AI加速和并行计算模块,提供了全面的AI与科学计算支持,为AI推理和低资源条件下的大模型训练等场景带来了高效、经济且环保的算力。 - 算法层面亮点:依托Colossal-AI AI大模型开发系统,MusaBert在训练过程中展现出了卓越的并行性能与易用性,特别在预处理阶段对DataLoader进行了优化,适应低资源环境高效处理海量数据。同时,通过精细的建模优化、领域内数据增强以及Adan优化器等手段,挖掘和展示了预训练语言模型出色的语义理解潜力。基于MusaBert,摩尔线程自主研发的MusaSim通过对比学习方法微调,结合百万对标注数据,MusaSim在多个任务如语义相似度、意图识别和情绪分析中均表现出色。 - 数据资源丰富:MusaBert除了自家高质量语义相似数据外,还融合了悟道开源200GB数据、CLUE社区80GB数据,以及浪潮公司提供的1TB高质量数据,保证模型即便在较小规模下仍具备良好性能。 当前,MusaBert已成功应用于摩尔线程的智能客服与数字人项目,并广泛服务于语义相似度、情绪识别、阅读理解与声韵识别等领域。为了降低大模型开发和应用难度,MusaBert及其相关高质量模型代码已在Colossal-AI仓库开源,可快速训练优质中文BERT模型。同时,通过摩尔线程与潞晨科技的深度合作,仅需一张多功能GPU单卡便能高效训练MusaBert或更大规模的GPT2模型,显著降低预训练成本,进一步推动双方在低资源大模型训练领域的共享目标。 MusaBert荣登CLUE榜单TOP10,象征着摩尔线程与潞晨科技联合研发团队在中文预训练研究领域的领先地位。展望未来,双方将携手探索更大规模的自然语言模型研究,充分运用上游数据资源,产出更为强大的模型并开源。持续强化在摩尔线程多功能GPU上的大模型训练能力,特别是在消费级显卡等低资源环境下,致力于降低使用大模型训练的门槛与成本,推动人工智能更加普惠。而潞晨科技作为重要合作伙伴,将继续发挥关键作用。
-
优化计算资源:针对语言模型微调的策略 LoRA
-
模型的图形优化导论
-
MegEngine模型推理效率新升级:全局图优化,强大实用的新工具
-
多相机手眼标定的新方法:利用图形优化技术的框架设计