小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

CARTS是一个编译框架,旨在优化分布式高性能计算中的任务和数据块编译。它结合了MLIR的灵活性和LLVM的可靠性,解决了现代HPC的架构复杂性、硬件异构性和性能压力等问题。ARTS核心支持事件驱动的任务执行,提高了任务调度和数据访问效率。未来,CARTS将进行更全面的基准测试,并扩展对OpenMP的支持。

LLVMCGO25 - CARTS:为分布式高性能计算启用事件驱动的任务和数据块编译

The LLVM Project Blog
The LLVM Project Blog · 2025-08-04T00:00:00Z
模块化:民主化AI计算,第8部分:MLIR编译器基础设施如何?

到2018年,AI软件面临系统碎片化,各种框架各自为政,复杂性增加。为解决此问题,MLIR应运而生,旨在统一不同硬件和软件框架。尽管技术上取得成功,但由于治理不足和竞争缺失,生态系统依然分裂,未能实现AI计算的真正民主化。

模块化:民主化AI计算,第8部分:MLIR编译器基础设施如何?

Modular Blog
Modular Blog · 2025-04-08T00:00:00Z
Lightstorm:简化版Ruby编译器

Lightstorm是一个简化的Ruby编译器项目,旨在提升Ruby代码的执行速度。它通过MLIR和EmitC将Ruby字节码转换为C代码,简化了对操作系统和CPU的支持。该项目目标是验证编译假设,目前仅支持Ruby的部分特性,初步测试显示编译后代码性能显著提升。

Lightstorm:简化版Ruby编译器

The LLVM Project Blog
The LLVM Project Blog · 2024-12-09T00:00:00Z

ONNX-MLIR 是一个用于优化和编译 ONNX 模型的工具,能够将模型转换为高效的可执行文件,支持多种硬件环境。本文介绍了如何使用 ONNX-MLIR 将鸢尾花分类模型转换为共享库并进行推理,包括模型构建、转换和 C++ 编程等步骤。

使用 ONNX-MLIR 優化 ONNX 模型並在 C++ 中進行推論

1010Code
1010Code · 2024-11-15T16:00:00Z

ONNX-MLIR 和 TVM 是两种机器学习模型编译和优化工具。ONNX-MLIR 专注于 ONNX 格式,适用于固定架构;而 TVM 支持多种格式,强调自动优化,适合多样化的深度学习应用。两者均支持跨平台运行和模型优化。

ONNX-MLIR 與 TVM:機器學習編譯器的比較與分析

1010Code
1010Code · 2024-11-14T16:00:00Z

ONNX-MLIR和TVM是两种机器学习模型编译和优化工具。ONNX-MLIR专注于ONNX格式模型的优化,适合固定架构场景;TVM支持多种模型格式,强调自动优化,适合多样化深度学习应用。两者在设计目标和应用场景上存在显著差异。

ONNX-MLIR 與 TVM:機器學習編譯器的比較與分析

1010Code
1010Code · 2024-11-14T16:00:00Z
使用 ONNX MLIR 優化深度學習模型的運作效率

ONNX MLIR 是一种基于 MLIR 的工具,旨在优化 ONNX 模型在资源受限设备上的运行效率。通过静态编译,ONNX MLIR 能够减少运行时开销,并针对特定硬件进行深度优化,如降低浮点精度以提升计算效率,使深度学习模型在嵌入式系统中更高效。

使用 ONNX MLIR 優化深度學習模型的運作效率

1010Code
1010Code · 2024-11-13T16:00:00Z

CodeZero是一个基于人工智能的编译优化工具,通过深度强化学习训练智能代理,能够为每个程序即时生成有效的优化策略。评估结果显示,CodeZero在基准测试和生产级代码优化问题上表现出色,超过了内置优化选项。这为人工智能在工程领域的潜力提供了启示,并为代码优化领域的机器学习技术扩展铺平了道路。

用于MLIR编译器自动代码优化的强化学习环境

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-17T00:00:00Z
AMD 的统一 AI 软件堆栈可能为其他 Vulkan/SPIR-V 硬件带来福音

AMD计划推出统一人工智能软件栈,使用LLVM的MLIR中间表示法将人工智能工作卸载到不同设备上。MLIR转换为SPIR-V的工作正在进行中,一旦完成,可用于其他显卡/设备。这将使AMD的AI软件堆栈适用于非AMD GPU。这是AMD创新软件时代的一部分。

AMD 的统一 AI 软件堆栈可能为其他 Vulkan/SPIR-V 硬件带来福音

实时互动网
实时互动网 · 2024-07-26T02:31:25Z
模块化:开发者之声:与Chris Lattner深入探讨Mojo

Mojo是一个基于MLIR编译器框架的代码生成器,现在是Python的超集,提供高性能和可移植性。它的类型系统具有静态和动态行为,内存管理和可变性特性受到Rust和Swift的影响。该语言支持并行化、CPU和GPU的组合,并旨在弥合人工智能研究和生产之间的差距。Mojo的开源社区正在迅速发展,整个标准库正在开源化。

模块化:开发者之声:与Chris Lattner深入探讨Mojo

Modular Blog
Modular Blog · 2024-05-08T00:00:00Z

GEVO-ML是一个使用多目标进化搜索来改进在GPU上运行的MLIR代码性能的工具,同时保持所需功能。它在多层中间表示(MLIR)中统一表示模型和训练/预测过程。

GEVO-ML: 使用进化计算优化机器学习代码

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-16T00:00:00Z
模块化:Mojo 🔥 - 在LLVM 2023上展示的系统编程语言

Jeff、Abdul和Chris在LLVM开发者大会上介绍了Mojo与MLIR和LLVM的关系。完整演示将在LLVM的YouTube频道上发布。

模块化:Mojo 🔥 - 在LLVM 2023上展示的系统编程语言

Modular Blog
Modular Blog · 2023-10-15T00:00:00Z

本文介绍了一种超级优化方法,通过使用 e-graph 重写技术将软件程序改写为高效的 HLS 代码,以生成优化的硬件设计。该方法在提高性能的同时占用较小的面积,具有超越硬件专家手动优化设计的潜力。

SEER:使用 MLIR 和 E 图重写的高层次综合超优化探索器

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-15T00:00:00Z
模块化:第二部分:提高大型AI模型的开发速度

MLIR的新的二进制编码使得操作更紧凑高效,提高了工具链和开发流程的速度和性能。二进制编码加快了序列化速度,减少了内存消耗,使得基于MLIR的工具和基础设施更高效。

模块化:第二部分:提高大型AI模型的开发速度

Modular Blog
Modular Blog · 2022-11-10T00:00:00Z

0x00 摘要 记述 MLIR-HLO + LLVM 环境搭建的流程

「 环境搭建」: MLIR-HLO

An's Blog
An's Blog · 2022-01-12T04:30:59Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码