AI 自动生成的苹果芯片 Metal 内核美通美股票配资,比官方的还要好?
Gimlet Labs 的最新研究显示,在苹果设备上,AI 不仅能自动生成 Metal 内核,还较基线内核实现了87%的 PyTorch 推理速度提升。
更惊人的是,AI 生成的 Metal 内核还在测试的 215 个 PyTorch 模块上实现了平均1.87 倍的加速,其中一些工作负载甚至比基准快了数百倍。
真就 AI Make 苹果 AI Great Again?
用 AI 为苹果设备生成内核
先说结论:通过 AI 自动实现内核优化,可以在无需修改用户代码、无需新框架或移植的情况下,显著提升模型性能。
为了证明这一点,研究人员选取了来自 Anthropic、DeepSeek 和 OpenAI 的 8 个顶尖模型,让它们为苹果设备生成优化的 GPU 内核,以加速 PyTorch 推理速度。
至于为什么是苹果?别问——问就全球最大硬件供应商(doge)
接下来美通美股票配资,让我们看看研究人员是怎么做的:
实验设置
首先,在模型选择方面,参与测试的模型包括:claude-sonnet-4、claude-opus-4;gpt-4o、gpt-4.1、gpt-5、o3;deepseek-v3、deepseek-r1。
其次,在测试输入方面,研究使用了 KernelBench 数据集中定义的 PyTorch 模块,并选取了其中 215 个模块进行测试。
这些被选取的模块被划分为三个等级,分别是第一级的简单操作(如矩阵乘法、卷积);第二级是由第一级操作组成的多操作序列;第三级是完整的模型架构(如 AlexNet、VGG)。
再次,在评估指标方面,研究人员主要关注两个指标:一是 AI 生成内核的正确性,二是其相较于基准 PyTorch 的性能提升。
最后,研究使用的苹果硬件为Mac Studio ( Apple M4 Max chip ) ,Baseline 为PyTorch eager mode(划重点,一会要考)
实验测试
在上述准备完毕后,研究团队展开了测试。
测试流程如下:
接收提示(prompt)和 PyTorch 代码;
生成 Metal 内核;
评估其是否在正确性(correctness^4)上与基准 PyTorch 一致;美通美股票配资
如果编译失败或不正确,则将错误信息回传给智能体重试,最多允许重试 5 次。
如上所说,研究者首先关注 AI 生成内核的正确性。
实验表明,正确性会随着尝试次数的增加而提升。以o3为例:第一次尝试就有约60%的概率得到可用实现,到第5 次尝试时可用实现比例达到94%。
此外,研究还发现推理模型非常擅长跨层级生成正确的内核,尽管非推理模型有时也能做到这一点。
那么,AI 生成的内核表现如何呢?
实验结果相当惊艳,几乎每个模型都生成了一些比基准更快的内核。
例如,GPT-5 在一个 Mamba 25 状态空间模型上实现了4.65 倍的加速,其主要通过内核融合(kernel fusion) 来减少内核调用的开销,并改善内存访问模式。
在一些案例中,o3 甚至将延迟提升了超过9000倍!
总体而言,GPT-5 平均可以带来约 20% 的加速,其他模型则落后。
不过,GPT 并非是门门最优,研究人员发现 GPT-5 在34%的问题上生成了最优解。
但在另外30%的问题上,其他模型生成的解比 GPT-5 更优!
这就意味着没有单一模型能在所有问题上都生成最优内核。
因此,如果把多个模型组合起来,就能更大概率生成最优内核。
于是乎,研究人员又展开了智能体群体实验(Agentic Swarm)。
智能体群体实验
果不其然,相较于单个模型,智能体群体策略实现了更高的性能提升。
与 GPT-5 相比,智能体群体在各层级平均加速31%,在 Level 2 问题上加速42%。
在几乎没有上下文信息的情况下(仅有输入问题和提示),智能体群体就已经表现得相当不错。
接下来,研究人员尝试为智能体提供更多上下文,以获取更快的内核。
这里主要包含两个额外的信息来源:
CUDA 实现(由于 Nvidia GPU 的普及,通常可以获得优化过的 CUDA 参考实现);
M4 上 gputrace 的性能分析信息。 ( 包含 Apple Script 捕获的 gputrace 摘要、内存和时间线视图 )
在具体的实施步骤中,研究者先将截图处理任务分配给一个子智能体(subagent),让它为主模型提供性能优化提示。
在收到提示后,主智能体先进行一次初步实现,然后对其进行性能分析和计时。
随后,再将截图传给子智能体以生成性能优化提示。
实验表明,在上下文配置方面也没有所谓的"单一最佳"方案。
不过,在具体的性能加速方面,加入这些额外上下文实现了平均 1.87 倍的加速,相较于普通智能体仅实现的 1.31 倍的平均加速,额外上下文将提升幅度提高了三倍!
有提升,但看跟谁比
为了更深入地讨论,我们有必要先回顾一些背景知识。
在 PyTorch 中,我们通常会调用如 Sequential、ReLU 这样的函数。
在具体的执行中,PyTorch 会先将函数拆解为张量运算(矩阵乘法、加法等),再交给 GPU 执行。
这时就需要 GPU 内核(kernel)负责把这些数学操作转成 GPU 可理解的低级并行指令。
因此,在某种程度上,我们可以说 GPU 内核就像 C 编译器一样,其性能对于运算效率至关重要。
而上面这篇工作所做的,就是让原本必须由工程师手写的内核优化交给 AI 自动完成,并测试它的性能。
不过,问题就来了。
众所周知,苹果硬件并不像英伟达的 CUDA 一样,对 PyTorch 有很好的优化。
因此,这篇研究直接拿 MPS 后端原生实现和 AI 生成的内核对比是有失公允的。
不少眼尖的网友也是发现并指出了这一点:文章里所用的 baseline 是 eager mode,这通常只用于训练调试或指标计算,不会被真正部署到设备上。
在真实部署中,一般会先把模型导出为 ONNX,再编译成设备原生格式(Metal、CUDA 或 ROCm 等),这样效率会比直接用 PyTorch eager mode 高很多。
所以,无论内核是工程师手写,还是 AI 自动生成,经过优化的 GPU 内核都会比未优化的 PyTorch 推理快得多。
因此,拿调试过的内核和 eager 比,多少有点奇怪。
对此,研究人员回应道:
这篇工作不是为了展示部署环境的最终性能极限,而是展示 AI 自动生成内核的可行性。
研究的目的是在内核工程方面获得人类专家一定程度的效益,而无需开发人员的额外投入,希望通过 A 将部分流程自动化。
所以,重点不在于性能提升,而在原型验证。
对此,你怎么看?
参考链接
[ 1 ] https://gimletlabs.ai/blog/ai-generated-metal-kernels-content-fn-4
[ 2 ] https://news.ycombinator.com/item?id=45118111
[ 3 ] https://en.wikipedia.org/wiki/Compute_kernel
[ 4 ] https://github.com/ScalingIntelligence/KernelBench/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
专属 AI 产品从业者的实名社群,只聊 AI 产品最落地的真问题 扫码添加小助手,发送「姓名 + 公司 + 职位」申请入群~
进群后,你将直接获得:
� � 最新最专业的 AI 产品信息及分析 � �
� � 不定期发放的热门产品内测码 � �
� � 内部专属内容与专业讨论 � �
� � 点亮星标 � �
科技前沿进展每日见美通美股票配资
正中优配提示:文章来自网络,不代表本站观点。