找回密码
 立即注册
  • QQ空间
  • 回复
  • 收藏

苹果在相同snl的情况ai浮点追上nv游戏卡

指的是fp16和bf16
苹果m5的fp16/bf16性能为16 TFLOPS,steelnoamd light是5400分
那么估算4倍规模的m5max fp16性能为60+TFLOPS,snl为2万分
对比一个类似的nv50系卡,5070在2.5g默频,fp16/bf16是61.7 TFLOPS,2.8g的时候snl分数为2.3万,那么2.5g频率snl分数正好2万分
都是稠密性能没算稀疏化,都是snl 2万分对应60 TFLOPS fp16/bf16性能
不过苹果在数据格式上支持还需要提升,并没有fp8和fp4,完全不如nv
以及苹果的int8是两倍fp16,120+ TOPs不如nv的240+ TOPs
回复

使用道具 举报

大神点评(11)

e20923711 楼主 2025-12-5 13:29:00 显示全部楼层
所以如果ultra是8倍m5 gpu规模,那么fp16和bf16应该和5080类似,snl也是和5080类似,如果说作为private cloud compute还是算力有点低,就带宽会比5080高点
回复 支持 反对

使用道具 举报

b34725267 2025-12-5 13:29:56 显示全部楼层
snl跟ai有什么关系,ai是矩阵加乘
回复 支持 反对

使用道具 举报

Jeuvareg 2025-12-5 13:30:56 显示全部楼层
为什么techpowerup上5070的fp16是30.87
回复 支持 反对

使用道具 举报

艾的民 2025-12-5 13:31:32 显示全部楼层
苹果int8性能测的有问题,扔一个int8的模型根本没比fp16快,m5不像是30tops的水平
回复 支持 反对

使用道具 举报

艾的民 2025-12-5 13:32:10 显示全部楼层
硬吹苹果?都发展到fp8和fp4了,还在这fp16算力,不懂就问苹果有多少fp8算力啊
回复 支持 反对

使用道具 举报

b34725267 2025-12-5 13:32:55 显示全部楼层
snl用的是cuda fp16,5070只有34T
苹果在相同snl的情况ai浮点追上nv游戏卡-1.png
回复 支持 反对

使用道具 举报

坦克VSh车 2025-12-5 13:33:05 显示全部楼层
果子就该开发一款对标tpu的asic,把黄狗🐶ai卡神话扫进垃圾堆
回复 支持 反对

使用道具 举报

luorichangxi 2025-12-5 13:33:32 显示全部楼层
有个屁用,pytorch对苹果的支持稀烂
回复 支持 反对

使用道具 举报

luorichangxi 2025-12-5 13:33:49 显示全部楼层
pytorch已经不在支持苹果的mps了,不要停苹果吹牛逼,苹果在ai软件生态的投入远不如华为,更别说英伟达了

苹果在相同snl的情况ai浮点追上nv游戏卡-1.jpg
回复 支持 反对

使用道具 举报

影宴传媒_ 2025-12-5 13:34:27 显示全部楼层
也不奇怪吧
回复 支持 反对

使用道具 举报

Todd 2025-12-5 13:35:17 显示全部楼层
讨论ai能力评论区讨论了个寂寞
回复 支持 反对

使用道具 举报

说点什么

您需要登录后才可以回帖 登录 | 立即注册
HOT • 推荐