麦克雷 Mavom.cn

标题: 苹果在相同snl的情况ai浮点追上nv游戏卡 [打印本页]

作者: e20923711    时间: 昨天 13:28
标题: 苹果在相同snl的情况ai浮点追上nv游戏卡
指的是fp16和bf16
苹果m5的fp16/bf16性能为16 TFLOPS,steelnoamd light是5400分
那么估算4倍规模的m5max fp16性能为60+TFLOPS,snl为2万分
对比一个类似的nv50系卡,5070在2.5g默频,fp16/bf16是61.7 TFLOPS,2.8g的时候snl分数为2.3万,那么2.5g频率snl分数正好2万分
都是稠密性能没算稀疏化,都是snl 2万分对应60 TFLOPS fp16/bf16性能
不过苹果在数据格式上支持还需要提升,并没有fp8和fp4,完全不如nv
以及苹果的int8是两倍fp16,120+ TOPs不如nv的240+ TOPs
作者: e20923711    时间: 昨天 13:29
所以如果ultra是8倍m5 gpu规模,那么fp16和bf16应该和5080类似,snl也是和5080类似,如果说作为private cloud compute还是算力有点低,就带宽会比5080高点
作者: b34725267    时间: 昨天 13:29
snl跟ai有什么关系,ai是矩阵加乘
作者: Jeuvareg    时间: 昨天 13:30
为什么techpowerup上5070的fp16是30.87
作者: 艾的民    时间: 昨天 13:31
苹果int8性能测的有问题,扔一个int8的模型根本没比fp16快,m5不像是30tops的水平
作者: 艾的民    时间: 昨天 13:32
硬吹苹果?都发展到fp8和fp4了,还在这fp16算力,不懂就问苹果有多少fp8算力啊
作者: b34725267    时间: 昨天 13:32
snl用的是cuda fp16,5070只有34T
(, 下载次数: 0)
作者: 坦克VSh车    时间: 昨天 13:33
果子就该开发一款对标tpu的asic,把黄狗🐶ai卡神话扫进垃圾堆
作者: luorichangxi    时间: 昨天 13:33
有个屁用,pytorch对苹果的支持稀烂
作者: luorichangxi    时间: 昨天 13:33
pytorch已经不在支持苹果的mps了,不要停苹果吹牛逼,苹果在ai软件生态的投入远不如华为,更别说英伟达了

(, 下载次数: 0)
作者: 影宴传媒_    时间: 昨天 13:34
也不奇怪吧
作者: Todd    时间: 昨天 13:35
讨论ai能力评论区讨论了个寂寞




欢迎光临 麦克雷 Mavom.cn (https://www.mavom.cn/) Powered by Discuz! X3.5