麦克雷 Mavom.cn
标题:
苹果在相同snl的情况ai浮点追上nv游戏卡
[打印本页]
作者:
e20923711
时间:
昨天 13:28
标题:
苹果在相同snl的情况ai浮点追上nv游戏卡
指的是fp16和bf16
苹果m5的fp16/bf16性能为16 TFLOPS,steelnoamd light是5400分
那么估算4倍规模的m5max fp16性能为60+TFLOPS,snl为2万分
对比一个类似的nv50系卡,5070在2.5g默频,fp16/bf16是61.7 TFLOPS,2.8g的时候snl分数为2.3万,那么2.5g频率snl分数正好2万分
都是稠密性能没算稀疏化,都是snl 2万分对应60 TFLOPS fp16/bf16性能
不过苹果在数据格式上支持还需要提升,并没有fp8和fp4,完全不如nv
以及苹果的int8是两倍fp16,120+ TOPs不如nv的240+ TOPs
作者:
e20923711
时间:
昨天 13:29
所以如果ultra是8倍m5 gpu规模,那么fp16和bf16应该和5080类似,snl也是和5080类似,如果说作为private cloud compute还是算力有点低,就带宽会比5080高点
作者:
b34725267
时间:
昨天 13:29
snl跟ai有什么关系,ai是矩阵加乘
作者:
Jeuvareg
时间:
昨天 13:30
为什么techpowerup上5070的fp16是30.87
作者:
艾的民
时间:
昨天 13:31
苹果int8性能测的有问题,扔一个int8的模型根本没比fp16快,m5不像是30tops的水平
作者:
艾的民
时间:
昨天 13:32
硬吹苹果?都发展到fp8和fp4了,还在这fp16算力,不懂就问苹果有多少fp8算力啊
作者:
b34725267
时间:
昨天 13:32
snl用的是cuda fp16,5070只有34T
(, 下载次数: 0)
上传
点击文件名下载附件
作者:
坦克VSh车
时间:
昨天 13:33
果子就该开发一款对标tpu的asic,把黄狗🐶ai卡神话扫进垃圾堆
作者:
luorichangxi
时间:
昨天 13:33
有个屁用,pytorch对苹果的支持稀烂
作者:
luorichangxi
时间:
昨天 13:33
pytorch已经不在支持苹果的mps了,不要停苹果吹牛逼,苹果在ai软件生态的投入远不如华为,更别说英伟达了
(, 下载次数: 0)
上传
点击文件名下载附件
作者:
影宴传媒_
时间:
昨天 13:34
也不奇怪吧
作者:
Todd
时间:
昨天 13:35
讨论ai能力评论区讨论了个寂寞
欢迎光临 麦克雷 Mavom.cn (https://www.mavom.cn/)
Powered by Discuz! X3.5