一句话,苹果 5nm 最新芯片,运行游戏比 16nm 工艺的 GTX 1050 要强,比 16nm 工艺 GTX 1060 弱,实测数据和官网数据一致(在 GFXBench5 测试里,Apple M1 130 fps, GTX 1050 Ti 127 fps, 和理论上的表现极为接近),使劲吹 M1 秒天秒地可以洗洗睡了,下面进入详细解说:
我们先明确一下定义,一个硬件游戏性能究竟和什么有关?那就是单位时间里,浮点的计算量,用专业术语来说,就是 GFlops,是游戏业内的衡量一个 GPU 的标准。
既然有定义,我们就来分别量化一下历史上游戏机的性能:
型号 | 发售日期 | nm 技术 | 计算力 |
PS2 | 2000/3/4 | 180nm | 6 GFlops |
PS3 | 2006/11/11 | 45nm | 228 GFlops |
PS4 | 2013/11/15 | 28nm | 1840 GFlops |
PS4 Pro | 2016/11/10 | 16nm | 4200 GFlops |
PS5 | 2020/11/12 | 7nm | 10280 GFlops |
Apple M1 | 2020/11/11 | 5nm | 2500 GFlops |
苹果官网提到的 5nm M1, 性能是 2500 GFlops, 相当于 2013 年的初版 PS4 级别。当然这样对比不公平,因为 M1 是节能省电,如果功耗拉高到和 PS4/PS4 Pro 一样大,加上暴力风扇,那么性能是绝对会超过。计算力=nm 技术 * 功耗,千古不变。
我们再来看一下和专业 NV 显卡的对决,目前对标的是 2016 年发布的 16nm GeForce GTX 1030/1050/1060/1080 的级别显卡。
16nm 家族
型号 | 计算力(GFlops) | 功耗 | 价格 |
GeForce GT 1030 | 942 (1127) | 30W | |
GeForce GTX 1050 2GB | 1733 (1862) | 75W | $109 |
GeForce GTX 1050 3GB | 2138 (2332) | 75W | |
GeForce GTX 1050 Ti | 1981 (2138) | 75W | $139 |
Apple M1(<--我在这里) | 2500 | lower power+lower price | |
GeForce GTX 1060 3GB | 3470 (3935) | 120W | $199 |
GeForce GTX 1060 5GB | 3855 (4372) | 120W | |
GeForce GTX 1060 6GB | 3855 (4372) | 120W | $299 |
GeForce GTX 1070 | 5783 (6463) | 150W | $449 |
GeForce GTX 1070 Ti | 7816 (8186) | 180W | $449 |
GeForce GTX 1080 | 8228 (8873) | 180W | $699 |
GeForce GTX 1080 Ti | 10609(11340) | 250W | $699 |
Titan Xp | 10157(10974) | 250W | $1,200 |
最后和 Intel 比一下,上面对比稍有不公,M1 就好比一个武林高手,你最大功耗给限制住了,相当于残血 PK,发挥不出全部实力。只能拉一个同样是 2008 年发布的 Atom 低功耗处理器来比比。 Atom 内置显卡-> H264 硬件解压每帧用时: 1ms H265 软解压用时: 100ms M1 内置显卡 -> H264 硬件解压每帧用时: 1ms H265 硬解压用时: 1ms
总结: 苹果完胜 Intel 。
1
seers 2020-11-17 15:48:19 +08:00 1
帕斯卡 2016 年发布,并非 2014
|
2
mangogeek 2020-11-17 16:04:26 +08:00
Intel:M1 你不讲武德!
|
3
Lawskiy 2020-11-17 16:27:57 +08:00
买回来玩点啥呢
|
4
threebr 2020-11-17 16:31:09 +08:00
我觉得拿 M1 跟桌面的设备比已经很离谱了
|
5
marcong95 2020-11-17 16:32:53 +08:00
那你倒是把功耗拉上去啊.jpg
功耗这东西不见得是个说拉就能拉的东西 而且拿 10 系比功耗,你咋不拿 3090 呢。。。 |
6
INTEL2333 2020-11-17 16:38:29 +08:00 via Android
"只能拉一个同样是 2008 年发布的 Atom 低功耗处理器来比比"
请问楼主用的 N280 ? |
7
INTEL2333 2020-11-17 16:41:43 +08:00 via Android
不对,是使用 极 其 先 进 的 N270
N280 是 2009 的,我好像记错了 |
8
3dwelcome OP @INTEL2333 差不多级别的,intel 早期低功耗硬件视频解码优化的很好,可惜工艺一直提不上去,被 arm 追上是早晚的事。还是有点遗憾了。
|
9
youxiachai 2020-11-17 16:59:37 +08:00
功耗和性能不见得是 1:1 的提升......
不然这次 M1 真心厉害..就是了.... |
10
murmur 2020-11-17 17:00:46 +08:00
lower price 真心谈不上,游戏机都是兼容机,跟兼容机比游戏性价比苹果有赢过么
|
11
MinQ 2020-11-17 17:05:24 +08:00
我就想知道 steam 里的 3A 游戏跑得起来么(狗头)
|
12
3dwelcome OP @MinQ GFXBench5 就是测试游戏性能的,只要 1050 ti 能跑动的 3A,或者激进一点 GTX 1060 能跑的 3A 游戏,只要开发商愿意有 arm 版本的移植,肯定能玩。
想想早年 iphone 上可怜的低建模多边形游戏,不堪回首。现在有了 5nm 技术加持,这种憋屈的日子终于可以一去不复返了。 |
14
Leonard 2020-11-17 17:17:03 +08:00
不同架构貌似不能直接对比浮点算力
|
16
nomemo 2020-11-17 17:21:55 +08:00
反正会很期待
iMac 和 mac pro 会装上一枚什么样的怪物,M1X ? |
17
3dwelcome OP @MinQ Rosetta2 有局限性,本质上只是一个指令翻译器,一般真 3A 游戏大作,用的都是 CPU 特殊指令集 AVX 之类的加速底层运算。ARM 是 Neno,要自动翻译 AVX 很难。
这种代码兼容,对于开发商不难,换一套指令集,干的活大同小异。 但是对于自动指令转换器,就卡壳了。 |
18
Jhonohn 2020-11-17 17:30:16 +08:00 via Android
不懂,反正有种现役运动员和退休运动员比的感觉
|
19
MinQ 2020-11-17 17:32:15 +08:00
@3dwelcome 而且还有那一堆显卡驱动里的私货。所以问题就来了,你让游戏厂商重新弄一份针对 M1 的游戏大概率要撂挑子,所以到最后还是没有游戏玩,这些性能能用起来的地方也就剪剪视频了。
|
20
walsh 2020-11-17 17:46:56 +08:00
关键是可以不插电跑满性能,发热还低
|
21
yangluhui 2020-11-17 19:44:36 +08:00
@3dwelcome 真三 A 不好说,反正威锋有人用 rosetta 2 跑 dota2,能有 110fps,后续也能稳在 90fps,可以自己去搜搜看
|
22
Zzzzzzzzzzz 2020-11-17 19:58:53 +08:00
@MinQ 不比过于悲观,macOS 上 3a 游戏少,跟显卡驱动指令集都没什么关系,主要还是 Mac 普遍 Intel 核显较弱,所以 Mac 玩游戏的用户太少。等到全产品线 arm 芯片了,用 Mac 玩游戏的人自然会多,厂家也会主动去适配。
|
23
MilkyWayne 2020-11-17 20:16:52 +08:00
我去!比 GTX1050 强真的要笑醒了好么!之前 Macbook Pro 13"上的 Iris Pro 就是因为太菜鸡,所以我才会转投独立显卡的 MBP16,但是 MBP16 太重带不出门啊!
|
24
wsseo 2020-11-17 20:32:26 +08:00
我觉得不应该拿功耗出来说事
|
25
systemcall 2020-11-17 21:22:15 +08:00
@MinQ 以前是 Intel 的 iGPU 性能太差、驱动太烂
现在有了 Apple 自研的 M1,外加 iOS 那么大的市场,技术栈和接近,应该会像当年 XBox 推出后那样带动 macOS 游戏软件的井喷,外加扩大普及率 |
26
JerryCha 2020-11-17 22:42:20 +08:00
M1 拿 7nm 造的话性能恐怕会好很多
|
27
leekayui 2020-11-18 03:24:28 +08:00
PS5 Yes!
|
28
luxinfl 2020-11-18 11:01:15 +08:00
怎么又看到了一模一样的,那个帖子还没被教育够么
|