Forum

16 M1 Max (32 kjerner) Eve Online (gaming) benchmarks

LoopsOfFury

Original plakat
12. september 2015
California
  • 27. oktober 2021
I et forsøk på å legge til faktiske ytelsesdata fra den virkelige verden til debatten om hvorvidt M1 Max er bra for spill, her er det jeg nettopp opplevde med Eve Online (premierromskipet MMO). Eve mottok nettopp sin første opprinnelige Mac-klient for noen uker siden (tidligere iterasjoner var basert på WINE).

Dessverre er det i utgangspunktet umulig å benchmarke et PVP-fokusert spill i et riktig kontrollert miljø, og å sitte alene i rommet er helt urepresentativt for spillet. Min løsning var å legge merke til de typiske bildefrekvensene jeg så mens jeg var rundt det travleste handelsknutepunktet i spillet. De var relativt stabile, men kunne svinge med 10 %+ opp eller ned, avhengig av omstendighetene.

Alt ble gjort på den samme 4K @ 144Hz skjermen med to oppløsninger: 3840 x 2160 og 2560 x 1440. Jeg brukte bare noen minutter på testene for å unngå struping fra MacBook Air (jeg tror ikke det ville være noe problem med Proffen). Det første tallet er med antialiasing satt til høyt, det andre er med det slått av.

M1 (8-kjerners GPU) - MBA m/16 GB RAM
4K: 16/22 fps (AA på/av)
2,5K: 28/35 fps (AA på/av)

M1 Max (32-kjerners GPU) - 16 MBP m/32 GB RAM
4K: 70/100 fps (AA på/av)
2,5K: 115 / 120 fps (AA på/av)

RTX 3080 Ti (skrivebord)
4K: 140 / 140 fps (AA på/av)
2,5K: 150/150 fps (AA på/av)

Du kan se antialiasing har stor innvirkning på M1 (spesielt ved 4K). Jeg vet ikke om det er en koding, metall, driver, maskinvare eller annen type problem. Uansett ser den 32-kjerners M1 GPU ut til å skalere ganske bra vs. 8-kjerners M1 GPU, og (i det minste med AA slått av) bør den kunne sammenlignes anstendig vs. en mobil RTX 3080 i noe sånt som en Razer Blade.

Når vi snakker om det, er 16 M1 Max mye mer stillegående enn 15 Razer Blade Advanced (RTX 3080) jeg solgte for noen uker siden.
Reaksjoner:NC12 J

jeanlain

14. mars 2009


  • 27. oktober 2021
Ikke verst faktisk, for et spill kodet i Vulkan (moltenVK) og som kanskje ikke har spesifikke optimaliseringer for Apple GPUer (jeg er ikke sikker på hvordan man kan oppnå det med Vulkan).
Reaksjoner:brainkilla J

jeanlain

14. mars 2009
  • 27. oktober 2021
leman sa: Dette er interessant siden AA generelt er veldig billig på TBDR-maskinvare. Klikk for å utvide...
Jeg vet at det er tilfelle for MSAA. Er FXAA eller SMAA billigere på en TBDR GPU enn på en IMR GPU? C

gal dave

9. september 2010
  • 27. oktober 2021
jeanlain sa: Jeg vet at det er tilfelle for MSAA. Er FXAA eller SMAA billigere på en TBDR GPU enn på en IMR GPU? Klikk for å utvide...

Hvis jeg husker rett, ja. Men noe som DLSS ville være dyrere (selvfølgelig har DLSS et omfang utover å forbedre jaggies).

Edit: Jeg blir korrigert om FXAA og SMAA DE

leman

14. oktober 2008
  • 27. oktober 2021
jeanlain sa: Jeg vet at det er tilfelle for MSAA. Er FXAA eller SMAA billigere på en TBDR GPU enn på en IMR GPU? Klikk for å utvide...

Dette er alle bilderom AA-metoder som krever at du bruker filtre og adaptiv uskarphet på den gjengitte scenen. TBDR har ikke noe å hjelpe med dette. Jeg antar at du kan bruke flisskyggelegging for å kjøre AA på flisen i GPU-minnet, men du vil sannsynligvis få artefakter ved flisgrensen... J

jeanlain

14. mars 2009
  • 27. oktober 2021
Poenget mitt er, vet vi hvilken type AA Eve Online bruker? Jeg har sett på skjermbilder, og innstillingene sier bare 'Anti Aliasing'.

Og hvorfor er effekten av AA mye større ved 4k enn ved 2,5k? Jeg ville trodd at spillet er GPU-bundet i begge situasjoner. S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
Så poenget er at 32-kjerners gpu er nær 3080-skrivebordet?!
Eller mer enn halvparten av desktop 3080-ytelsen?!
Reaksjoner:epler

Press

30. mai 2006
Danmark
  • 28. oktober 2021
Serban55 sa: Så poenget er at 32-kjerners gpu er nær 3080-skrivebordet?!
Eller mer enn halvparten av desktop 3080-ytelsen?! Klikk for å utvide...
Vi vet bare hvilken GPU som ble brukt, ikke resten av datamaskinen.

RTX 3080 Ti kan ha en flaskehals av prosessoren ved 2,5K-oppløsning siden ytelsesforskjellen ved 4K er ganske liten. DE

leman

14. oktober 2008
  • 28. oktober 2021
Serban55 sa: Så poenget er at 32-kjerners gpu er nær 3080-skrivebordet?!
Eller mer enn halvparten av desktop 3080-ytelsen?! Klikk for å utvide...

I denne testen, ja. Og det er ikke en 3080, det er en 3080 Ti (som i bunn og grunn er en liten bit tregere RTX 3090). Selv om jeg mistenker at GPUen er flaskehalset av CPU (da ytelsen på 2,5k og 4k er nesten identisk).

Edit: @Press var raskere Reaksjoner:ikir

LoopsOfFury

Original plakat
12. september 2015
California
  • 28. oktober 2021
Press sa: Vi vet bare hvilken GPU som ble brukt, ikke resten av datamaskinen.

RTX 3080 Ti kan ha en flaskehals av prosessoren ved 2,5K-oppløsning siden ytelsesforskjellen ved 4K er ganske liten. Klikk for å utvide...
CPU er en i9-11900K.
Reaksjoner:ikir, lespommes og Zhang Q

kvarkysg

12. oktober 2019
  • 28. oktober 2021
jeanlain sa: Også, hvorfor er virkningen av AA mye større ved 4k enn ved 2,5k? Jeg ville trodd at spillet er GPU-bundet i begge situasjoner. Klikk for å utvide...
4 ganger flere piksler å behandle, så det kommer til å være beregnings- og båndbreddekrevende.
Reaksjoner:gal dave

urtules

30. juli 2010
  • 28. oktober 2021
Takk, veldig interessant test. Jeg tenkte at det er bedre å slå av AA når du kjører i opprinnelig oppløsning. AA skjuler pikseltrapper, men piksler er veldig små på Retina, så du vil ikke se trappeeffekten.
Reaksjoner:brainkilla J

jeanlain

14. mars 2009
  • 28. oktober 2021
leman sa: I denne spesielle testen, ja. Og det er ikke en 3080, det er en 3080 Ti (som i bunn og grunn er en liten bit tregere RTX 3090). Selv om jeg mistenker at GPUen er flaskehalset av CPU (da ytelsen på 2,5k og 4k er nesten identisk). Klikk for å utvide...
Det faktum at AA ikke har noen innvirkning på ytelsen når du kjører spillet på PC-en, tyder sterkt på at GPU-en ikke er mettet.
Så vi kan ikke konkludere noe WRT M1 Max GPU versus RTX GPU.
Dette spillet er rett og slett ikke krevende nok til å teste en RTX 3080 Ti, selv ved 4k. S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
Press sa: Vi vet bare hvilken GPU som ble brukt, ikke resten av datamaskinen.

RTX 3080 Ti kan ha en flaskehals av prosessoren ved 2,5K-oppløsning siden ytelsesforskjellen ved 4K er ganske liten. Klikk for å utvide...
CPU er en i9-11900K..så den er imponerende
Reaksjoner:ikir S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
leman sa: I denne spesielle testen, ja. Og det er ikke en 3080, det er en 3080 Ti (som i bunn og grunn er en liten bit tregere RTX 3090). Selv om jeg mistenker at GPUen er flaskehalset av CPU (da ytelsen på 2,5k og 4k er nesten identisk).

Edit: @Press var raskere Reaksjoner:ikir S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
jeanlain sa: Det faktum at AA ikke har noen innvirkning på ytelsen når du kjører spillet på PC-en, tyder sterkt på at GPU-en ikke er mettet.
Så vi kan ikke konkludere noe WRT M1 Max GPU versus RTX GPU.
Dette spillet er rett og slett ikke krevende nok til å teste en RTX 3080 Ti, selv ved 4k. Klikk for å utvide...
hvis dette ikke er krevende nok, hvorfor kjører den ikke på hele 144fps da? og dens maks ut på 140 fps i 4k?
In eve er 140 fps 4k mens et ekte ikke-krevende spill som csgo uansett hva det når 4k med over 210 fps (uten en cap) J

jeanlain

14. mars 2009
  • 28. oktober 2021
Serban55 sa: hvis dette ikke er krevende nok, hvorfor kjører det ikke med hele 144 bilder per sekund da? og dens maks ut på 140 fps i 4k? Klikk for å utvide...
Fordi CPU ikke kan beregne flere rammer.
Hvis Vsync er av, kan GPU til og med gå lenger enn 144 fps. Resultatene viser til og med 150 fps ved 2,5k.
(EDIT: på Mac kan Vsync håndheves, så det kan være en faktor her. Det ville vært interessant å teste med svært lav oppløsning. Jeg er ikke sikker på at Vsync kan deaktiveres på Apple GPUer som bruker Metal).

EDIT: en måte å evaluere om et spill er begrenset av GPU-ytelse, er å sjekke om innstillinger som bare påvirker GPU-ytelsen endrer bildefrekvenser. Disse innstillingene er vanligvis:
- skjermoppløsning, først og fremst. Å øke oppløsningen medfører ikke mer arbeid på CPU, bare på GPU.
- Anti-aliasing, som AFAIK bare gjøres av GPU.
Dette kan være tilfelle for andre innstillinger som AF og tessellasjon, men jeg er ikke sikker.

I dette tilfellet har tredobling av antall piksler fra 2,5k til 4k svært liten innvirkning på ytelsen, og AA har ingen. Sist redigert: 28. oktober 2021 Q

kvarkysg

12. oktober 2019
  • 28. oktober 2021
jeanlain sa: Økende oppløsning medfører ikke mer arbeid på CPU, bare på GPU. Klikk for å utvide...
Kan det være mulig at økt oppløsning vil føre til at større teksturer blir brukt, noe som resulterer i at CPU-en skyver mer data over til GPU? S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
jeanlain sa: Fordi CPUen ikke kan beregne flere rammer.
Hvis Vsync er av, kan GPU til og med gå lenger enn 144 fps. Resultatene viser til og med 150 fps ved 2,5k.
(EDIT: på Mac kan Vsync håndheves, så det kan være en faktor her. Det ville vært interessant å teste med svært lav oppløsning. Jeg er ikke sikker på at Vsync kan deaktiveres på Apple GPUer som bruker Metal).

EDIT: en måte å evaluere om et spill er begrenset av GPU-ytelse, er å sjekke om innstillinger som bare påvirker GPU-ytelsen endrer bildefrekvenser. Disse innstillingene er vanligvis:
- skjermoppløsning, først og fremst. Å øke oppløsningen medfører ikke mer arbeid på CPU, bare på GPU.
- Anti-aliasing, som AFAIK bare gjøres av GPU.
Dette kan være tilfelle for andre innstillinger som AF og tessellasjon, men jeg er ikke sikker.

I dette tilfellet har tredobling av antall piksler fra 2,5k til 4k svært liten innvirkning på ytelsen, og AA har ingen. Klikk for å utvide...
Eve online er ikke som starcraft ... dens gpu sulten og ikke cpu sulten
å ha en 8-kjerners i9-11900K er mer enn nok
Igjen..hvis i pc-spilling, en i9-11900K ikke er nok...da er pc-gaming dårlig med tanke på at de fleste spill er bygget rundt gpuen og ikke cpuen
Men igjen, jeg er ikke her for å bestride, resultatet er på nivå med de to andre innfødte spillene som er på samme nivå som nvidia mobile 3070.
Så apple løy ikke, selvfølgelig tok de sin beste ytelse fra en spesifikk oppgave og plasserte den på diagrammet Sist redigert: 28. oktober 2021
Reaksjoner:ikir J

jeanlain

14. mars 2009
  • 28. oktober 2021
Se, jeg konkluderer bare fra resultatene, ikke fra et teoretisk synspunkt. Jeg trenger ikke engang å vite hvilket spill det er på hvilken konfigurasjon. Bare 7 % reduksjon i fps fra 2,5K til 4k sier stort sett alt. Spillet er ikke begrenset av GPU ved disse innstillingene.

BTW: tilsynelatende kan ikke Vsync fjernes på Eve Online på Monterey:
https://www.reddit.com/r/macgaming/comments/qh26yg
Reaksjoner:Serban55 og altaic DE

leman

14. oktober 2008
  • 28. oktober 2021
jeanlain sa: Det faktum at AA ikke har noen innvirkning på ytelsen når du kjører spillet på PC-en, tyder sterkt på at GPU-en ikke er mettet.
Så vi kan ikke konkludere noe WRT M1 Max GPU versus RTX GPU.
Dette spillet er rett og slett ikke krevende nok til å teste en RTX 3080 Ti, selv ved 4k. Klikk for å utvide...

Det er sant. Men for alle praktiske formål antar jeg at konklusjonen er at M1 kan spille Eve helt fint Reaksjoner:Serban55 S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
Hovedpoenget er at for skikkelige spill som tar adv av Apples maskinvare, er denne gpuen imponerende for 55-60W
Ha en fin dag alle sammen, skal leke med Maya
Reaksjoner:rezwits S

Serban55

Suspendert
18. oktober 2020
  • 28. oktober 2021
jeanlain sa: Se, jeg konkluderer bare fra resultatene, ikke fra et teoretisk synspunkt. Jeg trenger ikke engang å vite hvilket spill det er på hvilken konfigurasjon. Bare 7 % reduksjon i fps fra 2,5K til 4k sier stort sett alt. Spillet er ikke begrenset av GPU ved disse innstillingene.

BTW: tilsynelatende kan ikke Vsync fjernes på Eve Online på Monterey:
https://www.reddit.com/r/macgaming/comments/qh26yg Klikk for å utvide...
min 16' M1 max ble sendt med Monterey Reaksjoner:ikir og MacKid