Forum

16 Benchmarks Eve Online (Jeux) M1 Max (32 cœurs)

BouclesDeFureur

Affiche originale
12 sept. 2015
Californie
  • 27 octobre 2021
Dans le but d'ajouter des données de performances réelles au débat sur la question de savoir si le M1 Max est bon pour les jeux, voici ce que je viens de vivre avec Eve Online (le premier vaisseau spatial MMO). Eve vient de recevoir son premier client Mac natif il y a quelques semaines (les versions précédentes s'appuyaient sur WINE).

Malheureusement, il est fondamentalement impossible de comparer un jeu axé sur le PVP dans un environnement correctement contrôlé, et rester seul dans l'espace n'est absolument pas représentatif du jeu. Ma solution consistait à noter les fréquences d'images typiques que j'ai vues en encerclant le centre commercial le plus achalandé du jeu. Ils étaient relativement stables, mais pouvaient fluctuer de plus de 10 % à la hausse ou à la baisse, selon les circonstances.

Tout a été fait sur le même moniteur 4K @ 144Hz à deux résolutions : 3840 x 2160 et 2560 x 1440. Je n'ai passé que quelques minutes sur les tests pour éviter le throttling du MacBook Air (je ne pense pas que ce serait un problème avec le Pro). Le premier nombre est avec l'anticrénelage réglé sur haut, le second est avec il est désactivé.

M1 (GPU 8 cœurs) - MBA avec 16 Go de RAM
4K : 16/22 ips (AA activé/désactivé)
2.5K : ​​28 / 35 ips (AA activé/désactivé)

M1 Max (GPU 32 cœurs) - 16 MBP avec 32 Go de RAM
4K : 70/100 ips (AA activé/désactivé)
2.5K : ​​115 / 120 ips (AA activé/désactivé)

RTX 3080 Ti (ordinateur de bureau)
4K : 140 / 140 ips (AA activé/désactivé)
2.5K : ​​150 / 150 ips (AA activé/désactivé)

Vous pouvez voir que l'antialiasing a un impact important sur le M1 (surtout en 4K). Je ne sais pas s'il s'agit d'un problème de codage, de métal, de pilote, de matériel ou autre. Quoi qu'il en soit, le GPU M1 à 32 cœurs semble s'adapter assez bien par rapport au GPU M1 à 8 cœurs et (au moins avec AA désactivé) devrait pouvoir se comparer décemment à un RTX 3080 mobile dans quelque chose comme un Razer Blade.

En parlant de ça, le 16 M1 Max est bien plus silencieux que le 15 Razer Blade Advanced (RTX 3080) que je viens de vendre il y a quelques semaines.
Réactions :NC12 J

jeanlain

14 mars 2009


  • 27 octobre 2021
Pas mal en effet, pour un jeu codé en Vulkan (moltenVK) et qui peut ne pas avoir d'optimisations spécifiques pour les GPU Apple (je ne sais pas comment y parvenir avec Vulkan).
Réactions :Brainkilla J

jeanlain

14 mars 2009
  • 27 octobre 2021
leman a dit : C'est intéressant car AA est généralement très bon marché sur le matériel TBDR. Cliquez pour agrandir...
Je sais que c'est le cas pour MSAA. Est-ce que FXAA ou SMAA est moins cher sur un GPU TBDR que sur un GPU IMR ? C

Dave le cinglé

9 sept. 2010
  • 27 octobre 2021
jeanlain a dit : je sais que c'est le cas pour MSAA. Est-ce que FXAA ou SMAA est moins cher sur un GPU TBDR que sur un GPU IMR ? Cliquez pour agrandir...

Si je me souviens bien, oui. Mais quelque chose comme DLSS serait plus cher (évidemment, DLSS a une portée au-delà de l'amélioration des crénelages).

Edit : je suis corrigé à propos de FXAA et SMAA L

léman

14 octobre 2008
  • 27 octobre 2021
jeanlain a dit : je sais que c'est le cas pour MSAA. Est-ce que FXAA ou SMAA est moins cher sur un GPU TBDR que sur un GPU IMR ? Cliquez pour agrandir...

Ce sont toutes des méthodes AA d'espace d'image qui vous obligent à appliquer des filtres et un flou adaptatif à la scène rendue. TBDR n'a rien pour aider avec cela. Je suppose que vous pouvez utiliser l'ombrage des tuiles pour exécuter AA sur la tuile dans la mémoire sur GPU, mais vous obtiendrez probablement des artefacts à la limite de la tuile... J

jeanlain

14 mars 2009
  • 27 octobre 2021
Mon point est, savons-nous quel type d'AA Eve Online utilise ? J'ai regardé des captures d'écran et les paramètres indiquent simplement « Anti-aliasing ».

Aussi, pourquoi l'impact de l'AA est-il beaucoup plus important à 4k qu'à 2,5k ? J'aurais pensé que le jeu est lié au GPU dans les deux situations. S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
Donc, en fin de compte, le GPU à 32 cœurs est proche du bureau 3080 ? !
Ou plus de la moitié des performances du bureau 3080 ?!
Réactions :lespommes

Pression

30 mai 2006
Danemark
  • 28 octobre 2021
Serban55 a déclaré : Donc, l'essentiel est que le GPU 32 cœurs soit proche du bureau 3080 ? !
Ou plus de la moitié des performances du bureau 3080 ?! Cliquez pour agrandir...
Nous savons seulement quel GPU a été utilisé, pas le reste de l'ordinateur.

Le RTX 3080 Ti pourrait être goulot d'étranglement par le processeur à une résolution de 2,5K car la différence de performances à 4K est assez faible. L

léman

14 octobre 2008
  • 28 octobre 2021
Serban55 a déclaré : Donc, l'essentiel est que le GPU 32 cœurs soit proche du bureau 3080 ? !
Ou plus de la moitié des performances du bureau 3080 ?! Cliquez pour agrandir...

Dans ce test particulier, oui. Et ce n'est pas un 3080, c'est un 3080 Ti (qui est fondamentalement un RTX 3090 un peu plus lent). Bien que je soupçonne que le GPU est goulot d'étranglement par le CPU (car les performances à 2,5k et 4k sont presque identiques).

Edit: @Pressure était plus rapide Réactions :ikir

BouclesDeFureur

Affiche originale
12 sept. 2015
Californie
  • 28 octobre 2021
Pressure a déclaré : nous ne savons que quel GPU a été utilisé, pas le reste de l'ordinateur.

Le RTX 3080 Ti pourrait être goulot d'étranglement par le processeur à une résolution de 2,5K car la différence de performances à 4K est assez faible. Cliquez pour agrandir...
Le processeur est un i9-11900K.
Réactions :ikir, lespommes et Zhang Q

quarkysg

12 octobre 2019
  • 28 octobre 2021
jeanlain a dit : Aussi, pourquoi l'impact de l'AA est-il beaucoup plus grand à 4k qu'à 2,5k ? J'aurais pensé que le jeu est lié au GPU dans les deux situations. Cliquez pour agrandir...
4 fois plus de pixels à traiter, donc ça va être gourmand en calcul et en bande passante.
Réactions :Dave le cinglé

urtules

30 juil. 2010
  • 28 octobre 2021
Merci, test très intéressant. J'ai pensé qu'il était préférable de désactiver AA lors de l'exécution en résolution native. AA masque les escaliers de pixels, mais les pixels sont très petits sur Retina, vous ne verrez donc pas l'effet d'escalier.
Réactions :Brainkilla J

jeanlain

14 mars 2009
  • 28 octobre 2021
leman a dit : Dans ce test particulier, oui. Et ce n'est pas un 3080, c'est un 3080 Ti (qui est fondamentalement un RTX 3090 un peu plus lent). Bien que je soupçonne que le GPU est goulot d'étranglement par le CPU (car les performances à 2,5k et 4k sont presque identiques). Cliquez pour agrandir...
Le fait que l'AA n'ait aucun impact sur les performances lors de l'exécution du jeu sur PC suggère fortement que le GPU n'est pas saturé.
Nous ne pouvons donc rien conclure par rapport au GPU M1 Max par rapport au GPU RTX.
Ce jeu n'est tout simplement pas assez exigeant pour tester une RTX 3080 Ti, même en 4k. S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
Pressure a déclaré : nous ne savons que quel GPU a été utilisé, pas le reste de l'ordinateur.

Le RTX 3080 Ti pourrait être goulot d'étranglement par le processeur à une résolution de 2,5K car la différence de performances à 4K est assez faible. Cliquez pour agrandir...
Le processeur est un i9-11900K..donc c'est impressionnant
Réactions :ikir S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
leman a dit : Dans ce test particulier, oui. Et ce n'est pas un 3080, c'est un 3080 Ti (qui est fondamentalement un RTX 3090 un peu plus lent). Bien que je soupçonne que le GPU est goulot d'étranglement par le CPU (car les performances à 2,5k et 4k sont presque identiques).

Edit: @Pressure était plus rapide Réactions :ikir S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
jeanlain a déclaré : Le fait que l'AA n'ait aucun impact sur les performances lors de l'exécution du jeu sur PC suggère fortement que le GPU n'est pas saturé.
Nous ne pouvons donc rien conclure par rapport au GPU M1 Max par rapport au GPU RTX.
Ce jeu n'est tout simplement pas assez exigeant pour tester une RTX 3080 Ti, même en 4k. Cliquez pour agrandir...
si ce n'est pas assez exigeant, pourquoi ne fonctionne-t-il pas à la vitesse maximale de 144 images par seconde ? et son max à 140fps en 4k ?
In eve est à 140fps 4k alors qu'un vrai jeu non exigeant comme csgo, peu importe ce qu'il atteint, atteint 4k à plus de 210 fps (sans plafond) J

jeanlain

14 mars 2009
  • 28 octobre 2021
Serban55 a dit : si ce n'est pas assez exigeant, pourquoi ne fonctionne-t-il pas à 144 ips ? et son max à 140fps en 4k ? Cliquez pour agrandir...
Parce que le CPU ne peut pas calculer plus de trames.
Si Vsync est désactivé, le GPU peut même aller au-delà de 144 ips. Les résultats montrent même 150 ips à 2,5k.
(EDIT : sur Mac, Vsync peut être appliqué, cela pourrait donc être un facteur ici. Il serait intéressant de tester à très basse résolution. Je ne suis pas sûr que Vsync puisse être désactivé sur les GPU Apple utilisant Metal).

EDIT : un moyen d'évaluer si un jeu est limité par les performances du GPU consiste à vérifier si les paramètres qui n'affectent que les performances du GPU modifient les fréquences d'images. Ces paramètres sont généralement :
- la résolution de l'écran avant tout. L'augmentation de la résolution n'implique pas plus de travail sur le CPU, seulement sur le GPU.
- Anti-aliasing, qui n'est fait que par le GPU.
Cela peut être le cas pour d'autres paramètres comme AF et tessellation, mais je n'en suis pas sûr.

Dans ce cas, tripler le nombre de pixels de 2,5k à 4k a très peu d'impact sur les performances et AA n'en a pas. Dernière modification : 28 octobre 2021 Q

quarkysg

12 octobre 2019
  • 28 octobre 2021
jeanlain a dit : L'augmentation de la résolution n'implique pas plus de travail sur le CPU, seulement sur le GPU. Cliquez pour agrandir...
Serait-il possible qu'une résolution accrue entraîne l'utilisation de textures plus grandes, entraînant le transfert de plus de données vers le GPU par le processeur ? S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
jeanlain a dit : Parce que le CPU ne peut pas calculer plus d'images.
Si Vsync est désactivé, le GPU peut même aller au-delà de 144 ips. Les résultats montrent même 150 ips à 2,5k.
(EDIT : sur Mac, Vsync peut être appliqué, cela pourrait donc être un facteur ici. Il serait intéressant de tester à très basse résolution. Je ne suis pas sûr que Vsync puisse être désactivé sur les GPU Apple utilisant Metal).

EDIT : un moyen d'évaluer si un jeu est limité par les performances du GPU consiste à vérifier si les paramètres qui n'affectent que les performances du GPU modifient les fréquences d'images. Ces paramètres sont généralement :
- la résolution de l'écran avant tout. L'augmentation de la résolution n'implique pas plus de travail sur le CPU, seulement sur le GPU.
- Anti-aliasing, qui n'est fait que par le GPU.
Cela peut être le cas pour d'autres paramètres comme AF et tessellation, mais je n'en suis pas sûr.

Dans ce cas, tripler le nombre de pixels de 2,5k à 4k a très peu d'impact sur les performances et AA n'en a pas. Cliquez pour agrandir...
Eve en ligne n'est pas comme Starcraft... il a faim de GPU et non de CPU
avoir un 8cores i9-11900K est plus que suffisant
Encore une fois... si dans les jeux sur PC, un i9-11900K ne suffit pas... alors les jeux sur PC sont nuls en gardant à l'esprit que la plupart des jeux sont construits autour du GPU et non du CPU
Mais encore une fois, je ne suis pas là pour contester, le résultat est à égalité avec les 2 autres jeux natifs qui sont au même niveau que le nvidia mobile 3070.
Apple n'a donc pas menti, bien sûr, ils ont pris leur meilleure performance d'une tâche spécifique et l'ont placée dans le graphique Dernière édition : 28 octobre 2021
Réactions :ikir J

jeanlain

14 mars 2009
  • 28 octobre 2021
Écoutez, je conclus juste à partir des résultats, pas d'un point de vue théorique. Je n'ai même pas besoin de savoir de quel jeu il s'agit sur quelle config. Une simple diminution de 7 % des images par seconde, passant de 2,5K à 4K, dit à peu près tout. Le jeu n'est pas limité par le GPU à ces paramètres.

BTW : apparemment, Vsync ne peut pas être supprimé sur Eve Online à Monterey :
https://www.reddit.com/r/macgaming/comments/qh26yg
Réactions :Serban55 et altaïque L

léman

14 octobre 2008
  • 28 octobre 2021
jeanlain a déclaré : Le fait que l'AA n'ait aucun impact sur les performances lors de l'exécution du jeu sur PC suggère fortement que le GPU n'est pas saturé.
Nous ne pouvons donc rien conclure par rapport au GPU M1 Max par rapport au GPU RTX.
Ce jeu n'est tout simplement pas assez exigeant pour tester une RTX 3080 Ti, même en 4k. Cliquez pour agrandir...

C'est vrai. Mais à toutes fins utiles, je suppose que la conclusion est que M1 peut très bien jouer à Eve Réactions :serbe55 S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
L'essentiel est que pour les jeux appropriés qui prennent l'adv du matériel Apple, ce GPU est impressionnant pour 55-60W
Bonne journée à vous tous, allez jouer avec Maya
Réactions :rezwits S

serbe55

Suspendu
18 octobre 2020
  • 28 octobre 2021
jeanlain a dit : Ecoutez, je conclus juste des résultats, pas d'un point de vue théorique. Je n'ai même pas besoin de savoir de quel jeu il s'agit sur quelle config. Une simple diminution de 7 % des images par seconde, passant de 2,5K à 4K, dit à peu près tout. Le jeu n'est pas limité par le GPU à ces paramètres.

BTW : apparemment, Vsync ne peut pas être supprimé sur Eve Online à Monterey :
https://www.reddit.com/r/macgaming/comments/qh26yg Cliquez pour agrandir...
mon 16' M1 max expédié avec Monterey Réactions :Ikir et MacKid