Forum

Utilisation du GPU M1 au détriment du pool de mémoire ?

M

majormike

Affiche originale
15 mai 2012
  • 31 janvier 2021
Salut,

Combien de RAM le M1 utilise-t-il dans le pool de mémoire pour exécuter le GPU ?

Je veux l'avoir pour la production musicale et je serais content de 16 concerts mais je ne sais pas combien de mémoire le GPU utilise, en particulier avec un écran externe ?

chaîne9

8 juin 2017
  • 31 janvier 2021
Il ne nécessite que quelques mégaoctets pour exécuter un affichage, mais les GPU sont également utilisés pour l'apprentissage automatique, les tableaux de pixels et les calculs spécialisés. Cela dépend vraiment du logiciel que vous utilisez.

Regardez autour de vous dans les préférences et voyez si vous pouvez repérer les paramètres du GPU. Par exemple, Photoshop peut faire un usage intensif des GPU mais il peut également être désactivé.
Réactions :blindé DANS

Wizec

30 juin 2019


  • 31 janvier 2021
Pour jouer à 1080p avec des paramètres graphiques élevés à très élevés avec AA activé, vous aurez besoin de 4 Go à 6 Go de mémoire vidéo

De combien de mémoire vidéo (VRAM) avez-vous besoin pour jouer en 2021 ?

Découvrez la quantité de mémoire vidéo (VRAM) dont vous avez besoin dans une carte graphique pour jouer à différentes résolutions et paramètres graphiques pour les derniers jeux AAA modernes. La mémoire vidéo ou VRAM est une DRAM haute vitesse (RAM dynamique) utilisée dans les cartes graphiques discrètes ou les cartes vidéo. C'est une mémoire tampon, juste... graphiccardhub.com
si vous ne jouez pas, alors probablement seulement quelques centaines de Mo en fonction de la résolution et de la profondeur de couleur de votre moniteur. Une fois que vous avez atteint la 4K et des millions de couleurs, cela peut devenir beaucoup plus élevé, même pour des tâches telles que la navigation sur le Web :

Le seul problème potentiel que nous avons trouvé était lors des tests de navigation Web 4k où notre journalisation a montré que les cartes vidéo utilisaient jusqu'à 1 260 Mo de mémoire vidéo. Pour mettre cela en perspective, c'est environ 3 fois plus de mémoire vidéo qui aurait été utilisée si nous avions effectué les mêmes tâches sur un moniteur 1080p.

Exigences et utilisation du moniteur 4K

Les écrans 4k ont ​​environ quatre fois plus de pixels qu'un écran 1080p standard, ce qui améliore considérablement la qualité de l'image. Mais comme la technologie est encore relativement nouvelle, il y a beaucoup de questions et de malentendus sur ce dont vous avez besoin pour faire fonctionner un moniteur 4K. Afin de... www.pugetsystems.com Dernière édition : 31 janvier 2021
Réactions :Tagbert L

léman

14 octobre 2008
  • 1 févr. 2021
majormike a dit : Salut,

Combien de RAM le M1 utilise-t-il dans le pool de mémoire pour exécuter le GPU ?

Je veux l'avoir pour la production musicale et je serais content de 16 concerts mais je ne sais pas combien de mémoire le GPU utilise, en particulier avec un écran externe ?

Je ne m'inquiéterais pas à ce sujet. Tous les systèmes réservent de la mémoire pour gérer les fonctions de base, M1 n'est pas trop différent des machines Intel à cet égard. Le GPU ne cannibalisera pas votre RAM. Sans oublier que votre logiciel de production musicale utilise probablement le GPU pour effectuer le traitement. M

Modernape

21 juin 2010
  • 1 févr. 2021
Le GPU M1 n'a pas de RAM allouée comme les machines Intel, où le GPU aurait peut-être 1,5 Go de côté que le CPU ne pourrait donc pas utiliser. Si vous n'utilisez pas le GPU aussi fort, vous aurez alors la majeure partie de la RAM disponible pour le CPU.
Réactions :mds1256 et LeeW L

léman

14 octobre 2008
  • 1 févr. 2021
Modernape a déclaré: Le GPU M1 n'a pas de RAM allouée comme les machines Intel, où le GPU aurait peut-être 1,5 Go de côté que le CPU ne pourrait donc pas utiliser. Si vous n'utilisez pas le GPU aussi fort, vous aurez alors la majeure partie de la RAM disponible pour le CPU.

Comment sais-tu cela? M

Modernape

21 juin 2010
  • 1 févr. 2021
Leman a dit : Comment le sais-tu ?
architecture de mémoire unifiée m1 soc - Recherche Google
Réactions :mds1256, chabig et consumérite L

léman

14 octobre 2008
  • 1 févr. 2021
Modernape a dit : architecture de mémoire unifiée m1 soc - Recherche Google

Comment est-ce censé étayer l'affirmation que vous faites? Ce que je demande, c'est : avez-vous des preuves factuelles ou une référence à une source présentant des preuves factuelles telles que l'allocation de mémoire GPU fonctionne différemment sur les GPU Intel et Apple ? Les deux utilisent une architecture de mémoire unifiée avec un cache de dernier niveau partagé entre le CPU et le GPU. M1 réserve définitivement de la mémoire pour l'utilisation du GPU, bien que je ne sache pas combien. M

Modernape

21 juin 2010
  • 1 févr. 2021
Leman a dit : Comment cela est-il censé étayer votre affirmation ? Ce que je demande, c'est : avez-vous des preuves factuelles ou une référence à une source présentant des preuves factuelles telles que l'allocation de mémoire GPU fonctionne différemment sur les GPU Intel et Apple ? Les deux utilisent une architecture de mémoire unifiée avec un cache de dernier niveau partagé entre le CPU et le GPU. M1 réserve définitivement de la mémoire pour l'utilisation du GPU, bien que je ne sache pas combien.
Wow, vous devez avoir lu ces articles rapidement. Oh, attendez. Vous ne les avez pas lus, n'est-ce pas ?
Réactions :mds1256, jerryk et chabig L

léman

14 octobre 2008
  • 1 févr. 2021
Modernape a déclaré : Wow, vous devez avoir lu rapidement ces articles. Oh, attendez. Vous ne les avez pas lus, n'est-ce pas ?

Je suis sûr d'avoir lu les plus pertinents d'entre eux. J'ai également effectué des analyses techniques et des analyses comparatives de bas niveau du GPU M1 depuis que j'ai obtenu mon unité en décembre. C'est aussi la raison pour laquelle je demande, peut-être qu'il y a de nouvelles informations techniques dont je ne suis pas encore au courant. C

chabig

6 sept. 2002
  • 1 févr. 2021
Votre question est impossible à répondre. C'est comme demander combien de mémoire TextEdit utilise. Tout dépend de ce que vous faites. Le CPU et le GPU partagent la RAM en fonction de leurs besoins, qui changent d'instant en instant.

Voici une référence Apple :

Explorez la nouvelle architecture système des Mac silicium d'Apple - WWDC20 - Vidéos - Apple Developer

Découvrez comment les Mac avec silicium Apple offriront des avantages modernes en utilisant l'architecture System-on-Chip (SoC) d'Apple. Tirer parti d'un système unifié... développeur.apple.com
Citation,
Tout intégrer dans une seule puce donne au système une architecture de mémoire unifiée.

Cela signifie que le GPU et le CPU fonctionnent sur la même mémoire. Les ressources graphiques, telles que les textures, les images et les données géométriques, peuvent être partagées efficacement entre le CPU et le GPU, sans frais généraux, car il n'est pas nécessaire de copier les données sur un bus PCIe.

Krevnik

8 sept. 2003
  • 1 févr. 2021
leman a dit : Je suis tout à fait sûr d'avoir lu les plus pertinents d'entre eux. J'ai également effectué des analyses techniques et des analyses comparatives de bas niveau du GPU M1 depuis que j'ai obtenu mon unité en décembre. C'est aussi la raison pour laquelle je demande, peut-être qu'il y a de nouvelles informations techniques dont je ne suis pas encore au courant.

Les puces Intel pour ordinateurs de bureau et ordinateurs portables n'utilisent pas UMA, elles utilisent la mémoire partagée. Sur Intel, le GPU doit se voir allouer un morceau partitionné de RAM pour être utilisé. Le CPU ne peut pas accéder à la partition allouée au GPU et vice versa. Vous devez donc toujours copier les données entre les partitions.

Toute la différence entre la mémoire unifiée et la mémoire partagée réside dans le manque de partitionnement. Le GPU et le CPU peuvent accéder au même bloc de mémoire. Par rapport à Intel, il offre deux avantages spécifiques :

1. Sans avoir à pré-allouer de RAM à utiliser comme mémoire vidéo, vous n'avez pas à gérer de limites spécifiques à la mémoire vidéo (les 1,5 Go mentionnés précédemment) et vous pouvez plus facilement équilibrer la demande CPU et GPU.
2. Ne pas avoir besoin de copier les tampons signifie des économies de RAM mesurables, moins de pression sur la bande passante mémoire et un peu d'augmentation de la latence.

Ces avantages sont une des raisons pour lesquelles les consoles de jeux utilisent UMA. Les économies de mémoire et de latence permettent de réduire les coûts de la GDDR dont ils ont besoin.
Réactions :blindé et jdb8167 L

léman

14 octobre 2008
  • 1 févr. 2021
Krevnik a déclaré : Les puces Intel pour ordinateurs de bureau et ordinateurs portables n'utilisent pas UMA, elles utilisent la mémoire partagée. Sur Intel, le GPU doit se voir allouer un morceau partitionné de RAM pour être utilisé. Le CPU ne peut pas accéder à la partition allouée au GPU et vice versa. Vous devez donc toujours copier les données entre les partitions.

La documentation Intel n'est pas d'accord avec vous.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Pour autant que je recharge, Intel utilise la mémoire unifiée depuis au moins Sandy Bridge, peut-être plus tôt. Il peut y avoir des restrictions, pas sûr à 100%. Dernière édition : 1 février 2021
Réactions :AAPLGeek T

le bagage

29 juil. 2011
  • 1 févr. 2021
majormike a dit : je veux l'obtenir pour la production musicale et je serais satisfait avec 16 gigs mais je ne suis pas sûr de la quantité de mémoire utilisée par le GPU, en particulier avec un écran externe ?
À moins que quelqu'un ne rapporte des lectures de pression de mémoire à partir d'une machine M1 de 16 Go exécutant quelque chose de proche de votre charge de travail prévue - tout le monde devine. La « production musicale » est un morceau de corde pour commencer (l'utilisation de la RAM dépend entièrement du type d'instruments virtuels et de plug-ins que vous utilisez). Certaines applications musicales ont des interfaces utilisateur assez élaborées, et l'exécution de quelques écrans haute résolution nécessitera plus de RAM allouée à la vidéo, en particulier si vous utilisez des modes mis à l'échelle où tout est rendu dans un tampon interne, puis sous-échantillonné.

Il y a de fortes chances qu'un M1 fasse non seulement votre travail, mais le fasse plus rapidement car il est globalement plus efficace et ce que vous perdez sur les ronds-points, vous le gagnez sur les balançoires - et il y a eu de nombreuses démos Youtube le montrant en train d'exécuter un shedload de pistes et d'instruments Logic Pro.

Cependant, l'hypothèse la plus sûre est que si votre flux de travail a réellement besoin de plus de 16 Go sur Intel, il sera au moins bénéficier à de plus de 16 Go sur Apple Silicon et il serait préférable d'attendre la sortie des systèmes Apple Silicon haut de gamme. Même si un M1 peut actuellement surpasse un iMac Intel haut de gamme ou un MBP 16 ', dans six mois, il va se faire salir le visage - cet étrange hiatus où les Mac d'entrée de gamme surpassent apparemment les plus chers ne durera pas longue - Apple ne peut pas se permettre de continuer ou cela va toucher les ventes de Mac haut de gamme.

Cela dit, vous devez être sûr que vous vraiment faire besoin de toute la RAM sur votre Mac Intel en premier lieu (regardez la pression de la mémoire).

Du point de vue de la RAM vidéo, le M1 est presque certain d'être meilleur qu'un MacBook ou un Mini avec carte graphique intégrée Intel. Vs. un iMac qui seul a un GPU discret avec 8 Go + de VRAM, c'est plus difficile à dire.

(En outre, vous devez vérifier soigneusement si tous les plug-ins, pilotes, etc. dont vous avez besoin sont encore compatibles avec Big Sur, sans parler du M1...)

Modernape a déclaré : Wow, vous devez avoir lu rapidement ces articles. Oh, attendez. Vous ne les avez pas lus, n'est-ce pas ?

Dire à quelqu'un de « passer à Google » efficacement n'est pas particulièrement utile lorsque Internet regorge d'informations fausses et de spéculations infondées. Tout ce que j'ai vu d'Apple a été extrêmement vague, plus marketing que technique, et se résumait à 'La mémoire unifiée est plus rapide car les données n'ont pas besoin d'être copiées entre les appareils', ce qui ne dit rien sur la façon dont la RAM est allouée. Tout ce que vous obtenez avec une recherche Google, ce sont de nombreux sites technologiques spéculant sur les mêmes données Apple limitées. La possibilité que la VRAM équivalente soit allouée 'à la demande' est une spéculation très plausible - mais à moins que quelqu'un puisse indiquer le document Apple qui détaille cela, il est spéculation.

La réalité semble être que la mémoire unifiée est plus efficace - mais comment plus efficace est difficile à tester et difficile à isoler des autres gains de performances du M1 (... ce qui peut sembler beaucoup moins impressionnant lorsque des Mac Apple Silicon haut de gamme apparaissent).

Beaucoup de choses sur YouTube semblent provenir de personnes qui ne comprennent pas la différence entre « Mémoire utilisée » et « Pression de la mémoire » ou « Échanger utilisé » et échanger taux - ou recherchez une accélération liée à la RAM sur des workflows qui ne sollicitent pas la RAM sur un système Intel...
Réactions :blindé et mszilard

mi7chy

24 octobre 2014
  • 1 févr. 2021
Krevnik a déclaré : Toute la différence entre la mémoire unifiée et la mémoire partagée réside dans le manque de partitionnement. Le GPU et le CPU peuvent accéder au même bloc de mémoire. Par rapport à Intel, il offre deux avantages spécifiques :

1. Sans avoir à pré-allouer de RAM à utiliser comme mémoire vidéo, vous n'avez pas à gérer de limites spécifiques à la mémoire vidéo (les 1,5 Go mentionnés précédemment) et vous pouvez plus facilement équilibrer la demande CPU et GPU.
2. Ne pas avoir besoin de copier les tampons signifie des économies de RAM mesurables, moins de pression sur la bande passante mémoire et un peu d'augmentation de la latence.

Intel dit le contraire avec l'allocation dynamique et le tampon de copie zéro. Ma liste d'ignorés BS s'agrandit.

https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html

https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Dernière édition : 1 février 2021
Réactions :AlumaMac, leman et AAPLGeek

thedocbwarren

10 novembre 2017
San Francisco, Californie
  • 1 févr. 2021
Je pense que cela pourrait aider : https://developer.apple.com/videos/play/wwdc2020/10632/

Cela explique la méthode de rendu commune aux mobiles, aux consoles et aux GPU à faible consommation. C'est pourquoi vous avez besoin de moins de mémoire que les dGPU. Le rendu des tuiles a été un moyen de gérer la 3D dans des tuiles plus petites et les modifications de numérisation, etc. Cela a été fait pendant des années sur console ainsi que sur des tablettes plus récentes (iPad.)

Compte tenu de cela, la quantité de mémoire que vous utilisez pour les textures et les rougeurs n'est pas claire. C'est différent de la façon dont les dGPU fonctionnent avec les framebuffers.

theluggage a déclaré : à moins que quelqu'un ne rapporte des lectures de pression de mémoire à partir d'une machine M1 de 16 Go exécutant quelque chose de proche de votre charge de travail prévue - tout le monde devine. La « production musicale » est un morceau de corde pour commencer (l'utilisation de la RAM dépend entièrement du type d'instruments virtuels et de plug-ins que vous utilisez). Certaines applications musicales ont des interfaces utilisateur assez élaborées, et l'exécution de quelques écrans haute résolution nécessitera plus de RAM allouée à la vidéo, en particulier si vous utilisez des modes mis à l'échelle où tout est rendu dans un tampon interne, puis sous-échantillonné.

Il y a de fortes chances qu'un M1 fasse non seulement votre travail, mais le fasse plus rapidement car il est globalement plus efficace et ce que vous perdez sur les ronds-points, vous le gagnez sur les balançoires - et il y a eu de nombreuses démos Youtube le montrant en train d'exécuter un shedload de pistes et d'instruments Logic Pro.

Cependant, l'hypothèse la plus sûre est que si votre flux de travail a réellement besoin de plus de 16 Go sur Intel, il sera au moins bénéficier à de plus de 16 Go sur Apple Silicon et il serait préférable d'attendre la sortie des systèmes Apple Silicon haut de gamme. Même si un M1 peut actuellement surpasse un iMac Intel haut de gamme ou un MBP 16 ', dans six mois, il va se faire salir le visage - cet étrange hiatus où les Mac d'entrée de gamme surpassent apparemment les plus chers ne durera pas longue - Apple ne peut pas se permettre de continuer ou cela va toucher les ventes de Mac haut de gamme.

Cela dit, vous devez être sûr que vous vraiment faire besoin de toute la RAM sur votre Mac Intel en premier lieu (regardez la pression de la mémoire).

Du point de vue de la RAM vidéo, le M1 est presque certain d'être meilleur qu'un MacBook ou un Mini avec carte graphique intégrée Intel. Vs. un iMac qui seul a un GPU discret avec 8 Go + de VRAM, c'est plus difficile à dire.

(En outre, vous devez vérifier soigneusement si tous les plug-ins, pilotes, etc. dont vous avez besoin sont encore compatibles avec Big Sur, sans parler du M1...)



Dire à quelqu'un de « passer à Google » efficacement n'est pas particulièrement utile lorsque Internet regorge d'informations fausses et de spéculations infondées. Tout ce que j'ai vu d'Apple a été extrêmement vague, plus marketing que technique, et se résumait à 'La mémoire unifiée est plus rapide car les données n'ont pas besoin d'être copiées entre les appareils', ce qui ne dit rien sur la façon dont la RAM est allouée. Tout ce que vous obtenez avec une recherche Google, ce sont de nombreux sites technologiques spéculant sur les mêmes données Apple limitées. La possibilité que la VRAM équivalente soit allouée 'à la demande' est une spéculation très plausible - mais à moins que quelqu'un puisse indiquer le document Apple qui détaille cela, il est spéculation.

La réalité semble être que la mémoire unifiée est plus efficace - mais comment plus efficace est difficile à tester et difficile à isoler des autres gains de performances du M1 (... ce qui peut sembler beaucoup moins impressionnant lorsque des Mac Apple Silicon haut de gamme apparaissent).

Beaucoup de choses sur YouTube semblent provenir de personnes qui ne comprennent pas la différence entre « Mémoire utilisée » et « Pression de la mémoire » ou « Échanger utilisé » et échanger taux - ou recherchez une accélération liée à la RAM sur des workflows qui ne sollicitent pas la RAM sur un système Intel...

dmccloud

7 sept. 2009
Anchorage, AK
  • 1 févr. 2021
Leman a dit : Comment cela est-il censé étayer votre affirmation ? Ce que je demande, c'est : avez-vous des preuves factuelles ou une référence à une source présentant des preuves factuelles telles que l'allocation de mémoire GPU fonctionne différemment sur les GPU Intel et Apple ? Les deux utilisent une architecture de mémoire unifiée avec un cache de dernier niveau partagé entre le CPU et le GPU. M1 réserve définitivement de la mémoire pour l'utilisation du GPU, bien que je ne sache pas combien.

x86 n'utilise PAS de mémoire unifiée pour la RAM système. UMA fait référence à la configuration de la RAM dans le système, pas au cache du processeur. Avec la plate-forme x86, le système partitionne la RAM en une section CPU et iGPU. Pour l'iGPU, le système alloue généralement environ 2 Go pour les opérations GPU, ce qui signifie que seuls 6 Go sont disponibles pour le CPU. Pour les opérations où les données doivent être manipulées à la fois par le CPU et l'iGPU, elles sont copiées deux fois sur le bus système dans la RAM (une fois par partition), puis le système doit réconcilier les deux ensembles de données une fois renvoyés de la RAM, ce qui ajoute un temps de traitement supplémentaire. Avec la configuration UMA utilisée par le M1, le CPU et l'iGPU peuvent accéder simultanément à la RAM système complète (c'est-à-dire qu'il n'y a pas de partitionnement de la RAM entre le CPU et le GPU.) Cela signifie que les données ne sont copiées dans la RAM qu'une seule fois, et puisque tous les opérations peuvent se produire simultanément, il n'y a pas de surcharge associée à la réconciliation de deux versions des mêmes données une fois retransmises au CPU à partir de la RAM.
Réactions :blindé et chabig

dmccloud

7 sept. 2009
Anchorage, AK
  • 1 févr. 2021
leman a dit : La documentation d'Intel n'est pas d'accord avec vous.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Pour autant que je recharge, Intel utilise la mémoire unifiée depuis au moins Sandy Bridge, peut-être plus tôt. Il peut y avoir des restrictions, pas sûr à 100%.

Une chose que vous devez comprendre est que l'utilisation par Intel du terme « UMA » est trompeuse. Pour les besoins d'Intel, ils ont simplement renommé Intel HD en UMA, mais n'ont apporté aucune modification à l'architecture sous-jacente. D'un autre côté, l'approche d'Apple est essentiellement ce qu'AMD essaie de faire depuis des années avec le développement de sa technologie Infinity Fabric pour les processeurs de la série Ryzen. Voici une explication relativement simplifiée des raisons pour lesquelles l'approche d'Apple n'est pas la même que celle d'Intel :

La mémoire du processeur M1 est un pool unique accessible par n'importe quelle partie du processeur. Si le système a besoin de plus de mémoire pour les graphiques, il peut l'allouer. S'il a besoin de plus de mémoire pour le Neural Engine, de même. Mieux encore, étant donné que tous les aspects du processeur peuvent accéder à toute la mémoire système, les performances ne sont pas affectées lorsque les cœurs graphiques doivent accéder à quelque chose qui était auparavant accessible par un cœur de processeur. Sur d'autres systèmes, les données doivent être copiées d'une partie de la mémoire à une autre, mais sur le M1, elles sont simplement accessibles instantanément.

Même la mention « allocation » ci-dessus est trompeuse et constitue un artefact de la plate-forme x86. Étant donné que l'UMA d'Apple ne partitionne pas la RAM entre le GPU et le CPU, il n'y a pas d'allocation réelle de RAM entre le CPU et le GPU.

Avec les Mac M1, la mémoire n'est plus ce qu'elle était

Apple a changé la façon dont la RAM est utilisée dans un ordinateur. Et il est temps de changer notre façon de penser.
Réactions :blindé, chabig et mds1256

Krevnik

8 sept. 2003
  • 1 févr. 2021
dmccloud a déclaré : Une chose que vous devez comprendre, c'est que l'utilisation par Intel du terme « UMA » est trompeuse. Pour les besoins d'Intel, ils ont simplement renommé Intel HD en UMA, mais n'ont apporté aucune modification à l'architecture sous-jacente.

Je vais être honnête, leman et mi7chy (malgré l'attitude impétueuse) indiquent de bonnes sources qu'Intel prend au moins en charge la copie zéro et le dimensionnement de partition dynamique.

Même si ce n'est pas vrai UMA comme vous le prétendez, il semble que d'après les documents que j'ai lus jusqu'à présent, il est au moins capable de dédier des pages de mémoire à utiliser pour la copie zéro, ce qui, je l'espère, fait quelques astuces intéressantes pour faire le même page RAM disponible des deux côtés.

La question que j'ai à laquelle j'espère que la documentation répondra une fois que j'aurai plus de temps est de savoir comment ces pages sont traitées plus en détail et quel type d'intégration le système d'exploitation doit faire pour en tirer le meilleur parti. Mais même avec cette réponse, si les API du système d'exploitation doivent signaler au GPU comment gérer les pages, quel degré d'optimisation Apple a-t-il effectué ?

leman a dit : La documentation d'Intel n'est pas d'accord avec vous.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Pour autant que je recharge, Intel utilise la mémoire unifiée depuis au moins Sandy Bridge, peut-être plus tôt. Il peut y avoir des restrictions, pas sûr à 100%.

Eh bien, ma compréhension de l'architecture GPU d'Intel s'est avérée obsolète. En effet, il ne devrait pas y avoir de différences énormes dans ce cas.

J'avais cru comprendre qu'il y avait encore un partitionnement fixe en cours, mais il semble que Google récupère d'anciens articles à ce sujet, ce qui m'a conduit sur la mauvaise voie.

thedocbwarren a déclaré : Je pense que cela pourrait aider : https://developer.apple.com/videos/play/wwdc2020/10632/

Cela explique la méthode de rendu commune aux mobiles, aux consoles et aux GPU à faible consommation. C'est pourquoi vous avez besoin de moins de mémoire que les dGPU. Le rendu des tuiles a été un moyen de gérer la 3D dans des tuiles plus petites et les modifications de numérisation, etc. Cela a été fait pendant des années sur console ainsi que sur des tablettes plus récentes (iPad.)

Compte tenu de cela, la quantité de mémoire que vous utilisez pour les textures et les rougeurs n'est pas claire. C'est différent de la façon dont les dGPU fonctionnent avec les framebuffers.

D'après ce que j'ai compris après avoir parcouru la vidéo (cela fait quelques mois que je ne l'ai pas regardée pour la dernière fois), cela n'a pas nécessairement un impact sur la quantité de mémoire vidéo dont cela a besoin, mais plutôt sur la pression exercée sur la bande passante de la mémoire.

J'ai toujours besoin de X Mo pour une texture d'une taille donnée et de X Mo pour le tampon de trame dans l'une ou l'autre conception. Cependant, TBDR réduit la fréquence à laquelle vous devez accéder à la (V)RAM, en particulier dans les situations où vous devez effectuer plusieurs passes. Cela *pourrait* réduire un peu les tampons intermédiaires, mais cela suppose que les tampons intermédiaires sont une contribution notable par rapport aux autres tampons utilisés. D'après ce que j'avais compris, le tampon arrière lui-même était utilisé comme tampon intermédiaire, je suis donc un peu sceptique quant au fait qu'il y ait de gros gains à faire là-bas. Dessiner sur la texture semble être courant de nos jours, il pourrait donc y en avoir plus que ce à quoi je m'attends, en supposant que ces scénarios puissent tous être réalisés au niveau de la tuile, plutôt qu'au niveau d'une texture. Dernière édition : 1 février 2021

dmccloud

7 sept. 2009
Anchorage, AK
  • 1 févr. 2021
Intel partitionne toujours le CPU et la RAM GPU, vous devez donc copier les données du côté CPU vers le côté GPU et vice versa (la section en gras est l'approche d'Apple, la section en italique est celle d'Intel) :

Examinons le dernier point, la mémoire sur puce. Avec le M1, cela fait également partie du SoC. La mémoire dans le M1 est ce qui est décrit comme une «architecture de mémoire unifiée» (UMA) qui permet au CPU, au GPU et à d'autres cœurs d'échanger des informations entre eux, et avec une mémoire unifiée, le CPU et le GPU peuvent accéder à la mémoire simultanément plutôt que de copier des données entre une zone et une autre . Erik continue…

Pendant longtemps, les systèmes informatiques à petit budget ont intégré le CPU et le GPU dans la même puce (même puce de silicium). Dans le passé, dire « graphiques intégrés » était essentiellement la même chose que « graphiques lents ». Celles-ci étaient lentes pour plusieurs raisons :
Des zones distinctes de cette mémoire ont été réservées au CPU et au GPU. Si le CPU avait un morceau de données qu'il voulait que le GPU utilise, il ne pourrait pas dire ici avoir une partie de ma mémoire. Non, le CPU devait explicitement copier l'intégralité des données sur la zone mémoire contrôlée par le GPU.


La partie concernant les « systèmes informatiques à petit budget » est ce qu'Intel utilise à ce jour pour les graphiques intégrés. Cela n'a pas changé, peu importe ce qu'Intel appelle leur architecture.


Pourquoi la puce Apple M1 est si rapide - Un développeur explique | Experte de production

Vous vous êtes peut-être demandé pourquoi la puce Apple M1 est si rapide ? Dans cet article, nous apprenons d'un développeur ce qui rend, même ces Mac d'entrée de gamme, si rapides. www.pro-tools-expert.com
Johnny Srouji en a parlé directement pendant la WWDC :

« accéder aux mêmes données sans les copier entre plusieurs pools de mémoire »

Le M1 d'Apple : un examen plus approfondi de la puce à l'intérieur des derniers Mac

Lors de l'événement d'Apple intitulé 'One More Thing', la société a offert aux téléspectateurs une visite virtuelle de la puce M1 et de ses 16 milliards de transistors. www.techrepublic.com
Réactions :chabig et thedocbwarren

thedocbwarren

10 novembre 2017
San Francisco, Californie
  • 1 févr. 2021
Certainement dépassé. Je suis encore plus horrifié par le fait qu'ils vont désormais vendre (aux OEM) des versions discrètes de l'Iris Xe. De plus en plus de diffusion de l'architecture. Un tel gâchis.
Krevnik a déclaré : je vais être honnête, leman et mi7chy (malgré l'attitude impétueuse) indiquent de bonnes sources qu'Intel prend au moins en charge la copie zéro et le dimensionnement de partition dynamique.

Même si ce n'est pas vrai UMA comme vous le prétendez, il semble que d'après les documents que j'ai lus jusqu'à présent, il est au moins capable de dédier des pages de mémoire à utiliser pour la copie zéro, ce qui, je l'espère, fait quelques astuces intéressantes pour faire le même page RAM disponible des deux côtés.

La question que j'ai à laquelle j'espère que la documentation répondra une fois que j'aurai plus de temps est de savoir comment ces pages sont traitées plus en détail et quel type d'intégration le système d'exploitation doit faire pour en tirer le meilleur parti. Mais même avec cette réponse, si les API du système d'exploitation doivent signaler au GPU comment gérer les pages, quel degré d'optimisation Apple a-t-il effectué ?



Eh bien, ma compréhension de l'architecture GPU d'Intel s'est avérée obsolète. En effet, il ne devrait pas y avoir de différences énormes dans ce cas.

J'avais cru comprendre qu'il y avait encore un partitionnement fixe en cours, mais il semble que Google récupère d'anciens articles à ce sujet, ce qui m'a conduit sur la mauvaise voie.



D'après ce que j'ai compris après avoir parcouru la vidéo (cela fait quelques mois que je ne l'ai pas regardée pour la dernière fois), cela n'a pas nécessairement un impact sur la quantité de mémoire vidéo dont cela a besoin, mais plutôt sur la pression exercée sur la bande passante de la mémoire.

J'ai toujours besoin de X Mo pour une texture d'une taille donnée et de X Mo pour le tampon de trame dans l'une ou l'autre conception. Cependant, TBDR réduit la fréquence à laquelle vous devez accéder à la (V)RAM, en particulier dans les situations où vous devez effectuer plusieurs passes. Cela *pourrait* réduire un peu les tampons intermédiaires, mais cela suppose que les tampons intermédiaires sont une contribution notable par rapport aux autres tampons utilisés. D'après ce que j'avais compris, le tampon arrière lui-même était utilisé comme tampon intermédiaire, je suis donc un peu sceptique quant au fait qu'il y ait de gros gains à faire là-bas. Dessiner sur la texture semble être courant de nos jours, il pourrait donc y en avoir plus que ce à quoi je m'attends, en supposant que ces scénarios puissent tous être réalisés au niveau de la tuile, plutôt qu'au niveau d'une texture.

dmccloud

7 sept. 2009
Anchorage, AK
  • 1 févr. 2021
thedocbwarren a déclaré : Sûrement obsolète. Je suis encore plus horrifié par le fait qu'ils vont désormais vendre (aux OEM) des versions discrètes de l'Iris Xe. De plus en plus de diffusion de l'architecture. Un tel gâchis.


L'Iris Xe n'est rien de plus qu'un iGPU Intel UHD rebaptisé (qui lui-même a été rebaptisé Intel HD). C'est comme s'ils essayaient de présenter une Chevelle comme une toute nouvelle voiture juste en repeignant l'extérieur...

thedocbwarren

10 novembre 2017
San Francisco, Californie
  • 1 févr. 2021
dmccloud a déclaré: L'Iris Xe n'est rien de plus qu'un iGPU Intel UHD renommé (qui lui-même a été renommé à partir d'Intel HD). C'est comme s'ils essayaient de présenter une Chevelle comme une toute nouvelle voiture juste en repeignant l'extérieur...
Tellement vrai, je ne peux pas croire qu'ils en fassent même des cartes discrètes pour la 11e génération.

robco74

22 novembre 2020
  • 1 févr. 2021
Si vous faites n'importe quel type de création musicale, la RAM devrait figurer en bas de votre liste de préoccupations lorsque vous envisagez les nouveaux Mac M1. Big Sur a fait de gros changements de pilotes. Vérifiez d'abord auprès de tous vos fabricants d'équipements pour vous assurer qu'ils prennent en charge Big Sur et Apple Silicon. Tous ne le font pas encore.
Réactions :duervo Q

quarkysg

12 octobre 2019
  • 1 févr. 2021
leman a dit : La documentation d'Intel n'est pas d'accord avec vous.

https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
Semble décrire uniquement l'iGPU Gen 11 ? Cela s'applique-t-il également aux iGPU des générations précédentes ?