Forum

Comment cela a-t-il du sens : Asus ZenBook Pro UX501 coûte 1000 $ moins cher mais a de meilleures spécifications que mbp2015

Précédent
  • 1
  • 2
  • 3
  • 4
Prochain D'abord Précédent

Aller à la page

AllerProchain Durer

lowendlinux

24 sept. 2014
Allemagne
  • 29 juin 2015
SHEEPOS a dit : Pourquoi Apple ne se soucie-t-il que de l'argent ???
Asus ZenBook Pro UX501 coûte 1000 $ moins cher mais a de meilleures spécifications que le macbook pro 2015

C'est assez sexy et une belle trouvaille. S

Samuelsan2001

24 octobre 2013


  • 29 juin 2015
SHEEPOS a dit : alors y a-t-il une raison pour laquelle Apple n'est pas allé avec maxwell nvidia cette année ?

Parce qu'ils sont allés avec AMD, j'imagine que les raisons étaient bien trop nombreuses à énumérer ici et que seuls les employés d'Apple impliqués dans cette décision savent ce qu'ils sont et comment les avantages et les inconvénients ont fonctionné.

Malgré l'amour de NVIDIA qui se passe ici (je ne joue pas, donc je m'en moque), les dernières cartes Fury AMD sont plus rapides dans à peu près tout. Leur nouvelle architecture avec RAM intégrée semble être une bête avec des capacités de bande passante massives. Une fois ceux-ci arrivés au stade mobile, nous pourrions avoir de merveilleuses cartes graphiques dans les rMBP et les iMac.

lowendlinux

24 sept. 2014
Allemagne
  • 29 juin 2015
Samuelsan2001 a déclaré : Parce qu'ils sont allés avec AMD, j'imagine que les raisons étaient bien trop nombreuses à énumérer ici et que seuls les employés d'Apple impliqués dans cette décision savent ce qu'ils sont et comment les avantages et les inconvénients ont fonctionné.

Malgré l'amour de NVIDIA qui se passe ici (je ne joue pas, donc je m'en moque), les dernières cartes Fury AMD sont plus rapides dans à peu près tout. Leur nouvelle architecture avec RAM intégrée semble être une bête avec des capacités de bande passante massives. Une fois ceux-ci arrivés au stade mobile, nous pourrions avoir de merveilleuses cartes graphiques dans les rMBP et les iMac.

Fury est encore trop chaud pour en faire un mobile, je parie que nous avons encore quelques années pour ça. Je suis d'accord que '16 et '17 vont être des années mortelles pour AMD et il est grand temps.

Shirasaki

16 mai 2015
  • 29 juin 2015
Dark Void a déclaré : Je vais aller de l'avant et fournir certaines de mes expériences et conseils ici :

Utilisez simplement ce que vous aimez. Si vous aimez Windows, c'est cool. Si vous préférez la rentabilité d'un ordinateur portable Windows en termes de ce que vous obtenez, c'est bien aussi. Les Mac ne sont pas meilleurs que les PC par défaut, les PC ne sont pas meilleurs que les Mac par défaut. Pas besoin de défendre les achats, la qualité de construction ou d'autres points de vue sur ce qui constitue un ordinateur.

Cet Asus peut vous durer un an, ou cela peut vous durer 3 ou même 4 ans - tout dépend de ce que vous préférez et de ce que vous préférez faire avec votre argent. C'est votre ordinateur après tout - pas besoin de critiquer ou de défendre ce que quelqu'un d'autre envisage ou dont il est satisfait.

Pour ma part, dans général à quelques exceptions près, croyez que la longévité d'un ordinateur est principalement influencée par la façon dont il est pris en charge - pas à cause de son Apple, Asus, Acer ou autre. Je suis conscient de l'idée et de la réalité de la qualité de fabrication - mais j'ai eu un ordinateur portable Asus pendant 3 ans que j'ai payé 650 $, un Lenovo Ideapad (également 650 $) qui est toujours utilisé dans ma famille depuis 3 ans et demi maintenant, et un Hannspree (c'est vrai - qui ici a déjà entendu parler de Hannspree ) netbook que j'ai payé 250 $ pour lequel j'ai utilisé pendant un certain temps et maintenant un autre membre de la famille l'utilise, et qui a également été acheté il y a 3 ans.

Il n'y a pas de réponse par défaut à cela. Les Mac ne durent pas X années et les ordinateurs portables Windows ne durent pas Y années - et, comme toujours... les spécifications matérielles ne sont pas la seule raison d'acheter un ordinateur portable. Il existe de nombreux autres facteurs, faites vos devoirs et trouvez ce que vous préférez.
J'ai un ordinateur portable Asus, avec un processeur Core i5 2410 m déjà obsolète, 8 Go de RAM, un GPU gt 540m. Je l'utilise dès le premier jour jusqu'au jour où je quitte mon domicile pour ici pour un diplôme supérieur.

Lorsque j'ajoute de la RAM de 2 Go par défaut à 8 Go, je rencontre un problème BSOD intolérable. Asus m'a finalement remplacé par une nouvelle carte mère, et là, il n'y a plus du tout de problème majeur. Très solide, et peut toujours faire un travail décent, y compris des jeux lourds (vous connaissez peut-être le commandant suprême, qui est un affamé de GPU). Au contraire, beaucoup de mes camarades de classe souffrent d'un problème de surchauffe ou d'une erreur de disque dur.

Je suis d'accord avec votre point. Si vous l'utilisez avec précaution, il peut durer assez longtemps avant de mourir. Sinon, même le rMB ultra cher pourrait devenir inutilisable en quelques jours.

Mort0k

23 avr. 2015
Pologne
  • 29 juin 2015
Hopefulhandle a dit : Je tape ceci sur un ordinateur portable cheapo Acer window 8.1. Moins d'un an après l'achat, le lecteur DVD/CDR est tombé en panne, les touches numériques au-dessus du clavier ont cessé de fonctionner ; les numéros trois à six ne fonctionnent pas bien que les touches de fonction fonctionnent et j'ai un long câble Ethernet qui serpente sur le sol de ma cuisine parce que l'adaptateur réseau sans fil a cessé de fonctionner. Le tout en un an.
triste pour ton expérience
J'ai toujours une eMachines (une sous-marque d'Acer) de 2011, et je la traite très bien.
Toujours vivant et efficace pour la plupart des tâches quotidiennes.

Donc, la façon dont vous vous souciez de votre électronique compte beaucoup.

lowendlinux

24 sept. 2014
Allemagne
  • 29 juin 2015
Jusqu'à il y a environ 6 semaines, j'utilisais un Latitude E6500 de l'ère 2009, mon nouvel ordinateur portable est un Latitude E6420 2011. PC durera aussi longtemps que Mac

maflynn

Modérateur
Membre du staff
3 mai 2009
Boston
  • 29 juin 2015
Dark Void a dit : il n'y a pas de réponse par défaut à cela. Les Mac ne durent pas X années et les ordinateurs portables Windows ne durent pas Y années - et, comme toujours... les spécifications matérielles ne sont pas la seule raison d'acheter un ordinateur portable. Il existe de nombreux autres facteurs, faites vos devoirs et trouvez ce que vous préférez.

C'est la chose, alors que je suis principalement d'accord sur la qualité de construction d'Apple, de nombreuses personnes ici qui vantent sa qualité achètent généralement de nouveaux ordinateurs portables tous les trois ans. Pour moi, je préfère en dépenser 2 000 tous les 3 ans.

En ce qui concerne la qualité Apple, ma confiance en eux a été ébranlée, avec les problèmes avec le dGPU, je pense toujours que les Mac sont d'excellents ordinateurs et j'ai du mal à imaginer autre chose, mais si je dépense plus de 2 000 pour un ordinateur J'aimerais avoir la tranquillité d'esprit que le dPGU n'explosera pas dans 3 ans ou que le revêtement antireflet ne commencera pas à s'écailler. S

Samuelsan2001

24 octobre 2013
  • 29 juin 2015
maflynn a déclaré: C'est le problème, bien que je sois principalement d'accord sur la qualité de fabrication d'Apple, de nombreuses personnes ici qui vantent sa qualité achètent généralement de nouveaux ordinateurs portables tous les trois ans. Pour moi, je préfère en dépenser 2 000 tous les 3 ans.

En ce qui concerne la qualité Apple, ma confiance en eux a été ébranlée, avec les problèmes avec le dGPU, je pense toujours que les Mac sont d'excellents ordinateurs et j'ai du mal à imaginer autre chose, mais si je dépense plus de 2 000 pour un ordinateur J'aimerais avoir la tranquillité d'esprit que le dPGU n'explosera pas dans 3 ans ou que le revêtement antireflet ne commencera pas à s'écailler.

Cette tranquillité d'esprit serait agréable, mais vous ne l'obtiendrez de personne, tous les appareils électroniques peuvent échouer et tous les articles fabriqués en série auront des problèmes dans certaines unités, c'est la vie, j'en ai peur.

Je ne comprends tout simplement pas pourquoi les gens tiennent Apple à des normes bien plus élevées que tout le monde...

Vous ne pouvez pas simplement dire le prix lorsque tous les autres OEM fabriquent des ordinateurs qui sont très comparables en termes de coûts et de spécifications s'ils ne sont apparemment pas de qualité de fabrication et d'attention aux détails.

crépuscule007

5 déc. 2009
  • 29 juin 2015
Samuelsan2001 a déclaré: Malgré l'amour de NVIDIA qui se passe ici (je ne joue pas, donc je m'en moque), les dernières cartes Fury AMD sont plus rapides dans à peu près tout. Leur nouvelle architecture avec RAM intégrée semble être une bête avec des capacités de bande passante massives. Une fois ceux-ci arrivés au stade mobile, nous pourrions avoir de merveilleuses cartes graphiques dans les rMBP et les iMac.
Fury n'a presque pas de marge d'overclocking est toujours aussi légèrement plus lent que la puce tout aussi grosse 980 TI qui a une marge d'overclock assez sérieuse. Fury est bien meilleur que le 290x/390x mais il a encore besoin de plus de puissance que Maxwell malgré la mémoire plus économe en énergie et plus rapide. Il est également refroidi à l'eau.
Ils peuvent se rapprocher de Nvidia sur les ordinateurs de bureau où le refroidissement par eau fonctionne et la consommation totale d'énergie n'est pas aussi importante, mais sur les ordinateurs portables, l'efficacité énergétique est primordiale. Et Fury ne peut pas battre Maxwell, le M370X est toujours une technologie beaucoup plus ancienne que Fury.
Il ne s'agit pas d'aimer Nvidia ou AMD mais juste des résultats objectifs dans lesquels Maxwell est tout simplement le meilleur qui soit en ce moment.
Réactions :vbedia

koyoot

5 juin 2012
  • 29 juin 2015
Quu a déclaré : Eh bien, si nous remontons à 2013, vous remarquerez peut-être qu'en juin, lors de la WWDC 13, ils ont annoncé le Mac Pro avec une carte graphique Dual AMD. C'est le début d'Apple qui se détourne de NVIDIA.

En octobre de la même année, ils ont sorti le MacBook Pro 15 'avec des graphiques de 750 m, mais c'était la même puce que le 650 m, les deux Kepler, la même broche sur la puce. Tout ce qu'Apple avait à faire était d'échanger les puces. Très peu de changement.

Avance rapide vers l'iMac Retina, AMD encore, nous avons maintenant le rMBP 2015, également AMD.

Je pense que ce que nous voyons ici n'est pas vraiment qu'Apple choisit AMD parce que c'est mieux, mais parce qu'ils entretiennent une relation plus étroite avec AMD en ce qui concerne les graphiques. Cette relation étroite a abouti aux D300, D500 et D700 pour Apples Mac Pro qui sont encore à ce jour des exclusivités Apple (bien qu'ils soient basés sur le HD 7970) et ils ont également été les premiers à obtenir le M370X.

NVIDIA semble être beaucoup moins flexible, ils ne seront pas dictés. Par exemple, ils ne donneront pas aux Apple GTX 980 ou 780 Ti (à l'époque) rebaptisés Quadro D780. C'est ce qu'AMD a fait pour Apple.

Donc, encore une fois, je ne pense pas que cela ait quoi que ce soit à voir avec les performances, il s'agit d'une relation que les deux sociétés entretiennent et cela pousse NVIDIA hors des systèmes d'Apple et je pense que c'est préjudiciable car NVIDIA a actuellement les pièces les plus rapides dans chaque enveloppe thermique.
Avez-vous réellement utilisé les GPU AMD et Nvidia pour quelque chose comme Final Cut Pro ?

D'après mon expérience personnelle dans les tâches du monde réel, dans la création de contenu, les GPU AMD sont plus rapides que ceux de Nvidia. Plus vite. La R9 280X sous Mac Pro 5.1 (3,46 GHz, 24 Go de RAM) était plus rapide que la GTX970. 40% plus rapide.

Je sais que les gens me montreront des références à partir de références qui montrent à quel point les GPU Nvidia sont meilleurs qu'AMD dans la détection de visage. D'ACCORD. Mais Sony Vegas Pro est une référence qui simule les tâches du monde réel. Encore une fois, il simule. Et même ce benchmark montre qu'en transcodage, par exemple, les GPU AMD sont plus rapides que ceux de Nvidia. La seule chose qui rend Nvidia meilleur aux yeux des gens est l'attrait de la marque de jeux. Mais même cela ne montre pas toute la vérité. En 4K par exemple, la R9 390X n'est que 20% plus lente que la GTX980 Ti, qui est partout louée pour ses performances. Et comme nous l'avons déjà vu dans les jeux, les GPU AMD s'améliorent d'année en année, tandis que ceux de Nvidia s'aggravent. Comparez les benchmarks de r9 290X vs 780 Ti de 2013 et de 2015. Ils sont vraiment différents. Maintenant, le R9 290X est plus rapide.

De plus, DirectX, Metal et Vulkan vont faire bouger les choses. L'adoption d'API à faible surcharge était ce dont AMD avait besoin.

dusk007 a déclaré: Fury n'a presque pas de marge d'overclocking est toujours aussi légèrement plus lent que la puce tout aussi grande 980 TI qui a une marge d'overclock assez sérieuse. Fury est bien meilleur que le 290x/390x mais il a encore besoin de plus de puissance que Maxwell malgré la mémoire plus économe en énergie et plus rapide. Il est également refroidi à l'eau.
Ils peuvent se rapprocher de Nvidia sur les ordinateurs de bureau où le refroidissement par eau fonctionne et la consommation totale d'énergie n'est pas aussi importante, mais sur les ordinateurs portables, l'efficacité énergétique est primordiale. Et Fury ne peut pas battre Maxwell, le M370X est toujours une technologie beaucoup plus ancienne que Fury.
Il ne s'agit pas d'aimer Nvidia ou AMD mais juste des résultats objectifs dans lesquels Maxwell est tout simplement le meilleur qui soit en ce moment.
Il s'avère que vous n'avez peut-être pas raison. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Vérifiez-le vous-même. Avant OC, le GPU avait un score global de 12K et un score graphique de 15,5K.
100 MHz, et le GPU commence à VOLER ! Le score est plus élevé que tout ce qui existe actuellement sur le marché.

Éditer. A propos de l'efficacité énergétique...
Si vous avez un GPU Nvidia de référence, alors oui, il utilisera moins d'énergie que le GPU AMD. Cependant, la référence GTX 970 avec la limite d'horloge du BIOS sera 3 fois plus lente que la R9 280X. Si vous n'avez pas de référence GTX 970, il n'y aura pas de limite d'horloge dans le BIOS, et ce ne sera que 40% plus lent. Le problème est le suivant : il consommera 270 W de puissance dans le cadre du travail OPENCL.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Ici vous avez une preuve. Dernière édition : 29 juin 2015

koyoot

5 juin 2012
  • 29 juin 2015
Quu a dit : Je pensais la même chose, mais si vous regardez réellement les tests Maxwell OpenCL, toutes les cartes de NVIDIA piétinent AMD.

Vraiment. Regardez le 970 ou 980 ou Titan ou Titan X ou 980 Ti. Bien au-dessus de toutes les cartes AMD dans les benchmarks OpenCL. Même situation sur les versions mobiles, 950m et 960m.

Les anciennes cartes NVIDIA Kepler étaient absolument nulles à OpenCL, 70 à 90 % plus lentes qu'AMD. Mais les cartes Maxwell sont 10 à 50 % plus rapides qu'AMD sur les mêmes segments de marché.

Même moi, j'ai été surpris de découvrir cela lorsque j'ai récemment enquêté sur des points de repère, consultez ceci : https://i.imgur.com/wiK5ZSG.png'bbCodeBlock-expandLink js-expandLink'>
Ils ne sont pas plus rapides dans les TÂCHES DU MONDE RÉEL ! Utilisez le GPU Maxwell pour Final Cut Pro et vous le jeterez et retournerez à la solution AMD. J'ai testé les GTX970 et R9 280X dans Final Cut Pro, et le GPU AMD était 40 % plus rapide !

Le benchmark Sony Vegas Pro ne montre qu'un aperçu de la différence entre les GPU AMD et Nvidia en matière de transcodage, mais c'est une assez grande échelle.

Qui

2 avr. 2007
  • 29 juin 2015
koyoot a déclaré : avez-vous réellement utilisé les GPU AMD et Nvidia pour quelque chose comme Final Cut Pro ?

Je n'ai pas. Je n'ai regardé que les benchmarks des performances générales d'OpenCL. Si vous avez des liens vers des références montrant des différences dans les suites vidéo, je serais intéressé à les regarder pour me renseigner.

koyoot a déclaré : Ils ne sont pas plus rapides dans les TÂCHES DU MONDE RÉEL ! Utilisez le GPU Maxwell pour Final Cut Pro et vous le jeterez et retournerez à la solution AMD. J'ai testé les GTX970 et R9 280X dans Final Cut Pro, et le GPU AMD était 40 % plus rapide !

Le benchmark Sony Vegas Pro ne montre qu'un aperçu de la différence entre les GPU AMD et Nvidia en matière de transcodage, mais c'est une assez grande échelle.

Encore une fois, si vous avez des repères, je serais heureux de les regarder.

koyoot

5 juin 2012
  • 29 juin 2015
Je ne peux vous donner que ce que j'ai testé moi-même. Aucune des critiques que j'ai vues n'a testé les références du monde réel, à l'exception de la simulation de la charge de travail du monde réel de Sony Vegas Pro. Et ce sont les repères pour y aller.

Qui

2 avr. 2007
  • 29 juin 2015
Je pense que quelque chose à considérer est qu'Apple ne livre pas réellement la GTX 970 ou 980 dans aucun de leurs systèmes, donc je ne m'attendrais pas à ce que Final Cut Pro chante dessus. Je ne m'attendrais pas non plus à ce que les développeurs tiers se concentrent sur ce matériel.

Mais si tous les benchmarks OpenCL montrent que NVIDIA est plus rapide, il y a probablement quelque chose à cela. OpenCL n'est après tout qu'une API pour effectuer des charges de travail sur le GPU.

koyoot

5 juin 2012
  • 29 juin 2015
Non. Pas tous.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'js-selectToQuoteEnd'>

Qui

2 avr. 2007
  • 29 juin 2015
koyoot a dit : Non. Pas tous.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'bbCodeBlock-expandLink js-expandLink'>

Bon, tout d'abord, calme-toi. Deuxièmement, je n'ai rien mentionné une seule fois sur la détection des visages, c'est tout ce que vous avez. Le benchmark OpenCL que j'ai posté il y a quelques pages est un rendu de scène OpenCL. Vous pouvez le voir ici si vous voulez y jeter un œil :
https://i.imgur.com/wiK5ZSG.png'js-selectToQuoteEnd '>

koyoot

5 juin 2012
  • 29 juin 2015
Je n'ai pas posté ce lien à cause de Fury. Vous avez là des GPU Grenade/Hawaii et GM204. Grenade s'avère également plus rapide dans certaines tâches que GTX Titan X.

De plus, Luxmark v2.1 est une ancienne référence. Luxmark v3 est le même mais plus récent et plus complexe. C'est comme comparer les scores de 3dMark Vantage avec 3dMark FireStrike. Le second est plus récent, plus complexe et montre un peu plus que l'ancien.

Troisième. Je suis complètement calme. Je n'achète tout simplement pas tout ce qui est dans les critiques. Si vous voulez croire que les GPU Maxwell sont meilleurs en calcul, ce qu'ils ne sont pas, c'est à vous de décider. Je sais que tout ce qui se trouve dans les critiques n'est pas vrai, et devient toujours vraiment obsolète avec chaque nouvelle version de pilotes/technologie qui arrive.

Qui

2 avr. 2007
  • 29 juin 2015
koyoot a dit : Je n'ai pas posté ce lien à cause de Fury. Vous avez là des GPU Grenade/Hawaii et GM204. Grenade s'avère également plus rapide dans certaines tâches que GTX Titan X.

De plus, Luxmark v2.1 est une ancienne référence. Luxmark v3 est le même mais plus récent et plus complexe. C'est comme comparer les scores de 3dMark Vantage avec 3dMark FireStrike. Le second est plus récent, plus complexe et montre un peu plus que l'ancien.

Troisième. Je suis complètement calme. Je n'achète tout simplement pas tout ce qui est dans les critiques. Si vous voulez croire que les GPU Maxwell sont meilleurs en calcul, ce qu'ils ne sont pas, c'est à vous de décider. Je sais que tout ce qui se trouve dans les critiques n'est pas vrai, et devient toujours vraiment obsolète avec chaque nouvelle version de pilotes/technologie qui arrive.

Je ne dis pas que je ne crois pas aux repères que vous avez partagés. Je ne pense pas que ce soit aussi noir et blanc que vous le prétendez, la plupart des différences sont de quelques points de pourcentage si nous écartons le Fury X, ce que je ne pense pas que nous devrions, car il sera probablement utilisé dans le Actualisation du Mac Pro.

Et je conviens que les nouveaux repères devraient être axés sur. Je ne suis pas un fanboy de Luxmark, je n'y connais rien, j'ai juste googlé OpenCL Maxwell et c'était le top hit.

Sirotez de la limonade et profitez du beau temps.

crépuscule007

5 déc. 2009
  • 29 juin 2015
koyoot a dit : Il s'avère que vous n'avez peut-être pas raison. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Vérifiez-le vous-même. Avant OC, le GPU avait un score global de 12K et un score graphique de 15,5K.
100 MHz, et le GPU commence à VOLER ! Le score est plus élevé que tout ce qui existe actuellement sur le marché.
Vous voudrez peut-être regarder de plus près. Le score est passé de 14k par défaut à 17k tandis que Maxwell OC atteint 19,4k (tout en étant refroidi par air)
http://uk.hardware.info/reviews/615...-flag-ship-graphics-card-overclocking-results
Fury est un excellent rapport qualité-prix sur les ordinateurs de bureau, car vous obtenez un système de refroidissement par eau agréable et relativement silencieux qui, à lui seul, vous coûterait pas mal de pesetos. AMD a également déclaré que la mémoire oc est inutile sur ces GPU, j'ai donc des doutes sur ces résultats d'overclocking. J'ai vérifié quelques fils de discussion sur le forum et aucun n'a pu trouver quoi que ce soit confirmant ces résultats. On n'a pas réussi un tel overclock et n'a rien tiré de valable d'un overclock de mémoire à 50Mhz.
koyoot a dit : Edit. A propos de l'efficacité énergétique...
Si vous avez un GPU Nvidia de référence, alors oui, il utilisera moins d'énergie que le GPU AMD. Cependant, la référence GTX 970 avec la limite d'horloge du BIOS sera 3 fois plus lente que la R9 280X. Si vous n'avez pas de référence GTX 970, il n'y aura pas de limite d'horloge dans le BIOS, et ce ne sera que 40% plus lent. Le problème est le suivant : il consommera 270 W de puissance dans le cadre du travail OPENCL.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Ici vous avez une preuve.
Une 280X est une carte 20-30% plus lente en moyenne qu'une 970 en 3D. Le travail OpenCL et un test de résistance ne sont pas la même chose. En théorie, vous pourriez obtenir de tels scénarios de charge, mais en réalité, la plupart des bancs CL ne s'en approchent pas.
Une grande partie de la faiblesse que Nvidia montre dans de tels scénarios informatiques est purement le pilote.
Comparez le quadro M6000 à quelque chose comme le Firepro W9100.
http://www.tomshardware.de/quadro-m...ikkarte-benchmarks,testberichte-241756-7.html
Maxwell est assez bon dans tous ces scénarios, il se trouve que Nvidia ne veut pas que ses cartes grand public soient bonnes dans les scénarios de poste de travail. Étant donné qu'Apple est responsable d'une partie importante du pilote sur OSX, les performances n'auraient pas été volontairement paralysées dans ce type de scénarios de charge sous OSX. Probablement pas tout à fait les performances de Windows, mais pas la différence flagrante entre les performances des stations de travail et des consommateurs. M

mickey

9 déc. 2011
  • 29 juin 2015
Nous en sommes au point où Apple doit essayer de dominer le marché. Je comprends qu'en termes de revenus et de logistique, il fait les choses par cycles alors que les fabricants de PC sont plus agiles. Le marché « pro » pourrait être mieux entretenu avec des options pour plus. Je ne pense pas qu'avoir le 750m correspond à une certaine vision de l'informatique mais plutôt à l'achat en gros et à l'utilisation d'une puce moins chère et plus faible pour les économies d'énergie, le prix, etc. Il y a ceux qui paieraient pour le 970m mais les conceptions maintenant forme de valeur sur la fonction dans une certaine mesure.

koyoot

5 juin 2012
  • 29 juin 2015
Au crépuscule, dites-moi pourquoi, Luxmark v2 montre que le GM200 est plus rapide que le GPU Hawaii, et Luxmark v3 montre que le GPU Hawaii est plus rapide que le GM200 ? Les deux sont les mêmes puces. Il n'y a pas de paralysie des performances, car Maxwell en DP est ...t. Ils ne diffèrent que par les noms. Comment est-ce possible, cet ancien banc montre l'avantage du GPU Maxwell, et le plus récent montre l'avantage du GPU Hawaii ?

http://scr3.golem.de/screenshots/15...uxmark-v3- (complex-scene, -gpu-only) -chart.png'js-selectToQuoteEnd '> J

joe-h2o

24 juin 2012
  • 29 juin 2015
inhalexhale1 a dit : Le 960m est 60% plus rapide que le m370x. Je ne pense pas que ce soit surfait, mais plutôt une carte préférée au bas de gamme AMD qu'Apple a choisi pour cette actualisation. Le 950m est aussi une bien meilleure carte. Je suis d'accord avec les plaintes. Apple facture le même prix que d'habitude, et bien que la nouvelle carte soit plus puissante, c'est une baisse dans la classe globale.

Le 960M est également 50% plus gourmand en énergie que le 370x, qui ne volera pas dans un design TDP déjà serré. Le mieux qu'Apple puisse faire est le 950M, qui est similaire à l'offre d'AMD, peut-être un peu mieux. Pourquoi ils n'ont pas opté pour Nvidia, je n'en ai aucune idée.

lowendlinux

24 sept. 2014
Allemagne
  • 29 juin 2015
Messieurs, je ne pense pas que nous allons résoudre ce problème ici et pour aggraver les choses, nous parlons maintenant de GPU de bureau haut de gamme dans la section MacBook Pro.
Réactions :poignée d'espoir

koyoot

5 juin 2012
  • 29 juin 2015
Je n'irais pas aussi loin avec la consommation électrique. GTX960 doit être dans une enveloppe de consommation électrique de 35 à 45 W. Et en regardant l'examen notebookcheck de MBP, il semble que la consommation d'énergie soit assez élevée, car elle peut même dépasser la limite de 85W de l'alimentation, de 6W. Je ne dirais donc pas qu'il est plus gourmand en énergie que le M370X.

De plus, je ne dirais pas qu'il est 60% plus rapide que le M370X, car les performances dans Final Cut Pro seront beaucoup plus élevées sur la puce AMD que n'importe quel GPU Maxwell disponible pour un budget de puissance de 45 W.

Dans les jeux, le GPU Nvidia sera peut-être même 60% plus rapide. Mais les jeux ne sont pas tout.

Qui

2 avr. 2007
  • 29 juin 2015
koyoot a dit : Je n'irais pas aussi loin avec la consommation électrique. GTX960 doit être dans une enveloppe de consommation électrique de 35 à 45 W. Et en regardant l'examen notebookcheck de MBP, il semble que la consommation d'énergie soit assez élevée, car elle peut même dépasser la limite de 85W de l'alimentation, de 6W. Je ne dirais donc pas qu'il est plus gourmand en énergie que le M370X.

De plus, je ne dirais pas qu'il est 60% plus rapide que le M370X, car les performances dans Final Cut Pro seront beaucoup plus élevées sur la puce AMD que n'importe quel GPU Maxwell disponible pour un budget de puissance de 45 W.

Dans les jeux, le GPU Nvidia sera peut-être même 60% plus rapide. Mais les jeux ne sont pas tout.

La GTX 960m fait 75 watts, la 950m fait 45 watts, la M370X fait 50 watts (apparemment). Précédent
Prochain D'abord Précédent

Aller à la page

AllerProchain Durer