Forum

Hvordan gir det mening: Asus ZenBook Pro UX501 er $1000 billigere, men har bedre spesifikasjoner enn mbp2015

Forrige
  • 1
  • 2
  • 3
  • 4
Neste Først Forrige

Gå til side

Neste Siste

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
SHEEPOS sa: Hvorfor bryr apple seg bare om penger ???
Asus ZenBook Pro UX501 er $1000 billigere, men har bedre spesifikasjoner enn macbook pro 2015

Det er ganske sexy og et fint funn. S

Samuelsan 2001

24. oktober 2013


  • 29. juni 2015
SHEEPOS sa: så er det noen grunn til at apple ikke ble med maxwell nvidia i år?

Fordi de gikk med AMD, ser jeg for meg at årsakene var alt for mange til å liste opp her, og at bare Apple-ansatte som er involvert i den beslutningen vet hva de er og hvordan fordelene og ulempene fungerte.

Til tross for NVIDIA-kjærligheten som foregår her (jeg spiller ikke, så jeg kunne ikke brydd meg mindre om dem), er de nyeste Fury AMD-kortene raskere i nesten alt. Deres nye arkitektur med innebygd RAM ser ut til å være litt av et beist med enorme båndbreddemuligheter. Når disse kommer til det mobile stadiet kan vi ha noen fantastiske grafikkort i rMBP-ene og iMac-ene.

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
Samuelsan2001 sa: Fordi de gikk med AMD, ser jeg for meg at årsakene var alt for mange til å liste opp her, og at bare Apple-ansatte som er involvert i den beslutningen vet hva de er og hvordan fordelene og ulempene fungerte.

Til tross for NVIDIA-kjærligheten som foregår her (jeg spiller ikke, så jeg kunne ikke brydd meg mindre om dem), er de nyeste Fury AMD-kortene raskere i nesten alt. Deres nye arkitektur med innebygd RAM ser ut til å være litt av et beist med enorme båndbreddemuligheter. Når disse kommer til det mobile stadiet kan vi ha noen fantastiske grafikkort i rMBP-ene og iMac-ene.

Fury er fortsatt for hot til å gjøre det til mobil. Jeg vedder på at vi fortsatt er et par år ute etter det. Jeg er enig i at '16 og '17 kommer til å bli mordere år for AMD, og ​​det er på tide.

Shirasaki

16. mai 2015
  • 29. juni 2015
Dark Void sa: Jeg skal gå videre og gi noen av mine erfaringer og råd her:

Bare bruk det du liker. Hvis du liker Windows, er det kult. Hvis du foretrekker kostnadseffektiviteten til en Windows-notisbok i forhold til hva du får, er det også kult. Mac-er er ikke bedre enn PC-er som standard, PC-er er ikke bedre enn Mac-er som standard. Du trenger ikke å forsvare kjøp, byggekvalitet eller andre synspunkter på hva som utgjør en datamaskin.

At Asus kan vare deg et år, eller det kan vare deg 3 eller til og med 4 - alt kommer ned til hva du foretrekker, og hva du foretrekker å gjøre med pengene dine. Det er tross alt datamaskinen din - du trenger ikke å bash eller forsvare det noen andre vurderer eller er fornøyd med.

Jeg, for en, inn generell med noen få unntak, tror levetiden til en datamaskin hovedsakelig påvirkes av hvordan den blir tatt vare på - ikke fordi dens Apple, Asus, Acer, eller hva har du. Jeg er klar over ideen og virkeligheten med byggekvalitet - men jeg hadde en Asus bærbar PC i 3 år som jeg betalte $650 for, en Lenovo Ideapad (også $650) som fortsatt brukes i familien min i 3 og et halvt år nå, og en Hannspree (det stemmer - som her noen gang har hørt om Hannspree ) netbook som jeg betalte $250 for som jeg brukte en stund og nå bruker et annet familiemedlem den, og som ble kjøpt for 3 år siden også.

Det finnes ikke noe standardsvar på dette. Mac-er varer ikke X antall år og Windows-notebook-er varer ikke Y-mange år - og som alltid ... maskinvarespesifikasjoner er ikke en eneste grunn til å kjøpe en bærbar PC. Det er mange andre faktorer, bare gjør leksene dine og finn det du foretrekker.
Jeg har en Asus bærbar PC, med allerede utdatert core i5 2410 m prosessor, 8 GB ram, gt 540m gpu. Jeg bruker den fra den aller første dagen til den dagen jeg drar hjemmefra og hit i høyere grad.

Når jeg legger til ram fra 2 GB standard til 8 GB, støter jeg på et utålelig BSOD-problem. Asus erstattet meg endelig med et nytt hovedkort, og da er det ikke noe vesentlig problem i det hele tatt. Veldig solid, og kan fortsatt gjøre en anstendig jobb, inkludert tung spilling (du kjenner kanskje øverstkommanderende, som er en gpu-sult). Tvert imot, mange av mine skolekamerater lider av overopphetingsproblemer eller harddiskfeil.

Jeg er enig i poenget ditt. Hvis du bruker det forsiktig, kan det bare vare lenge nok før det dør. Hvis ikke, kan til og med ekstremt dyre rMB bli ubrukelig i løpet av få dager. D

Død 0k

23. april 2015
Polen
  • 29. juni 2015
hopefulhandle sa: Jeg skriver dette på en billig bærbar Acer Windows 8.1. Innen et år etter kjøp av denne sviktet DVD/CDR-stasjonen, talltastene over tastaturet sluttet å virke; numrene tre til seks fungerer ikke selv om funksjonstastene gjør det, og jeg har en lang Ethernet-kabel som snirkler seg over kjøkkengulvet mitt fordi den trådløse nettverksadapteren sluttet å fungere. Alt innen et år.
trist for opplevelsen din
Jeg har fortsatt en eMachines (et undermerke av Acer) fra 2011, og jeg behandler det på en veldig god måte.
Fortsatt levende og effektiv for de fleste daglige gjøremål.

Så det betyr mye hvordan du bryr deg om elektronikken din.

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
Inntil for ca. 6 uker siden brukte jeg en Latitude E6500 fra 2009, min nye bærbare er en 2011 Latitude E6420. PC vil vare like lenge som Mac

maflynn

Moderator
Betjeningen
3. mai 2009
Boston
  • 29. juni 2015
Dark Void sa: Det finnes ikke noe standardsvar på dette. Mac-er varer ikke X antall år og Windows-notebook-er varer ikke Y-mange år - og som alltid ... maskinvarespesifikasjoner er ikke en eneste grunn til å kjøpe en bærbar PC. Det er mange andre faktorer, bare gjør leksene dine og finn det du foretrekker.

Det er saken, selv om jeg stort sett er enig i Apples byggekvalitet, kjøper mange her som fremholder kvaliteten, vanligvis nye bærbare datamaskiner hvert tredje år. For meg vil jeg heller bruke 2000 hvert tredje år.

Når det gjelder Apple-kvalitet, har troen min på dem blitt rystet, med problemene med dGPU-en synes jeg fortsatt Mac-er er flotte datamaskiner, og det er vanskelig for meg å forestille meg å få noe annet, men hvis jeg bruker over 2000 for en datamaskin Jeg vil gjerne ha tryggheten at dPGU-en ikke blåser ut på 3 år, eller at det anti-reflekterende belegget ikke begynner å flasse av. S

Samuelsan 2001

24. oktober 2013
  • 29. juni 2015
maflynn sa: Det er tingen, selv om jeg stort sett er enig i Apples byggekvalitet, kjøper mange her som fremholder kvaliteten, vanligvis nye bærbare datamaskiner hvert tredje år. For meg vil jeg heller bruke 2000 hvert tredje år.

Når det gjelder Apple-kvalitet, har troen min på dem blitt rystet, med problemene med dGPU-en synes jeg fortsatt Mac-er er flotte datamaskiner, og det er vanskelig for meg å forestille meg å få noe annet, men hvis jeg bruker over 2000 for en datamaskin Jeg vil gjerne ha tryggheten at dPGU-en ikke blåser ut på 3 år, eller at det anti-reflekterende belegget ikke begynner å flasse av.

Den tryggheten ville vært fin, men du vil bare ikke få det fra noen, all elektronikk kan svikte, og alle masseproduserte varer vil ha problemer i noen enheter, det er livet, er jeg redd.

Jeg forstår bare ikke hvorfor folk holder eple til langt høyere standarder enn de gjør alle andre...

Du kan ikke bare si pris når alle de andre OEM-ene lager datamaskiner som er veldig sammenlignbare med hensyn til kostnader og spesifikasjoner hvis de tilsynelatende ikke er byggekvalitet og oppmerksomhet på detaljer.

skumring007

5. desember 2009
  • 29. juni 2015
Samuelsan2001 sa: Til tross for NVIDIA-kjærligheten som foregår her (jeg spiller ikke, så jeg kunne ikke brydd meg mindre om dem), er de nyeste Fury AMD-kortene raskere i omtrent alt. Deres nye arkitektur med innebygd RAM ser ut til å være litt av et beist med enorme båndbreddemuligheter. Når disse kommer til det mobile stadiet kan vi ha noen fantastiske grafikkort i rMBP-ene og iMac-ene.
Fury har nesten ingen overklokkings takhøyde, er likevel aldri så saktere enn den like store 980 TI-brikken som har en ganske seriøs overklokkingshøyde. Fury er mye bedre enn 290x/390x, men den trenger fortsatt mer kraft enn Maxwell til tross for det mer strømeffektive og raskere minnet. Den er også vannkjølt.
De kan lukke inn på Nvidia på stasjonære datamaskiner der vannkjøling fungerer og det totale strømforbruket ikke er like viktig, men på bærbare datamaskiner er strømeffektivitet alt. Og Fury kan ikke slå Maxwell, M370X er fortsatt en mye eldre teknologi enn Fury.
Det handler ikke om å elske Nvidia eller AMD, men bare objektive resultater der Maxwell rett og slett er det beste som finnes akkurat nå.
Reaksjoner:vbedia

koyoot

5. juni 2012
  • 29. juni 2015
Quu sa: Vel, hvis vi går tilbake til 2013, kan du merke at i juni på WWDC 13 annonserte de Mac Pro med Dual AMD-grafikk. Dette var starten på at Apple vendte seg bort fra NVIDIA.

I oktober samme år ga de ut MacBook Pro 15' med 750m grafikk, men dette var samme brikke som 650m, begge kepler, samme pin ut på brikken. Alt Apple trengte å gjøre var å bytte sjetongene. Veldig liten endring.

Spol frem til iMac Retina, AMD igjen, nå har vi 2015 rMBP, også AMD.

Jeg tror det vi ser her ikke egentlig er at Apple velger AMD fordi det er bedre, men fordi de kuraterer et tettere forhold til AMD når det kommer til grafikk. Det nære forholdet har resultert i D300, D500 og D700 for Apples Mac Pro, som er helt Apple-eksklusivt den dag i dag (selv om de er basert på HD 7970), og de har vært de første til å få M370X også.

NVIDIA ser ut til å være mye mindre fleksible, de vil ikke bli diktert til. De vil for eksempel ikke gi Apple GTX 980-er eller 780 Ti-er (den gang) rebranded som Quadro D780-er. Dette er hva AMD gjorde for Apple.

Så igjen, jeg tror ikke det har noe med ytelse å gjøre, det handler om et forhold de to selskapene kuraterer og det presser NVIDIA ut av Apples systemer, og jeg tror det er skadelig ettersom NVIDIA for øyeblikket har de raskeste delene i hver termisk konvolutt.
Har du faktisk brukt AMD og Nvidia GPU til noe som Final Cut Pro?

Fra min personlige erfaring med oppgaver i den virkelige verden er AMD GPU-er raskere i innholdsskaping enn Nvidia. Mye raskere. R9 280X i Mac Pro 5.1 (3,46 GHz, 24 GB RAM) var raskere enn GTX970. 40 % raskere.

Jeg vet at folk vil vise meg benchmarks fra benchmarks som viser hvordan Nvidia GPUer er bedre enn AMD i ansiktsgjenkjenning. OK. Men Sony Vegas Pro er en målestokk som simulerer oppgavene i den virkelige verden. Igjen, det simulerer. Og til og med den referansen viser at i transkoding, for eksempel, er AMD GPU-er raskere enn Nvidia-er. Det eneste som gjør Nvidia bedre i folks øyne er spillmerkets appell. Men selv det viser ikke hele sannheten. I 4K er for eksempel R9 390X bare 20 % tregere enn GTX980 Ti, som overalt får ros for ytelsen. Og som vi allerede har sett i spill, blir AMD GPUer bedre for hvert år, mens Nvidia blir dårligere. Sammenlign benchmarks for r9 290X vs 780 Ti fra 2013 og fra 2015. De er virkelig forskjellige. Nå er R9 290X raskere.

Dessuten vil DirectX, Metal og Vulkan ryste opp. Adopsjon av low-overhead APIer var det AMD trengte.

dusk007 sa: Fury har nesten ingen overklokkings takhøyde, er fortsatt saktere enn den like store 980 TI-brikken som har en ganske seriøs overklokkingshøyde. Fury er mye bedre enn 290x/390x, men den trenger fortsatt mer kraft enn Maxwell til tross for det mer strømeffektive og raskere minnet. Den er også vannkjølt.
De kan lukke inn på Nvidia på stasjonære datamaskiner der vannkjøling fungerer og det totale strømforbruket ikke er like viktig, men på bærbare datamaskiner er strømeffektivitet alt. Og Fury kan ikke slå Maxwell, M370X er fortsatt en mye eldre teknologi enn Fury.
Det handler ikke om å elske Nvidia eller AMD, men bare objektive resultater der Maxwell rett og slett er det beste som finnes akkurat nå.
Det viser seg at du kanskje ikke har rett. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Sjekk det ut selv. Før OC hadde GPU en totalscore på 12K og en grafikkpoengsum på 15,5K.
100 MHz, og GPU-en begynner å FLY! Poengsummen er høyere enn noe annet på markedet akkurat nå.

Redigere. Om strømeffektiviteten...
Hvis du har en referanse Nvidia GPU, ja, den vil bruke mindre strøm enn AMD GPU. Reference GTX 970 med BIOS-klokkehette vil imidlertid være 3 ganger tregere enn R9 280X. Hvis du har ikke-referanse GTX 970, vil det ikke være noen klokkehette i BIOS, og det vil være bare 40% tregere. Problemet er: Den vil trekke 270W strøm i OPENCL-arbeid.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Her har du et bevis. Sist redigert: 29. juni 2015

koyoot

5. juni 2012
  • 29. juni 2015
Quu sa: Jeg tenkte det samme, men hvis du faktisk ser på Maxwell OpenCL benchmarks, tråkker alle NVIDIAs kort på AMD.

Egentlig. Se på 970 eller 980 eller Titan eller Titan X eller 980 Ti. Langt over alle AMD-kortene i OpenCL benchmarks. Samme situasjon på mobilversjonene, 950m og 960m.

De eldre NVIDIA kepler-kortene var forferdelige på OpenCL absolutt søppel, 70%-90% tregere enn AMD. Men Maxwell-kortene er 10-50 % raskere enn AMD i de samme markedssegmentene.

Selv ble jeg overrasket over å finne ut dette da jeg nylig undersøkte benchmarks, sjekk ut dette: https://i.imgur.com/wiK5ZSG.png'bbCodeBlock-expandLink js-expandLink'>
De er ikke raskere i VIRKELIG VERDENS OPPGAVER! Bruk Maxwell GPU for Final Cut Pro, så kaster du den og går tilbake til AMD-løsningen. Jeg har testet GTX970 og R9 280X i Final Cut Pro, og AMD GPU var 40 % raskere!

Sony Vegas Pro benchamark viser bare et glimt av forskjellen mellom AMD og Nvidia GPU i transkoding, men det er en ganske stor skala.

WHO

2. april 2007
  • 29. juni 2015
koyoot sa: Har du faktisk brukt AMD og Nvidia GPU til noe som Final Cut Pro?

Jeg har ikke. Jeg har bare sett på benchmarks for generell OpenCL-ytelse. Hvis du har noen lenker til benchmarks som viser forskjeller i videosuiter, ville jeg vært interessert i å se på dem for å utdanne meg selv.

koyoot sa: De er ikke raskere i VIRKELIG VERDENS OPPGAVER! Bruk Maxwell GPU for Final Cut Pro, så kaster du den og går tilbake til AMD-løsningen. Jeg har testet GTX970 og R9 280X i Final Cut Pro, og AMD GPU var 40 % raskere!

Sony Vegas Pro benchamark viser bare et glimt av forskjellen mellom AMD og Nvidia GPU i transkoding, men det er en ganske stor skala.

Igjen, hvis du har noen benchmarks vil jeg gjerne se på dem.

koyoot

5. juni 2012
  • 29. juni 2015
Jeg kan bare gi deg det jeg har testet på egen hånd. Ingen av anmeldelsene jeg har sett testet de virkelige referansene, bortsett fra den virkelige arbeidsbelastningssimuleringen av Sony Vegas Pro. Og det er målestokken for å gå for det.

WHO

2. april 2007
  • 29. juni 2015
Jeg tror noe å vurdere er at Apple faktisk ikke sender GTX 970 eller 980 i noen av systemene deres, så jeg ville ikke forvente at Final Cut Pro skulle synge på den. Jeg ville heller ikke forvente at tredjepartsutviklere skulle fokusere på den maskinvaren.

Men hvis alle OpenCL-standardene viser at NVIDIA er raskere, er det sannsynligvis noe med det. OpenCL er tross alt bare et API for å utføre arbeidsbelastninger på GPU.

koyoot

5. juni 2012
  • 29. juni 2015
Nei. Ikke alle.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'js-selectToQuoteEnd'>

WHO

2. april 2007
  • 29. juni 2015
koyoot sa: Nei. Ikke alle.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'bbCodeBlock-expandLink js-expandLink'>

Ok, først av alt, roe deg ned. For det andre har jeg ikke en gang nevnt noe om ansiktsgjenkjenning, det er alt du. OpenCL-referansen jeg la ut noen sider tilbake er en OpenCL-scenegjengivelse. Du kan se den her hvis du vil ta en titt:
https://i.imgur.com/wiK5ZSG.png'js-selectToQuoteEnd '>

koyoot

5. juni 2012
  • 29. juni 2015
Jeg la ikke ut den linken på grunn av Fury. Du har der Grenada/Hawaii GPUer og GM204. Også Grenada viser seg å være raskere i noen oppgaver enn GTX Titan X.

Luxmark v2.1 er også gammel målestokk. Luxmark v3 er den samme, men nyere og mer kompleks. Det er som å sammenligne score på 3dMark Vantage med 3dMark FireStrike. Den andre er nyere, mer kompleks og viser litt mer enn den gamle.

Tredje. Jeg er helt rolig. Jeg kjøper bare ikke alt som står i anmeldelser. Hvis du vil tro at Maxwell GPUer er bedre i databehandling, noe de ikke er, er det opp til deg. Jeg vet at ikke alt som kommer i anmeldelser er sant, og blir alltid veldig utdatert med hver nye versjon av drivere/teknologi som kommer.

WHO

2. april 2007
  • 29. juni 2015
koyoot sa: Jeg la ikke ut den lenken på grunn av Fury. Du har der Grenada/Hawaii GPUer og GM204. Også Grenada viser seg å være raskere i noen oppgaver enn GTX Titan X.

Luxmark v2.1 er også gammel målestokk. Luxmark v3 er den samme, men nyere og mer kompleks. Det er som å sammenligne score på 3dMark Vantage med 3dMark FireStrike. Den andre er nyere, mer kompleks og viser litt mer enn den gamle.

Tredje. Jeg er helt rolig. Jeg kjøper bare ikke alt som står i anmeldelser. Hvis du vil tro at Maxwell GPUer er bedre i databehandling, noe de ikke er, er det opp til deg. Jeg vet at ikke alt som kommer i anmeldelser er sant, og blir alltid veldig utdatert med hver nye versjon av drivere/teknologi som kommer.

Jeg sier ikke at jeg ikke tror på referansene du delte. Jeg tror bare ikke det er så svart-hvitt som du ser ut, mange av forskjellene er innenfor noen få prosentpoeng hvis vi ser bort fra Fury X, som jeg ikke tror vi bør gjøre fordi den sannsynligvis vil bli brukt i Mac Pro-oppdatering.

Og jeg er enig i at de nyere benchmarkene bør fokuseres på. Jeg er ikke en Luxmark-fanboy, jeg vet ingenting om det, jeg googlet bare OpenCL Maxwell og det var topphiten.

Nipp til litt limonade og nyt det varme været.

skumring007

5. desember 2009
  • 29. juni 2015
koyoot sa: Det viser seg at du kanskje ikke har rett. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Sjekk det ut selv. Før OC hadde GPU en totalscore på 12K og en grafikkpoengsum på 15,5K.
100 MHz, og GPU-en begynner å FLY! Poengsummen er høyere enn noe annet på markedet akkurat nå.
Det kan være lurt å ta en nærmere titt. Poengsummen hoppet fra 14k standard til 17k mens Maxwell OC treffer 19,4k (mens den er luftkjølt)
http://uk.hardware.info/reviews/615...-flag-ship-graphics-card-overclocking-results
Fury er stor verdi på stasjonære datamaskiner fordi du får et fint og relativt ganske vannkjølingssystem som alene ville satt deg tilbake en del pesetoer. AMD sa også at minne oc er meningsløst på disse GPUene, så jeg har mine tvil om disse overklokkingsresultatene. Jeg sjekket noen forumtråder og ingen kunne finne noe som bekrefter disse resultatene. Man klarte ikke en slik overklokke og fikk ingenting verdt ut av en 50Mhz minneoverklokke.
koyoot sa: Rediger. Om strømeffektiviteten...
Hvis du har en referanse Nvidia GPU, ja, den vil bruke mindre strøm enn AMD GPU. Reference GTX 970 med BIOS-klokkehette vil imidlertid være 3 ganger tregere enn R9 280X. Hvis du har ikke-referanse GTX 970, vil det ikke være noen klokkehette i BIOS, og det vil være bare 40% tregere. Problemet er: Den vil trekke 270W strøm i OPENCL-arbeid.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Her har du et bevis.
En 280X er et 20-30 % langsommere kort i gjennomsnitt enn en 970 i 3D-arbeid. OpenCL-arbeid og en stresstest er ikke det samme. I teorien kan du få slike lastsecnarioer, men i virkeligheten kommer de fleste CL-benker ikke i nærheten av det.
Mye av svakheten Nvidia viser i slike datascenarier er rent driveren.
Sammenlign quadro M6000 med noe sånt som Firepro W9100.
http://www.tomshardware.de/quadro-m...ikkarte-benchmarks,testberichte-241756-7.html
Maxwell er ganske god i alle disse scenariene, det hender bare at Nvidia ikke vil at forbrukerkortene skal være gode i arbeidsstasjonsscenarier. Siden Apple er ansvarlig for en betydelig del av driveren på OSX, ville de ikke ha en ganske målrettet forkrøplet ytelse i slike belastningsscenarier under OSX. Sannsynligvis ikke helt Windows-ytelse, men ikke den sterke forskjellen mellom arbeidsstasjon og forbrukerytelse. M

mickeydean

9. desember 2011
  • 29. juni 2015
Vi er på det punktet hvor Apple trenger å prøve å lede markedet. Jeg forstår når det gjelder inntekter og logistikk at det gjør ting i sykluser, mens PC-produsentene er mer kvikke. 'Pro'-markedet kan bli bedre ivaretatt med alternativer for mer. Jeg tror ikke å ha 750m handler om en viss visjon om databehandling, men snarere om å kjøpe i bulk og bruke en billigere, svakere brikke for strømsparing, pris osv. Det er de som vil betale for 970m, men designene nå verdi form over funksjon til en viss grad.

koyoot

5. juni 2012
  • 29. juni 2015
Dusk, fortell meg hvorfor, Luxmark v2 viser at GM200 er raskere enn Hawaii GPU, og Luxmark v3 viser at Hawaii GPU er raskere enn GM200? Begge er de samme sjetongene. Det er ingen ødeleggende ytelse, fordi Maxwell i DP er ...t. De er bare forskjellig ved navn. Hvordan er det mulig, den eldre benken viser fordelen med Maxwell GPU, og den nyere viser fordelen med Hawaii GPU?

http://scr3.golem.de/screenshots/15...uxmark-v3- (complex-scene, -gpu-only) -chart.png'js-selectToQuoteEnd '> J

joe-h2o

24. juni 2012
  • 29. juni 2015
inhalexhale1 sa: 960m er 60% raskere enn m370x. Jeg tror ikke det er overvurdert, men snarere et foretrukket kort til den nedre delen AMD Apple valgte for denne oppdateringen. 950m er også et mye bedre kort. Jeg er enig i klagene. Apple tar samme pris som alltid, og selv om det nye kortet er kraftigere, er det et steg ned i totalklassen.

960M er også 50 % mer strømkrevende enn 370x, som ikke vil fly i en allerede stram TDP-design. Det beste Apple ville vært i stand til å gjøre er 950M, som ligner på AMDs tilbud, kanskje litt bedre. Hvorfor de ikke gikk for Nvidia aner jeg ikke.

lowendlinux

24. september 2014
Tyskland
  • 29. juni 2015
Herrer Jeg tror ikke vi kommer til å løse dette her og for å blande ting vi nå snakker om high-end desktop GPU-er i MacBook Pro-delen.
Reaksjoner:håpefulle håndtak

koyoot

5. juni 2012
  • 29. juni 2015
Jeg ville ikke gått så langt med strømforbruk. GTX960 skal være innenfor 35-45W strømtrekkskonvolutt. Og ved å se på notebookcheck-anmeldelsen av MBP, ser det ut til at strømforbruket er ganske høyt, fordi det kan overstige til og med 85W-grensen for strømforsyning, med 6W. Så jeg vil ikke si at den er mer strømkrevende enn M370X.

Jeg vil heller ikke si at den er 60 % raskere enn M370X, fordi ytelsen i Final Cut Pro vil være mye høyere på AMD-brikken enn noen Maxwell GPU tilgjengelig for 45W strømbudsjett.

I spill vil muligens Nvidia GPU være enda 60 % raskere. Men spill er ikke alt.

WHO

2. april 2007
  • 29. juni 2015
koyoot sa: Jeg ville ikke gått så langt med strømforbruk. GTX960 skal være innenfor 35-45W strømtrekkskonvolutt. Og ved å se på notebookcheck-anmeldelsen av MBP, ser det ut til at strømforbruket er ganske høyt, fordi det kan overstige til og med 85W-grensen for strømforsyning, med 6W. Så jeg vil ikke si at den er mer strømkrevende enn M370X.

Jeg vil heller ikke si at den er 60 % raskere enn M370X, fordi ytelsen i Final Cut Pro vil være mye høyere på AMD-brikken enn noen Maxwell GPU tilgjengelig for 45W strømbudsjett.

I spill vil muligens Nvidia GPU være enda 60 % raskere. Men spill er ikke alt.

GTX 960m er 75 watt, 950m er 45 watt, M370X er 50 watt (tilsynelatende). Forrige
Neste Først Forrige

Gå til side

Neste Siste