Forum

Kombinert R9 280X+ RX580 ytelse

startergo

Original plakat
20. september 2018
  • 3. februar 2019
Jeg har R9 280X koblet til via DVI i spor 1 og RX 580 koblet til via DP til DVI-adapter i spor 2.
Jeg kan se oppstartsskjermen gjennom min R9 280X, men den avskjæres ved omtrent 75 % fremgang av apple-oppstartslogoen.
Når HS er lastet, sender bare RX 580 ut til en skjerm.
I Windows 10 fungerer nøyaktig det samme oppsettet fint, begge kortene sendes ut til skjermene deres. Jeg kan til og med se kryssild aktivert i Furmarks stresstest.
Går jeg glipp av noe her? Hvorfor slutter R9 280X å sende ut i HS sammen med RX 580?

h9826790

3. april 2014


Hong Kong
  • 3. februar 2019
startergo sa: Jeg har R9 280X koblet til via DVI i spor 1 og RX 580 koblet til via DP til DVI-adapter i spor 2.
Jeg kan se oppstartsskjermen gjennom min R9 280X, men den avskjæres ved omtrent 75 % fremgang av apple-oppstartslogoen.
Når HS er lastet, sender bare RX 580 ut til en skjerm.
I Windows 10 fungerer nøyaktig det samme oppsettet fint, begge kortene sendes ut til skjermene deres. Jeg kan til og med se kryssild aktivert i Furmarks stresstest.
Går jeg glipp av noe her? Hvorfor slutter R9 280X å sende ut i HS sammen med RX 580?

Crossfire 280X med RX580? AFAIK, Crossfire-doser krever ikke 'matched pair' GPU, men begge GPUene MÅ tilhøre samme familie.

startergo

Original plakat
20. september 2018
  • 3. februar 2019
h9826790 sa: Crossfire 280X med RX580? AFAIK, Crossfire-doser krever ikke 'matched pair' GPU, men begge GPUene MÅ tilhøre samme familie.
Jeg ble også overrasket, men det var det Furmark sa: Crossfire aktivert

startergo

Original plakat
20. september 2018
  • 3. februar 2019
Vis medieelementet ' data-single-image='1'>
Reaksjoner:h9826790

h9826790

3. april 2014
Hong Kong
  • 3. februar 2019
startergo sa: Se vedlegg 819716

Takk for deling. Interessant info.

Crossfire aktivert.

Begge GPUene kjører på ~100%. (Dette er normalt for Furmark)

Men 280X varmes bare opp fra 61C til 64C. (Denne delen er normal forutsatt at 280X har en god kjøler)

RX580 klokkehastighet viser 639,8MHz, VDDC 0V, presterer dårligere enn 280X (definitivt veldig feil).

Prøvde du å fjerne 280X og kjøre den samme testen med bare RX580?

startergo

Original plakat
20. september 2018
  • 4. februar 2019
h9826790 sa: Takk for deling. Interessant info.

Crossfire aktivert.

Begge GPUene kjører på ~100%. (Dette er normalt for Furmark)

Men 280X varmes bare opp fra 61C til 64C. (Denne delen er normal forutsatt at 280X har en god kjøler)

RX580 klokkehastighet viser 639,8MHz, VDDC 0V, presterer dårligere enn 280X (definitivt veldig feil).

Prøvde du å fjerne 280X og kjøre den samme testen med bare RX580?
Spenningen er 0VDC kanskje fordi jeg driver den fra SATA-strømmen og den måler ikke så nøyaktig:

Vis medieelementet ' data-single-image='1'>

h9826790

3. april 2014
Hong Kong
  • 4. februar 2019
startergo sa: Spenningen er 0VDC kanskje fordi jeg driver den fra SATA-strømmen og den måler ikke så nøyaktig:

Se vedlegg 819791

At VDDC skal leses fra grafikkortet, ikke fra strømkilden. Så, noe galt der (definitivt feil lesing, kan være programvareproblem, ikke nødvendig maskinvarerelatert).

Det ser ut til at kortet ditt var termisk/strømregulering. Jeg mistenker at det skyldes at OEM-kortet har lavere enn normal TDP-grense, noe som gjør at kortet når strømreguleringspunktet tidligere enn normal RX580.

Uansett, gjennomsnittlig FPS 87 vs 54, crossfire ser ut til å fungere som forventet.

Kan være at all GCN GPU nå kan kryssfires. Jeg har ikke brukt det på flere år nå. Ikke helt sikker på det mest oppdaterte kravet.

startergo

Original plakat
20. september 2018
  • 4. februar 2019
h9826790 sa: At VDDC skal leses fra grafikkortet, ikke fra strømkilden. Så, noe galt der (definitivt feil lesing, kan være programvareproblem, ikke nødvendig maskinvarerelatert).

Det ser ut til at kortet ditt var termisk/strømregulering. Jeg mistenker at det skyldes at OEM-kortet har lavere enn normal TDP-grense, noe som gjør at kortet når strømreguleringspunktet tidligere enn normal RX580.

Uansett, gjennomsnittlig FPS 87 vs 54, crossfire ser ut til å fungere som forventet.

Kan være at all GCN GPU nå kan kryssfires. Jeg har ikke brukt det på flere år nå. Ikke helt sikker på det mest oppdaterte kravet.
TDP på ​​kortet er 130W. Kanskje fordi de bruker samme driver er kryssilden aktivert? Jeg vet at hvis jeg velger den grunnleggende videodriveren på en av dem, vil de ikke fungere på samme måte. Det som plager meg er i HS at 280 slår av utgangen. Noen anelse om hvorfor?

h9826790

3. april 2014
Hong Kong
  • 4. februar 2019
startergo sa: TDP på ​​kortet er 130W. Kanskje fordi de bruker samme driver er kryssilden aktivert? Jeg vet at hvis jeg velger den grunnleggende videodriveren på en av dem, vil de ikke fungere på samme måte. Det som plager meg er i HS at 280 slår av utgangen. Noen anelse om hvorfor?

Men skjermbildet viser at TDP-en til RX580 er 185W. Vær forsiktig med det. Kortets TDP er på 130W, men det betyr mest sannsynlig at kjøleløsningen er god for opptil 130W. Og kortet ditt kan trekke opptil 185W fra programvarelesingen. Og det er definitivt ikke et godt tegn for enkelt 6pin-kort.

Uansett, jeg solgte alle mine HD7950, R9 280, R9 380 allerede, kan ikke teste den med RX580. Men hvis 280X-en din kan fungere feilfritt når den starter opp fra den originale ROM-en, så forårsaker tilsynelatende Mac EFI noen kompatibilitetsproblemer.

startergo

Original plakat
20. september 2018
  • 4. februar 2019
h9826790 sa: Men skjermbildet ditt viser at TDP for RX580 er 185W. Vær forsiktig med det. Kortets TDP er på 130W, men det betyr mest sannsynlig at kjøleløsningen er god for opptil 130W. Og kortet ditt kan trekke opptil 185W fra programvarelesingen. Og det er definitivt ikke et godt tegn for enkelt 6pin-kort.

Uansett, jeg solgte alle mine HD7950, R9 280, R9 380 allerede, kan ikke teste den med RX580. Men hvis 280X-en din kan fungere feilfritt når den starter opp fra den originale ROM-en, så forårsaker tilsynelatende Mac EFI noen kompatibilitetsproblemer.
Det spiller ingen rolle hvilken ROM jeg bruker. Jeg har ingen problemer med bruk av ett enkelt kort bare når begge er installert. Når det gjelder strømmen gir de 2 SATA 108W strøm, så det er rikelig med strøm på 6-pinners. Jeg vet ikke hvordan den kan trekke 185W hvis den er begrenset i ROM?

h9826790

3. april 2014
Hong Kong
  • 4. februar 2019
startergo sa: Det spiller ingen rolle hvilken ROM jeg bruker. Jeg har ingen problemer med bruk av ett enkelt kort bare når begge er installert. Når det gjelder strømmen gir de 2 SATA 108W strøm, så det er rikelig med strøm på 6-pinners. Jeg vet ikke hvordan den kan trekke 185W hvis den er begrenset i ROM?

Standardinnstillingen for ROM er IKKE begrenset til 130W for kortet ditt. Det er et forhåndsdefinert tall med 50 % PowerTune, noe som betyr at hvis det er 130 W med 150 % maks, vil det kunne trekke 195 W.
Vis medieelementet ' data-single-image='1'>
Som du kan se fra skjermbildet du har vunnet, er 'Power max' 150 % (dette er PowerTune-grensen). Og den registrerte TDP er 185W i det øyeblikket. Hvis vi antar at 185W er +50% av den forhåndsdefinerte TDP. Da bør det være ~123W. Og så lenge PowerTune holder seg på 150 %, kan kortet ditt kunne trekke opptil 185W (hvis ikke termisk struping osv.).

I Windows vil AMD-driverens kontrollpanel tillate deg å se og justere PowerTune-nummeret. Men i macOS vil den bare få det nummeret fra ROM-en. I ditt tilfelle, +50 % maks.

Også problemet med kortet ditt er IKKE å trekke for mye fra 6pin, men fra sporet.

cMP virker ganske godt bygget. Så å trekke mer enn 75W fra et spor ser ikke ut til å ha noen negativ effekt (i det minste sant for kort tid). Så langt har jeg ikke hørt en eneste sak som brenner logikkkortet på grunn av det. Imidlertid ble ganske mange hovedkort for spill-PC-er tynget på grunn av det.

Kortet vet ikke at det kan trekke hvor mye på 6pin (f.eks. opptil 108W), men vet bare hvordan det skal trekke den etterspurte kraften i henhold til det forhåndsprogrammerte mønsteret. I kortets tilfelle. Det ser ut til at kortet stort sett bare deler etterspørselen med 2. Derfor, hvis du virkelig trekker 180W, kan det bety 90W fra 6-pinners og 90W fra sporet.

Uansett, hvis EFI ikke gjør noen forskjell, men multi GPU gjør, så høres det ut som driverkonflikt.

startergo

Original plakat
20. september 2018
  • 10. februar 2019
h9826790 sa: ROM-standardinnstillingen er IKKE begrenset til 130W for kortet ditt. Det er et forhåndsdefinert tall med 50 % PowerTune, noe som betyr at hvis det er 130 W med 150 % maks, vil det kunne trekke 195 W.
Se vedlegg 819863
Som du kan se fra skjermbildet du har vunnet, er 'Power max' 150 % (dette er PowerTune-grensen). Og den registrerte TDP er 185W i det øyeblikket. Hvis vi antar at 185W er +50% av den forhåndsdefinerte TDP. Da bør det være ~123W. Og så lenge PowerTune holder seg på 150 %, kan kortet ditt kunne trekke opptil 185W (hvis ikke termisk struping osv.).

I Windows vil AMD-driverens kontrollpanel tillate deg å se og justere PowerTune-nummeret. Men i macOS vil den bare få det nummeret fra ROM-en. I ditt tilfelle, +50 % maks.

Også problemet med kortet ditt er IKKE å trekke for mye fra 6pin, men fra sporet.

cMP virker ganske godt bygget. Så å trekke mer enn 75W fra et spor ser ikke ut til å ha noen negativ effekt (i det minste sant for kort tid). Så langt har jeg ikke hørt en eneste sak som brenner logikkkortet på grunn av det. Imidlertid ble ganske mange hovedkort for spill-PC-er tynget på grunn av det.

Kortet vet ikke at det kan trekke hvor mye på 6pin (f.eks. opptil 108W), men vet bare hvordan det skal trekke den etterspurte kraften i henhold til det forhåndsprogrammerte mønsteret. I kortets tilfelle. Det ser ut til at kortet stort sett bare deler etterspørselen med 2. Derfor, hvis du virkelig trekker 180W, kan det bety 90W fra 6-pinners og 90W fra sporet.

Uansett, hvis EFI ikke gjør noen forskjell, men multi GPU gjør, så høres det ut som driverkonflikt.

GPU-Z målte kun 130-135W maksimal bruk på RX-580. Den viser også riktig spenningen 1,025VDC maksimum. Jeg prøvde en annen testprogramvare og frekvensen hoppet til 1300ish
Jeg klarte også å få begge kortene til å sende ut til skjermene i HS ved å bruke miniDP til VGA-konverter. Så begge skjermportene fungerer som de skal, men DVI-en slås av i 2-kortkonfigurasjon.

h9826790

3. april 2014
Hong Kong
  • 12. februar 2019
startergo sa: GPU-Z målte kun 130-135W maksimal bruk på RX-580. Den viser også riktig spenningen 1,025VDC maksimum. Jeg prøvde en annen testprogramvare og frekvensen hoppet til 1300ish
Jeg klarte også å få begge kortene til å sende ut til skjermene i HS ved å bruke miniDP til VGA-konverter. Så begge skjermportene fungerer som de skal, men DVI-en slås av i 2-kortkonfigurasjon.

130-135W GPU-forbruk eller grafikkortforbruk?

Sjekket du i AMD-driverpanelet om power tune er 50 %.

Uansett ser det ut til at 6xx MHz skyldes strømstruping. AMD ga ut rettelsen (som forhindrer at kortet trekker for mye fra PCIe-sporet) via driveroppdatering, det er mulig at kortets strømforbruk begrenses av driveren på grunn av det. Men i macOS kan oppførselen være forskjellig på grunn av at det ikke lenger er noen ekstra strømtrekksbegrensninger fra driveren. Uansett, så lav NG som din daglige arbeidsflyt ikke kjører Furmark, burde det ikke være et problem.

startergo

Original plakat
20. september 2018
  • 12. februar 2019
h9826790 sa: 130-135W GPU-forbruk eller grafikkortforbruk?

Sjekket du i AMD-driverpanelet om power tune er 50 %.

Uansett ser det ut til at 6xx MHz skyldes strømstruping. AMD ga ut rettelsen (som forhindrer at kortet trekker for mye fra PCIe-sporet) via driveroppdatering, det er mulig at kortets strømforbruk begrenses av driveren på grunn av det. Men i macOS kan oppførselen være forskjellig på grunn av at det ikke lenger er noen ekstra strømtrekksbegrensninger fra driveren. Uansett, så lav NG som din daglige arbeidsflyt ikke kjører Furmark, burde det ikke være et problem.
Jeg tror det er noe galt med Furmarken da jeg testet med en annen programvare (glemte hvilken) og kortet kjørte på full fart i en stresstest. Pluss at den ikke ser riktig spenningstrekk. Men ja, GPU-Z målte 135W strømforbruk, som tilsvarer ROM-grensen .

h9826790

3. april 2014
Hong Kong
  • 12. februar 2019
startergo sa: Jeg tror det er noe galt med Furmarken da jeg testet med en annen programvare (glemte hvilken) og kortet kjørte på full fart i en stresstest. Pluss at den ikke ser riktig spenningstrekk. Men ja, GPU-Z målte 135W strømforbruk, som tilsvarer ROM-grensen .

Bortsett fra Furmark kan du prøve OCCT.
Reaksjoner:startergo

MIKX

16. desember 2004
Japan
  • 25. juni 2019
startergo

Hva er GPU-strømkablingsoppsettet for begge kortene? Sist redigert: 25. juni 2019