Neue vermeintliche Vorab-Benchmarks zu kommenden AMD- und NVIDIA-Grafikkarten

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
26.967
<p><img src="/images/stories/logos-2013/amd-radeon-2013.jpg" width="100" height="100" alt="amd-radeon-2013" style="margin: 10px; float: left;" />Nach <a href="index.php/news/hardware/grafikkarten/33499-erste-benchmarks-zur-radeon-r9-390x-aufgetaucht.html" target="_self">ersten vermeintlichen Benchmarks zur Radeon R9 390(X) oder R9 380(X)</a> - so ganz deutlich wurde dies aufgrund der Namensvergabe sowie Benchmark-Ergebnisse nicht - sind nun weitere Leistungswerte aufgetaucht. Dieses Mal aber sollen die Vorab-Werte von gleich vier unbekannten Grafikkarten stammen, jeweils zweimal AMD und NVIDIA. Die Frage nach der genauen Modellbezeichnung verschieben wir noch einmal nach hinten, bei den GPUs soll es sich aber um "Bermuda XT", "Fiji XT" von AMD sowie um eine beschnittene und voll...<br /><br /><a href="/index.php/news/hardware/grafikkarten/33667-neue-vermeintliche-vorab-benchmarks-zu-kommenden-amd-und-nvidia-grafikkarten.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also Nvidia und Fertigungs bei Global Foundries??


Gefertigt werden sollen die beiden neuen GPUs in 20 nm bei Globalfoundries.
Bestimmt nicht!


Global Foundries hat nur einen 20nm LPM (Low Power Mobility) Prozess, keinen für gigantische Grafikkartenchips (xxP im Namensschema für Performance wie 28nm HPP: High Power Performance)!
Quelle: GLOBALFOUNDRIES 14nm LPE/LPP

Außerdem hieß es das Global Foundries generell den 20nm Prozess links liegen lassen wird und sich eher auf 14nm FinFET konzentriert!




Aber 65% schneller als R9 390X??? Das will ich sehen! Wenn wahr, dann Huraaa 4K ist da :d
 
Aber 65% schneller als R9 390X?
Das wäre in der Tat eine Hausnummer. Reicht aber immer noch nicht für 4K. Da sind nach wie vor SLI/Crossfire Systeme nötig. Wenn man über den zu erwartenden Preis spekuliert dürften zwei GTX 980 vermutlich immer noch besser dastehen als eine "GM200 full fat" oder "Bermuda XT".
 
Wann kommen denn die Karten nun?

Hab was von Januar im Kopf.

Möchte langsam aufrüsten :d
 
die leistung dürfte passen. ich denke das gerücht ist wahr. die mad karte wird wie die r9er am limit laufen, nvidia wird auf niedrigeren verbrauch setzen und den resellern wieder das übertaktetn überlassen.

vom allgemeinen verbrauch seh ich beide karten auf augenhöhe.

der preis wird interessant sein.
und wie weit dann free sync sein wird

ich würde gerne auf 4k monitor umsteigen, ich spiel hauptsächlich bf3, da wird das mit eienr karte gerade so auf 60hz kommen, reicht mir aber auch
 
Also für mich ist eindeutig erkennbar, dass sich das auf die beiden AMD Chips bezieht ;)

gerade nochmal nachgelesen stimmt!^^


es gibt aber für 20nm keinen High Performance Fertigungsprozess!

von Global Foundries gibt es nur LPM (Low Power Mobile)
für 14nm gibt es von GF dann LPP (Low Power Performance)


Letzten Endes für mich egal 65% mehr als R9 290X, das wird ein ordentlicher Spruch von meiner HD7950 ;D
Die Leistung kann ich dann erstmal schön in Downsampling rein pulvern (was dann ja wohl in allen möglichen Variationen geht) bis es einen 4K DisplayPort 1.3 120Hz Monitor gibt!



Wichtig ist nur ein WANN??? xD
 
ABWARTEN ... bis die ersten Tests z. B. hier bei HWLuxx erscheinen. Allen anderen Quellen würde ich nicht vertrauen.
 
Ganz ehrlich? Trotz meiner AMD Affinität und dem Wunsch nach einem Guten Produkt, klingt dieses mir einfach zu Gut um Wahr zu sein.. Sollte man die 250W schaffen, dann Hut ab. Ich denke aber eher dass es 300W sind und ob man damit im ConsumerSegment was reißen kann, angesichts Journalisten, die eben gutgläubig grade zu Gebetsmühlenartig herunter beten wie wenig eine NV Grafikkarte verbraucht. HBM und 20nm kann ich mir nicht vorstellen, HBM ja, aber TSMC wäre einziger Hersteller für so ein Boliden, GloFo hat den Prozess garnicht da. Also Entweder Schlechter Fake oder eben eine echte Granate
 
ich wünsche mir das es kein Fake ist und die Karte bald kommt, und ob das Ding nun 300 oder 250 Watt braucht, wayne ..., soferne die Leistung passt

weniger verbrauch ist zwar immer gut, aber wenn ich mir ne graka um 500-600 euro leisten kann, dann werd ich die 50 Euro mehr Stromverbrauch im Jahr auch noch stemmen können

meine lightning will in rente :d
 
Zuletzt bearbeitet:
Aber 65% schneller als R9 390X??? Das will ich sehen!

Ich auch :banana: denn es gibt noch keine R9 390x :) du meinst bestimmt R9 290X. Ich hoffe auch das endlich mal ne Knaller kommt aber naja träumen darf man :bigok:
 
weniger verbrauch ist zwar immer gut, aber wenn ich mir ne graka um 500-600 euro leisten kann, dann werd ich die 50 Euro mehr Stromverbrauch im Jahr auch noch stemmen können

Es geht dabei idR nicht um den absoluten Mehrverbrauch, weil der xxx€ mehr im Jahr an Strom kostet, sondern viel eher um Kühlproblematiken, Lautstärke der/des notwendigen Lüfters usw.
Also das drum rum... Bei 300W Verbrauch hast du fast auch 300W Hitzeentwicklung. Und das muss halt auch irgendwie gekühlt werden. Ich nehme da zweifelsfrei lieber zwei 200-250W Karten als eine, die sich "zu viel" genehmigt und wo es dann kühlungstechnisch problematisch wird. Fermi hat da Spuren hinterlassen :fresse:
Hawaii ist auch schon ne ziemliche Hausnummer was die Hitzeentwicklung angeht... Absolut kein Vergleich gegen klein GM204 (zumindest nicht in Games)

Mit so ner Wakü Hybridlösung würde das sicher funktionieren... Die Frage ist, wie kommt es bei den Kunden an? Nicht jeder hat die passenden Halterungen für die Radiatoren im Case. Von Dual, Tripple oder Quad CF Gespannen ganz zu schweigen. -> Ich würde stand heute in mein Gehäuse gerade mal einen 120er Radiator unterbringen können. Mehr Platz ist einfach nicht da... Andere haben nur 140er oder nur 80/92er Halterungen usw.
Das kann ehrlich gesagt nicht die Endlösung sein, sich auf dieses Konstrukt zu stützen!
 
Zuletzt bearbeitet:
Andere haben nur 140er oder nur 80/92er Halterungen usw.
Das kann ehrlich gesagt nicht die Endlösung sein, sich auf dieses Konstrukt zu stützen!

Also 80/92er Halterungen sind doch schon etwas rar geworden.. normalerweise packt auch kein Mensch eine >400€ Karte in ein Office-Gehäuse.
Adapter für 140mm Slots könnte man der Karte ja beilegen.

Dass man aber auch >250W schon per Luft Kühlen kann, zeigen ja einige Custom Modelle der R9 290(X). Nur muss AMD da was deutlich ordentlicheres liefern als beim letzten Refdesign...
 
Was hat das mit Officegehäuse zu tun?
Und mit Adaptern kommst du da nicht weit. Bestenfalls runterwärz. Also von 140x140 auf 120x120. Mach es abersrum und dir fehlt hintenraus einfach die Fläche... Aber darum gehts doch eigentlich auch gar nicht!? Eher darum, das dieser externe Radiator nicht der Weisheit letzter schluss sein kann... Ich hätte es ja verstanden, wenn die Karte dann selbst passiv ist. Nach den damals geleakten Bildern zu urteilen ist da aber womöglich wieder irgend so ein "Brüllteufel" drauf.

Aber ich versteh auch nicht, warum man unbedingt an diesem Kühlkonzept festhalten will. Soll man halt effizientere Karten bauen... Ist ja nicht so, dass es keine anständigen Kühler geben würde, die Luft only sind ;) Mit diesem Hybridquatsch können die faktisch die Karte behalten, denn das ist nix für mich...
Jetzt hier und heute die 300W Grenze in Sachen PCIe Steckkarten zu brechen, wie man es mit der 295X2 auch schon gezeigt hat, halte ich für ziemlich "gefährlich". Das könnte der Freifahrtschein für die Zukunft werden, das ganze einfach auch weit zu überbieten... Denn es gibt keine fixen Größen oberhalb von 300W mehr. Nix spezifziertes und nix handfestes.

Wenn ich das recht in Erinnerung habe, wollte NV die 300W "Grenze" damals mal auf 400-450W anheben (lassen) sind aber irgendwie gescheitert mit dem Vorhaben. Und das aus meiner Sicht immernoch zurecht!
 
Wenn ich das recht in Erinnerung habe, wollte NV die 300W "Grenze" damals mal auf 400-450W anheben (lassen) sind aber irgendwie gescheitert mit dem Vorhaben. Und das aus meiner Sicht immernoch zurecht!

Was für eine Grenze meinst du denn? Die maximale Leistung die die Graka verbrauchen kann laut Spezifikationen, errechnet sich ja aus 75W vom PCIe Slot +75W pro 6pin und 150W pro 8pin Kabel. Daraus kann man theoretisch zusammenbasteln was man will.
Klar, heutzutage in Zeiten von Green IT kann man es sich sicher nicht leisten ins Absurdum zu gehen - schon garnicht wenn die Konkurenz grade ein Design vorgestellt hat das eher für Effizienz spricht.

Naja, warten wirs ab!

EDIT: Wegen officegehäuse. Was für Gehäuse haben denn sonst noch 80mm Lüfter?
Und für ~300W sollte ein 12cm Radiator reichen.
 
In den PCIe Spezifikationen steht irgendwo verankert, dass eine PCIe Steckkarte 300W eigentlich nicht überschreiten soll... Nagel mich nicht auf den genauen Wortlaut fest, aber irgendwie so.
Mit den Stromsteckern selbst hat das nix zu tun. Der Hersteller sollte halt nur garantieren, dass das passt...

Was meinst du warum es so ein Aufschrei bei den ganzen Dual GPU Karten gibt/gab? Stichwort HD6990 oder GTX 295 ;)
Was nicht 100% klar ist, ob es auch eine Norm gibt, die das pro Slot vorsieht. Denn technisch wäre es wohl dann Spefizikationskonform je eine SingleSlot PCIe Steckkarte mit 300W zu betreiben. Macht bei zwei Slots dann 600W. :wink: -> faktisch aber auch nicht sinnvoll, weil nicht ohne Wasser oder sonstwelche riesigen Kühleraufbauten kühlbar.

Zu den Gehäusen, nicht davon ausgehen, dass man die Gehäuse wechselt wie andere die Unterwäsche... Mein Gehäuse verweilt bei mir bspw. schon seit Jan. 2007. Das Gehäuse was ich davor hatte, steht genau daneben und ist aus dem Jahr 2004. Beides Chieftek. Nix weltbewegendes, aber schlicht und robust. Fressen alle erdenklichen Formfaktoren (außer HPTX) und sonst ist bestenfalls der fehlende USB3 FrontAnschluss ein Grund, warum man das mal drehen müsste... Ich hab im Case bspw. nur einen Halter für 120er Lüfter. :wink: Das wäre nix mit DualGPU. Das Gehäuse selbst hat aber schon Dual Fermi mit starkem OC und weit über 300W GPU Verbrauch gesehen und konnte es anständig belüften ;)
 
In den PCIe Spezifikationen steht irgendwo verankert, dass eine PCIe Steckkarte 300W eigentlich nicht überschreiten soll... Nagel mich nicht auf den genauen Wortlaut fest, aber irgendwie so.
Hmm.. also ich hab jetzt nur auf die Schnelle recherschiert, aber konnte nichts zu einer Gesamtlast finden... nur dass die einzelnen Stecker genormt sind.

Was meinst du warum es so ein Aufschrei bei den ganzen Dual GPU Karten gibt/gab? Stichwort HD6990 oder GTX 295 ;)
Bei der 295X2 war es aber definitiv nicht die Gesamtlast die den Aufschrei hervorgerufen hat, sondern eben dass sich AMD nicht an die Stecker-Norm gehalten hat. Das Refdesign sieht ja 2 mal 8Pin Anschlüsse vor. Also 375W. Die offizielle TDP liegt jedoch bei 500W und in peaks wurde in der Praxis sogar noch mehr erreicht...
 
@DragonTear
Die 295X2 von AMD ist auch alles andere als die erste Dual GPU Karte, die diese 300W Marke bis dato überschritten hat. In Form von Dual GPU Karten hast du das faktisch seit der HD3870X2 mit jedem neuen Kartenmodell gehabt. Außnahme war hier bestenfalls die GTX 690 :wink: Denn diese war bei 300W gedeckelt, wenn ich das richtig sehe. Kein Wunder das sich darüber heute keiner mehr aufregt ;)

PS: ich meinte übrigens wirklich die GTX 295. Das Ding mit Dual G200(b) von NV. Gabs einmal in einer Dual PCB und einer Single PCB Ausführung...


Übrigens hier gibts dazu was zu lesen:
https://www.pcisig.com/members/downloads/specifications/pciexpress/PCIe_225_300W_r1.0_27Mar08.pdf
Wo hast du denn gesucht? Das zu finden hat keine 5sec "googlen" gedauert. Ist gleich der erste Eintrag ;)
 
Zuletzt bearbeitet:
PS: ich meinte übrigens wirklich die GTX 295. Das Ding mit Dual G200(b) von NV. Gabs einmal in einer Dual PCB und einer Single PCB Ausführung...
Ohh, oops, verlesen.. zu der Zeit hatte ich aber grad mal meinen ersten eigenen Rechner :d
Uund.. ich war faul und hab bei Wikipedia gesucht... :sleep: Sollte jetzt schlafen gehen.
 
Zuletzt bearbeitet:
Mit High Performance Computing sind hier aber laut meinem Verständnis eher Chips gemeint, die in den mobilen Bereich fallen.
Nach High TDP Grafikkarten hört sich das für mich gar nicht an.

Sieht so aus, als ob die obere Fahnenstange dann die Socs von Xbox und der PS4 wären.
 
Zuletzt bearbeitet:
Freu mich drauf :) aber 4 GB können sie behalten die sind bei der 290x im cf schon am verhungern. Ich wart mal entspannt auf 2016 ;)
 
und wieder einer ders nicht blickt
hohe leistungsaufname bedeutet enorme abwärme

und abwärme bedeutet lautstärke
zumindest für die, welche keinen MoRa am tisch hängen haben


stimmt daran habe ich nun keinen Gedanken verschwendet, da ich ohnehin immer auf einen eigenen Custom Kühler umrüste, momentan werkelt auf der Lightning der Prolimatech (obwohl der Original Kühler schon sehr leise ist)

es gibt ja gott sei dank auch custom kühler der einzelnen Hersteller, die in der Lage sind auch höhere Leistungsaufnahme und damit Abwärme leise abzuführen, zb auf den Lightnings oder Asus mit den DC Kühlern.

die Referenzkühler von Ati sind ja sowieso zum vergessen, was die Lautstärke anbelangt, aber das ist nicht erst seit der R9 so....

wenn man sich an den ersten vermeintlichen Test erinnert dann verbrauchte "Captain Jack" (vermeintlich die kommende R9 390) unter Last 197 Watt verglichen mit der R9 290 mit 242 Watt knappe 20% weniger, wenn man das jetzt einfach mal (natürlich milchmädchenhaft) auf die R9 290(x) und die kommende 390(x) umlegt, kämen wir bei ca 225 Watt raus. Das wäre doch recht brauchbar.

es wäre natürlich fein wenn eine R9 390(x) verbrauchstechnisch eine 290(x) unterbieten könnte, nicht wegen der Stromkosten sondern wie ihr sagt wegen der Lautstärke der Kühlung, allerdings noch wichtiger wäre mir persönlich das die Dinger nicht ohne Ende fiepen wie die 7970 oder nun die GTX970 von nvidia
 
@DragonTear
Die 295X2 von AMD ist auch alles andere als die erste Dual GPU Karte, die diese 300W Marke bis dato überschritten hat. In Form von Dual GPU Karten hast du das faktisch seit der HD3870X2 mit jedem neuen Kartenmodell gehabt. Außnahme war hier bestenfalls die GTX 690 :wink: Denn diese war bei 300W gedeckelt, wenn ich das richtig sehe. Kein Wunder das sich darüber heute keiner mehr aufregt ;)

Übrigens hier gibts dazu was zu lesen:
https://www.pcisig.com/members/downloads/specifications/pciexpress/PCIe_225_300W_r1.0_27Mar08.pdf
Wo hast du denn gesucht? Das zu finden hat keine 5sec "googlen" gedauert. Ist gleich der erste Eintrag ;)

NVIDIA hat es damals sogar geschafft diese PCIe-Spezifikation mit nur einer Single-Karte zu sprengen. Von einer GTX590 wollen wir erst gar nicht anfangen. Da würden Heute alle Stromanschluss-Hand-drauflegen-Fetischisten der kalte Schweiß im Gesicht stehen.
GTX590 TDP.jpg
Die HD 5970 war der Wahnsinn ! Eine Dual-Karte, die in Spielen knapp 40 Watt weniger verbrauchte als eine GTX 480/580 !!

Wenn es AMD tatsächlich gelingt an NVIDIA vorbei zu ziehen und gleichzeitig die Stromaufnahme in den Griff hat, erreichen sie sogar mehr als damals NVIDIA mit ihrem Fermi GTX480/580, die einfach nur schneller konnte als AMD ATIs HD5000-Serie.
 
Zuletzt bearbeitet:
Also ich habe hier keine großen Hoffnungen mehr , ich denke sie wird 20 max 30% schneller als der Vorgänger sein... da ich zwangsweise eine Neue benötige fällt mir die entscheidung relativ leicht... ich würde mich Persönlich nicht als Fanboy bezeichnen da ich schon seit längerm der Meinung bin das wird seit Jahren verarscht werden... jedes Jahr kommen 30-40% Leistungszuwachs hinzu was man nach meiner Meinung nur nach absprache schafft... das war mal früher anders , Leider.
Nvidias Überheblichkeit und das P/L verhältnis haben mir Jahrlang (außer jetzt 970-980) nicht zugesagt so das ich dauerhaft bei AMD hängengeblieben bin.
Leider verstehe ich auch weiterhin Argumentation nicht wieso so viel wert auf "Stromverbrauch" setzen , ja natürlich ist es besser und günstiger wenn anstatt 300 nur noch 250w verbraucht werden , aber es gibt leider zu viele Faktoren die dem ganzen ein strich durch die Rechnung machen , wie z.b Treibersupport - Leistung der Karte und die Nutzungsdauer...
Wenn die Treiber schlecht sind oder ein Spiel nicht gut unterstützt wird mag es dennoch sein das 60fps anstehen jedoch ist die Frage der Belastung wichtig Karte A benötig weil älter dafür 350watt und Karte B weil Aktuell nur 200w. Hinzu kommt das viele alle 2-3 Jahre ihr Karte austauschen (bei mir jetzt 3) sodas diese Rechnung des Stromverbrauches erst jetzt losgeht bzw Rentabel wird.
Daher jetzt eine extra von einer amd 290 auf eine Gtx 970 zu wechseln und dabei 100eu draufzulegen mit dem Argument Stromverbrauch halt ich Persönlich für sehr leichtgläubig.
Obwohl man fairerweise sagen muss das Nvidia mehr Spiele besser unterstützt ... ob da jetzt Geld im Spiel ist lasse ich mal außen vor , jedoch sollte man abwägen welche Spiele man bevorzug bzw Spielt um da einzusparen bzw besser wegzukommen.
 
Zuletzt bearbeitet:
Mit High Performance Computing sind hier aber laut meinem Verständnis eher Chips gemeint, die in den mobilen Bereich fallen.
Mit "High Performance Computing" ist High Performance Computing gemeint. Und dazu gehören auch GPUs. "Mobile Computing" wird darüber hinaus zusätzlich erwähnt und befindet sich am anderen Ende des Anwendungsspektrums.
 
und wieder einer ders nicht blickt
hohe leistungsaufname bedeutet enorme abwärme

und abwärme bedeutet lautstärke
zumindest für die, welche keinen MoRa am tisch hängen haben

Schon mal dran gedacht dass nicht jeder ein Lautstärkefanatiker ist wie du? Viele Leute haben noch den Boxed Kühler im Rechner oder den Rechner unterm Tisch.
Und dass man durchaus auch höhere verbrauchsklassen mit guten Custom designs leise kühlen kann, wurde auch schon erwähnt.

Benutz wenigstens Zitate anstelle die selbe, agressive Formulierung mehrfach zu posten >_>

EDIT:
Klar, bei selber Leistung und ähnlichem Preis, ist die stromsparende Karte die "bessere". Allerdings fürchte ich dass Big Maxwell mal wieder um Faktor 1.5 teurer wird als die neuen AMD.
 
Zuletzt bearbeitet:
mr.dude schrieb:
"Mobile Computing" wird darüber hinaus zusätzlich erwähnt und befindet sich am anderen Ende des Anwendungsspektrums.

Ich verstehe unter mobile Computing SoCs für Handys und Tablets und beispielsweise keine X86 Notebooks.
Ich würde nach wie vor behaupten dass mit High Performacne Computing hier mobile Chips gemeint sind, etwa welche wie Puma.

Wenn man hier ein Indiz für fette Grafikkarte sehen will, dannmüsste eher High Power Performance mit dabei stehen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh