Im November sollen mehrere Modelle der Radeon R9 290X mit 8 GB Speicher erscheinen (Update)

Hm erscheint mir ein bischen als ob die 290x zu schwach wäre für alles was 8gb im gaming Bereich benötigt. Die restlichen Anwendungsgebiete sind dann doch etwas zu mager für eine laute Graka mit hohem Stromverbrauch. Warum keine Vollausgebaute Tonga Variante oder taugt der nicht?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schön, dass offenbar auch MSI 8GB Karten bringen darf.
Denn wenn wir ehrlich sind, ist von den 3 Exklusivpartnern lediglich Sapphire zu gebrauchen.
PowerColor und Club3D sind doch Billigklitschen, die es nur alle Jubeljahre mal schaffen, eine gute und leise Kühlung für ihre Karten zu entwerfen.
 
@Numrollen
Ich habe nicht behauptet das mein System das maß der dinge ist!

Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!
 
Vielleicht als kleiner Einwurf eines Redakteurs, da ich gerade an weiteren Artikeln zu Modellen der Geforce GTX 980 und 970 sitze:

Bei einigen dieser Modellen haben die Hersteller bereits ausreichend Platz für eine Verdopplung der Speicherchips vorgesehen. Vielleicht sehen wir da auch bald Varianten mit 8 GB Speicher. Denkbar wäre das ja sicherlich, die Frage ist, ob NVIDIA seinen Partnern dafür das OK gibt.

Ging recht schnell :

"Nvidia GeForce GTX 980 mit 8 GB noch in diesem Jahr"

エルミタージュ秋葉原 – 「ã�“ã�¡ã‚‰ã‚‚売れã��ã�†ã�§ã�™ã€�(10/29) ・・・æŸ�ショップ店員談

Nvidia GeForce GTX 980 mit 8 GB noch in diesem Jahr - ComputerBase
 
Ich möchte gar nicht den Preis von der 8GB 980 sehen. Wahrscheinlich jenseits von gut und böse so wie man NV kennt:fresse2:.

Mir wäre es viel lieber wenn sie endlich mal die richtigen High End Chips BixMaxwell/Fijii raushauen aber da wird natürlich auf beiden seiten noch ne zeit lang mit sowas wie mehr VRam gemelkt...
 
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-980-mit-8-gb-noch-in-diesem-jahr/
 
Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.

Gehört jetzt zwar nicht hierhin, aber meine beiden 780er hängen auch an 3 Monitore und die takten schön brav runter (324MHz/324MHz@0.88V)
Daher denke ich, das bei Dir irgendwas im argen liegt.
Läuft vielleicht was im Hintergrund, was die Karte daran hindert runter zu takten?
 
ich warte auch auf die neue AMD Grakageneration und werde wieder CF fahren. Meine Titan Black geht dann wieder raus oder bleibt als reine PhysX Karte drin. War meine zweite Nvidia seit meinem Anfang 1992 im PC.
 
AMD sollte die Treiber und die Stabilität andern. Die Partnerboards sind bei AMD nicht wirklich die Garanten.

Zum Stromverbrauch sind das der ungefähr 20-30 Euro.

In Moment hat Nvidia einfach die Nase vorne.
 
@Numrollen
Ich habe nicht behauptet das mein System das maß der dinge ist!

Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!

Ich zocke kaum Konsolengames. Die Games die bei mir mehr vRam vertragen könnten/wollen sind zum Teil Sim-Games die 10x so viel Objekte reinladen wollen als irgendein Konsolenspiel das könnte.

Vielleicht als kleiner Einwurf eines Redakteurs, da ich gerade an weiteren Artikeln zu Modellen der Geforce GTX 980 und 970 sitze:
Bei einigen dieser Modellen haben die Hersteller bereits ausreichend Platz für eine Verdopplung der Speicherchips vorgesehen. Vielleicht sehen wir da auch bald Varianten mit 8 GB Speicher. Denkbar wäre das ja sicherlich, die Frage ist, ob NVIDIA seinen Partnern dafür das OK gibt.

Bei AMD ist man ja froh wenn neben dem Veriss der AMD Karte vielleicht mal 2-3 Tests zu Sondermodellen zu lesen sind. Bei NVidia nudelt ihr anscheinend jede noch so unwichtige Partnerkarte im mehrseitigen Tests durch.

AMD sollte die Treiber und die Stabilität andern. Die Partnerboards sind bei AMD nicht wirklich die Garanten.
Zum Stromverbrauch sind das der ungefähr 20-30 Euro.
In Moment hat Nvidia einfach die Nase vorne.
Blah blah unwichtig blah irgendwas gefaselt blah. Bei welchen Vergleichen? P/L? Nein. P/Stromverbrauch? Nein. Stromverbrauch zu Leistung? Ja, eindeutig. Seit dem NVidia auch endlich mal auf den Strom achtet sind plötzlich alle Tests hauptsächlich auf Stromverbrauch / Leistung ausgelegt. Preis für die Leistung? Scheiss drauf, 500€ für ne Grafikkarte is doch voll günstig!
Treiberprobleme, ich kanns nicht mehr hören. So ein Bullshit. Treiberprobleme von NVidia der 200-400 Generation? Gute Nacht, hab ich selbst miterlebt. Und Partnerboards sind gute dabei wie auch schlechte. Da tut sich weder bei Nv noch bei Amd was, sind ja auch überraschenderweise viele die selben.
 
Zuletzt bearbeitet:
Preis für die Leistung? Scheiss drauf, 500€ für ne Grafikkarte is doch voll günstig!
Das ist jetzt aber Quatsch. Grade die neue GTX 970 hat ein top P/L Verhältnis. Denke AMD wird da noch eins drauf setzen, sofern sie gleich den Vollausbau bringen, aber solch ein gravierender Unterschied wie zuvor zwischen R9 290 und GTX 780, dessen Preisunterschied lange 30% betragen hatte, bei 5-10% Leistungs-Diferenz, wird es so schnell wohl nicht mehr geben.

Im Grunde stimme ich dir ansonsten vollkommen zu. Allerdings muss man zugeben dass Powercolor und Club3D alles andere als Top marken sind.
AMD bräuchte mal einen Partner wie EVGA.
 
So sieht es aus - ein anständiger Boardpartner.

Das die GTX 200 Serie ebenso mit Treiber Probleme zu kämpfen hat - brauchen wir uns nicht zu unterhalten.

20-30 Euro Ersparnis bei 3Std Betrieb am Tag x 360 Tagen.

284 Euro R9 290 Euro Vapor X
339 Euro GTX 970 EVGA SSC

Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger :)
 
wenn ich euch folgen kann, dann wäre hier das argument für

mehr Ram = bei höherer Auflösung?

Nicht unbedingt... Es hält sich heute immernoch das seit Anfang der 3D Grafikberechnung fußende Argument von mehr Auflösung = mehr VRAM. Ja ist im Grunde auch so, aber die Releationen sind derart gering, das es einfach nicht mehr ins Gewicht fällt.
Wo du heute vielleicht zwischen FHD und UHD, also der vervierfachung der Bildpunkte um 10-15% mehr VRAM benötigst, waren die Unterschiede in Zeiten, wo 1, 2 oder 4MB! VRAM vorhanden waren wirklich ausschlaggebend, welche Auflösung eine Grafikkarte überhaupt fahren konnte.
Macht doch selbst einfach den Test, sucht euch eine Szene und lasst den VRAM sich einpegeln (bis das Spiele alle relevanten Daten in den VRAM gekippt hat). Dann vervierfacht ihr die Auflösung und wiederholt das Ganze. Am Ende vergleicht ihr die beiden VRAM Max. Werte und werdet sehen, das es da keine großen Unterschiede mehr zu sehen gibt.

Warum ist das so?
-> der überwiegende Teil der Daten im VRAM besteht aus Texturdaten. Diese Texturdaten werden idR immer in der selben Auflösung abgelegt (man kennt das von Mods, wo man von 2k, 4k oder 8k Texturen spricht!!) und dann, je nach eingestellter Screenresolution in der jeweilige Auflösung berechnet. Sagen wir also 90% des VRAM Bedarfs von einem Spiel liegt Auflösungsunabhängig immer in der selben Größe vor, so sind das bei 2GB reiner Belegung gute 1,8GB. Der Rest kommt von anderen Daten. Wie eben den Bildern in der korrekt berechneten Bildschirmauflösung im VRAM zwischengespeichert werden. Wie viel ein Rohbild im VRAM selbst belegt, lässt sich errechnen, dafür gibt es Formeln. Ob das aber allerdings 200MB sind. Oder 400MB, fällt anhand der 1,8GB Texturdaten schlicht und ergreifend nicht ins Gewicht... -> so einfach ist das im Grunde.


Unterm Strich, wenn ein Spiel die 2, 3 oder 4GB heutiger "Standard" Karten in "normalen" Auflösungen lange nicht voll bekommt, dann wird dieses Spiel auch in UHD und Größer dies idR nicht hinbekommen. Wenn ein Spiel hingegen in niedriger Auflösung schon in der Lage ist, den VRAM der Karte ganz zu füllen oder gar zu überfüllen, wird sich der Umstand in UHD bspw. nur unwesentlich verschlimmern.
Heist also, die Auflösung, die man gedenkt zu berechnen ist lange kein Garant mehr für den Bedarf an VRAM Größe...

Das halte ich aber für ein Gerücht. Mit drei aktivierten Monitoren taktet meine nVidia-Karte auch nicht mehr in den 2D-Modus. Möchte ich Strom sparen, muss ich zumindest einen Monitor deaktivieren.

Es gibt mehrere Einflussfaktoren. Bei mir geht bei drei Monitoren die Karte bspw. in den P8 State, wenn kein SLI aktiv ist. Mit aktivem SLI geht es nur in den P2 State. Mit zwei Monitoren hingegen geht die Karte immer in den P8 State.
Auch mit drei "gleichen" Monitoren soll dies der Fall sein, was ich aber aus mangel von drei gleichen Monitoren nicht belegen kann...

Aber ich denke das man den VRAM bestimmt deutlich effektiver nutzen kann!
Aber da bei der PS4 VRAM = RAM ist, gehen die Entwickler für die meisten Portierungen auf PC wohl einfach den gleichen weg!

Speicher versuchen nicht zu belegen ist aber der falsche Weg. Denn ungenutzter Speicher bringt schlicht und ergreifend absolut gar keinen Vorteil.
Nur belegter Speicher bedeutet einen Vorteil. Nämlich das die Daten im schnellen Zugriff sind. Brachliegende Speicherbereiche erzeugen nur Hitze und Verbrauch... Nicht mehr.
Vorhandenen Speicher also durch was auch immer weniger hoch zu belegen bringt absolut gar nix!

Ist alles eine Milchmädchen Rechnung. Ich meinte das man nicht unbedingt auf dem Stromverbrauch schauen sollte. Aber ist nun mal weniger :)

Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...

Weniger Verbrauch heist daher wohl eher, das weniger Kühlleistung notwendig ist. Was gleichbedeutend mit weniger Hitzeentwicklung steht sowie auch schlussendlich mit der erzeugten Lautstärke des Lüfters.
Eine Karte die nur 150W verbrät erzeugt weit weniger Hitze und somit direkt Lautstärke wie eine Karte, die auf selben Raum 250W verbrät.

Dazu kommt noch der Umstand mit den Custom Kühlkörpern, die die Abluft idR nicht aus dem Gehäuse rausbefördern. Ich habe seit jüngstem hier eine 780TI DC2 von Asus. Das Teil wird dermaßen verdammt heiß, das es schon ziemlich unangenehm ist, das Gehäuse anzufassen, was in unmittelbarer Umgebung der Karte ist. Die Ref. 780TI erzeugt bei weitem nicht so eine Abwärme -> warum? Weil die Abluft hinten aus dem Case befordert wird.
Wer schonmal ein SLI aus zwei Fermi GPUs (bestenfalls sogar mit OC) im PC stecken hatte, der kann wohl sogar ein Liedchen davon singen, wie es sich im Sommer anfühlt bei 600-700W Verbrauch und somit entsprechender Abwärme versuchen wollen zu spielen... ;)
Und wenn du anstatt mit diesen 600-700W Verbrauch eben nur 40% weniger verbrauchst, ist das eine extreme Verbesserung der Situation. Selbst wenn durch schwächere Kühlkonstruktionen die GPUs gleich heiß werden würden, so entsteht bei weitem weniger Hitzelast, die die Umgebung aufheizt.
 
Das ist jetzt aber Quatsch. Grade die neue GTX 970 hat ein top P/L Verhältnis.

Weil ein Modell von NVDidia P/L mit AMD gleichzieht bzw. in normalen Auflösungen besser ist, ist also NVidia vorne? Genau darauf bezog sich meine Aussage. Was ist mit den anderen 10 Modellen von 40-1600€? Genau wie die z.B. 980 sind aktuell im P/L Bereich alle Nvidia Karten eben nicht vorne. Warum bezieht man sich bei solchen Aussagen auf 1 Modell? Und von HWLuxx werden eben Aussagen getroffen das 500€ ein günstiger Preis für Modell XYZ ist.

Der Verbrauch selbst ist doch gar nicht mal das riesige Problem. Das Problem ist das durch den Verbrauch 1:1 einhergehende Problem der höheren Hitzeentwicklung sowie der dafür notwendigen Kühlleistung.
Klar gibt es riesige Custom Kühler mit drei, vier oder wie vielen Slots auch immer. Aber wer will sowas schon?
Ich bekomme gut zwei DualSlot GPUs bei mir in die Hütte. Was soll ich da mit einem GPU Modell mit jeweils einem TrippleSlot Kühler? -> passt nicht...

Du betrachtest hier immer Crossfire / SLI. Und aus diesem ziehst du also das Fazit das Stromverbrauch doch das wichtigste ist. Hmm ok, dann oute ich mich: Ich will lieber eine 4 Slot Grafikkarte die ich bei Volllast nicht aus dem Gehäuse höre (also nicht schneller als 800u/min dreht) als 2 Monstergrafikkarten die, egal wieviel Strom die ziehen, ich immer aus dem Gehäuse herraushöre.
 
Zuletzt bearbeitet:
Du betrachtest hier immer Crossfire / SLI. Und aus diesem ziehst du also das Fazit das Stromverbrauch doch das wichtigste ist. Hmm ok, dann oute ich mich: Ich will lieber eine 4 Slot Grafikkarte die ich bei Volllast nicht aus dem Gehäuse höre (also nicht schneller als 800u/min dreht) als 2 Monstergrafikkarten die, egal wieviel Strom die ziehen, ich immer aus dem Gehäuse herraushöre.

Nein das war nur ein Beispiel.
Jede Single GPU profitiert davon genau so. Nämlich weil du dann eben nicht drei oder vier Slots brauchst, sondern eben auch mit zwei Slots hin kommst. Oder gar mit einem... Ja sowas gab es auch mal, da waren GPUs Single Slot und es war auch leise...
Das wir heute quasi ausschließlich DualSlot GPUs und größer haben ist ein Tribut an die Leistung, weil Leistung durch höheren Verbrauch einfach zu realisieren ist. Aber Effizienz am vorgeschriebenen Limit eben nicht so einfach.

Aber so recht verstehe ich nicht, worauf du hinaus willst... Die "Monstergrafikkarten" wie du sie schimpfst bekommt man eben leise, wenn man welche hat, die effizient sind. Und das heist, möglichst viel Leistung bei möglichst wenig Verbrauch. Ob du dann nun eine, zwei oder mehr betreibst, völlig wurscht. Um so höher der Verbrauch, desto höher die Abwärme, desto höher die notwendige Kühlleistung. Und bei gegrenzter Fläche heist das eben laut(er)... :wink:

Weil ein Modell von NVDidia P/L mit AMD gleichzieht bzw. in normalen Auflösungen besser ist, ist also NVidia vorne? Genau darauf bezog sich meine Aussage. Was ist mit den anderen 10 Modellen von 40-1600€? Genau wie die z.B. 980 sind aktuell im P/L Bereich alle Nvidia Karten eben nicht vorne. Warum bezieht man sich bei solchen Aussagen auf 1 Modell? Und von HWLuxx werden eben Aussagen getroffen das 500€ ein günstiger Preis für Modell XYZ ist.

Vorn, weil sie mit dem GM204 (und auch mit dem vorherigen GM107) Modelle an den Markt gebracht haben, die in Sachen Effizienz weit vor der Konkurenz agieren... Zumindest was Spielelast angeht. Und das im gleichen Prozess. Derartige Sprünge waren bis dato eigentlich eher für Fertigungswechsel bekannt. Das ganze gepaart mit eben dem P/L, dem reinen Verbrauch und der absoluten Performance. Und du hast ein Produkt, was die Masse der für Spieler kritischen Punkte insich vereint.
Das öffnet die Türen und Tore für größere Modelle, die das gleiche Verfahren anwenden und sich im Verbrauch an den TopModellen bis dato orientieren.
Unterm Strich, mehr Leistung bei gleichem Verbrauch...

Das ganze am Preis fest zu machen ist nicht sonderlich zielführend. Preise bestimmt zu einem großen Teil der Markt. Kein Hersteller der Welt will seine Produkte verramschen. AMD GPUs hingegen zeigen dahingehend schon eine Tendenz, sie sind oftmals bedeutend günstiger als die Konkurenz, dennoch steigt der Verbreitungsgrad dieser Modelle nicht sonderlich an, wenn überhaupt. Im Gesamten GPU Bereich betrachtet scheint AMD stetig Anteile zu verlieren...
Und das liegt definitiv nicht am Preis bzw. dem P/L aus reiner FPS pro Euro Sicht. Sondern hat andere Gründe...
Gründe wie eben den Verbrauch, die Lautstärke der Partnermodelle, oder auch Featuresets der Hardware.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh