(Angebliches) Problem Mit GTX 970 Und 4GB Grafikspeicher Allozierung

Status
Für weitere Antworten geschlossen.
bei mir läuft der test ohne Probleme, habe eine EVGA FTW.

Habe jetzt denn Test paar mal gemacht und das Problem hab ich auch.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe auch FTW, ich frage mich was bei den FTW anders ist wie bei den anderen Modellen.
 
slot1 schrieb:
welche Alternativen gibt es, die änliche Ansprüche erfüllen wie ne 970?
ne 780 oder 780Ti.

Die Sapphire Trix 290x 8GB für 340 Euro wird interessant.;)
Ich persönlich kann es nicht verstehen wie Nvidia so dumm sein kann und gedacht hat, das würde keiner merken.
******!

bei mir läuft der test ohne Probleme, habe eine EVGA FTW

Bei der GTX 980 muss er das auch tun.
 
NV hat auch bei den Benchmark gemogelt das ist nichts neues auch AMD macht das.
 
Puh, wenn ich mir mit ner 970er vera....... hätte.
Mal sehen wie die Preise jetzt purzeln.
 
welche Alternativen gibt es, die änliche Ansprüche erfüllen wie ne 970?
ne 780 oder 780Ti.

Dann kannst du aber auch bei der 970er bleiben ;)
Denn die 780/780TI haben ja nur 3GB VRAM. Sprich läufst du in das Problem rein, dass du A) Nachladeruckler mit der 970er bei "nur" 3,5GB merkst oder B) die FPS Rate dauerhaft einbricht, weil der VRAM massiv überbucht ist, dann zeigen die 780/780TI Modelle exakt das gleiche Verhalten. Nur noch ein paar Momente früher, weil noch weniger VRAM bereit steht...

Die einzige Alternative, die man hier nennen kann ist die GTX 780 non TI mit 6GB. Oder eben Titan/TitanBE/TitanZ (wenn SLI).
Aber das auch "nur" in Sachen Leistung auch vor allem auch "nur", wenn da unbedingt NV drauf stehen muss! -> Aus Feature Gründen ala G-Sync, PhysX oder weis der Teufel was.
ALLE heute kaufbaren möglichen Alternativen einer 970 sind A) idR schlechter im P/L oder B) deutlich schlechter in Sachen Verbrauch/Abwärme/möglicherweise auch Lautstärke und C) sind schlicht und ergreifend alte Generation.

Die GM204 GPUs wäre im Grunde eigentlich die perfekte Performanceklasse gewesen... Wenn es richtig funktionieren würde :(
Um das auszubügeln müsste sowohl NV als auch AMD erstmal was neues releasen.

Mal sehen wie die Preise jetzt purzeln.

Ich glaube nicht das die Preise nachgeben... Wenn man sich anschaut, das scheinbar die Masse trotz schlechterem P/L eher zu NV als zu AMD greift, ist der Preis wohl nicht unbedingt das absolute Ausschlagkriterium für den Kauf ;)

Die Sapphire Trix 290x 8GB für 340 Euro wird interessant.;)

Eigentlich nicht... Zumindest ist die Karte keine wirkliche Alternative.
Sie ist A) bedeutend Stromhungriger, sie hat B) stand heute keine Möglichkeit 2x2 VSR zu fahren und C) ist sie genau so alte Kamelle mit allen Nachteilen -> kein HDMI 2.0 Port bspw. Mögliche andere Features wie D) keine AA-Bit Spielereien mehr komme noch hinzu. (G-Sync und PhysX klammer ich bewusst mal aus)
-> wer das alles nicht braucht, bekommt mit dem Teil aber wohl wirklich eine gute "Alternative"... :wink:
 
fdsonne: du hast ja auch recht. aber bei 290x oder ner 780 3GB überkommt einen das Gefühl des Betr.ges nicht so derbe.
und ich hab keine 4GB VRAM, wie man es bis dahin unter VRAM verstanden hat.
da lass ich kein Kleingedrucktes gelten.
demnächst verkaufen die 8GB Karten und die Karte hat nur 3,5 schnellen VRAM + 0,5 langsamen und sie legen einem noch 4GB DDR1 in den Karton rein.
wären ja immerhin die angebotenen 8GB ...
echt ma, nö
 
Um den Umstand gibts natürlich nichts drum rum zu reden. Das ist klar...

Aber ich mein ja nur, jetzt die Karte zu wechseln, ist völlig unsinnig. Weil die Alternativen eigentlich eben keine sind. Alle GK110 GPUs außer die 6GB Versionen haben im Grunde nur "Nachteile" gegenüber der 970er. Und selbst die 6GB Versionen machen es im Grunde auch "nur" beim VRAM besser. Und bei AMD? Wie gesagt, da hast du ganz andere Möglichkeiten in Sachen Features die du dazu gewinnst, dafür verlierst du auch welche, die NV only sind. Das muss man für sich selbst abwägen... Entweder man geht darauf ein oder eben nicht.
Die 970er hat nüchtern betrachtet, trotz der Probleme, immernoch 3328MB RAM, der "voll und schnell" ansprechbar ist. Das sind ~10% mehr als die 3GB Modelle, die es am Markt gibt. Ein "Mehrwert" ggü. diesen Modellen ist es also in Jedemfall. Es ist nicht das erhoffte bzw. erwartete, aber es ist ein Mehrwert.

Was mich stark interessieren würde, jemand mit ner 780 non TI müsste den Spaß mal gegenhalten. Ggf. gar mit nem 6GB Modell. Ich würde mich ernsthaft nicht wundern, wenn die eigentliche Speicherbandbreite auch unter dem möglichen liegt. Obenrum einbrechen sollte die Karte allerdings nicht...
 
fdsonne schrieb:
Eigentlich nicht... Zumindest ist die Karte keine wirkliche Alternative.
Sie ist A) bedeutend Stromhungriger, sie hat B) stand heute keine Möglichkeit 2x2 VSR zu fahren und C) ist sie genau so alte Kamelle mit allen Nachteilen -> kein HDMI 2.0 Port bspw. Mögliche andere Features wie D) keine AA-Bit Spielereien mehr komme noch hinzu. (G-Sync und PhysX klammer ich bewusst mal aus)

Du argumentierst aber ein bisschen ergeizig pro nvidia?
Entscheidet wirklich der Stromhunger über den Kauf einer Karte? Ich glaube nicht, vor allem nicht wenn die Karte nur ein paar Stunden pro Woche läuft und gut gekühlt ist.

Die Karte soll keine Alternative wegen DSR sein? AMD hat doch den Treiber schon angekündigt, der kommt imho bald.
Und HDMI 2.0 wer braucht das, wenn man Displayport nutzen kann?

Und AA-bit Spielereien? Jetzt wirds aber ganz speziell.
Oder soll ich jetzt AMD Exlusive Features anpreisen? Ne sone Gammeldiskussion ist mir zu blöde.

Aber ich mein ja nur, jetzt die Karte zu wechseln, ist völlig unsinnig. Weil die Alternativen eigentlich eben keine sind.

?! AMD liefert Karten die leistungsmäßig und P/L mäßig in nichts nachstehen, auch Featureseitig sieht es gut aus, vor allem jetzt mit Freesync, Mantle, True Audio, tesselationfaktoren einstellen, VSR etc..
Das ist lediglich deine Meinung und die ist finde ich ziemlich selektiv, bin ich nicht gewohnt von dir.


Keine Alternative, da musste ich jetzt schon lachen.
 
Zuletzt bearbeitet:
Ggf. gar mit nem 6GB Modell. Ich würde mich ernsthaft nicht wundern, wenn die eigentliche Speicherbandbreite auch unter dem möglichen liegt. Obenrum einbrechen sollte die Karte allerdings nicht...

Da gibt es nichts zu finden. Und zu den Nachteilen einer 780: ihr fehlen die paar dx12-Features (von denen bis heute keiner weiß, ob die für ein Featurelevel bei MS reichen), mfaa und... das war es auch schon. Eine übertaktete 970 saugt sich im Stromverbrauch auf Augenhöhe einer 780. Nur mit Referenztakt sind die Dinger effizient. DSR haben beide. In sachen Leistung trennen beide übertaktet auch nicht die Welt.
Deswegen war es ja auch schon immer Murks, von einer guten 780 auf eine 970 "aufzurüsten".
 
Ich hab grad mal aus Spaß eine GT 630 mit GK107 GPU und 2GB DDR3 am 128Bit SI getestet mit Nais Bench :fresse:
Sogar mit aktivem DWM :banana: mich dünkt die Karte hat ein Bandbreitenproblem...

Nai's Benchmark, edited by VultureX
Device: GeForce GT 630 (2.00 GB)
Memory Bus Width (bits): 128
Peak Theoretical DRAM Bandwidth (GB/s): 28.512000

Allocating Memory . . .
Chunk Size: 64 MiByte
Allocated 30 Chunks
Allocated 1920 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):20.57 GByte/s
DRAM-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 2 (128 MiByte to 192 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 3 (192 MiByte to 256 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 4 (256 MiByte to 320 MiByte):20.59 GByte/s
DRAM-Bandwidth of Chunk no. 5 (320 MiByte to 384 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 6 (384 MiByte to 448 MiByte):20.59 GByte/s
DRAM-Bandwidth of Chunk no. 7 (448 MiByte to 512 MiByte):20.59 GByte/s
DRAM-Bandwidth of Chunk no. 8 (512 MiByte to 576 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 9 (576 MiByte to 640 MiByte):20.60 GByte/s
DRAM-Bandwidth of Chunk no. 10 (640 MiByte to 704 MiByte):20.60 GByte/s
DRAM-Bandwidth of Chunk no. 11 (704 MiByte to 768 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 12 (768 MiByte to 832 MiByte):20.57 GByte/s
DRAM-Bandwidth of Chunk no. 13 (832 MiByte to 896 MiByte):20.57 GByte/s
DRAM-Bandwidth of Chunk no. 14 (896 MiByte to 960 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 15 (960 MiByte to 1024 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 16 (1024 MiByte to 1088 MiByte):20.59 GByte/s
DRAM-Bandwidth of Chunk no. 17 (1088 MiByte to 1152 MiByte):20.59 GByte/s
DRAM-Bandwidth of Chunk no. 18 (1152 MiByte to 1216 MiByte):20.60 GByte/s
DRAM-Bandwidth of Chunk no. 19 (1216 MiByte to 1280 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 20 (1280 MiByte to 1344 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 21 (1344 MiByte to 1408 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 22 (1408 MiByte to 1472 MiByte):20.61 GByte/s
DRAM-Bandwidth of Chunk no. 23 (1472 MiByte to 1536 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 24 (1536 MiByte to 1600 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):20.59 GByte/s
DRAM-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):20.57 GByte/s
DRAM-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):20.58 GByte/s
DRAM-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):20.59 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (128 MiByte to 192 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (192 MiByte to 256 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (256 MiByte to 320 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (320 MiByte to 384 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (384 MiByte to 448 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (448 MiByte to 512 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (512 MiByte to 576 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (576 MiByte to 640 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (640 MiByte to 704 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (704 MiByte to 768 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (768 MiByte to 832 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (832 MiByte to 896 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (896 MiByte to 960 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (960 MiByte to 1024 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (1024 MiByte to 1088 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (1088 MiByte to 1152 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (1152 MiByte to 1216 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (1216 MiByte to 1280 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (1280 MiByte to 1344 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (1344 MiByte to 1408 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (1408 MiByte to 1472 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (1472 MiByte to 1536 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (1536 MiByte to 1600 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):28.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):28.01 GByte/s
Drücken Sie eine beliebige Taste . . .

Keine Alternative, da musste ich jetzt schon lachen.

Ach Schaffe, wie so oft ließt du einfach nicht was geschrieben wurde...

Ich sprach nicht von "keine Alternative" sondern von "keine wirkliche Alternative."
Warum das so ist, wurde aufgezeigt... Da kannst du noch so viel davon nicht nötig haben oder nicht wollen oder lächerlich finden oder weis der Teufel was. Denn es wird mit dem Nachsatz quitiert, der da lautet:
"-> wer das alles nicht braucht, bekommt mit dem Teil aber wohl wirklich eine gute "Alternative"..." gefolgt von einem :wink: Also auffälliger gehts nun wirklich nicht.

So und jetzt kommst du... Und unterlass bitte einfach dein permanentes Unterstellen von Einseitigkeit.
Einseitig ist bspw. permanent die Argumente als unwichtig einzustufen, ohne auch nur im endferntesten den Sinn hinter der Argumentation verstanden zu haben!

Achso und ja, der Stromverbrauch... Dürfte bei vielen ein Grund für den Kauf sein bzw. gewesen sein. Zumindest wenn man die Beiträge in den Kaufberatungen so ließt. Und "Leistung" beim Wortspiel "Preis/Leistung" setzt sich lange schon nicht mehr nur noch aus absoluten FPS pro Euro zusammen... Das war vielleicht mal so, aber heute muss das nicht mehr für Jeden gelten. Wenn das bei dir oberstes Gebot ist, dann soll es mir Recht sein, aber lass doch bitte die Käufer einfach selbst entscheiden, was ihnen wichtig ist und was nicht.
Und ja natürlich kann das genau so gut auf pro AMD abziehlen. Stichwort Mantle, Stichwort FreeSync usw. Da punktet NV eben einfach nicht. Es gilt obiges dafür eben genau so: "wer das alles nicht braucht..."

Unterm Strich bleibt es dabei. Der User hat die freie Wahl. Nutzt er Features, die es bei AMD nicht gibt, ist AMD schlicht keine Alternative. Ein paar davon habe ich aufgezählt. Ein paar habe ich verschwiegen. Das gleiche gilt andersrum für AMD exakt genau so. Und jeder MUSS sich diesem Umstand im Grunde im klaren sein.
Eine Produkt wird nur dann eine Alternative, wenn die Features auch gegeben sind, die man benutzt und benötigt.

Da gibt es nichts zu finden. Und zu den Nachteilen einer 780: ihr fehlen die paar dx12-Features (von denen bis heute keiner weiß, ob die für ein Featurelevel bei MS reichen), mfaa und... das war es auch schon. Eine übertaktete 970 saugt sich im Stromverbrauch auf Augenhöhe einer 780. Nur mit Referenztakt sind die Dinger effizient. DSR haben beide. In sachen Leistung trennen beide übertaktet auch nicht die Welt.
Deswegen war es ja auch schon immer Murks, von einer guten 780 auf eine 970 "aufzurüsten".

Also mir fallen da schon ein paar mehr ein...
Bspw. der HDMI 2.0 Port -> hätten meine TIs einen ich würde ihn nutzen. Hab ne schöne 55" Glotze im Wohnzimmer stehen, kann UHD fahren und bekomme das Signar nicht an den TV :( Währe ja alles kein Problem, würde es DP 1.2 auf HDMI 2.0 Konverter geben -> aber die gibts einfach nicht.
Ebenso der Verbrauch, die 780 ist je nach Modell lauter, stromhungriger, heißer und sogar noch teurer.
MFAA interessiert mich persönlich nicht... Entweder richtiges AA oder DS(R).
Beim nicht 6GB Modell bleibt halt auch der noch weniger VRAM auf der Kontra Seite... Alles in Allem, ganz paar "Nachteile", die man sich da "erkauft".

Zumal die Verfügbarkeit der 780 non TI im Grunde nicht mehr gegeben ist. Ein 6GB Modell von Asus für knappe 400€ kann man kaufen. Oder ein 3GB Modell von Asus für ebenso knappe 400€. Zwei weitere Listungen als "Lieferbar" von nem Amazon Marktplatz-Händler und irgend nem Krautershop, den kein Schwein kennt.

Alternative? Unter diesen Bedingungen eigentlich nicht...
 
Zuletzt bearbeitet:
Gedankengang eines Noobs, der nicht tief in der Materie drin ist:

Windows belegt doch afaik umd die 200-300MB VRam, wäre es nicht möglich diese fest an die "langsamem" 500MB zu binden? So läge der Verlust im Endeffekt bei nur 200MB da das von Windows ja sowie immer im VRam liegt?!

Interessanter Ansatz! Evtl. machen die das ja schon, wenn nicht..interessant. Es spielt ja jeder mit Windows, und ja 300MB wären so oder so "weg".
 
die AMDs, insbesondere die 290er (weil die meine Wahl wären), sind mir zu stromhungrig. weil ich das so finde und Punkt. ohne Diskussion.
ich bin Käufer, ich kaufe manches nur wegen der Farbe. von daher ...
ich will effiziente Leistung (damit bleiben im Rahmen meiner Ansprüche nur 2 Karten übrig).
und ich will sie nicht prestige-überteuert (jetzt bleibt nur noch eine Karte übrig).

ich hätte zwar gerne die 4GB gehabt, aber nun denn.
3,5 und halber GB Glücksspiel-VRAM sind ja nahe dran. sonst passt der Rest ja.
btsj2z.jpg
 
Also mir fallen da schon ein paar mehr ein...
Bspw. der HDMI 2.0 Port -> hätten meine TIs einen ich würde ihn nutzen. Hab ne schöne 55" Glotze im Wohnzimmer stehen, kann UHD fahren und bekomme das Signar nicht an den TV :( Währe ja alles kein Problem, würde es DP 1.2 auf HDMI 2.0 Konverter geben -> aber die gibts einfach nicht.



MFAA interessiert mich persönlich nicht... Entweder richtiges AA oder DS(R).
Beim nicht 6GB Modell bleibt halt auch der noch weniger VRAM auf der Kontra Seite... Alles in Allem, ganz paar "Nachteile", die man sich da "erkauft".

Hdmi 2.0 wird noch die wenigsten interessieren.

Ebenso der Verbrauch, die 780 ist je nach Modell lauter, stromhungriger, heißer und sogar noch teurer.
Sorry, aber das ist Unsinn. Wie schon geschrieben, ist der tatsächliche Verbrauch recht ähnlich. Laut und heißer ist relativ und eigentlich Quatsch. Der GK110 ist nun wahrlich nicht schwer zu kühlen. Wie bei jeder Grafikkarte gibt es lautere und leisere Modelle. Das ist auch schon alles.
Teurer stimmt auch nur bedingt. Sie gab es eine ganze Weile für unter 300€. Jetzt sind nur die Reste noch da. Sie ist eben eol.
Dafür hatte der GK110 nie das Spulenfiepproblem in diesem Ausmaß. (Natürlich gab es da ein paar Pechvögel, ist aber nie die Regel gewesen).

Mir geht es nicht so sehr darum, hier eine Alternative anzubieten, als vielmehr deine Darstellung des " unterlegen Produkts" klarzustellen.
Die 970 war und ist nie ein sinnvolles Upgrade zur 780 gewesen.

Wer jetzt zufällig mal ein Schnapperl über Kleinanzeigen o.ä. findet, kann durchaus zugreifen. Gerade die 6GB-Version.
Der GK110 ist noch als high-end erdacht und die PCBs entsprechend hochwertig.

Hier mal der Verbrauch der G1 ab Werk: http://www.hardwareluxx.de/index.ph...geforce-gtx-970-g1gaming-im-test.html?start=4
 
Zuletzt bearbeitet:
Hdmi 2.0 wird noch die wenigsten interessieren.
Wer definiert die Wichtigkeit einer Funktion oder eines Features?
Du? Ich? Schaffe?
-> lassen wir das doch lieber den Endkunden machen und geben ihm bestenfalls vor, was ihn erwartet oder eben nicht, weil es fehlt. Mehr können wir nicht machen.
Wen HDMI 2.0 nicht interessiert, hat ein Argument weniger auf der Pro/Kontra Liste...

Sorry, aber das ist Unsinn. Wie schon geschrieben, ist der tatsächliche Verbrauch recht ähnlich. Laut und heißer ist relativ und eigentlich Quatsch. Der GK110 ist nun wahrlich nicht schwer zu kühlen. Wie bei jeder Grafikkarte gibt es lautere und leisere Modelle. Das ist auch schon alles.
Teurer stimmt auch nur bedingt. Sie gab es eine ganze Weile für unter 300€. Jetzt sind nur die Reste noch da. Sie ist eben eol.
Dafür hatte der GK110 nie das Spulenfiepproblem in diesem Ausmaß. (Natürlich gab es da ein paar Pechvögel, ist aber nie die Regel gewesen).

Irgendwie hast du das Grundproblem nicht verstanden...
Es ging darum, eine Alternative zu benennen. Irgendwelche Modelle, die irgendwann mal in irgend einer Ramschaktion für nen Schnapper an den Mann gingen, sind gut und schön. Der jenige, der aber HEUTE! mit dem Gedanken spielt, entweder die 970er loszuwerden oder sich VOR dem Kauf einer 970er doch eine Alternative zu suchen, hat ein gehöriges Problem... Da nutzt das Argument, gabs mal unter 300€ einfach gar nix.

Nen gebrauchten Schnapper kannst du immer und überall finden... Womöglich sogar den umgekehrten Fall, nämlich wenn Leute ihre 970er loswerden (gebraucht) und der gebrauchtpreis ggf. einbricht, schlägt das Herz der Schnäppchenjäger höher, dehnen das "Problem" hier egal ist ;) Aber das machts nicht besser.

Und Fakt ist, die 780er Karten saufen um die 200W, die 970er nicht... Werks OC Modell und Co. mögen andere Werte liefern... Aber das gilt auch wieder für beide Karten ;)
Dennoch kommt GK110 stand heute nicht an die Effizienz von GM204 ran. Zumindest nicht, wenn man die Begrenzungen nicht aufhebt...
Und ja, das sage ich als GK110 Besitzer, der damit zufrieden ist und vor allem, Jemand dem der Verbrauch selbst unwichtig ist, solange es kühlbar bleibt.

Zumal ich nicht von einem "unterlegenen Produk" gesprochen habe, sondern davon, dass es unter diesen Gesichtspunkten eigentlich keine Alternative ist. Weil die GK110 GPU, vor allem mit 3GB VRAM Anbindung im Grunde NICHTS besser kann als die GM204 GPU und man sie eben heute nur noch schwer -> oder zu teuren Preise erstehen kann. Oder was übersehe ich in diesem Argument?
 
Zuletzt bearbeitet:
Wer definiert die Wichtigkeit einer Funktion oder eines Features?
Du? Ich? Schaffe?
-> lassen wir das doch lieber den Endkunden machen und geben ihm bestenfalls vor, was ihn erwartet oder eben nicht, weil es fehlt. Mehr können wir nicht machen.
Wen HDMI 2.0 nicht interessiert, hat ein Argument weniger auf der Pro/Kontra Liste...

Na du hast sie definiert, indem das "nicht wirklich" eine Alternative sein soll aufgrund von HDMI 2.0, der genau jetzt was kann, was DVI und Displayport nicht können?
Was bringt denn HDMI 2.0?#

Irgendwelche Modelle, die irgendwann mal in irgend einer Ramschaktion für nen Schnapper an den Mann gingen, sind gut und schön. Der jenige, der aber HEUTE! mit dem Gedanken spielt, entweder die 970er loszuwerden oder sich VOR dem Kauf einer 970er doch eine Alternative zu suchen, hat ein gehöriges Problem..

Ja ein so gehöriges Problem, weil es ja von AMD nur unbrauchbare Alternativen gibt.:hmm:

Und Fakt ist, die 780er Karten saufen um die 200W, die 970er nicht... Werks OC Modell und Co. mögen andere Werte liefern... Aber das gilt auch wieder für beide Karten

Die paar Watt Unterschied interessieren eigentlich weniger wenn man es problemlos kühlen kann.
Eine r9 290 Trix kostet nur 269 Euro, das ist ne Alternative, ein paar spezielle Features hin oder her.
 
Zuletzt bearbeitet:
Ähm, was ist überhaupt HDMI 2.0? Ist das so wie bei HDMI 1.4, dass wegen schnellerer Datenübertragung größere Auflösungen fahren kann? Brauche ich das für 4K? :confused:

Gruß
Endkunde
 
Immer wenn jemand mit "Fakt ist...." ankommt, braucht man eigentlich nicht mehr weiterlesen.
Du scheinst deine eigenen Texte nicht zu verstehen: du zählst Nachteile auf, die keine sind bzw nie waren und redest dich um Kopf und Kragen. Ich stelle nur richtig, was du verzettelst.

Keine Sau interessiert sich für deine Effizienswerte der Referenzversionen. Es werden die Msi, G1, Strix, etc. pp. gekauft, um dann noch mal mit Hand 1400 oder gar 1500 MHz rauszuquetschen. Da sollte man schon wissen, dass man, wenn man schon auf den Strom schaut, genau NICHTS mit dem kauf einer 970 gewinnt.

Es gibt auch Leute, die andere Quellen als Geizhals haben und überlegen, was nun sinnvoll wäre.
 
Zuletzt bearbeitet:
Ähm, was ist überhaupt HDMI 2.0? Ist das so wie bei HDMI 1.4, dass wegen schnellerer Datenübertragung größere Auflösungen fahren kann? Brauche ich das für 4K? :confused:

Jein. Es gibt da irgendwelche Kniffe: HDMI 1.4: Mit Nvidia-Treiber zu 4k/UHD bei 60 Hertz: Stein der Weisen oder Trick 17? Bin mir aber nicht sicher wie/ob das imemrnoch in der Praxis geht. Es stimmt aber das HDMI 2.0 die Bandbreite deutlich anhebt.
Wie auch immer, DVI unterstützt bereits 4K, d.h. in der Praxis braucht man zur Zeit nicht unbedingt HDMI!
 
Zuletzt bearbeitet:
Wie gesagt: Hdmi 2.0 interessiert momentan kaum jemanden.
 
Man kann über HDMI 2.0 auch nicht mehr wie 60 Hertz über 4K Auflösungen nutzen.
Das gleiche in Grün wie bei Displayport, insofern ist HDMI2.0 ein Argument?

Fried_Knight schrieb:
Wie gesagt: Hdmi 2.0 interessiert momentan kaum jemanden.

Genauso ist es.
 
Jein. Es gibt da irgendwelche Kniffe: HDMI 1.4: Mit Nvidia-Treiber zu 4k/UHD bei 60 Hertz: Stein der Weisen oder Trick 17? Bin mir aber nicht sicher wie/ob das imemrnoch in der Praxis geht. Es stimmt aber das HDMI 2.0 die Bandbreite deutlich anhebt.
Wie auch immer, DVI unterstützt bereits 4K, d.h. in der Praxis braucht man zur Zeit nicht unbedingt HDMI!

Das war doch nur ein Theaterpost, um zu verdeutlichen, wie der Durchschnitts-Endkunde aktuell zu HDMI 2.0 steht: :confused:

Bei Grafikkarten bin ich ein ganz gutes Beispiel für einen Durchschnitts-Endkunden. Ich habe wenig Ahnung und brauche eine Grafikkarte zum Daddeln. HDMI 2.0 war mir bis eben kein Begriff. Spulenfiepen war mir kein Begriff, bis ich eine Karte mit heftigem Spulenfiepen bekommen habe.

Beim typischerweise mäßig gut informierten Durchschnittszocker zählen einfache Kriterien: Preis.(!) Leistung (kann ich FullHD mit 8xAA??? Mit HDR? Läuft BF4 flüssig?). Marke. Wieviel GB steht auf der Packung. Preisleistung laut PCGH oder meinetwegen Gamestar. Wenn er schlau ist: absoluter Stromverbrauch, reicht mein Netzteil? Wenn da einer nach fps/Watt bzw. Stromeffizienz fragt, ist er schon auf hohem Niveau.



Für solche Kunden ist eine Radeon 290 eine echte Alternative (gewesen), aber die Marke NVIDIA hat den besseren Ruf.
 
Dann zeigt mir bitte einen Adapter, der eine nicht HDMI 2.0 fähige Grafikkarte an einen TV mit HDMI (2.0) only Eingängen anklemmbar macht, ohne dabei entweder die Farben einzubüßen oder auf 24/30Hz runter zu müssen...
Für einen PC Monitor kann DP eine Alternative sein, aber nicht für einen TV.
Wie schon gesagt, wer das nicht braucht, muss es nicht nutzen... Wer es aber braucht, hat keine Alternative (außer der 980er und 960er). Die 960er bietet sogar noch HDCP 2.2 Support, was die GM204 GPUs nicht können... Andersrum wäre GM204 also keine Alternative zum GM206.

Du scheinst deine eigenen Texte nicht zu verstehen: du zählst Nachteile auf, die keine sind bzw nie waren und redest dich um Kopf und Kragen. Ich stelle nur richtig, was du verzettelst.
Nein, ich zähle MÖGLICHE Nachteile auf, die der jeweilige potentieller Kunde einer möglichen Alternative zur 970er eben dann hätte. Ob er davon was nutzt, ob es ihm wichtig ist oder nicht, ob er damit leben kann oder nicht, steht auf einem völlig anderen Blatt.
Wieso beschränkt ihr euch nur auf euren eigenen Horizont, der EUCH allein definiert, was IHR für richtig und wichtig haltet? Kann ich nicht nachvollziehen...

Keine Sau interessiert sich für deine Effizienswerte der Referenzversionen.
Der Verbrauch ist ein Argument, was in ziemlich vielen Kaufberatungen fällt. Ich kann nix für und bin bestimmt auch nicht dafür verantwortlich... Warum und wieso das so ist, müsstest du die jenigen fragen, die anhand des Verbrauchs ihre Kaufentscheidungen fest machen... Ich weise lediglich darauf hin.

Na du hast sie definiert, indem das "nicht wirklich" eine Alternative sein soll aufgrund von HDMI 2.0, der genau jetzt was kann, was DVI und Displayport nicht können?
Was bringt denn HDMI 2.0?#
... einen TV anzusteuern, möglichst mit UHD@60Hz, wenn der TV (wie so ziemlich alle UHD TVs heute? -> außer Panasonic Modelle) nur HDMI (2.0) Ports bieten... Das kann HDMI 2.0 an einer Grafikkarte.

Und immernoch nein, ich habe gar nix definiert. Ich sprach von Fakten, die es auf der einen Seite gibt auf der anderen unter Umständen nicht.
Die einzige wirkliche Alternative zur 970er ist die 980er. Denn sie bietet keinerlei Einschränkungen auf dem Featurelevel sondern ist lediglich teurer... Dafür auch schneller und vom Problem offenbar nicht betroffen. Alle anderen Karten bieten Einschränkungen. Und werden nur dann zur Alternative, wenn man mit den Einschränkungen leben kann.
-> auch wenn ich mich wiederhole, das gilt für jegliche Karten, ja im Grunde sogar für jegliche Produkte auf dem Markt, wenn es darum geht, Verschiedene zu vergleichen.

Wenn ich zum Autohändler gehe und nach nen 5-Sitzer frage, kommt der doch auch nicht mit dem Argument, dass ich lieber zu nem 4-Sitzer greifen soll, weil er der Meinung ist, dass 5 Sitze unsinn sind? Also ich hab das zumindest nicht erlebt.

Ja ein so gehöriges Problem, weil es ja von AMD nur unbrauchbare Alternativen gibt.:hmm:

Ist das eigentlich Masche von dir die Argumentation ins Lächerliche zu ziehen? Nimms mir nicht übel, aber das unbrauchbar, wie du es deutest, wurde nie von mir gesagt... Ich sagte, eine Alternative wird erst dann zur Alternative, wenn es die notwendigen Features und Leistungswerte liefert. Alles andere, was dies nicht bewerkstelligen kann, ist keine Alternative und damit unbrauchbar für den jenigen. Das ist mal das komplette Gegenteil von "AMD liefert nur unbrauchbare Alternativen". Lesen...

Für solche Kunden ist eine Radeon 290 eine echte Alternative (gewesen), aber die Marke NVIDIA hat den besseren Ruf.

Damit bist du genau so Jemand, der eine 290/290X als Alternative sieht und für den auch diese als Alternative in Frage kommt...
Was aber wenn dir irgend ein Feature eben wichtig wäre, was die Alternative nicht bietet? -> um nichts anderes geht es doch bei dem Argument, was eine Alternative ist und was nicht.
Simples Beispiel, du willst gern G-Sync nutzen, weil du gerade nen schön teuren G-Sync Monitor gekauft hast. Wäre für dich dann AMD eine Alternative? Oder du willst 3D Vision nutzen, weil du dir gerade einen 3D Vision Monitor gekauft hast, wäre dann AMD eine Alternative?

Den Kunden immer nur als "blöd" hinzustellen, der sowieso nicht weis, was er da gerade kauft, halte ich für den falschen Weg... Leistung definiert sich halt nicht einfach "nur" aus absoluten FPS.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh