Kratzt die GeForce GTX 670 Ti an der 300-Watt-Marke?

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.262
Ort
Augsburg
<p><img src="images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="float: left; margin: 10px;" />Vieles deutet derzeit darauf hin, dass auch NVIDIA <a href="index.php/news/hardware/grafikkarten/21535-nvidias-qkeplerq-gk104-soll-im-maerz-kommen.html" target="_blank">in Kürze seine neue Grafikkarten-Generation vorstellen wird</a>. Vielerorts geht man davon aus, dass „Kepler“, so der Codename der kommenden NVIDIA-GPUs, <a href="index.php/news/hardware/grafikkarten/21564-produktion-von-nvidias-qkeplerq-grafikkarte-soll-in-wenigen-tagen-beginnen.html" target="_blank">noch im März an den Start gehen soll</a>. Die Kollegen von VR-Zone.com scheinen schon heute weitaus mehr zu wissen und starteten aus diesem Grund eine neue Artikel-Serie. In regelmäßigen...<p><a href="/index.php?option=com_content&view=article&id=21587&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anhand der Leistungsprognosen war das ja mehr oder weniger abzusehen.

btw: bei Geforce fehlt das "f"
 
nej, ich wills leise und kühl und sparsam. Somit rückt die 7950 mehr und mehr in meinen Focus
 
Dito. Wenn die auf ca. 300€ fällt preislich ist sie mein :>
 
Soll doch mehr ziehen, ich kenn nicht wenig Leute mit einem fürs Systems Oversized Netzteil.
 
Wenn eine GTX 670 evtl. 300W verbrauchen soll, dann frage ich mich was mit der GTX 680 passieren soll?
Wenn es wirklich so kommen sollte, dann wäre das Fail.
Ich habe mir den Thermi ja noch gefallen lassen aber in dem Fall wird meine nächste Karte definitiv ne AMD werden.
 
Na ja, OBR ist für mich schon lange keine vertrauenswürdige Quelle mehr.
 
Leute, nur weil irgendwer irgendwo von irgend nem ES Brett was aufgeschnappt haben soll, das dort 6+8Pin Stromversorgungsstecker drauf sind, heist das lange nicht, das das Teil auch 300W verbrät :rolleyes:
Für GK104 sind bestenfalls 2x6Pin (225W) Boardpower zu erwarten. Und das heist lange nicht, das diese voll ausgefahren werden.
 
Nun, ich habe ja auch nicht geschrieben, daß ich davon überzeugt wäre!

Frühestens bei release werden wir es genau wissen und bis dahin ist alles, einschliesslich dieser News, doch eh nur reine Spekulation.

€: Man könnte ja z.B. auch vermuten, daß sich Kepler sehr gut oc´en lässt und Nvidia uns Nerds mit der Stromversorgung einen Gefallen tun möchte :xmas:
 
Zuletzt bearbeitet:
die 7970 hat auch 1x 6pin und 8pin und was heisst das nix!!!! Verbauchen tut sie besitmmt keine 300w.

Ohman immer diese panik hier,wartet ab ;)
 
find den schluß ja noch viel schlimmer. dass 6+8pin nicht ausgefahren werden zum einen, aber nur weil keine 6+6pin drauf sind, heißt es auch nicht, dass die nicht reichen würden. weniger ist natürlich immer möglich.
 
Weis nicht was ihr habt ich hätte bei AMD so gar lieber eine Karte mit 300W gesehen da für dann mit Paar shadern mehr und 30 % mehr Leistung.
Wenn NV ihre Highend bei 300W hat aber ca 45% schneller ist als die HD7970 ist doch alles in Butter.
Glaube nich das der Mittelklasse Chip mehr als 225 W nimmt im höchsten Ausbau da sonst für die 2 Karten da rüber kein Platz mehr da wäre von der Leistungsaufnahme her.
Leider gibt es bis heute noich keine 100% Informationen zur Kepler Serie bezw. sind sie schlecht zu zu ordnen .
Es wird Zeit das NV mal mit der Sprache raus rückt.
 
kann mir einer mal sagen was hierdran newswürdig ist?

da gibts nen diagramm mit nem wasserzeichen drauf
wo das herkommt steht hier nicht und auf vr-zone natürlich auch nicht

na gut dann ists wenigstens nen gerücht, aber auch das ja eigentlich nicht
weil dem diagramm (was ich in 2min selbst basteln könnte nur mal so nebenbei) fehlt jeglicher bezug zu irgendwas (nicht nur zu der gennanten karte, sondern zu einfahc allem)

mag zwar sein das vr-zone schreibt das die infos aus nem hands-on stammen, aber wo soll das herkommen wenn nvidia ihr NDA ziemlich strickt durchsetzten
hättense nen bild vom pcb hochladen sollen, dann hättense was inner hand gehabt
 
kann mir einer mal sagen was hierdran newswürdig ist?

Newsmeldung ist Newsmeldung, damit nicht jeder irgendwelche Foren nach neuen Infos/Spekulationen durchsuchen muss, gibt es von Zeit zu Zeit eben diese Meldung handfertig in Newsmeldungen.
Und aktuell ist es eben diese. Wo ist das Problem?
 
und was bracuht man dann für die GTX 580 und 590, gibts nur mit dieselgenerator im bundle^^
 
[..]damit nicht jeder irgendwelche Foren nach neuen Infos/Spekulationen durchsuchen muss, gibt es von Zeit zu Zeit eben diese Meldung handfertig in Newsmeldungen.

ich finds so sehr bequem!
tummel mich nicht ständig im speku thread weil ich keinen kauf in erwägung ziehe, aber größere neuigkeiten interessieren mich schon.
der balance akt liegt natürlich in der handhabung von "größeren".
die hier fand ich größer ;)
 
das problem was ich mit der news hab ist einfach das die quelle für die news nichts hat um die aussage zu hinterlegen

kein bild vom pcb oder wenigstens nen diagramm das den anschein hat von nvidia zu stammen

und das bild von irgend nem nvidia heatspread bei vr-zone kann man ja schlecht als verifikation nehmen
schließliche steht da nichtmal was das für nen chip ist
und der heatspread kann genauso von irgend ner fermi stammen ;)

also news über irgendwelche spekulationen gerne doch, aber die quelle sollte dann auch wenigstens den anschein erwecken das dort wirklich plausible daten verarbeitet wurden und nicht irgendwas was klicks generiert
 
Newsmeldung ist Newsmeldung, damit nicht jeder irgendwelche Foren nach neuen Infos/Spekulationen durchsuchen muss, gibt es von Zeit zu Zeit eben diese Meldung handfertig in Newsmeldungen.
Und aktuell ist es eben diese. Wo ist das Problem?

Das Problem ist, dass du seine Kritik nicht verstanden hast. Gebe LeXel absolut recht.
 
Weis nicht was ihr habt ich hätte bei AMD so gar lieber eine Karte mit 300W gesehen da für dann mit Paar shadern mehr und 30 % mehr Leistung.
Die Frage ist nur, wie wirtschaftlich ist das ganze. Grössere Chips sind schliesslich teurer und fehleranfälliger. Und wie viele solcher High-End Exemplare werden denn im Client Markt verkauft? Relativ wenig. Da ist der professionelle Markt schon lukrativer. Nur kann man dort auch auf Multi-GPU setzen. Sachen wie Mikroruckler sind für GPGPU eh vernachlässigbar. Und mittlerweile skaliert Multi-GPU ja auch richtig gut.
 
Das Problem ist, dass du seine Kritik nicht verstanden hast. Gebe LeXel absolut recht.

Welche Kritik?
Wenn er mit der Meldung nix anfangen kann, ist das sein Problem, er muss sie ja nicht lesen. Es gibt aber durchaus, wie die Kommentare hier zeigen, Leute, welche damit was anfangen können. Ob das Gerücht/die Spekulation nun stimmt oder nicht, spielt doch absolut keine Rolle. Ebenso unwichtig ist, wo das Gerücht/die Spekulation her kommt, welche Nachweise es dafür gibt usw.
Wichtig ist, das die Leute, welche nicht Tag und Nacht in diversen Foren nach Newsposts Ausschau halten (können/wollen), auf einfachem Wege über die aktuellen Spekulationen informiert werden. Und genau das macht diese News.
Kritikwürdig ist da absolut gar nichts.

Mal ehrlich, seit doch froh wenn sich Leute hinsetzen, welche hier Meldungen veröffentlichen... Wo ist das Problem!?
 
Mal ehrlich, die Meldung ist absolut reißerisch. Wenn es eine Meldung gewesen wäre alá "Geforce GTX670Ti hat 1x8Pin+1x6Pin Stromversrogung und verbraucht evtl. mehr als 225W", wo dann im Text noch draufhingewiesen wird, dass die Infos mit Vorsicht zu genießen sind. Aber direkt auf 300W auffärts zu schließen ist absolut übertrieben. Ist ja nicht die erste Karte mit so einer Stromversorgung, gab doch schon 2x8Pin. Gut, das sieht im Vergleich zur GTX560Ti und GTX570 mit 2x6Pin nach viel aus, aber auch da haben manche gut übertakteten Modelle vorsorglich 1x8Pin+1x6Pin.
 
Wenn er mit der Meldung nix anfangen kann, ist das sein Problem...

+1

Verstehe auch nicht, wie man sich bei einer rein spekulativen News in einem Diskussionsthread über die Verlässlichkeit der Quellen aufregen kann.

Ich bin froh über jede Information und jeden "Strohhalm" :fresse:

Wer damit nix anfangen kann, muss in diesem Thread ja nicht rumspamen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh