Kratzt die GeForce GTX 670 Ti an der 300-Watt-Marke?

Es fängt nunmal im kleinen an.
So war es auch bei der Gamestar, inzwischen gibts da fast nur noch so einen Stuss.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es fängt nunmal im kleinen an.
So war es auch bei der Gamestar, inzwischen gibts da fast nur noch so einen Stuss.


Naja die permanenten Trolle,sind da eher "pain in the ass" als wie mal ein fehlgeschlagener Artikel

Das Hardwareluxx zum Revolverblatt deswegen wird,glaub ich nicht,denn Andreas hat sonst seine Beiträge immer recht gut formuliert
 
Zuletzt bearbeitet:
@waro: Ich finde, dass es gerade am Titel schon erkennbar ist.
@fdsonne: Nicht lesen ist auch keine Lösung, ich will ja möglichst viele informative News auf dieser Seite lesen, da hilft es nichts, wenn ich alles, was mir nicht gefallen könnte, nicht anklicke. Da mus ich schon kritisieren, damit die News weiterhin so gemacht werden, dass ich sie gern lese.
 
Naja die permanenten Trolle,sind da eher "pain in the ass" als wie mal ein fehlgeschlagener Artikel

Das Hardwareluxx zum Revolverblatt deswegen wird,glaub ich nicht,denn Andreas hat sonst seine Beiträge immer recht gut formuliert

Die Sache mit den Usern ist wieder was anderes. Klar, wegen einer solchen News wirds dazu nicht kommen, aber man sollte darauf achten, dass es nicht mit der Zeit zur Gewohnheit wird.
 
Zuletzt bearbeitet:
Es fängt nunmal im kleinen an.
So war es auch bei der Gamestar, inzwischen gibts da fast nur noch so einen Stuss.

Bei Gamestar gabs mal gute HW-Artikel?!

Wie fdsonne schon sagt, wendet euch doch gleich an den Autor wenn ihr Probleme mit dem Artikel habt. Hier unbedingt ein Fass auf zu machen kommt einen schon mehr wie trollen vor.
 
Bei Gamestar gabs mal gute HW-Artikel?!

Wie fdsonne schon sagt, wendet euch doch gleich an den Autor wenn ihr Probleme mit dem Artikel habt. Hier unbedingt ein Fass auf zu machen kommt einen schon mehr wie trollen vor.

Ja, hatte sie. Mittlerweiel unglaublich, nicht wahr? :lol:
 
Wer in eine News reinklickt, welche offensichtlich sich auf etwas bezieht, was aktuell nicht am Markt zu finden ist, sollte einem doch der gesunde Menschenverstand schon sagen, das alles pure Spekulation ist.

Es soll ja vorkommen, dass eine News etwas ankündigt, das momentan noch nicht auf dem Markt ist.

Das fängt doch schon beim Titel an ;)
Einfach wegklicken wenns einen nicht interessiert. Verstehe das Problem nicht...

:wall:

Hier geht es doch darum, dass der Titel suggeriert, dass es interessant ist, und dann doch nur Käse drin steht..
 
Zuletzt bearbeitet:
Auf Bitten von fdsonne melde ich mich her mal zu Wort.

Ich habe diesen Artikel deswegen in unsere News gebracht, da die Quelle über die nächsten Tage hinweg eine Artikel-Serie plant, in der man kleinere Informationshäppchen zu "Kepler" bringen möchte. Inwieweit diese Angaben stimmen werden, das kann keiner sagen, interessant für die Hardware-Jungs wie uns dürften diese aber allemal werden. Zumindest wird das ein oder andere mit Sicherheit Bestandteil vieler Diskussionen werden - auch hier Forum.
News sollen allgemein dazu dienen, auch diejenigen zu informieren, die sich nicht täglich in jedem noch so kleinen Eck des Internet herumtreiben und zum anderen auch, um eine Diskussion im Forum zu ermöglich - speziell auf ein Thema. Während im Haupt-Spekulations-Thread über alles Mögliche diskutiert wird, geht es in den News-Threads meist etwas spezieller zu. Hier ist das Thema eben die Leistungsaufnahme: Wird "Kepler" der 300-Watt-Marke nahe kommen oder tauscht NVIDIA doch nur vorsichtshalber den zweiten 6-Pin-Anschluss gegen ein 8-Pin-Modell aus? (Nur um einen möglichen Ansatz aufzuzeigen.)

Ansonsten glaube ich, dass aus dem News-Text ganz deutlich hervor geht, dass es sich lediglich um ein Gerücht handelt: Ob Ente oder Wahrheit, das wissen wir nicht. Schon das Fragezeichen in der Überschrift impliziert dies. Dass meine Überschrift aber doch etwas zu reißerisch gewählt ist, diese Kritik nehme ich gerne an und gelobe zukünftig Besserung. Den Titel-Vorschlag "Verfügt die GeForce GTX 670 Ti über einen 6- und 8-Pin-Anschluss" schwirrte mir ebenfalls durch den Kopf, letzendlich habe ich mich dagegen entschieden. Manchmal ist besser, nicht ganz so kreative Ideen zu suchen. :)

Und nun schlage ich vor: Zurück zum eigentlichen Thema!
 
Hi Stegan,

vielen Dank für deinen Kommentar. Ich finde vor allem interessant, dass die "Quelle" in den nächsten Tagen weitere Infos streuen möchte. So langsam möchte man ja wissen, was uns von Nvidia präsentiert wird. Vor allem wenn auf der Cebit schon die nächsten AMD-Karten vorgestellt werden. Natürlich sind solche News immer vorsichtig zu geniessen, aber sie erlauben Spielraum zum Diskutieren und überbrücken die despektierliche Zeit bis zum (Paper-)launch.
 
Wenn das stimmen würde 300 W für ne midrange karte wär das ja noch shlimmer als beim ersten Fermi. Glaub ich nie OBR schreibt nur müll. Sonst könnte NV im Highend mit Kepler gleich nen Feuerlöscher mitliefern.
 
Wenn das stimmen würde 300 W für ne midrange karte wär das ja noch shlimmer als beim ersten Fermi. Glaub ich nie OBR schreibt nur müll. Sonst könnte NV im Highend mit Kepler gleich nen Feuerlöscher mitliefern.

Und was ist wenn die Karte mit 300Watt die 1000fache Leistung von der 7970 hat? Ich übertreibe bewusst. Du musst ja nicht das Topmodell mit der höchsten Leistungsaufnahme kaufen. Solange die Effizienz Performance/Watt besser ist als bei der Konkurenz darf die Karte ruhig auch deutlich mehr ziehen, meinetwegen auch das doppelte.
 
GK104 ist nicht das Topmodell ;)
Es ist völlig utopisch, dass GK104 eine TDP von mehr als 200W hat, davon träumen gewisse Leute, die einen Thermi 2.0 sehen wollen, aber das wird nicht passieren. OBR hat sicher Recht, aber man sollte ein bisschen weiterdenken, bevor man ihm nicht glaubt. Erstens hatte er bisher immer Recht und zweitens kann man die Bedingungen für Benchmarks so manipulieren, dass man gewinnt, obwohl man nicht gewinnt, aka Cherrypicking.
 
Na gut, meistens. Aber mit den anderen Quellen und dem gesunden Menschenverstand braucht man OBR in diesem Fall nicht unbedingt.
 
Da wundert es mich nicht, das die ganzen Regierungen die EU nicht unter kontrolle bekommen bzw. den Weltfrieden. Das klappt ja nichtmal im Luxx. Wahnsinn was hier abgeht.
Ich stimmer hier Stegan/fdsonne 100%zu.

Eagle
 
Also ich habe ein Board ohne Kühlkörper gesehen. Was das für ein Board war, weiss ich nicht so genau, aber wenn das Board keinen Kühlkörper hatte, kann das für die GTX 570ti nur bedeuten, dass sie nur sehr wenig Leistung verbrät, denn sonst hätte sie ja logischerweise einen Kühlkörper!
 
Als ich letztens über einen hohen Stromverbrauch spekuliert hab, um vor dem GK110 Release noch ne GPU zu haben die in etwa an die HD7970 herankommt, wurde ich noch von Scully blöd angemacht.
Tatsächlich liegt nämlich der Stromverbrauch des Chips "alleine" bei 150Watt. Da kommt aber noch etwas hinzu.
Vielleicht enpuppt sich das gute Performance/Watt Verhältnis als Märchen und man kommt nicht darum herum trotz des relativ effizienter Chips die Spannung hoch anzusetzen um mehr Dies aus den Wafern verwenden zu können.
Denn diese sind ja nach Nvidias eigenen Aussagen nicht in Massen vorhanden.
 
3Dcenter geht von einer TDP zwischen 210 und 280 Watt beim GK104 aus. Ausserdem wird die Karte, wie die 7970 einen 6-Pin und einen 8-Pin Stromanschluss haben. Dies wiederum beruht auf Information von VR-Zone.
Dass die Karten tatsächlich mit 6+8Pin kommen ist eine Vermutung aufgrund des Boards aus Q3/2011(!!!).
 
Als ich letztens über einen hohen Stromverbrauch spekuliert hab, um vor dem GK110 Release noch ne GPU zu haben die in etwa an die HD7970 herankommt, wurde ich noch von Scully blöd angemacht.
Tatsächlich liegt nämlich der Stromverbrauch des Chips "alleine" bei 150Watt. Da kommt aber noch etwas hinzu.
.

Da wirst du auch immer noch "blöd angemacht" wenn du dir bei unter 150 für den Core nen Gesamtverbrauch von über 225Watt zurechtfantasierst.Oder das Ding gar in die Fermi Richtung drücken willst


Darfst gerne mal einen der üblichen Verdächtigen fragen was die Platine nebst den 2GB Vram noch zusätzlich dazu addiert
 
Wie Ailuros gesagt hat, ist das alles noch abhängig von den binning Yields und überhaupt nicht sicher, die >150Watt für den Chip alleine klingen ja erstmal sehr gut.
AMD hat ja nicht umsonst den Takt auf 925mhz herabgesenkt.
Auf der italienischen Facebook Seite wird auch aktuell noch um Geduld gebeten.

PS:
Wenn du dich nicht sachlich unterhalten willst, dann quote mich nicht mehr und lass es sein.
Wenn man aufgrund der Yield-Schwächen nicht die komplette Effizienz zeigen kann, ist das überhaupt kein Beinbruch.
Auch wenn Nvidia etwas ineffizientere Chips auf den Markt bringt, werdn die genauso gekauft, andersrum ists genauso.
 
Zuletzt bearbeitet:
Dass die Karten tatsächlich mit 6+8Pin kommen ist eine Vermutung aufgrund des Boards aus Q3/2011(!!!).

das sind hier alles nur vermutungen ich hoffe nur das NV nach der umstellung nicht so ein desaster erlebt wie eins AMD mit dem Killer chip schlecht hin ----> R600!
Weil für NV wird das sicher auch erstmal ein ganz neuer schritt den AMD schon vor langer zeit gemacht hatte mit dem R600!
Das sie schneller werden als die AMD karte steht denke ich mal außer frage nur zu welchem preis? Leistung,Watt & Kosten in der Herstellung würde mich dann sehr interessieren!

@Schaffe
Ich denke schon das Nvidia die Performence/Watt gegenüber dem Fermi verbessern wird weil da hat ja AMD mit der HD7970 schon gezeigt was mit 28nm so geht!
Schlechter wird der Chip sicher nicht als der Fermi!
 
Dass die Karten tatsächlich mit 6+8Pin kommen ist eine Vermutung aufgrund des Boards aus Q3/2011(!!!).

Und!?!

Wir sind hier nicht bei Orange County Graphic Cards, wo jede Woche n neues Custom-Design des Boards kommt. Da wird nicht ständig was dran geändert, wenn das beim Sample im Q3 11 funktioniert hat.
 
Powerplay schrieb:
Ich denke schon das Nvidia die Performence/Watt gegenüber dem Fermi verbessern wird weil da hat ja AMD mit der HD7970 schon gezeigt was mit 28nm so geht!
Schlechter wird der Chip sicher nicht als der Fermi!

Verbessern steht außer Frage, um wieviel sie es verbessern können ist eher die Frage.
 
Wie Ailuros gesagt hat, ist das alles noch abhängig von den binning Yields und überhaupt nicht sicher, die >150Watt für den Chip alleine klingen ja erstmal sehr gut.
.

Du verdrehst ja schon wieder die Sachlage nicht drüber sondern unter 150Watt und bewusst nicht aufs letzte Watt präzise

Kleiner Tipp rechne mal 30Watt für den Rest der Platine und das ist schon extrem konservativ ausgelegt

So und jetzt hör endlich mit deinem Fermi Verbrauchstamtam auf,und leg das ad Acta,sonst bricht nächste Woche für dich ne Welt zusammen
 
Du verdrehst ja schon wieder die Sachlage nicht drüber sondern unter 150Watt und bewusst nicht aufs letzte Watt präzise

Kleiner Tipp rechne mal 30Watt für den Rest der Platine und das ist schon extrem konservativ ausgelegt

So und jetzt hör endlich mit deinem Fermi Verbrauchstamtam auf,und leg das ad Acta,sonst bricht nächste Woche für dich ne Welt zusammen
Wird wohl bei 150Watt TDP sein was auf jedenfall dann unter 150Watt bedeuten würde!
Board TDP liegt dann wohl so bei 225Watt wobei ich schon glaube das diese bei NV auch voll ausgenuzt werden können aber nie und nimmer @ games es sei den man nutzt 3 displays!
 
Zuletzt bearbeitet:
Es ist völlig utopisch, dass GK104 eine TDP von mehr als 200W hat

Utopisch ist das nicht, die HD 7950 hat bereits eine TDP von 200W, unter Spielelast ca. 150-155W realer Verbrauch und unter Furmark ca. 200-205W realer Verbrauch. Wenn der GK104 tatsächlich einige Prozent schneller als der "Tahiti Pro" sein sollte, ist eine etwas höhere TDP absolut denkbar.

Ich glaube, dass es nicht einfach wird, die herausragende Effizienz der HD 7950 zu überbieten. Die GTX580 benötigt unter Spielelast ~90-100W (real) mehr als eine etwas schnellere HD 7950. Nvidia müsste also nicht nur den Verbrauch um ca. 100W senken, sondern gleichzeitig noch ein gutes Stück an Leistung zulegen. mMn sind das ziemlich hochgesteckte Erwartungen.
 
Nvidia müsste also nicht nur den Verbrauch um ca. 100W senken, sondern gleichzeitig noch ein gutes Stück an Leistung zulegen. mMn sind das ziemlich hochgesteckte Erwartungen.

Nvidia kommt mit einer völlig abgewandelten Architektur daher,nicht grundlos wurde der Hotclock fallen gelassen,zu Gunsten von mehr Einheiten

Wer hat denn nach dem Pentium 4 und seinem letztendlich unkühlbaren Netburstdisaster gedacht,das Intel kurz darauf mit der Core 2 Architektur leistungs und effizenztechnisch AMD nicht nur aufholen konnte,sondern sogar vorbei zog;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh