nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Warum wird sich denn immer über den Stromanschluss aufgeregt? Was soll das bringen eine Graka komplett auf Singleslot umzubauen?

Man kann so eher 4 Karten einbauen, oder auch zb. eine Soundkarte dazwischen stecken.
Es werden einfach weniger Steckplätze blockiert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Leute die hier bezüglich des "Stromturms" rumwettern sind wohl kaum auf 4-Way-SLI aus oder?
Ich hatte auch schon 2x 2-Slot Grakas im SLI...trotzdem hatte ich Platz für die Soundkarte und hätte auch Platz für noch eine weitere gehabt...
 
temnozor schrieb:
also ich bezeichne 10-15% mehr leistung bei ca. 30% weniger Leistungsaufnahme und einem 28% kleinerem DIE schon als abfrühstücken

sorry rubyfanguy aber tahiti wird hier als gamerkarte mal ziemlich geownd

Es werden aber keine 10 bis 15% mehr Leistung sein, sondern eher eine sehr vergleichbare Leistung, zugunsten der HD 7970 bei hohen Settings und Auflösungen.
DAs kannst du von Nvidias cherry Picking ableiten ( sind im Mittel nur 15% über der HD 7970) und von dem bisherigen geleakten Test, sinds genau 10% bei teils sehr nvidialastigen Spielen ( und vor allem peinlich wenigen) und vermutlich (aufgrund der etwas niedrigen 3D Mark Werte de HD 7970) auch mit veralteten Treibern.

Leistungsaufnahme zählt vor allem im Idle, da dort der PC die meiste Zeit verbringt, an der Grafik sieht man, dass da AMD in Front liegt.
Ihc schätze mal dass sich Tahiti und GK104 in der Hinsicht im Schnitt also nichts nehmen werden.

Imho ist der Ausdruck "abfrühstücken" ein bisschen zu euphorisch. Wie gesagt, warte auf den HT4U und CB , sowie Hardwareluxx Test und du wirst einen "Performancegleichstand" sehen.
 
Zuletzt bearbeitet:
Bei nem mATX Board mit nur 4 Steckplätzen wird's aber schon eng.
Ich sehe es ja bei meinem HTPC, auch wenn ich da nicht so eine Grafikkarte einbauen werde.
 
Die Leute die hier bezüglich des "Stromturms" rumwettern sind wohl kaum auf 4-Way-SLI aus oder?
Ich hatte auch schon 2x 2-Slot Grakas im SLI...trotzdem hatte ich Platz für die Soundkarte und hätte auch Platz für noch eine weitere gehabt...

Letztendlich muß es jeder selbst wissen, ich baue meine Karten auch lieber auf Singleslot um & freue mich wenn es denn überhaupt möglich ist.
 
Imho ist der Ausdruck "abfrühstücken" ein bisschen zu euphorisch. Wie gesagt, warte auf den HT4U und CB , sowie Hardwareluxx Test und du wirst einen "Performancegleichstand" sehen.

Sehe ich genauso, erstmals noch die Tests der o.g. Redaktionen abwarten.

Zu dem vergesst nicht das die GTX 680 nur mit einen vergleichsweise hören GPU Takt die Führung erkämpft. Bei gleichem GPU Takt wären die Karten in etwa gleich schnell und wir wissen alle das sich die HD 7970 ohne Probleme auf 1 GHz takten lässt. Meist sind 1,2 GHz oder mehr kein Problem was bei der GTX 680 noch in den Sternen steht!

Top ist natürlich echt die Leistungsausnahme! Kann da nur sagen, gute Arbeit NV;)
 
sontin schrieb:
Nur es ist irgendwie interessant zu sehen, dass Leute herkommen, die schon vor Start des Verkaufs immer wieder negative Dinge äußern. Sieht schon sehr verdächtig nach Torschlusspanik aus.

Wo sind deine felsenfesten 60% zur GTX580? Was ist mit den SP´s los?
Skalieren die nicht so gut? Hat Nvidia ein schlechtes Frontend? Sind die SP´s vergleichbar mit denen von AMD? Alles unbeantwortete Fragen.
20 bis 25% Merhleistung zur GTX580 werdens werden und ein Ringkampf mit der HD7970.
Genau so wie es Realisten bereits schon vor Monaten ( damals noch mit geringerem Takt von 900 bis 950 mhz eben zwischen den beiden Karten) gesagt haben.

Big Jango schrieb:
Zu dem vergesst nicht das die GTX 680 nur mit einen vergleichsweise hören GPU Takt die Führung erkämpft.

Man kann das alles schon relativ genau einordnen.
In dem Leak Test liegt die GTX680 genau 25% im Mittel (3DMark 11 weggelassen) vor der GTX580.
Nimmt man den CB Test lag die HD 7970 bei Release 18 bis 34% ja nach Auflösung und Settings in Front, also im Mittel genau das gleiche.
Nimmt man noch 5% Treiberboost für die neune AMD Karten hinzu ( dass da was gegangen ist, sieht man an der HD 7870), kann die GTX680 nur sehr schwer eine HD 7970 schlagen.
Da bleibt wohl maximal ein Gleichstand.

Jetzt dämpfe ich wohl die Erwartungen einiger oder was?:d
 
Zuletzt bearbeitet:
Thermiti? Man kann es auch ins negative drängen;)
 
Netter Chip, der da ankommt. Das Große Aber ist aber, wie verhält die Karte sich bei "Neutralen" Spielen. 2 Synth. und 2 Game - benches sind für mich keine Aussagekräftigen Werte. Ich warte auf den HWLuxx und CB Bericht, vllt sind die Benchfolien ja doch noch nachträglich überarbeitet worden

Die zweite Frage ist: Wie wird AMD kontern? Wäre ich AMD würde ich die 7970/50 um 50-70$ senken und mich zurücklehnen und zusehen wie NV den Papiertiger unters Volk bringen will, denn für 10% mehr Leistung (im Performancerating denke ich wirds dahin hinauslaufen) würde ich persönlich keine 100$ mehr zahlen. Die Alternative ist, dass AMD mal locker via Treiber 15% mehr Performance rauskitzelt (Wäre möglich, denn die 78xx hats bewiesen) Natürlich kann es auch sein, dass die 79er Serie eben wegen diesem ganzen GPGPU Gedöms einfach etwas an der Performance verliert.. Fraglich ist aber auch, ob AMD nicht vllt doch noch CUs auf der 79er Serie versteckt hat. Gibts da eigentlich mal endlich nen gescheiten Dieshot?

Ich denke aber eine Absenkung der UVP um 50-70$ ist doch sehr Realistisch, womit AMD immer noch Gewinn macht und die HD7900 Serie wieder im besseren Licht dasteht. Zusätzlich kommt ja auch die "bessere" Verfügbarkeit hinzu
Die Angesetzte UVP von NV schreit aber gradezu nach Preisabsprache, also vllt wollen beide bis zum Weihnachtsgeschäft die Early Adaptor abgreifen und senken erst dann. Meine 470GTX bekommt nun nen neuen Kühler und mal schauen was der Refresh beider Chips so mit sich bringt.
Vom Hocker gehauen hat mich Kepler nun nicht, nur das Perf/W Verhältnis ist mal richtig nice

Und Timbaloo:
20W weniger unter Last ist für mich kein Thermithi Grund ;) Erfreulich, dass NV auch den Idle Wert absenken konnte, der Lastwert ist natürlich nicht wegzureden und alles andre als schlecht. Dennoch ist AMDs 7900 Serie länger aufm Markt und vllt gibts zum Weihnachtsgeschäft schon nen Refresh, was ich aber angesichts von TSMC bezweifel
 
Zuletzt bearbeitet:
Wo sind deine felsenfesten 60% zur GTX580? Was ist mit den SP´s los?
Skalieren die nicht so gut? Hat Nvidia ein schlechtes Frontend? Sind die SP´s vergleichbar mit denen von AMD? Alles unbeantwortete Fragen.
20 bis 25% Merhleistung zur GTX580 werdens werden und ein Ringkampf mit der HD7970.
Genau so wie es Realisten bereits schon vor Monaten ( damals noch mit geringerem Takt von 900 bis 950 mhz eben zwischen den beiden Karten) gesagt haben.

Siehst du denn schon einen Test? Ich seh nur etwas suspektes aus China.
Und auch in diesem "Test" ist die GTX680 durchschnittlich 35% schneller als die GTX580.

Du bist kein "Realist" sondern ein "Viralist". :lol:

Thermiti? Man kann es auch ins negative drängen;)

Ja, Thermiti passt nicht. Eher Lärmiti und Lahmiti.
 
Zuletzt bearbeitet:
Netter Chip, der da ankommt. Das Große Aber ist aber, wie verhält die Karte sich bei "Neutralen" Spielen. 2 Synth. und 2 Game - benches sind für mich keine Aussagekräftigen Werte. Ich warte auf den HWLuxx und CB Bericht, vllt sind die Benchfolien ja doch noch nachträglich überarbeitet worden

Die zweite Frage ist: Wie wird AMD kontern? Wäre ich AMD würde ich die 7970/50 um 50-70$ senken und mich zurücklehnen und zusehen wie NV den Papiertiger unters Volk bringen will, denn für 10% mehr Leistung (im Performancerating denke ich wirds dahin hinauslaufen) würde ich persönlich keine 100$ mehr zahlen. Die Alternative ist, dass AMD mal locker via Treiber 15% mehr Performance rauskitzelt (Wäre möglich, denn die 78xx hats bewiesen) Natürlich kann es auch sein, dass die 79er Serie eben wegen diesem ganzen GPGPU Gedöms einfach etwas an der Performance verliert.. Fraglich ist aber auch, ob AMD nicht vllt doch noch CUs auf der 79er Serie versteckt hat. Gibts da eigentlich mal endlich nen gescheiten Dieshot?

AMD hatte doch mal was von einer 1125Mhz karte verlauten lassen fals der Kepler zu stark wird!

Sowas wäre natürlich ein netter konter ala 7980 mit 20% mehr takt weil dann hat AMD 100% die schnellste karte!
Wobei ich mir sicher bin das NV mit der Dualkarte die schnellste karte überhaupt haben wird da AMD sicherlicht nicht die vollen takte fahren wird im gegensatz zu NV!
 
AMD hatte doch mal was von einer 1125Mhz karte verlauten lassen fals der Kepler zu stark wird!

Sowas wäre natürlich ein netter konter ala 7980 mit 20% mehr takt weil dann hat AMD 100% die schnellste karte!
Wobei ich mir sicher bin das NV mit der Dualkarte die schnellste karte überhaupt haben wird da AMD sicherlicht nicht die vollen takte fahren wird im gegensatz zu NV!

Ich denke sie werden den Dual eher aus 2x Pitcairn gebaut.
 
Schnellste hin, oder her. Solange der Preis nicht fällt,.........

Bin mal gespannt, was die Karte im Einkauf bei uns im Laden kostet wird.
 
Naja der Tahiti scheint nicht auf 104 Effizienz zu sein. Pitcairn ist da schon viel besser aufgestellt und sollte eher geeignet sein meiner Meinung nach.
Da hast du natürlich recht nur wäre die leistung im vergleich zum NV Dualchip zu gering!
Vieleicht sehen wir auch beides HD7980 als Pitcain x2 und 7990 als Thaiti x2 ??
 
Warum wird plötzlich Tahiti als angeblich ineffzient hingestellt? Vor ein paar Wochen wurde doch der Chip noch abgefeiert, was für eine tolle Leistung beim Stromverbrauch erreicht würde.
Fällt mir nicht nur hier auf, sondern auch in anderen deutsch- sowie englischsprachigen Foren... :hmm:
 
Zuletzt bearbeitet:
Oh, dann war die Nummer natürlich peinlich für mich :d

Kann Vorkommen ;)

Nochmal zur verdeutlichung:

7990/ 6990 entspricht 5970
7900/ 6900 entspricht 5870
7800/6800 entspricht 5700
7700 entspricht 5600

So wars quasi vor erscheinen der HD6k. Aber du bist nicht der einzige, der da ins Schleudern kommt ;)
Man kann also schonmal durcheinander kommen ;)
 
Zuletzt bearbeitet:
Ja aber wer will denn jetzt noch einen Thermhiti haben

Du weißt, dass wir uns was Leistungsaufnahme anbetrifft mit GK104 und Tahiti relativ weit unten im Vergleich zu einigen früheren Karten der Fermi Generation befinden?
Insofern, sehe ich deine Aussage als realtiv starke Übertreibung und Polemik an.
Wenn GK104 unter Vollast ca 20-30 Watt weniger benötigt, ist das gut, aber kein Grund nicht zu AMD zu greifen, weil (anhand das Leaks) die Idle Stromaufnahme bei AMD besser sein soll.
Was ich damit sagen will: Wir bewegen uns noch in Gefilden, wo die Leistungsaufnahme nicht zu einem K.O Kriterium wird, wie damals bei der GTX480.

Siehst du denn schon einen Test? Ich seh nur etwas suspektes aus China.
Und auch in diesem "Test" ist die GTX680 durchschnittlich 35% schneller als die GTX580.

Es gibt die offizielle Folie von Nvidia, die Benchmarks mit den bunten Balken und den Leaktest.
Und wenn du die GTX680 da 35% vor der GTX580 siehst, musst du nochmal nachrechnen. ;-)

Du bist kein "Realist" sondern ein "Viralist".

Das sagst gerade du, der seine Lieblingsfirma bis aufs Zahnfleisch verteidigt und deswegen im 3DC nicht mehr ernst genommen werden konnte.
Ein geschätzter Performancegleichstand zwischden den beiden Karten, ist mit Sicherheit kein virales Marketing, sondern ziemlich realistisch, aufgrund der bisherigen Werte.
Guck mal im 3DC auf der Main, da steht nichts anderes.

Ja, Thermiti passt nicht. Eher Lärmiti und Lahmiti.

Lärm ist immer abhängig von der Kühlung und da ist bekannt, dass AMD den Boardpartnern einen Gefallen tut, insofern kann man das nicht so stehen lassen. ;-)
Und lahm ist Tahiti nicht, wohl in einigen Benchmarks sogar schneller als Nvidias GK104, besonders bei hohen Settings mit SGSSAA und 2560x1600, aber das werden wir ja im Computerbase Test lesen können.

sontin schrieb:
Warum wird plötzlich Tahiti als angeblich ineffzient hingestellt? Vor ein paar Wochen wurde doch der Chip noch abgefeiert, was für eine tolle Leistung beim Stromverbrauch erreicht würde.

Tahiti ist jetzt keine Revolution (was die Effizienz anbetrifft ) gewesen. Binning Yields Ahoi.
Wer soll da abgefeiert haben? Idle Verbrauch ist sehr gut, Lastverbrauch der HD 7970 war trotz 20% Merhleistung zur GTX580 jetzt nicht um welten besser.
Ich kann mir schon vorstellen, dass GK104 da 20 Watt weniger bei gleicher LEistung verbraucht.

Effizienzmeister sind eher die HD 7950, sowie HD 7870/50 und die HD 7750.

BTW: Ich rede nichts am GK104 schlecht, im Gegensatz zu dir der mit Lahmiti und Lärmithi Begriffen um sich wirft und immernoch den unsinnigen GTX580+ 60% Phantastereien nachtrauert.
 
Zuletzt bearbeitet:
Ich entschuldige mich mal allgemein für meinen 50%-Troll :fresse:

weil (anhand das Leaks) die Idle Stromaufnahme bei AMD besser sein soll.
Ist die Frage auf was man aus ist. Will man Strom sparen, ist idle-Verbrauch wichtig, will man leise ist idle-Verbrauch irrelevant. Ich will leise, da ist die max. Leistungsaufnahme halt entscheidend.

Was ich damit sagen will: Wir bewegen uns noch in Gefilden, wo die Leistungsaufnahme nicht zu einem K.O Kriterium wird, wie damals bei der GTX480.
Naaaaaja. Ich habe aktuell eine GTX560ti@800MHz@0.95V) auf einem Shaman/TY-140@1000rpm. Das ist schön leise, aber die Temperaturen könnten trotzdem etwas besser sein (speziell wenn man die VRMs betrachtet). Zudem heizt die GPU die CPU durchaus ein wenig mit, so dass man in Spielen durchaus in Bereiche vordringt wo die Temperaturen der CPU anfangen unangenehm zu werden. So gesehen fallen 7970 und 680 für mich fast schon wieder aus.
 
Ich entschuldige mich mal allgemein für meinen 50%-Troll :fresse:


Ist die Frage auf was man aus ist. Will man Strom sparen, ist idle-Verbrauch wichtig, will man leise ist idle-Verbrauch irrelevant. Ich will leise, da ist die max. Leistungsaufnahme halt entscheidend.


Naaaaaja. Ich habe aktuell eine GTX560ti@800MHz@0.95V) auf einem Shaman/TY-140@1000rpm. Das ist schön leise, aber die Temperaturen könnten trotzdem etwas besser sein (speziell wenn man die VRMs betrachtet). Zudem heizt die GPU die CPU durchaus ein wenig mit, so dass man in Spielen durchaus in Bereiche vordringt wo die Temperaturen der CPU anfangen unangenehm zu werden. So gesehen fallen 7970 und 680 für mich fast schon wieder aus.

Im Endeffekt schaut man sich die Kühllösungen der Partner an und nimmt dann eben nicht den Ref. Ich habe eine ref 6950 und bei last nervt sie ganz schön ohne Kopfhörer aber die DC2 meines Cousengs ist flüsterleise.
 
Timbaloo schrieb:
Ist die Frage auf was man aus ist. Will man Strom sparen, ist idle-Verbrauch wichtig, will man leise ist idle-Verbrauch irrelevant. Ich will leise, da ist die max. Leistungsaufnahme halt entscheidend.

Ich denke die knapp 200Watt Realverbrauch der HD 7970 sind auch leise zu kühlen. ;-)
Dass GK104 weniger verrbaucht ist ein Vorteil, aber nun kein wirklich wichtiger, außer es werden satte 50Watt, davon gehe ich aber nicht aus, mal sehne was HT4u so rausmisst.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh