nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Und bei der 7750 7770 lag er meilenweit daneben und hat 3DC gebasht, obwohl sie es richtig hatten und hats danach schön gelöscht. Das selbe mit dem BD. Er editiert sich alles zurecht, damit die Leute drauf reinfallen.

3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Cape Verde - HD 7700-Serie - Cape Verde XTX ? - Southern Islands - GCN

Screenshot gemacht und gespeichert, weil er seinen Beitrag gelöscht hat. Soviel zur Glaubwürdigkeit ;)
Beim Kepler lag er auch schon komplett daneben und musste seinen Beitrag auch editieren.

Ontopic:
Fermi wars das selbe. Warten und staunen. Jop das ist passiert :wall:

Dann nehme ich meine Aussage ganz schnell zurück!^^Hoffe aber dennoch, dass Kepler ein 2. G80 wird.:d:d:d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zweiten Fermi? Gerne. 75% Mehrleistung gegenüber der GTX580 wäre schon awesome. :banana:

Analog zur Fermi Skalierung wäre das dann ein Stromverbrauch von 400-450W :fresse:
Mehrleistung gut und schön, nur wer soll das kühlen? Ich kauf mir sicher keine Wakü, nur für die Grafikkarte(n) :fresse:
Das muss mit Luft kühlbar bleiben... Sonst wird da gar nix ;)
 
Analog zur Fermi Skalierung wäre das dann ein Stromverbrauch von 400-450W :fresse:
Mehrleistung gut und schön, nur wer soll das kühlen? Ich kauf mir sicher keine Wakü, nur für die Grafikkarte(n) :fresse:
Das muss mit Luft kühlbar bleiben... Sonst wird da gar nix ;)

Es wären 375 Watt. :d

Und würde man die GTX580 nehmen, ist nunmal auch nur ein Fermi, wäre es 2x soviel Leistung für 1,25x mehr Strom. Also ca. 1,75x Mehrleistung für den selben Stromverbrauch. Wenn das Kepler schafft, dann wäre dies schon klasse.
 
Trotzdem muss bei Kepler irgendwas schiefgelaufen sein.

Man steht zwar nicht direkt so direkt unter Zugzwang, was wohl auch an der Preisgestaltung der 79xx liegt und Paperlunch verhindern schön und gut, aber so lange zu warten für ein Produkt das eigentlich Ende letzten Jahres kommen soll deutet auf nen Fehler hin.

Entweder stimmt dass PCIe 3.0 Gerücht oder es gab nen Respin wegen Leckströmen etc.

Analog zur Fermi Skalierung wäre das dann ein Stromverbrauch von 400-450W :fresse:
Mehrleistung gut und schön, nur wer soll das kühlen? Ich kauf mir sicher keine Wakü, nur für die Grafikkarte(n) :fresse:
Das muss mit Luft kühlbar bleiben... Sonst wird da gar nix ;)

Analog zur Fermi skalierung wäre das der gleiche Wattbereich wie jetzt. Die 75% decken sich nämlich mit den Angaben von TSMC ;)
 
Es wären 375 Watt. :d

Und würde man die GTX580 nehmen, ist nunmal auch nur ein Fermi, wäre es 2x soviel Leistung für 1,25x mehr Strom. Also ca. 1,75x Mehrleistung für den selben Stromverbrauch. Wenn das Kepler schafft, dann wäre dies schon klasse.

Furmark Volllastverbrauch legt Fermi zur 285er knappe 50% zu. Das wären ausgehend vom aktuellen Verbrauch von Fermi in Furmark über 460W Verbrauch. Das mein ich ;)
Ansonsten, in Sachen Gaminglast legt Fermi "nur" knappe 25% zu... Das wären ~280W bei gleicher Skalierung.


Aber sei es drum.
Ich behaupte, NV ist heute in eher komfortableren Situation als bei Fermi V1... Sprich man wird in meinen Augen nicht unbedingt gezwungen sein, GK110 so brachial aufs letzte auszuquetschen, das der Verbrauch ins unermessliche steigt. Sprich ich denke im Vergleich zu Fermi V1 wird Kepler GK110 schon recht Energieeffizient werden ;)
 
Zuletzt bearbeitet:
Furmark Volllastverbrauch legt Fermi zur 285er knappe 50% zu. Das wären ausgehend vom aktuellen Verbrauch von Fermi in Furmark über 460W Verbrauch. Das mein ich ;)
Ansonsten, in Sachen Gaminglast legt Fermi "nur" knappe 25% zu... Das wären ~280W bei gleicher Skalierung.

Naja, Pre-Fermi Karten reagieren auch nicht mehr ungeregelt im Furmark. ;) Sieht man schön hier, wo die GTX285 im Furmark weniger verbraucht als im 3DMark2006... Consommation, bruit - Nvidia GeForce GTX 480 & 470 - HardWare.fr

Ansonsten sind es ca. 260 Watt zu 210 Watt. Irgendwas um die 25% mehr Verbrauch. Gilt ebenso auch für die GTX580.
 
Ich behaupte, NV ist heute in eher komfortableren Situation als bei Fermi V1... Sprich man wird in meinen Augen nicht unbedingt gezwungen sein, GK110 so brachial aufs letzte auszuquetschen, das der Verbrauch ins unermessliche steigt. Sprich ich denke im Vergleich zu Fermi V1 wird Kepler GK110 schon recht Energieeffizient werden ;)

Sind sie, solange alles nach Plan läuft.

Schön ist, das wenn sie die Energieeffizienzkeule schwingen wohl ein gutes Produkt fürs Übertakten entsteht.
 
Naja, Pre-Fermi Karten reagieren auch nicht mehr ungeregelt im Furmark. ;) Sieht man schön hier, wo die GTX285 im Furmark weniger verbraucht als im 3DMark2006... Consommation, bruit - Nvidia GeForce GTX 480 & 470 - HardWare.fr

Ansonsten sind es ca. 260 Watt zu 210 Watt. Irgendwas um die 25% mehr Verbrauch. Gilt ebenso auch für die GTX580.

Ich halte von diesem Powertune Softwareabschaltungsgedöns nicht sonderlich viel. Warum will mir der Hersteller vorschreiben, wie ich die Karte zu belasten habe?
Sollen die lieber von Anfang an ne Karte bauen, welche sich innerhalb der Spezifikationen bewegt. (das kreide ich übrigens bei beiden Herstellern an ;)) Vor allem ist nichtmal 100% klar, wann dieser Schutz überhaupt greift. Wie man aber wunderbar erkennen kann, beide Hersteller bewegen sich mittlerweile in Regionen, welche hart am Limit sind, sonst bräuchte man sowas nicht ;)

Vllt macht hier Kepler nen Schritt in die richtige Richtung.

PS: mein Französisch ist ein wenig eingerostet. Ich traue da lieber nem deutschsprachigen/englischsprachigem Test ;) ht4u.net zum Beispiel. Fermi ohne Sperre ;)
 
Fermi v1 hat keine Regelung. :d
Das saugt wirklich auch im Furmark soviel...

Bei den GT200 Karten hat nVidia irgendwann angefangen per Treiber zu regeln.
 
So Freunde des gepflegten Grakakults, leider bedaure ich mitteilen zu müssen das sich der Sinn des "wtf" mir absolut net erschließt. Ich möchte doch meinen der Beitrag war homogen und emotional dargestellt. Naja nichtsdestotrotz zurück zum Thema: Spannung auf neue grakas natürlich vorhanden, nach langem warten hofft man doch gibt endlich gescheite Ware und sehensüchtige wünsche werder erfüllt. Wie auch immer: "canticum David Dominus pascit me nihil mihi deerit" dies gilt auch bzw insbesondere für Grakas. Naja damit verbleibe ich fürs erste mit freundlichen grüßen und hoffe auf eine ausführliche gesegnete Debatte.
 
So Freunde des gepflegten Grakakults, leider bedaure ich mitteilen zu müssen das sich der Sinn des "wtf" mir absolut net erschließt. Ich möchte doch meinen der Beitrag war homogen und emotional dargestellt. Naja nichtsdestotrotz zurück zum Thema: Spannung auf neue grakas natürlich vorhanden, nach langem warten hofft man doch gibt endlich gescheite Ware und sehensüchtige wünsche werder erfüllt. Wie auch immer: "canticum David Dominus pascit me nihil mihi deerit" dies gilt auch bzw insbesondere für Grakas. Naja damit verbleibe ich fürs erste mit freundlichen grüßen und hoffe auf eine ausführliche gesegnete Debatte.

Hast du heute früh vom Zaubertrank genascht oder trollst du hier einfach nur rum?
 
Hast du heute früh vom Zaubertrank genascht oder trollst du hier einfach nur rum?

Er nimmt euch nen bisschen auf die Schippe. :popcorn:
Recht leicht zu erkennen, wenn man seinen (zugegebenermaßen etwas schwer zu entziffernden) Text genauer liest.

Ich würde einfach nicht weiter drauf eingehen. ;)
 
Welche Werte schafft die GTX 580 (mit und ohne SLI ) bei dem Bench?
 
Zuletzt bearbeitet:
Naja hoffentlich stellen die die Grakas bald mal vor. Aber sollte es nä. Woche mit der Unreal Engine 4 geschehen, dann sagt das über die Performance schon mal nicht viel aus. Wahrscheinlich brauchen die dann 2-3 top Karten, um ne annehmbare Performance zu erzielen.

Schon diese Unreal Engine 3.5 Präsentation hat ja viel zu viel Leistung gebraucht, oder hat das ne einzelne Karte mit maximalen Details hingekriegt?
 
Es gibt verschiedene Presets. Das aus deinem Link war Extreme, das aus dem Video Performance.
 
Kleine einschätzung für GK104 & GK110

Test: AMD Radeon HD 7950 (CrossFire) (Seite 5) - ComputerBase

77h6ivos.jpg
aptoxmld.jpg


1920x1080 @4AA, 16AF
Wir haben von GTX560 > GTX580 42% Unterschied, von GTX580 > GTX590 haben wir 48% Unterschied

Gehen wir davon aus das GK104 50% schneller als die GTX560 wird, dann ist GK104 mit der HD7950 gleichauf,
bei GK110 gehen wir auch von 50% mehr Leistung als GK104 aus, dann wäre GK110 auf GTX590 Level was bei 500-550mm² & 250W realistisch wäre.

Die GTX590 ist in FullHD nur noch 23% schneller als die 7970, AMD braucht dann also als Antwort nur noch eine 7980 mit 1,1Ghz & Treiber Optimierungen.

3jfrr88z.jpg


Später könnte das vielleicht so aussehen...

GK104 = 100% (299$)
Tahiti Pro = 100% (279$)
Tahiti XT = 120% (399$)
Tahiti XTX = 140% (449$)
GK110 = 145% (499$)
 
Zuletzt bearbeitet:
8% über der GTX580 ? ... möglich
gesamt 58% schneller als GTX580? ...
Wenn das oben ein worst case ist bin ich sehr zufrieden :fresse:

und K1ll3rm4x

klar ist das besser, denn von den 590ern bekommst du nur zwei am Laufen und von GK110 vier :fresse2:
solche Freaks gibbet, mir reicht erstmal die eine bis die zweite kommt :d
 
Naja, Duplex, halte ich für ziemlich pauschal.

Zum einen machst du es nur an Tests von CB fest, zum anderen wissen wir noch garnicht wie schnell GK104 wohl wird. ?+50%=?

Zum anderen muss der Unterschied zwischen GK104 und GK110 nicht 50% betragen. Es wär enicht unmöglich das GK104 wegen dem Verbrauch zahme Taktraten bekommen könnte und man beim GK110 da etwas freizügiger ist. Andersrum wäre es natürlich auch möglich.

Eine 1,1 GHz 7980 wird AMD aber mit ziemlicher Sicherheit nicht bringen, zumindest keine die 1 zu 1 auf dem 7970 Chip basiert.
 
50% mehr Leistung ist für eine neue Nvidia Generation ganz normal, warum soll der Mainstream Chip GK104 gegenüber eine GTX560ti das nicht schaffen?
Eine 1,1 GHz 7980 wird AMD aber mit ziemlicher Sicherheit nicht bringen, zumindest keine die 1 zu 1 auf dem 7970 Chip basiert.
Mit solchen Aussagen würde ich vorsichtig sein ;) Der Tahiti Chip hat genug Taktpotential & was den verbrauch angeht hat man genauso viel Spielraum :wink:
 
Zuletzt bearbeitet:
Wenn jemand 350-400 € für ein Mainstream Chip ausgibt ist selber schuld :haha:

GTX580 ist ein High End Chip und kostet um die 400 €

Der stonierte GK104 für Februar soll laut Ail 3DCenter für 299$ geplant gewesen sein, also warum plötzlich 399$ ?
 
Zuletzt bearbeitet:
Wenn jemand 350-400 € für ein Mainstream Chip ausgibt ist selber schuld :haha:

???

Wenn der GK104 schneller ist, als die 7950 und sich höhere Preise durchsetzen, warum nicht. Wo steht denn geschrieben, dass GK104 = Mainstream = Billig sein muss. Nirgends! Mal ganz davon abgesehen ist eher GK107 Mainstream.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh