nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Schaffe Mondrial und scully, könnt ihr (edit) bitte euren kleinen Privatkrieg in einem privaten Sandkasten austragen? Es nervt langsam echt.
Was hat das meineseits mit Privatkrieg austragen zu tun? :stupid:
Nun solange diese beiden der selben Architektur entspringen,dürfte auch das Highendmodell nicht das "Fermi Verbrauchsmonster" werden was sämtliche Spezifikationen sprengt
Der Vollausbau hat die doppelten Shadereinheiten und der Chip ist fast doppelt so groß. Da muss der GK104 deutlich unter 225W ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich find die GTR 680 12GB toll.. aber bitte nur mit eignem Reaktor ;) Nur bitte soll die dann auch mehr als 45% schneller sein als eine 7890 :P und ich möchte dann auch Heizkosten Sparen, also soll sie meine Wohnung heizen :fresse::stupid:

Ach und der battle geht ja dann erst richtig los wenn die Karten dasind.. ich glaub ich kapp die erste Woche danach meinen Anschluss xD

Du brauchst einen Reaktor?
ca. 7Mrd € und wir können dir einen bauen.
Allerdings gibt es da Liefereinschränkungen, nach Deutschland, Österreich, Italien und auch andere Länder können wir nicht liefern.

Lieferzeit ist aktuell bei ca. 6 Jahren. ;)
 
Der Vollausbau hat die doppelten Shadereinheiten und der Chip ist fast doppelt so groß. Da muss der GK104 deutlich unter 225W ;)

Komm wieder wenn das Ding draußen ist Thermi ist nicht Kepler

Und wenn diese Architektur in Ultrabooks landet.... jeder der will kann weiter denken auch über das Gesagte von Charlie und Ailuros
 
Zuletzt bearbeitet:
Ich lass mir von dir ganz sicher nicht den Mund verbieten, nur weil dir nüchterne Analysen zu den Spekulationen nicht gefallen ;)

Ich glaub es ist klar, dass dein Versuch mit den "far lower than 225W" wohl für den "halben" Kepler gilt.
 
scully1234 schrieb:
Komm wieder wenn das Ding draußen ist Thermi ist nicht Kepler

Darum geht es doch gar nicht.
Es geht um das im Zaum halten der Einheitenverdopplung und der Transistoren.
Es würde mich nicht wundern, wenn der Chip erstmal beschnitten wäre.

Wegen der gleichen Architektur oder wegen den Ultrabooks auf einen sehr geringen Verbrauch des Topmodells zu schließen, ist etwas weit hergeholt.
Die Einheiten, das SI und die Chipgröße und der aktuelle Fertigungsprozess sind da weit wichtigere Faktoren, die wir natürlich auch nicht sicher wissen.
Aber man nehme halt mal an, die Leaks sind korrekt.
Es wird abgsehen von den Design Wins für die Ultrabooks und dem angeblichen PCIe 3 Bug sicherlich noch Gründe geben, warum Nvidia teilweise erst im 2.ten Halbjahr daran denkt das Portfolio langsam komplett zu füllen.
 
Zuletzt bearbeitet:
Ich glaub es ist klar, dass dein Versuch mit den "far lower than 225W" wohl für den "halben" Kepler gilt.

So dann nochwas zum Nachdenken

The short story is that Nvidia,will win this round on just about every metric

Auch aus der Feder vom AMD Jungen

Mmmh was könnte wohl every metric bedeuten:coffee:

Kleiner Tipp für die TDP hat er das ganze sogar noch bekräftigt im letzten Artikel
 
Zuletzt bearbeitet:
Ja, das gilt aber nach wie vor für GK104 und nicht für GK110, das wurde doch nun schon deutlich gesagt und auch belegt:wink:
 
Zuletzt bearbeitet:
Jetzt kapier ich gar nichts mehr. Gegen welche Karten soll er denn sonst vergleichen?
 
Was mir mal so aufgefallen ist.

Beispielrechnung zu Veranschaulichung


GTX 580: 800 Core, 1600 Shader, 512 CudaCores

1600 x 512 = fiktive 200FPS


GTX 680: 800 Core, 800 Shader, da KEIN Hotclock mehr, 1024CudaCores

800 x 1024 = fiktive 200 FPS. (Takt halbiert, Shaderanzahle verdoppelt)


Worauf ich hinaus will... Wenn der GK100 aka GTX 680 "nur" 1024 Cores hat, die dank fehlendem Hotclock nur mit den 800 Coretakt laufen, dann erreicht sie grob nur die Performance der 580.
Anders formuliert, wenn Nv den Hotclock entfernt, braucht die 680 schon die 1024 Cores um überhaupt der 580 as Wasser zu reichen.

Die kalkulierten 30-40% mehr zur 7970 können dann nur über gesteigerte IPC-Leistung, oder extrem hohen Coretakt oder sehr gut genutzte massive Parallelität kommen.



Grundlegend richtig oder grundlegend falsch meine Gedanken?
 
Zuletzt bearbeitet:
Auf die Frage eines Users, ob Kepler wirklich so viel schneller ist und ob er seine bestellte 7970 (noch ungeöffnet) zurückschicken soll, meinte Charlie er soll sie behalten...
was wieder gegen "The short story is that Nvidia, will win this round on just about every metric" spricht

Zudem hat Charlie seine Aussage im neuen Artikel ja relativiert auf: will win this round on just about every metric in nvidia optimized/sabotaged games
 
Grundlegend richtig oder grundlegend falsch meine Gedanken?

Erstmal grundlegend richtig Doppelter Takt~Doppelte Shaderunits

---------- Post added at 21:56 ---------- Previous post was at 21:53 ----------

Zudem hat Charlie seine Aussage im neuen Artikel ja relativiert auf: will win this round on just about every metric in nvidia optimized/sabotaged games

Beruht auf der Annahme das Hardwareeinheiten für PissX vorhanden sind und da sagt


Wie damals bei Fermi mit der "Softwaretesselation" gelle,aber das werden wohl nur noch wenige wissen:fresse:
 
Zuletzt bearbeitet:
Ich denke langsam Kepler = Ivy Bridge...

Von Sandy zu Ivy passiert nicht die Welt

Kepler sieht aus wie ein Tock zum Fermi aehnlich intels Tick/Tock

Intel bohrt bei Ivy die GP auf, aber reine IPC Leistung oder Taktung stagniert
Nv bohrt bei Kepler zu Fermi DP und CudaCores auf fuer ihr zweites Marktsegment.
Fuer Gamer nichts wildes, fuer den ganzen GPGPUKram enorm
 
Zuletzt bearbeitet:
Ich denke langsam Kepler = Ivy Bridge...

Von Sandy zu Ivy passiert nicht die Welt

Kepler sieht aus wie ein Tock zum Fermi aehnlich intels Tick/Tock

Intel bohrt bei Ivy die GP auf, aber reine IPC Leistung oder Taktung stagniert
Nv bohrt bei Kepler zu Fermi DP und CudaCores auf fuer ihr zweites Marktsegment.
Fuer Gamer nichts wildes, fuer den ganzen GPGPUKram enorm

Das würde die ursprünglichen Aussagen vom Nvidia Boss aus dem August bestätigen. Da hieß es ja auch, dass hauptsächlich die DC /CUDA Leistung steigt.
 
Wenn Nvidia mit Kepler auch in nicht "optimierten" Spielen überzeugen kann, werd ich mir so eine holen, aber bisher zweifle ich noch dran.

Du hast mitbekommen das sie Charlie nen Streich gespielt haben?

Warum hab ich wohl oben verlinkt

Das mit dem optimiert wegen Ageia PhysX kannst du also streichen aus der Liste,denn das mit den dedizierten Einheiten ist Schall und Rauch

Wenn dann bezieht er seine PhysX Kraft aus den regulären Shaderunits und diese stehen somit auch für andere Berechnungen im vollem Umfang zur Verfügung
 
Zuletzt bearbeitet:
Ja aber was sagt ihrzu meiner Rechnung oben, woher sollen 30-40% zur 7970 kommen?
 
Ja aber was sagt ihrzu meiner Rechnung oben, woher sollen 30-40% zur 7970 kommen?

Also mit diesen Angaben kommt das schon hin,fraglich ist aber was der Hotclock da plötzlich wieder soll,während sämtliche seriösen Quellen nicht davon ausgehen


124oz7.png
 
lol also 1024 Cores mit 1700 Takt

Das sind 100% zur 580 und damit 70-80% zur 7970


meinetwegen gern ;)

Ist der Hotclock weg, wird Kepler irgendwie trotz der 1024 Cores ne lahme Ente

Bleibt der Hotclock wie beim Tesla/Fermi, also Coretaktx2, dann ballert der GK 110/100 alles weg, aber sowas von
 
Du hast mitbekommen das sie Charlie nen Streich gespielt haben?

Warum hab ich wohl oben verlinkt

Das mit dem optimiert wegen Ageia PhysX kannst du also streichen aus der Liste,denn das mit den dedizierten Einheiten ist Schall und Rauch

Wenn dann bezieht er seine PhysX Kraft aus den regulären Shaderunits und diese stehen somit auch für andere Berechnungen im vollem Umfang zur Verfügung
Du hast mitbekommen das ich in keinem meiner Beiträge PhysX erwähnt hab?
Ich hab davon geschrieben, das Nvidia gern mal Spiele unnötig auf irgendetwas optimiert, worin die eigenen Karten gut sind und AMD eben nicht.
Siehe unsichtbares Wasser und glatte Flächen mit massig tesslation in Crysis 2...

In solchen Spielen mag das 45% schneller als 7970 stimmen, aber mich interessiert eher, wie es in den anderen Spielen aussieht.
Die Karte, die micht in durchschnittlicher Leistung überzeugt und dabei nicht einen höllen Lärm macht, wird gekauft und fertig.
 
Bleibt der Hotclock wie beim Tesla/Fermi, also Coretaktx2, dann ballert der GK 110/100 alles weg, aber sowas von

Dann wäre es aber eher nen GF 120 irgendwas in 28nm:fresse:

---------- Post added at 22:43 ---------- Previous post was at 22:39 ----------

In solchen Spielen mag das 45% schneller als 7970 stimmen, aber mich interessiert eher, wie es in den anderen Spielen aussieht.
Die Karte, die micht in durchschnittlicher Leistung überzeugt und dabei nicht einen höllen Lärm macht, wird gekauft und fertig.

Charlie hat sich doch aber nunmal in das PissX verbissen und darauf hat er auch diese These aufgebaut mit den optimierten Spielen

Da das aber alles mehr oder weniger inkorrekt ist,da von arglistigen Persönchen forciert,ist das so nutzloß wie ein Kropf

Also gilt weiterhin der Einzeiler

Aber eins hat es gezeigt,seine Kritik gegenüber Nvidia,wenn er was negativ richendes aufschnappt,ganz gleich ob bestätigt oder nicht,hat in keinster Weiße nachgelassen:)
 
Zuletzt bearbeitet:
Naja bisher wars ja so:

New Gen beats old Gen Dual GPU, durch einfache Shaderverdopplung bei annaehernd gleichem Hotclock

Sprich

GTX280 = 9800 GX2 (240 Shader vs 2x128 Shader @ 1500 Takt)
GTX480/580 = GTX295 (480/512 Shader vs 2x240 Shader @ 1500 Takt)

Heisst:

GTX680 = GTX 590, da kastriert nehme ich mal die Mars 2 (1024 Shader vs 2x512 Shader @ 1500 Takt)

Sofern das Schema beibehalten wird und der Hotclock bleibt.
Dann haette Kepler brutale Performance.....
Wie gesagt wenn die sagenhaften 1024 Shader aber nur mit Coretakt ala 750-800 takten, dann ist sie nichtmehr als ne Profioptimierte 580
 
Zuletzt bearbeitet:
Charlie hat sich doch aber nunmal in das PissX verbissen und darauf hat er auch diese These aufgebaut mit den optimierten Spielen

Da das aber alles mehr oder weniger inkorrekt ist,da von arglistigen Persönchen forciert,ist das so nutzloß wie ein Kropf

Also gilt weiterhin der Einzeiler
Die These existiert ja nicht erst seit Charlies Post...
Zudem: Falls der Einzeler von Charlie auch auf den inkorrekten Daten basiert, kannste den auch knicken!
Oder hast du Indizien dafür, das er dafür echte Daten hatte?
 
Was spricht dagegen, dass die Shader optimiert sind, also 4 Shader mit normalem Takt so schnell wie 3 Shader mit Hotclock.
 
Die These existiert ja nicht erst seit Charlies Post...

Ja sicher nicht sondern hier her und von Neliz Ecke


Nichts desto trotz hat Charlie daraus die Story gebastelt,die ihn in ein paar Wochen wieder mal zur Lachnummer machen(Softwaretesselation lässt grüßen)

Der Einzeiler hingegen ist bisher nicht widerlegt
 
Zuletzt bearbeitet:
Ist jetzt nun der Hotclock noch vorhanden oder nicht ?
Wenn er noch da ist, dann ist doch die kommende GTX680 nichts weiter als ein Fermi-Shrink in 28nm und mehr Shader und Takt. Kepler wird dann erst später kommen 2013 mit der GTX7xx.

Wenn der Hotclock wirklich wegfällt, dann ist es eine andere Architektur. Selbst bei 1024 Shader würde die GTX680 nur durch den erhöhten Takt auf 850MHz gegenüber einer GTX580 schneller sein.
Eine andere Architektur aber, könnte dies kompensieren und die GTX680 deutlich schneller machen. Durch den Wegfall des Hotclocks, würde auch die Leistungsaufnahme deutlich gesenkt werden können.

Ich tippe zur Zeit eher auf das Erstere.
NVIDIA wird es sich einfach machen und einfach eine aufgebohrte Fermiarchitektur präsentieren. Dadurch wird Zeit für Kepler gewonnen und die kommende GTX680 kann dann kein Thermi werden, da diese Architektur nun ausgereifter ist. Auch sind sämtliche Treiber einfach nur Plug&Play und funktionieren tadellos. Da braucht man dann auch keine große Anpassung vornehmen und spart dort ebenfalls Entwicklungskosten.

Desweiteren Frage ich mich, warum sich die Leute so über den VRAM auslassen. 2GB sind weit mehr als die Meisten nutzen und völlig ausreichend. Nur weil AMD auf ihren Karten 3GB verbaut, ist es gleich besser ? Wenn AMD 30GB verbauen würden, dann müsste NVIDIA dies auch tun ??
Leute, bleibt mal auf den Teppich. Kein Mensch benötigt 3 GB-VRAM ! :stupid:
Dies ist nur ein Werbefeature um möglichst große Zahlen auf die Verpackung drucken zu können. Eine HD7970 mit 2 oder gar nur 1,5 GB VRAM würde nicht 1% langsamer sein.
 
Und kein Mensch benötigt mehr als 640KB RAM :fresse:

Was hat das damit zu tun ? :rolleyes:
Klar wird man in Zukunft mehr V-Ram benötigen, aber da gibt es bestimmt auch Karten, wo diese nutzen und eine HD7970 gibt es dann im verstaubten Kellerloch zu finden.
Der Unterschied zu deinem beknackten Vergleich ist, das die 640KB Limitierung ein fundamentaler Bestandteil der Programmierung des Betriebssystems Windows darstellte.
Eine Hardware, wie eine Grafikkarte kann man aber einfach erweitern.
Da sieht man mal wie wenig manche Leute von der Materie wissen !
3 GB-VRAM sind jetzt overdresst und dient nur der Verkaufsmarketingstrategie ! Wer das nicht erkennt, ist selber schuld und kauft sich gleich 3xHD7970 um 9 GB-VRAM zu haben. :fresse:
 
So ihr V-Ram Asthmatiker !
Hier mal ein schöner Vergleich:
Inno3D GT 430 mit 4 GiB - VRAM-Overkill? - grafikkarte, fermi, geforce, nvidia

Na das müsste doch nach eurem Geschmack sein oder ?
4GB V-RAM !!!
Das ist die Revolution und absolut zukunftssicher.
Das hat nichts mit Marketingstrategie oder ähnlichem zu tun. NEIN ! :rolleyes:

Aber schaut man sich mal die Karte genauer an fällt einem schon etwas auf oder ?
RICHTIG ... Es ist vollkommen egal wie viel V-RAM diese Karte hat, wenn es irgendwann einmal nötig sein wird 4GB-VRAM zu haben, ist diese Karte eh schon im Recyclingcontainer gelandet.
Und genau das ist auch so mit einer HD7970 !!

Wer das nicht versteht kann einem schon leid tun... irgendwie. :lol:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh