nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Schlechter als die normalen Geforce. Ich bezweifel auch das du auf denen irgend nen Spiel zum laufen bekommst. Ich denke der normale Treiber arbeitet nicht mit den Karten zusammen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Quadro Treiber dürften zumindest DX11 können ;)
OpenGL sowieso... Bei den Teslas könnten jegliche Grafik APIs rausfallen -> wobei ich das nicht genau weis ;)
 
Wenn das stimmen würde, wäre es gar nicht gut:
http://translate.google.com/transla...www.4gamer.net/games/120/G012093/20111124085/

  • Ein klassischer GK100 wäre/ist sehr großer Chip, kommt später (evtl. optimiert auf geringerem Verbrauch und dann 2013 als GK102/GK112)
  • Verbrauch von GK104 (Performance) über 250W
  • Nvidia konzentriert sich erst auf kleinere Dies, eben besagten GK104
  • GK110 soll eine Dualkarte sein

Next generation GPU NVIDIA "Kepler" (Kepler, code-named). A figure that has yet to see dimly.

NVIDIA is already leading to the notebook PC vendors, entry-level model generation Kepler "GK107" (code name. Here, GK is the same model number) has begun sample shipments. Also, early next year, corresponding to the PCI Express Gen.3 "GK106", and it has been notified that there is a major partner for the operation verification plan providing for the desktop PC.
However, NVIDIA is not communicating the details of the Kepler and even for those partners, at present, "code name and schedule, and performance targets on, began to talk" level only.
But from there, many officials had seen major changes in the product strategy at NVIDIA. Together around this time around let it.


Kepler lineup is becoming clear
GTX 580 is the successor to the end of 2012 or 2013 (gemeint ist wohl, dass der Nachfolger der 580 erst Ende 2012/2013 kommt)

Taken together the story of a leading OEM vendors, are named to the product roadmap for NVIDIA's Kepler generation, but the following four products.

GK110: Configure GK104 × 2, supports PCI Express Gen.3
GK104: Performance GPU, supports PCI Express Gen.3
GK106: Mainstream GPU, supports PCI Express Gen.3
GK107: Entry GPU (only OEM?), Supports PCI Express Gen.2


Kepler's name is "Kepler's laws" Johannes Kepler, known for such astronomers (Johannes Kepler ,1571 -1630) derived from the name of the
Multiple parties are close to NVIDIA "Initially, GPU core architecture of Kepler is only two" are aligned with the mouth. However, among the participants are getting the same information, "GK107 GK106 is the same GPU core, but aimed to differentiate itself by disabling some of the CUDA Core" and of that, "GK106 is compatible version of PCI Express Gen.3 GK107, GK107 although the meantime be provided as needed for major PC vendor to supply early, and eventually will be integrated or not, "and so on, opinions are divided It is that reality. However, support for PCI Express Gen.3 of GK106, "The outcome of the verification operation may be postponed," and noted that some participants will want to remember.
In addition, GPU for notebook PC, and power pop from that corresponding to the PCI Express Gen.3, expected to be delayed responses. PCI Express Gen.3 story becomes a story of the GPU for the desktop PC.

So, Kepler roadmap Importantly, as can be inferred from the model number, GF100 (= GeForce GTX 480) chips like big (at least for the time being), but that does not appear. 穿 (the sale) if the view was of the AMD "sweet spot strategy" Like, is not considered to have no potential to focus resources on product shipments even NVIDIA, actually, "the Kepler Architecture characteristics, which makes it difficult to introduce because of the big chip "(An official close to NVIDIA).

As mentioned earlier, NVIDIA has not revealed the details of the Kepler architecture to partners. However, the company is "in order to greatly improve the precision floating point performance in Kepler, aimed to optimize the architecture" that is described as turning, as well as strengthen itself CUDA Core, Streaming Multi- processor (SM) Graphics Processing Cluster and (GPC) but also signs revised configuration. Thus, "I heard that the operational efficiency reaches 1.5 to 2 times compared with the Fermi architecture" is the official valve OEM.
Another official close to NVIDIA's "CUDA Core of Kepler, which also heard plans to support integer arithmetic 64bit. Whether it is achieved in the first generation of Kepler is not known, fairly CUDA Core Strengthening saw would be more natural, "that he said. Kepler generation, rather than raising the number of CUDA Core, by strengthening itself CUDA Core, but it is aimed to raise the efficiency of operations per unit of power, but officials agreed view.

GPU Roadmap as of August 2011. The latest information on the 2012 Kepler, Maxwell in 2014 and has been
On the other hand, by increased efficiency through improved operations GPU CUDA Core, sister more and more power, and many officials were seen as difficult to manufacture a big chip. OEM official said, "GK104 power exceeds 250W" also points out.
In fact, NVIDIA is in a developing stage of PCI Express Gen.3, and has sought to incorporate into standard PCI SIG power 400W. Initially, the chip had been planned as a big-generation flagship Kepler, it is possible that the development has been postponed and power consumption issues.

In GTC 2010 was held in San Jose, California in September 2010, Jen's NVIDIA-Hsun Huang CEO is "at present is to slow down the cycle and a half years to two years the evolution of process technology, the GPU will need to plan for this cycle, according to the product lineup, "had said. In short, two years of the Kepler architecture portfolio is not market must continue.
The NVIDIA that point, the GeForce GTX 580, has a track record of achieving low power consumption of GeForce GTX 480 while the same process technology. 2013 from the end of 2012, big chip low power consumption technology aimed at the optimization of the process "GK102" or "GK112" (referred to by different Source ※) It is reported that there are plans to introduce , the story would say highly likely.

NVIDIA GPU Roadmap for Desktop PC

Furthermore, according to the specifications that are currently exposed to the OEM relationship, the amount of graphics memory or 3GB GK104 is 1.5GB, the memory interface (the same GF110 and GF100) 384bit. Single-precision floating point performance is expected to greatly exceed 2TFLOPS.
GK110 GK104 is equipped with two groups, but the clock kept to the problem of low power consumption, processing performance is still coming over the 4TFLOPS. And they mentioned his name GK112 GK102 Furagushippuchipputaru or earlier, is expected to be adopted by 512bit memory interface.

 
Zuletzt bearbeitet:
Da steht aber auch das der "big chip" in 28nm über 4 TFlop/s haben soll. Wenn man davon ausgeht das 500mm²+/- ganz einfach nen Vernunftslimit sind kann ich mir das ehrlichgesagt nicht vorstellen.

Der GK104 soll weit über 2 TFlop/s machen, das wären dann wohl schon 50-60% über GF110.

Irgendwie ist das alles schwer vorstellbar, aber es sind ja auch alles nur erste Gerüchte aus unbekannter Quelle. Ich nehms trotzdem mal als Link auf die erste Seite, wenns noch iregdnwo bestätigt wird nehm ichs auch richtig mit auf.
 
Ne, die 4TF sind für die Dualkarte aus zwei GK104 mit gesenkten Taktraten.

Genau, 50-60% über GF110...und das ist zu wenig für so einen großen Prozesssprung.
 
Und das denke ich eben nicht..
Vielleicht hat NVidia verstanden und macht es mal richtig.
Dicker Chip mit geringer Voltage - wird wohl das Teil der Burner für OC - im Standard fährt er quasi mit Handbremse.
Wie war das noch beim Fermi-Launch?
Der Schaden war doch groß - Reviewer/Tests legen viel Wert auf den Verbrauch - man denke daran wie heftig die 480 verrissen wurde - auch wenn das hier im Luxx den meisten egal ist, da eh getacktet wird. Und wenn da mit mehr Power ordentlich was rauszuholen ist, dann wird die Karte ein Erfolg.
Die Distributoren bzw. Kartenhersteller können so die SuperSuperTurboOverclock³ OC-Karte anbieten, die Übertakter halten die Rekorde und die Normalos freuen sich über den geringen Verbrauch.

Dann hätte man vieles richtig gemacht.
 
Zuletzt bearbeitet:
Hmm soll ich auf die neue Generation warten oder mir doch noch ein SLI-Verbund aus zwei GTX570 besorgen ?!

Wenn ich so manche Beiträge und Gerüchte lese, ist ein Release Anfang / März 2012 wohl doch etwas optimistisch, oder ?
 
Zuletzt bearbeitet:
Bei den Preisen für eine GTX 570 wird wohl eher warten angesagt sein.
Habe vor 2 Monaten für meine MSI GTX 570 TwinFrozr III 280€ gezahlt. Nun liegt der Preis bei über 320€.
Ich hab den Fehler gemacht und mir erst eine zugelegt. Meiner meinung nach sollte man wenn man SLI in Betracht zieht, sich sofort die 2te besorgen.
Ist mir nun schon zum zweiten mal passiert -.-
 
Hm... ich bin mal richtig aufs Performance-Segment gespannt... ne Karte mit Leistung der GTX 560 ti und dabei wesentlich weniger Verbrauch (wobei die Karte eigentlich schon genügsam ist @UV) wäre doch mal was :)
 
wie jetzt :hmm:
also muß man für ne GTX680 noch ein dreiviertel Jahr warten ?
Habe ich das jetzt richtig verstanden, das High-End und Enthusiasten Karten beide eine Duallösung werden?
 
Abwarten ... Sind ja alles nur Gerüchte. es wird wohl länger dauern als gedacht, aber auch nur weil die 580 echt rockt und AMD erstmal zeigen muss was sie können.
Sollte AMD im Januar tatsächlich mit ner starken Karte trumpfen, wird NVIDIA sich entsprechend verhalten.
 
Zuletzt bearbeitet:
N dann Geduld ich mal noch ein bisschen ... will das benötigte Geld nicht falsch anlegen ;)

Obwohl man glaub ich mit einem SLI-Gespann aus zwei GTX570 min. 2 Jahre auskommen würde :hmm:
 
ich hatte mir eigendlich 2 zu Anfang vorgestellt und vielleicht später ne 3. dazu mit je 3GB . Wenn das aber so exorbitant lange dauert winkt ja schon bald Maxwell^^
 
klingt ein wenig abenteuerlich :fresse:

Ich hatte ja schonmal angesprochen, das die PCIe Grenzen in Sachen Leistungsaufname wohl im Weg stehen. Das klingt für mich im Moment so, als würde NV was ähnliches wie den G92 bringen. -> ein etwas besserer G80 mit womöglich höhrem Takt.
Rückblickend betrachtet, war der G92 auch nur ein "Lückenfüller" zwischen G80 und G200 um die lange Zeit anständig überbrücken zu können.

Ich meine mich dran zu erinnern, das man vor ein paar Monaten mal Gerüchte las, von wegen, der eigentliche Fermi Nachfolger kommt mit Maxwell. Würde zumindest ähnlich ins Bild passen, das man erst nen Lückenfüller bringt und dann im nächsten Schritt weiter nachlegt.
 
klingt ein wenig abenteuerlich :fresse:

Ich hatte ja schonmal angesprochen, das die PCIe Grenzen in Sachen Leistungsaufname wohl im Weg stehen. Das klingt für mich im Moment so, als würde NV was ähnliches wie den G92 bringen. -> ein etwas besserer G80 mit womöglich höhrem Takt.
Rückblickend betrachtet, war der G92 auch nur ein "Lückenfüller" zwischen G80 und G200 um die lange Zeit anständig überbrücken zu können.

Ich meine mich dran zu erinnern, das man vor ein paar Monaten mal Gerüchte las, von wegen, der eigentliche Fermi Nachfolger kommt mit Maxwell. Würde zumindest ähnlich ins Bild passen, das man erst nen Lückenfüller bringt und dann im nächsten Schritt weiter nachlegt.

Was ich dann nicht verstehe ist, wie AMD das anstellen will mit der neuen Generation gerüchteweise 6990 Performance zu erreichen. Wie schon geschrieben ist man ohne Powerviren bei Perf/W in Spielen fast gleichauf. Wie kann es sein, dass angeblich einer solch drastische Schritte wegen dem Verbrauch machen muss, der andere aber nicht?

Ich glaub die Roadmap nicht, Tim :)
 
Zuletzt bearbeitet:
Fast gleich ist ja rellativ... ;)
Ich halte nach wie vor an der Meinung fest, das NV sich hier selbst ein Bein stellt... Auch wenn du mit Furmark und Konsorten nix anfangen kannst, so muss die GPU auch unter absoluter Volllast in der Lage sein, ihre Aufgabe zu erfüllen.

Im GPGPU Geschäft hat hier einerseits AMD den Vorteil der im Vergleich zu NV teils enormen Mehrleistung sowohl in DP als auch in SP... Und unter Volllast Szenarien neigt auch die AMD GPU eher zur sparsameren. Trotz der Mehrleistung...
Ich denke einfach, AMD hat mehr Luft nach oben hin als NV.

Auch wenn der Schritt auf VLIW4 bei AMD in Sachen Gamingverbrauch quasi als Rückschritt gewertet werden könnte, zeigt es die zunehmende Auslastung der GPUs selbst bei Games -> und rechtfertigt somit auch den Mehrverbrauch.
Eine HD6950 liegt wohl zwischen Vollast und normaler Gaminglast ne ganze Ecke enger zusammen als noch ne HD4870 oder ähnlichem.
GCN ist ja noch recht unüberschaubar für die breite Masse, aber es bleibt die Vermutung, das sich hier Effizienztechnisch noch weiter was tut.
Wenn man so will rumpelt AMD innerhalb von zwei Generationen zweimal ihre Architektur um. Wohingegen NV scheinbar nach wie vor bei der altgedienten G80 Grundarchitektur bleibt. Ich denke einfach, der Drops ist langsam gelutscht, auch wenn die GF110 Karten grundsolide GPUs sind. Die Konkurenz schäft lange schon nicht mehr.
Rückblickend zeichnete sich ja mit jeder neuen GPU ab, wenn man AMD mal als 100% Basislinie nimmt, einerseits der Abstand zwischen den Top GPUs geringer wird (beginnend ab G80/R600) und andererseits, die Effizienz auch in Sachen Leistung pro Fläche immer weiter auseinander driftet. Und klammert man mal die HD6970 etwas aus, weil diese durch nen guten Stups mehr VGPU Spannung ihre Energieeffizienz etwas einbüßt, und aus der Betrachtungsweise, das der GF110 quasi schon die überarbeitete Version ist, wohingegen die Cayman GPUs die ersten VLIW4 Karten sind, schaut es schon etwas anders aus ;)
 
Ich bin mal auf den Lunch gespannt hoffentlich erfolgt der noch dieses Jahr so das man vielleicht Ende januar ne gtx680 kaufen kann
 
jaja, hoffen kann man immer, nur glauben tut da keiner dran der zumindest sich ein wenig darüber informiert hat.

Ich bleibe auf dem Standpunkt GTX680 frühestens März. Laut der Fakefolie ja sogar ende des Jahres^^
 
Lunch? Gerne... wann? :fresse2:

Der Launch der Karte erwarte ich zum Sommer, Verfügbarkeit zur Mitte Q3/2012.
 
Also hoffe mal das ich nicht so lange drauf warten muss
Aber von nvidias Seite gibt's noch keine Infos dafür er oder ?
Also was offizielles zum kempler der sollte doch dieses Jahr kommen oder ?
Das ist doch offiziell oder ?
 
Egal wie man es dreht, AMD wird das bessere Produkt abliefern. Das ist echt langsam mal lächerlich was NV abzieht. Mit der Brechstangen Methode die Spitze erreichen. Es wird mal Zeit das die obere Etage mal ordentlich aufgeräumt wird wie bei der AMD CPU Abteilung. Und diesen selbst ernannten Gott in die Pampa schicken.

MfG Jaimewolf3060
 
Weder zur neuen Radeon noch zur neuen Geforce Generation ist irgendwas genaues bekannt, da weiß man noch überhaupt nicht wer was abliefert...
 
Egal wie man es dreht, AMD wird das bessere Produkt abliefern. Das ist echt langsam mal lächerlich was NV abzieht.
MfG Jaimewolf3060

eigendlich finde ich eher solche Aussagen lächerlich.
Ist doch shice egal für den Endverbraucher, da wird das gekauft welches Paket für ihn am besten erscheint. Liefert AMD das bessere Paket wird amd gekauft und liefert NV das bessere Paket wird eben NV gekauft.

Im Enthusiastenbereich skaliert SLI aber immernoch besser als CFx, wobei der Grad da schon geschmälert wurde.
 
Im Enthusiastenbereich skaliert SLI aber immernoch besser als CFx, wobei der Grad da schon geschmälert wurde.

Wenn man so will ists mittlerweile gar andersrum. Auch wenn die 580GTXen brachiale Leistung abliefern, kommen zwei 6970er im CF durch die bessere Skalierung ran bzw. ziehen sogar vorbei. Vorteil der Radeos ist dort nicht nur der größere VRAM, sondern auch die teils deutlich höhere Filterleistung, was gerade in riesigen Auflösungen (Eyefinity Settings, Downsampling usw.) enorm von Vorteil ist. Dort wo die Top Karten eigentlich Leistung brauchen zieht allen Anschein nach NV im Moment den kürzeren. Einzig mit der überlegenen Tesselationspower kann man sich in DX11 Games an der Spitze halten.
 
bei 3gig VRAM meine ich nicht.
 
Nachteil der ATI/AMD sind grundsätzlich die Treiber, gerade bei CF. Das war für mich letzten Endes der Grund für den Rückzug von CF Systemen, vorerst natürlich, ich sage nicht, ich würde es nie mehr in Erwägung ziehen. Ich war sooft in den Allerwertesten gekniffen bei neueren Spielen, bis es mir gereicht hat. Einige Dinge gehen bei ATI/AMD im Treiber auch gar nicht und die Profilverwaltung war auch nie mein Ding, so wie sie von denen gehandhabt wird.
 
Das Treibergequatsche ist ausgelutscht ohne Ende... Bei beiden läufts ziemlich identisch, auch bei NV Treiber gibts ausreiser und auch bei NV läuft auch nach Monaten nicht alles so wie es soll. Gerade im Bereich Multimonitoring ist NV nach wie vor ein Graus...
CF funkt wenn man weis wie auch ohne Probleme...

@Grinsemann
OK dann ist der VRAM nicht das Problem, die Filterleistung und das weniger gute Skalieren in extremen Settings behebt man damit aber nicht ;)
Man schaue zum Beispiel mal in den BF3 Benchthreads, da gibts Vergleiche... Selbst ein 1GHz 580GTX SLI rennt dort den AMDs hinterher.
 
aha, ok..dann lasse ich mich mal überraschen was die neuen Gens bringen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh