nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Ich denk es geht um die Unreal Engine 4!?
PhysX als Physikengine hat da erstmal gar nix verloren ;)

Egal welche per Cuda ist man flexibel

---------- Post added at 17:06 ---------- Previous post was at 17:04 ----------

sieht doch keiner was drin steckt, solange die Bilder auf dem Schirm beeindrucken :fresse:
.


Ich glaub nicht das die "Katze" das lustig findet wenn die den Seitendeckel vom PC öffnen und ihm dann 2 Radeons anblinzeln:fresse:

Obwohl sonst mag er ja auch rot der Cheffe

IMG_0639a.jpg
klick
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sagte ich doch schonmal:
Die Performance wurde nach oben korrigiert, weil NV den MUND EINFACH ZU VOLL NEHMEN MUSS (IMMER DAS SELBE)
somit wird der Preis und der Verbrauch auch nach oben schnellen müssen,- dies sei dann mal so dahingestellt.
Die Karte wird sich wohl mit den HD7950 OC Versionen (Sapphire - Powercolor) in etwa messen müssen,- und genau dort sehe ich das resultierende Problem des GF104.
 
Jupp, NV war doch enttäuscht von den Tahiti GPU´s.
Somit musste man, da man die High End Karte nach hinten setzte zumindest mit der "kleinen Mainstream Karte" gleichziehen.
Doch die damaligen 299 Dollar (wo man die Performance wohl noch nicht exakt kannte)
werden vor Allem durch miese Yield´s und nicht optimale Verfügbarkiet niemals zu halten gewesesn sein.
 
Zumindest realistischer als so manch anderer "Optimist" hier, der den Tahiti XT schon gegen nen GK104 deutlich fallen sieht ;)
HD7950 Leistung (bzw. 580GTX) klingt schon ziemlich realistisch für GK104... Das passt zum spekulierten Verbrauch, reiht sich 1A in die Kartengenerationen der Vergangenheit ein und dürfte so oder so was gutes werden. GK110 könnte dann womöglich knapp oberhalt der Tahiti XT ansetzen, wenn der Takt wirklich deutlich niedriger als GK104 ausfallen soll. Klingt für mich wie Profibereich Resteverwertung :fresse:
 
Zumindest realistischer als so manch anderer "Optimist" hier, der den Tahiti XT schon gegen nen GK104 deutlich fallen sieht ;)

Der da wäre?

Mit Zitaten aber bitte die das belegen

Aber wir können gerne mal die "Blumen" von Meister Lampe auskramern,von frühestens Ende April/Mai Release und Fermiheizkraftwerk und was das doch alles so negativ ist,das man keine großen Infos hat ec pp

Steht alles hier im Thread abrufbereit in den paar dünn gesähten Posts von ihm:fresse:
 
Zuletzt bearbeitet:
Wer spielt doch keine Rolle, das sollte signalisieren, das es auch das komplette Gegenteil gibt, welchen scheinbar niemand (wohl dann aus zu hoher Erwartungshaltung) versucht nur im Ansatz anzukreiden.
Um so besser, das es auch Leute in der Community gibt, welche nicht dem Spekulationswahn verfallen und auch mal ein realistisches Statement zur geschätzten Performance reinwerfen ;)

Und zum Thema Fermiheizkraftwerk, so 100% ist ja nicht raus, was der GK110 packen wird. Könnte genau dieses Fermi Heizkraftwerk werden... Und könnte womöglich auch erst im April/Mai kommen...
Ich würde fast jede Wette eingehen, das der GK110 Fermi GF100/GF110 in Sachen Volllastverbrauch (mit abgeschaltetem PowerTune oder wie das Teil sich schimpft!!) gut überbietet. In Sachen Gamingverbrauch schätze ich persönlich bei leichtem Vorsprung zu Tahiti XT von 20-40% nen avg. Verbrauch von ca. 250W, vllt etwas drüber...
 
Und zum Thema Fermiheizkraftwerk, so 100% ist ja nicht raus, was der GK110 packen wird. Könnte genau dieses Fermi Heizkraftwerk werden... .



Wenn die P/W stimmt darf das Ding gerne auch 500 verballern,solange Nvidia nen Weg finden würde so ne Platine zu versorgen:fresse:Aber diesbezüglich gings ja um die generelle Architektur,die da mit Fermi auf einer Ebene stehen sollte
 
Zuletzt bearbeitet:
Bei aller Spekulation - aber das die neue Performance-Karte die eigene aktuelle High-End Karte schlagen sollte, ist doch wohl klar.
Die GTX 260 hat die GTX 8800 geschlagen, die GTX 470 die GTX 285 und die GTX 570 die 480 (wobei das keine echte neuere Generation war).

Ergo wird die 670 TI die 580 schlagen, damit auch die 7950. Die 7970 wird ggf. gleich auf oder etwas besser skalieren, dann schiebt AMD die 7980 hinterher und NV die 680, welche dann wieder der Platzhirsch ist.

NVIDIA muss gar nicht auf AMD achten, sie müssen nur den "normalen" Schub zwischen den Generationen beibehalten und effizienter werden.. dann wird alles gut. :d

Sollte tatsächlich was an dem Gerücht "PCIe 3.0 Pflicht für GK110" dran sein, dann haben sie wahrscheinlich die Performance-Krone wieder, aber wenig effizient.
 
wann bitte begreift ihr es endlich.
nur weil etwas besser und schneller ist, kann man es nicht auch einfach teurer verkaufen

sonst würden grafikkarten heute wohl 10.000 euro kosten

jedesmal kommt hier der gleiche scheiß auf
 
Kann man nicht? Aha... komischerweise macht der Markt die Nachfrage, somit dann auch den Preis.
HighEnd kostet seit je her viel Geld, sehe da keine Explosion.

Verstehe den Hintergrund deines Posts nicht.
 
Zuletzt bearbeitet:
es geht einzig und allein um die argumentationsweise

und da du keine explosion siehst, habe ich ja recht mit meiner aussage
 
Wenn die P/W stimmt darf das Ding gerne auch 500 verballern,solange Nvidia nen Weg finden würde so ne Platine zu versorgen:fresse:Aber diesbezüglich gings ja um die generelle Architektur,die da mit Fermi auf einer Ebene stehen sollte

Ich bezweifle aber irgendwie ein wenig, das NV hier in Sachen Energieeffizienz zaubern kann :fresse:
Im Vergleich zum HD6970 Vorgänger hat die HD7970 ziemlich heftig zugelegt. Was aber auch nicht so extrem schwer war, weil die HD6970 eben in jener Effizienz aufgrund der höheren Default Spannung schon gut ihrem kleinen Bruder in Form der HD6950 hinterher hing und auf eine ähnliche Effizienz wie GF110 stieg.
Könnte also durchaus sein, das AMD sich diesmal nicht hat drängen lassen und somit in Sachen Effizienz mehr gebracht hat, als eigentlich geplant.

Setzt man mal ein ähnliches Verhältnis an, so ergibt sich, das ein GK110 im Schnitt seine 36-40% schneller sein muss wie ne 580er, dabei aber nur gleich viel verbrauchen darf. Das heist ca. 15-20% schneller als Tahiti XT bei ~245W Gaminglastverbrauch als direkt Kartenmessung. -> das klingt für mich definitiv schaffbar für den GK110. Damit liegt man dann ziemlich auf einer Linie mit dem Tahiti XT GPUs in Sachen Energieeffizienz ;)

Bei aller Spekulation - aber das die neue Performance-Karte die eigene aktuelle High-End Karte schlagen sollte, ist doch wohl klar.
Die GTX 260 hat die GTX 8800 geschlagen, die GTX 470 die GTX 285 und die GTX 570 die 480 (wobei das keine echte neuere Generation war).

Ergo wird die 670 TI die 580 schlagen, damit auch die 7950. Die 7970 wird ggf. gleich auf oder etwas besser skalieren, dann schiebt AMD die 7980 hinterher und NV die 680, welche dann wieder der Platzhirsch ist.

Das ist die falsche Basis... Die von dir aufgezählten Karten sind alle samt welche, wo die GPU abgespeckte Versionen der Top GPUs verbaut hat.
Der Vorgänger von GK104 ist zweifelsfrei die 560TI bzw. dessen Vorgänger die 460. Noch weiter vor hat NV eine 250GTS im Programm gehabt, als nächst kleineren Chip unter dem HighEnd GPUs.

wann bitte begreift ihr es endlich.
nur weil etwas besser und schneller ist, kann man es nicht auch einfach teurer verkaufen

Kann man nicht?
Macht man aber seit Jahren so...

Schau dich im CPU Markt um... Intel verlangt Mondpreise von bis 2500€ für ihre kommenden Dual CPU Xeon acht Kern CPUs. Wo das Topmodell als sechs Kerner der Vorgängerreihe noch für ~1500-1600€ den Besitzer gewechselt hatte.
Oder auch im GPU Bereich, AMD legt ein paar Prozent drauf, und verlangt ein paar Prozent mehr der 580GTX. Genau so wie NV damals für ein paar Prozent mehr zur HD5870 eben auch ein paar Prozent mehr Preis verlangt hat.
Da sind lange keine Wohltäter unterwegs ;)
Das einzige was diesen Trend einhalt gebietet, ist Konkurenz am Markt. Und was genau diese Konkurenz am Markt machen kann, sah man wunderschön zu G200/RV770 Zeiten, nämlich permanent fallende Preise bis schlussendlich teils 120€ für ne HD4870 als dann zweit schnellste AMD Karte mit einer GPU.
Diese Situation könnte sich womöglich 2013 wiederholen, nämlich dann, wenn es nix schnelleres gibt und die Händler/Hersteller um ihre Produkte schmackhafter zu machen eben die Preise drücken, so entsteht ein Preiskampf bis die nächste Generation einen drauf legt und es wieder an Konkurenz mangelt (wie aktuell)
 
Ich bin froh wenn Kepler endlich da ist....

Bin so enttäuscht von meiner 6970 dass ich sie gleich wieder verkaufe und statt dessen meine GTX285 als Übergangslösung wieder reinknalle. Leider hab ich meine 480 verkauft :(

Aber das flimmernde Bild und die Framedrops sind echt nicht zum Aushalten !!!

Sorry für leichtes OT, aber das musste jetzt mal von meiner Seele !! :wink:
 
es geht einzig und allein um die argumentationsweise

und da du keine explosion siehst, habe ich ja recht mit meiner aussage

Im Schnitt über lange Zeit hast du durchaus recht, verkürzt man die Zeiträume stimmt es nicht mehr.
Gemessen daran, zu Geforce 2 Zeiten haben Grafikkarten schonmal 1000DM (ca. 500€) gekostet, wenn man ganz oben mitspielen wollte... Ein paar Generationen später sanken die Preise. Ich hab damals ne 9800Pro für 349€ gekauft, HighEnd Preise pegelten dich bis teilweise auf ca. 400€ ein würd ich jetzt mal so pauschal sagen.
Ausnahmen bestätigen die Regel. So war ne 7800GTX 512 zu Release ebenso mit Mondpreise zu haben, ab hier scheinen die Preise wieder zu steigen. Das gleiche galt anfangs für ne 8800GTX und später die 8800Ultra. Angesprochen wie gesagt schon die HD4870 mit drastisch sinkenden Preisen. Seit dem steigt es wieder... Es ist also ein auf und ab ;) Im Schnitt über lange Zeit bleibt es aber gleich.
 
Ich bezweifle aber irgendwie ein wenig, das NV hier in Sachen Energieeffizienz zaubern kann :fresse:

Das brauchen sie doch gar nicht falls der Hotclock die Wurzel des Übels war

Keiner hat bisher auch nur anstzweiße,bei der Energiebilanz Vergleiche mit Fermi gezogen,nichtmal Charlie

Alle Statements aus mehr oder minder verlässlichen Quellen gehen von einer besseren Bilanz aus

Außer hier gabs einen Spezi,der das ganze aus ner anderen Sichtweiße betrachtete,woher auch immer die gekommen sein mag

ein realistisches Statement zur geschätzten Performance reinwerfen

realistisches Statement=Schaffe????

ne danke

Neliz,Ailuros,Charlie ja selbst OBR sind mir da lieber:fresse:

Dann lieber noch n Bisschen Trollspray,als ich das für bare Münze nehme:d
 
Zuletzt bearbeitet:
Wenn die Karte 670 TI heißt, wird NVidia sich wohl was dabei gedacht haben, ;)
Oder warum heißt sie dann nicht 660 TI?
Mir sind die Unterschiede von GK104 zu 110 klar, aber warum heißt die Karte dann 670?
Weil GK110 nun doch als 780 kommt?
 
Ende März/Anfang April war schon immer der wahrscheinlichste Zeitraum für einen Launch.
Die Produktion hat scheinbar erst begonnen.
Ich sehe GK104 als Performance GPU knapp über dem alten Flaggschiff, im 3DMark 11 Extreme (1920x1080) sogar nah drann an der HD7970.
Was willst du denn hören? 30% schneller als ne HD7970? Die 3k Punkte im 3D Mark 11 sind von einem übertakteten Modell produziert worden.

Wenn man sich hier mal zu Wort meldet, dann bekommt man gleich deine geistreichen Kommentare zu lesen, bravo Scully.

Mir sind die Unterschiede von GK104 zu 110 klar, aber warum heißt die Karte dann 670?

Weil man wahrscheinlich näher an AMD´s Topmodellen liegt wie noch 1 1/2 Jahre zuvor.
 
Neja GF104/114 waren in Sachen Effizienz trotz HotClocks ja auch nicht verkehrt. Genau so wie damals der G92 und das später mit extrem hohen ALU Taktraten... Ich persönlich glaube nicht daran, das allein der HotClock das Effizienzproblem von GF100/GF110 ist. Es macht durch die Bank weg (mit Außnahme vom G80, denn der war drastisch vor AMD da) den Eindruck, das NV mit den Top GPUs auf Biegen und Brechen das schnellste am Markt haben wollte...
GF100/110 ist einfach nur riesig und wie angesprochen, mich läst irgendwie leicht mein Verstand zweifeln, das bei nem ähnlich riesigem GK110 auf einmal in Sachen Effizienz "Wunder" vollbracht werden können ;) HotClock hin oder her. Aber lassen wir uns überraschen. Je nachdem wie gut die GPU wird, muss NV vllt diesmal selbst bei gleicher Mentalität die Brechstange gar nicht rausholen. Was der Effizienz ebenso zu gute kommen dürfte.

Wenn die Karte 670 TI heißt, wird NVidia sich wohl was dabei gedacht haben, ;)
Oder warum heißt sie dann nicht 660 TI?
Mir sind die Unterschiede von GK104 zu 110 klar, aber warum heißt die Karte dann 670?
Weil GK110 nun doch als 780 kommt?

Wenn GK104 im Vollausbau mit Tahiti konkurieren kann, ist GTX670TI wohl vollkommen angebracht als Name ;) Könnte man das nicht, wäre GTX660TI angebrachter... Da es dann wie üblich wieder eine 670er Karte geben würde, wohl dann als GK110 in Teildeaktivierter Form, welcher eben die AMD Karten in Schach hält, wärend man ne 680er bringt um drüber zu sein.
 
Zuletzt bearbeitet:
Wenn man sich hier mal zu Wort meldet, dann bekommt man gleich deine geistreichen Kommentare zu lesen, bravo Scully.
.

Wenn du mal mit vernünftigen Sachen,die auf dem basieren was verlässliche Quellen so nach außen dringen lassen,hier mitreden würdest,als alles Schaltjahr mal mit der immer wiederkehrenden negativen Schallplatte,würde es gar nicht soweit kommen

---------- Post added at 21:09 ---------- Previous post was at 21:06 ----------

Wenn die Karte 670 TI heißt, wird NVidia sich wohl was dabei gedacht haben, ;)
Oder warum heißt sie dann nicht 660 TI?
Mir sind die Unterschiede von GK104 zu 110 klar, aber warum heißt die Karte dann 670?
Weil GK110 nun doch als 780 kommt?

Ich denke immer noch das das ne Nebelkerze ist,um ein Bisschen für Konfusion zu sorgen,kurz vor Release
 
scully, das da heist?
Du gehst davon aus, das die GK104 als 660er kommt? Oder als 680er?
 
Hä das versteh ich nich... GK104 und GK110 sind doch zwei verschiedene GPUs.
Welchen Namen soll davon welche der beiden GPUs tragen!?

Geht man nach altem Muster, wird GK104 maximal bis 660 geführt. Alles drüber dann GK110... Die Theorie, das womöglich GK104 reicht um den Tahiti GPUs nahe zu treten, könnte aber eben bedeuten, das in der Generation Kepler die GK104 Performance GPU bis 670 reicht. Und allein die Dual GPU sowie die 680er als GK110 kommen.
Das GK104 bis zur 680er geht, glaube ich nicht, es sei denn, man bringt GK110 doch deutlich später unter der 700er Nummer auf den Markt ;)
 
Der Branchenriese digitimes titelte noch vor kurzen

Nvidia is expected to have at least eight models of graphics cards in April including GTX690, GTX660 and GTX640 with GK110, GK104 and GK106 cores

Login to DIGITIMES archive & research


Da man vor kurzen noch davon ausging das der Vollausbau von GK104 = 680GTX ist,und die Yields für das 550mm Monster GK110 sicher nicht berauschend sind,ist ein Chip mit dem Namenszug 690GTX gar nicht so abwegig

Diese ominöse 670ti??? brachte ja erst so ne kleine schwedische Seite ins Spiel
 
Zuletzt bearbeitet:
Die Frage ist, ob das richtig ist...

Ich glaube nicht daran, das NV einen alten Namen derart wiederbelebt ;)
Auch wenn NV in Sachen Namen schon die dicksten Dinger gerissen hat. Aber ne Single GPU 690GTX? -> unwarscheinlich.
 
Ich versteh dann nicht was die alte Roadmap von 2010/11 bedeutet.

600xf143c.jpg


Die scheinen sich zuviel vorgestellt zu haben...
 
Zuletzt bearbeitet:
steht doch da. Performance pro Watt soll sich um ca. Faktor 3 einpendeln zum Vorgänger, genauer spricht man in Textform von 2,5...
Und das ist absolut nicht unrealistisch. Dazu geht es um DP Performance und hat mit dem Gamermarkt nur indirekt was zu tun...
 
PS: Und der Launch ist auch nicht mitte März, sondern ganz kurz vor Ivy Bridge.

Q2 2012 kommt Ivy...
kommt drauf an wie kurz Anfang Mai erhältlich ;) ? Das ist auch Q2 :d

aber irgendwie führen die ganzen Spekulationen zu garnichts...irgendwie stehen wir wieder vor fast nichts :shake:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh