nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
@Scully & dochurt:
Na super. Hatte vor bis April 2 GTX 680 zu verbauen. Naja, dass da eher nichts wird war ja schon abzusehen. Bis Mai?

@Max:
Der einzige der andere persöhnlich Angriff und andere als "Fanboy" bezeichnete warst du.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Scully & dochurt:
Na super. Hatte vor bis April 2 GTX 680 zu verbauen. Naja, dass da eher nichts wird war ja schon abzusehen. Bis Mai?
.

Wart doch erstmal ab

Vielleicht ist es gerade diese Situation der limitierten Chips,die Nvidia dazu veranlasst,zuerst die wenig gekauften und hochpreisigen Highendmodelle zu releasen,um Lieferengpässe einzudämmen:)
 
Wart doch erstmal ab

Vielleicht ist es gerade diese Situation der limitierten Chips,die Nvidia dazu veranlasst,zuerst die wenig gekauften und hochpreisigen Highendmodelle zu releasen,um Lieferengpässe einzudämmen:)

Das wäre natürlich super.
Erscheint aber eher unrealistisch. Aufjedenfall kommt mir keine AMD ins Haus und nein ich bin kein "Fanboy" (@all), sondern ich nutze 3D Vision und finde den Preis für die HD 7970 ungerechtefertigt. Aber das führt uns wieder zu weit vom Thema weg.

Naja, die Hoffnung stirbt zuletzt ...
 
Sollte klar sein, noch besser wäre es wenn man endlich mal Optimus for Desktop bringen würde - Dieses von Lucid ist nichts halbes und ganzes ;)

Optimus muss kommen, ZeroCore Power ist ein Schritt in die richtige Richtung und Nvidia muss hier nachlegen. AMD profiliert sich geradezu als "umweltfreundlich" mit dem Stromverbrauch, da sollte und muss Nvidia ein richtiges Signal setzen nach den Fermi.

Keine Ahnung ob das mit Zero Core und Intel IGP funktioniert frag mal im Thread

Ich habe mit der 7970 alles durchgetestet, aber mit Lucid Virtu wollte die Karte nicht in den ZeroCore-Modus. Eigentlich nur ein sehr sinvolles Feature für Crossfire.


Zu der Rechtschreibung: Wir machen alle mal Tippfehler, aber hier wird oftmals einfach nur was hingeschludert, als wäre man in einem Chatroom und müsste schnell was posten. Ihr habt sicher einige Minuten Zeit für eure Posts, die solltet ihr auch nutzen :)
 
Das wäre natürlich super.
Erscheint aber eher unrealistisch. ...

Auch hiezu brauchst du nur zu AMD schauen,dort kam auch zuerst der Highend,aus vermutlich den selben Überlegungen,und der selben Ausgangssituation bei TSMC

---------- Post added at 21:04 ---------- Previous post was at 21:02 ----------

Ich habe mit der 7970 alles durchgetestet, aber mit Lucid Virtu wollte die Karte nicht in den ZeroCore-Modus. Eigentlich nur ein sehr sinvolles Feature für Crossfire.

Na wenn das einer beantworten kann dann du:d

Vielleicht kommt ja noch ein Treiberupdate was den IGP unterstützt
 
Auch hiezu brauchst du nur zu AMD schauen,dort kam auch zuerst der Highend,aus vermutlich den selben Überlegungen,und der selben Ausgangssituation bei TSMC

Naja ich denke das geschah aber auch mit Blick auf die trödelnde Konkurenz. Je früher desto besser aus Sicht von AMD.
 
@Scully & dochurt:
Na super. Hatte vor bis April 2 GTX 680 zu verbauen. Naja, dass da eher nichts wird war ja schon abzusehen. Bis Mai?

@Max:
Der einzige der andere persöhnlich Angriff und andere als "Fanboy" bezeichnete warst du.

Ups, das wollte ich nicht
 
Optimus muss kommen, ZeroCore Power ist ein Schritt in die richtige Richtung und Nvidia muss hier nachlegen. AMD profiliert sich geradezu als "umweltfreundlich" mit dem Stromverbrauch, da sollte und muss Nvidia ein richtiges Signal setzen nach den Fermi.



Ich habe mit der 7970 alles durchgetestet, aber mit Lucid Virtu wollte die Karte nicht in den ZeroCore-Modus. Eigentlich nur ein sehr sinvolles Feature für Crossfire.
Und schon ist der ZeroCore fürn Po, weil ich kann auch den PC automatisch in den Ruhezustand fahren lassen und dann verbraucht viiiiel weniger als dieses ZeroCore. Danke Don, also alle Banane weiterhin :d
 
TSMC 2% =28nm,mal dir aus was da an verwertbaren Chips bei rum kommt,wenn nicht nur AMD u Nvidia ihren Anteil fordern
Kann mir garnicht vorstellen das AMD "gleichwertig oder bevorteilt" behandelt wird gegenüber nV aufgrund der langen Partnerschaft zwischen TSMC und nVidia, siehe Nvidia und TSMC feiern 1 Milliarde GeForce-GPUs... Hätte gerade deswegen gedacht, das TSMC Kapazitäten für nV freihält. Kann ich mir nur so erklären, das nVidia´s Chipdesign einfach noch nicht produktionsreif ist/war.
 
Zuletzt bearbeitet:
Kann mir garnicht vorstellen das AMD "gleichwertig oder bevorteilt" behandelt wird gegenüber nV aufgrund der langen Partnerschaft zwischen TSMC und nVidia, siehe Nvidia und TSMC feiern 1 Milliarde GeForce-GPUs... Hätte gerade deswegen gedacht, das TSMC Kapazitäten für nV freihält. Kann ich mir nur so erklären, das nVidia´s Chipdesign einfach noch nicht produktionsreif ist.

Ja sicherlich hat Nvidia aufgrund von langjähriger Partnerschaft etwas bessere Konditionen

Nur nützt das ja alles nichts,wenn ich solche Schwergewichte wie Dell und Apple??? beliefern muss

Da wird selbst mit höheren Kapazitäten nichts besser für den Consumermarkt

Das Chipdesign hingegen scheint eher nicht das Problem

 
Zuletzt bearbeitet:
Na wenn das einer beantworten kann dann du:d

Vielleicht kommt ja noch ein Treiberupdate was den IGP unterstützt

Ich hab extra 550 Eier auf den Tisch gelegt bei Alternate, um das zu testen ^^

Vielleicht funktioniert es mit Luvid MVP, das bringt wohl eine noch bessere Unterstützung für die neuen GPUs, Crossfire/SLI und 120hz etc. mit sich. Wie ich das verstanden habe, kommen die Ivy Boards damit.

Aber mit Lucid lief die ganze Geschichte ziemlich ruckelig in zB. BF3, das ist wirklich nichts; da muss herstellerseitig was kommen, alles andere ist nur Gefrickel :(

Und schon ist der ZeroCore fürn Po, weil ich kann auch den PC automatisch in den Ruhezustand fahren lassen und dann verbraucht viiiiel weniger als dieses ZeroCore. Danke Don, also alle Banane weiterhin :d

Wie gesagt, mit Crossfire ist das wirklich klasse im Idle, alles andere ist banane :banana:

Laut Nvidia lässt sich Optimus leicht in Software implementieren, also wäre das eigentlich keine große Geschichte.

Ich stelle mir noch die Frage, ob Nvidia bei Kepler in Verzug kommt, weil einige Mitarbeiter oder auch Teams für Fermi 1.0 abgezogen wurden, wenn ich das richtig in Erinnerung habe.
 
Ultra ist Ultra! Und nicht ohne HBAO und nur 8xAF.

Benchmarkvideo von mir!
http://www.youtube.com/watch?v=Qn9j4OVxPCU

wenn alles auf ultra ist nur hbao aus ist das genauso ultra, aber hauptsache mal das letzte wort gehabt ne..

---------- Post added at 23:01 ---------- Previous post was at 22:15 ----------

Das wäre natürlich super.
Erscheint aber eher unrealistisch. Aufjedenfall kommt mir keine AMD ins Haus und nein ich bin kein "Fanboy" (@all), sondern ich nutze 3D Vision und finde den Preis für die HD 7970 ungerechtefertigt. Aber das führt uns wieder zu weit vom Thema weg.

Naja, die Hoffnung stirbt zuletzt ...

sehe ich genauso, die hd 7970 ist für mcih ne performance karte die jetzt kurrzeitig mal high end ist weil nvidias karten noch zeit brauchen.
Es ist ziemlich dreist für sowas so einen preis zu verlangen, so teuer waren die GTX 580 am anfang, und der chip war viel teurer und grösser..
 
Zuletzt bearbeitet:
Es ist ziemlich dreist für sowas so einen preis zu verlangen, so teuer waren die GTX 580 am anfang, und der chip war viel teurer und grösser..

Ist nicht dreist,ganz reelle Preisgestaltung für ein Produkt was dominiert

Die Frage wird nur sein war es klug den Preis soweit oben zu platzieren,falls der Mitbewerber,innerhalb eines relativ überschaubaren Zeitraum,mit einem ähnlichen Produkt gegebenfalls Kampflinie fährt
 
Zuletzt bearbeitet:
sehe ich genauso, die hd 7970 ist für mcih ne performance karte die jetzt kurrzeitig mal high end ist weil nvidias karten noch zeit brauchen.
Es ist ziemlich dreist für sowas so einen preis zu verlangen, so teuer waren die GTX 580 am anfang, und der chip war viel teurer und grösser..

tabletten ausgegangen ?
 
Ist nicht dreist,ganz reelle Preisgestaltung für ein Produkt was dominiert

Die Frage wird nur sein war es klug den Preis soweit oben zu platzieren,falls der Mitbewerber,innerhalb eines relativ überschaubaren Zeitraum,mit einem ähnlichen Produkt gegebenfalls Kampflinie fährt

ja sicher kann man sagen das teil ist momentan (teils nur knapp) die schnellste karte und sie können es sich erlauben, aber sympathiepunkte bringt es nicht gerade. Lustig find ichs eh wie es amd trotz seiner im verhältnis zu nv deutlich kleineren chips (und deswegen auch geringeren leistung) hinbekommt das die gpu sparte das sorgenkind ist ,während nv dort dick gewinne fährt.
Eigtl müsste eher die cpu sparte das sorgenkind sein, so wie sie dort in allem hinterherhängen..

---------- Post added at 10:15 ---------- Previous post was at 10:10 ----------

tabletten ausgegangen ?

AMD Fangirl ?
 
wenn alles auf ultra ist nur hbao aus ist das genauso ultra, aber hauptsache mal das letzte wort gehabt ne.

Was schreibst Du eigentlich für einen Mist?
Ultra ohne HBAO und ohne 16AF ist kein Ultra! Die Ultraeinstellung ist fest vordefiniert und keine Mischung zwischen Med. High. und Ultra! (obwohl HBAO aus eher in Richtung low geht)
 
Es wäre mal lustig das hier den Chinesen unterzuschieben...dann ginge es bald rund um die Welt...ja, schlimm, ich konnte es nicht lassen, aber nun schickt es erstmal. :fresse:

kepler1y2co1.png
kepler26yddd.png

Der Vollständigkeit halber noch die anderen beiden (was natürlich schon alleine wegen der GPU-Z-Version nicht hinkommen kann - die ganzen Infos :d) - den für GK104 hab ich auch ein wenig überarbeitet:

gtx680htfrt.png
gtx690s3exv.png


Wenn es so ähnlich aussehen würde, könnten wir wohl zufrieden sein. Wobei man z.B. wird sehen müssen, ob auch NV die GDDR-Taktraten so hoch fährt, auch bei breiteren SIs; die ROP-Anzahl dürfte wohl auch etwas übertrieben sein. :d


Vor allem habe ich beim 104er Treiber wohl auch eine ordentliche Nomenklatur gesetzt, sofern dieser Leak (wohl für eine 6xxM) stimmt:

3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Kepler - 28nm - 2012

Wenn der Screenshot passen sollte, dann wäre es aber auch möglich, dass man zumindest bei den mobilen Low-End Lösungen maximal Fermi-Kepler-Hybride einsetzt (siehe Hotclock) - man wird es sehen. :)


So langsam wäre es aber Zeit für ein paar Leaks, gerade wo die Chinesen nun ihr Neujahrsfest feiern, nun ja, viellecht kann man diesbezüglich auf die kommenden Tage/Wochen hoffen. :)

MfG
Edge
 
Zuletzt bearbeitet:
Was schreibst Du eigentlich für einen Mist?
Ultra ohne HBAO und ohne 16AF ist kein Ultra! Die Ultraeinstellung ist fest vordefiniert und keine Mischung zwischen Med. High. und Ultra! (obwohl HBAO aus eher in Richtung low geht)

Was hat HBAO mit dem Ultra-Setting zu tun? Ich hab das generell aus, da die paar korrekten Schatten sich kaum bemerkbar machen, sondern nur harte FPS-Drops mit sich bringen bei praktisch kaum Gegenleistung. MSAA ist hier vorgezeichnet für das Ultrasetting, da hat man wenigstens ein geringeres Flimmern und bessere Kantenglättung.



@Edgecrusher

Hast du schon ein optimiertes Kepler Idle Bios für mich? :fresse2:
 
@Edgecrusher

Hast du schon ein optimiertes Kepler Idle Bios für mich? :fresse2:

Die sind so gut, da bedarf es keiner weiteren Optimierung. :fresse:
-> Nein, leider nicht. :d


E: Im 3DC habe ich aufgeschnappt, dass aktuell wohl gerade einmal 2% der gesamten TSMC-Fertigung im 28nm-Prozess laufen soll (mehr als man selbst erwartet hat :fresse:) - was sämtliche Kunden und nicht nur AMD/NVIDA betreffen soll. Sollte das stimmen, dann wäre es schon logisch, wenn man (NV) sich wohl erst auf den rentablen mobilen Sektor (IB + Kepler-M-GPUs) konzentrieren würde. Das dürfte dann etwa auch der Grund sein, warum die 7950 etwas verschoben wurde und auch warum man den Coretakt bei Tahiti-XT relativ konservativ gewählt hat.

Quelle -> Ailuros


P.S.: Bitte in Zukunft hier das Gebashe unterlassen, danke! ;)

MfG
Edge
 
Zuletzt bearbeitet:
Was hat HBAO mit dem Ultra-Setting zu tun? Ich hab das generell aus, da die paar korrekten Schatten sich kaum bemerkbar machen, sondern nur harte FPS-Drops mit sich bringen bei praktisch kaum Gegenleistung. MSAA ist hier vorgezeichnet für das Ultrasetting, da hat man wenigstens ein geringeres Flimmern und bessere Kantenglättung.



@Edgecrusher

Hast du schon ein optimiertes Kepler Idle Bios für mich? :fresse2:

genauso siehts aus, ich sah nämlich mit hboa so nen riesenunterschied nicht, und finde das 4xmsaa in bf3 besser als so manches 8xmsaa in anderen games, wenn alle einstellnugen auf ultra sind und eben nur hbaoa aus und aa auf 4xmsaa und af auf 8x ist das für mich ultra und sieht auch extrem gut aus.
naja der compuchecker is haltn checker, die haben ja ihrn block undso da ist das alles bisserl anders :lol:

---------- Post added at 11:19 ---------- Previous post was at 11:18 ----------

Die sind so gut, da bedarf es keiner weiteren Optimierung. :fresse:
-> Nein, leider nicht. :d


E: Im 3DC habe ich aufgeschnappt, dass aktuell wohl gerade einmal 2% der gesamten TSMC-Fertigung im 28nm-Prozess laufen soll (mehr als man selbst erwartet hat :fresse:) - was sämtliche Kunden und nicht nur AMD/NVIDA betreffen soll. Sollte das stimmen, dann wäre es schon logisch, wenn man (NV) sich wohl erst auf den rentablen mobilen Sektor (IB + Kepler-M-GPUs) konzentrieren würde. Das dürfte dann etwa auch der Grund sein, warum die 7950 etwas verschoben wurde und auch warum man den Coretakt bei Tahiti-XT relativ konservativ gewählt hat.

Quelle -> Ailuros


P.S.: Bitte in Zukunft hier das Gebashe unterlassen, danke! ;)

MfG
Edge

das mit der fertigung ist dcoh normal, die produzieren soweit ich weiss auch noch sehr viel in 130 und 300nm, eben zeugs wos recht egal ist wie gross die chips sind, so kann man halt alte fabriken noch weiter nutzen. die high.end gpus machen nur nen recht kleinen teil der produktion aus.
 
Wobei darunter ja leider :-)fresse:) auch Low-End-, Mainstream- und Performance-GPUs (auch OEM) fallen und die Margen dort auch deutlich höher ausfallen müssen.

Da hilft wohl nur weiter ausharren und hoffen. :d
 
Zuletzt bearbeitet:
GA-Thrawn schrieb:
Es ist ziemlich dreist für sowas so einen preis zu verlangen, so teuer waren die GTX 580 am anfang, und der chip war viel teurer und grösser..

Es ist ja grade die Kunst ein Produkt mit relativ niedrigen Herstellungskosten fertigen zu können.
Wenn der Konkurrent das nicht hinbekommt, dann ist das eben so.
DAs hat mit Dreistigkeit bei einem neuen Prozess mit relativ wenigen Stückzahlen, aber rein gar nichts zu tun.
Die 7950 wird bei guter VErfügbarkeit eh preislich leicht unter der GTX 580 platziert.

DonBanana schrieb:
Wie gesagt, mit Crossfire ist das wirklich klasse im Idle, alles andere ist banane

Nein, nicht wirklich. Es gibt genug Szenarien wo man sich den Strom sparen kann.
 
Zuletzt bearbeitet:
Erste Sichtung des Notebookkepler GK107?

Vorsicht Taktraten könnten noch verkehrt ausgegeben werden

Quelle
 

Anhänge

  • _DSC0576.jpg
    _DSC0576.jpg
    28,5 KB · Aufrufe: 88
  • _DSC0572.jpg
    _DSC0572.jpg
    36,4 KB · Aufrufe: 84
  • dsc0573i.jpg
    dsc0573i.jpg
    32,4 KB · Aufrufe: 90
  • _DSC0577.jpg
    _DSC0577.jpg
    37,6 KB · Aufrufe: 84
Zuletzt bearbeitet:
Der Vollständigkeit halber noch die anderen beiden (was natürlich schon alleine wegen der GPU-Z-Version nicht hinkommen kann - die ganzen Infos :d) - den für GK104 hab ich auch ein wenig überarbeitet:

gtx680htfrt.png
gtx690s3exv.png


Vor allem habe ich beim 104er Treiber wohl auch eine ordentliche Nomenklatur gesetzt, sofern dieser Leak (wohl für eine 6xxM) stimmt:

3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Kepler - 28nm - 2012



MfG
Edge

Du darfst das auch nicht so großartig beschreiben wenn du Wert darauf legst das das um die Welt gehen soll:)


Übrigens GK110=Dualchip neeeeee:fresse:

---------- Post added at 15:03 ---------- Previous post was at 15:00 ----------

Welche meinst du? :)

Das weiß er doch selber nicht:)
 
Zuletzt bearbeitet:
Das doch der selbe China Fake wie neulich schonmal

DX11.1 ohne das MS was freigegeben hat ja ne is klar:fresse:

Wieso ist der Shaderbereich geschwärzt wenn es keinen Hotclock mehr gibt:d
 
Zuletzt bearbeitet:
Naja 2gb Speicher....wird bestimmt auch ne 4gb Version geben, falls das überhaupt mit dem 512bit Interface stimmt. Aber wenn das Bild Fake ist, kann mans erneut vergessen...

Aber genau darauf warte ich, GK110 (680GTX scheinbar)! :banana:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh