nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Jo sehe ich auch so...fast. Mehr wie die 580 sollte es dann aber bitte nicht sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also entweder will NV die Krone um jeden Preis zurück und egal wie man diese holt und die Neue Karte wird sehr heiss und etrem laut,-
oder man geht diesen Weg und holt die HD7970 um 20-25% ein, jedoch könnte ein Refresh der HD7970 dies zunichte machen wenn NV nicht vor März/ April launchen würde.

Rechen NV wird die erste Variante wählen und da sie immer sehr konservativ waren/ sind um jeden Preis NUR VORNE SEIN, egal was die Konkurrenz Ihnen vormachte.
 
Sie werden vorne liegen.. da bin ich 100% sicher.. und das nicht zu knapp.
Aber darum geht es doch gar nicht..
Die einen finden BMW toll, andere Audi.
Ich mußte/durfte letztens nen Audi A6 3.0 TDI fahren.. im direkten Vergleich - keine Chance gegen meinen 5er..
So wird es ggf. auch vielen Audi Fahrern im BMW gehen, nur wenige spüren den Unterschied .. welcher den Wechsel notwendig machen würde.
So ist es auch bei NVidia und AMD.
Rockt der 580-Nachfolger nicht, bleibt das 580-SLI Setup bis Maxwell drin. Audi kommt mir nie in die Garage, bzw. AMD in den Rechner.
:d
Ich bin kein Fanboy, aber die Erfahrungen mit AMD/ATI waren seit der 850XT (Audi Ur-Quattro) nicht überzeugend.
 
Ich mag auch Nvidia: Hatte auch nur NV karten (ausser der 9800Pro ATI).

Aber Leut, woher nehmt ihr den glauben - das NV eine Wunderkarte bringt, die so viel schneller sein wird, das man als 7970er user neidisch wird? Woher bitte kommt dieser glaube?

Brachte NV immer auf anhiep - top gpus?
Was wenn es sich so verhält wie bei der 5870 vs GTX 480?

Ich glaube das NV erst mit denn refresh karten gut ankommen wird: Also GTX 770/780.

Wenn Kepler rauskommt, gibt es doch die 7970 für 350,- euro. Wieso soll es sich lohnen zu warten?

Mich wundert dieser felsenfeste glaube an Kepler sehr .... Auch in AMD threads wird mit kepler rumgefuchtelt, dabei gibts kaum infos^^

Was für ein Glaube :d....
Wenn so ein Mann wie AIL der da ganz dicht drann ist...so was schreibt...und nicht mal den GF110 erwähnt ...hat das mit Glauben oder spinnernde Hoffnung wenig zutun ....
 
Zuletzt bearbeitet:
nvidia könnte auch den Fermi (GF110 512-Shader) von 40 auf 28nm Shrinken damit das DIE ca. 50% kleiner ausfällt (520mm² > 260mm²) und die Taktraten auf 1Ghz erhöhen, dann hätte man Auto. einen neuen 7970 Konkurrenten und könnte sehr viel druck auf AMD ausüben :d
 
Also entweder will NV die Krone um jeden Preis zurück und egal wie man diese holt und die Neue Karte wird sehr heiss und etrem laut,-
oder man geht diesen Weg und holt die HD7970 um 20-25% ein, jedoch könnte ein Refresh der HD7970 dies zunichte machen wenn NV nicht vor März/ April launchen würde.

Rechen NV wird die erste Variante wählen und da sie immer sehr konservativ waren/ sind um jeden Preis NUR VORNE SEIN, egal was die Konkurrenz Ihnen vormachte.

das ist doch alles blaaaa :d hier interresiert sich keiner für AMD ..aus den schon 10000000000000x erwähnten Gründen.....und Balken.....ich steh da eher auf tri gefildertes AF.... :d und nicht auf Balken für meine Kohle.

---------- Beitrag hinzugefügt um 12:56 ---------- Vorheriger Beitrag war um 12:51 ----------

nvidia könnte auch den Fermi (GF110 512-Shader) von 40 auf 28nm Shrinken damit das DIE ca. 50% kleiner ausfällt (520mm² > 260mm²) und die Taktraten auf 1Ghz erhöhen, dann hätte man Auto. einen neuen 7970 Konkurrenten und könnte sehr viel druck auf AMD ausüben :d

Mir geht ehrlich gesagt das ganze Gequatsche um % am Allerwertesten vorbei, wenn sie im erkläglichen Rahmen schneller ist, reicht das mir, solange ich die selben Features wie jetzt bekommen, nur das ist mir als Gamer wichtig. Und ich glaube kaum das sich die Katze weinend in eine Ecke setzt wenn seine Karten nicht mindest in Balken gleichschnell sind.....
 
Keine Angst das ding wird garantiert schneller, genauso wie G80, GT200 & GF100 schneller als ATI waren...
Interessant ist das Nvidia die Hotclocks gestrichen hat, entweder gibts jetzt etwas besonderes neues, z.b. neue Shader Architektur, wenn die Shader die gleichen sind, dann muss Nvidia aber viel mehr als Faktor 2 verbauen damit man den hohen Shader Takt wieder reinholen kann, also wenn der Shader & GPU Takt gleich wäre und man 1024-1D Shader hat, dann skaliert das schlechter als zuvor weil die Shader zuwenig Takt abbekommen, Nvidia wird sich bestimmt etwas gutes richtiges ausgedacht haben, schlechter als der Vorgänger kann das schonmal nicht werden...
 
Zuletzt bearbeitet:
Ich denke auch, dass es diesmal richtig reinhaut. Ich wittere einen zweiten G80 :)
Irgendwohin muss das ganze Gerede von perf/W ja hingeflossen sein.
 
Der 104 wirds schon knallen lassen...

---------- Beitrag hinzugefügt um 13:43 ---------- Vorheriger Beitrag war um 13:42 ----------

Keine Angst das ding wird garantiert schneller, genauso wie G80, GT200 & GF100 schneller als ATI waren...
Interessant ist das Nvidia die Hotclocks gestrichen hat, entweder gibts jetzt etwas besonderes neues, z.b. neue Shader Architektur, wenn die Shader die gleichen sind, dann muss Nvidia aber viel mehr als Faktor 2 verbauen damit man den hohen Shader Takt wieder reinholen kann, also wenn der Shader & GPU Takt gleich wäre und man 1024-1D Shader hat, dann skaliert das schlechter als zuvor weil die Shader zuwenig Takt abbekommen, Nvidia wird sich bestimmt etwas gutes richtiges ausgedacht haben, schlechter als der Vorgänger kann das schonmal nicht werden...

Mit den Hotclocks waren sie am Ende...da geht nix mehr...deswegen isses ja auch so Spannend..wer weiß was an dem Ram Geschreibsel so alles drann ist..event. dabei nur die Farbe verwechselt :fresse:
 
Du meinst Nvidia hat XDR2 verbaut? Das wär krass. Dann könnten sie sich das teure 512bit Interface sparen. Ich fänds ja ziemlich lustig, wenn Nvidia AMD diesmal bei Perf/W schlagen würde. Ich glaub nicht dran, aber es wär lustig :d
 
Ail im 3dc sagt das sieht so aus...
GF110 = 3.00 Mrd, 529mm2
GF114 = 1.95 Mrd, 350mm2
GK104 hat nicht mehr Transistoren als GF110 und ist kleiner als GF114.

Das gibt wieder ne Bratpfanne als Heatspreader wenn der Hotclock fallen gelassen wird:asthanos:

Aber egal wenn der "Tiger von Malaysia" dafür auch die dementsprechende Leistung auffährt ist das alles nebensächlich
 
Zuletzt bearbeitet:
mir wurscht :d MSI/WC fertig Kärtchen.

---------- Beitrag hinzugefügt um 13:50 ---------- Vorheriger Beitrag war um 13:49 ----------

Du meinst Nvidia hat XDR2 verbaut? Das wär krass. Dann könnten sie sich das teure 512bit Interface sparen. Ich fänds ja ziemlich lustig, wenn Nvidia AMD diesmal bei Perf/W schlagen würde. Ich glaub nicht dran, aber es wär lustig :d

Ich würd mich biegen vor Lachen....
Er schreibt ja "3 Ueberraschungen".... nur in welche Richtung hat er sich verkniffen...
 
Zuletzt bearbeitet:
Das gibt ne Bratpfanne als Heatspreader:asthanos:

Der GK104 wäre dann kleiner (<360 vs. 389mm2), hätte deutlichst weniger Transistoren (< 3Mrd vs 4,3Mrd) und wäre wohl sparsamer als Tahiti Pro. Laut aktuellen Gerüchten ist er etwas flotter als die 580, das wäre dann ziemlich genau Tahiti Pro Niveau. Das wird vermutlich ein ziemlicher Knaller, weil man ihn billiger anbieten kann. Wenn sich das auch für GK100 so fortsetzt, hat Nvidia absolut nichts zu befürchten.
 
Zuletzt bearbeitet:
Es gibt ja noch GK100...hoffentlich. Weniger Verbrauch heißt doch auch, dass man die Taktraten höherschrauben kann, ohne dass die Wasserkühlung kocht. Perf/W ist schon wichtig irgendwo.

Aber eins musst du mir verraten...wer oder was ist die Katze? Das hab ich jetzt schon öfters gelesen.
 
Tja ...wer ist die Katze.. da ist mal einer über die Bühne geschlichen bei der Fermi Vorstellung und ein User hier, der hier nicht mehr schreibt hat ihn darauf hin so getauft :d 3x darfste Raten...
 
Da kann aber was nicht passen wenn sie den Hotclock fallen lassen müssen sie das mit Quantität der Units ja wieder ausgleichen

Also würde der Chip ergo größer

Glaubst du Ailuros nicht? :)
ALUs sind ja nicht das einzige, woraus der Chip besteht. Den gangen GPGPU-Kram hat man eh schon drin, das musste AMD nachholen. Im 3DC schreiben sie auch, dass man durch den Hotclock viel anderen Kram mitschleppt, der jetzt vereinfacht werden kann - das spart Transistoren.
 
Gut möglich das die Transis robuster sein mussten mit enormen Taktpotential

Trotz allem muss man an Quantität wieder zulegen um den Taktnachteil auszugleichen

Mmh ich kanns mir imo noch nicht richtig vorstellen das man die Units und alles drum herum soweit shrinken kann das sogar der Die kleiner wird,bei gesteigerter Leistung
 
Seit wann gab es denn deutlich mehr als 50% zu einer neuen Generation der Konkurrenz oder eben zur eigenen?
Das ist eigentlich üblich, etwa HD 3870 < HD 4870 < HD 5870 oder 7900 GTX < 8800 GTX < GTX 280 < GTX 480 ...
 
Zuletzt bearbeitet:
Sie werden vorne liegen.. da bin ich 100% sicher.. und das nicht zu knapp.
Aber darum geht es doch gar nicht..
Die einen finden BMW toll, andere Audi.
Ich mußte/durfte letztens nen Audi A6 3.0 TDI fahren.. im direkten Vergleich - keine Chance gegen meinen 5er..
So wird es ggf. auch vielen Audi Fahrern im BMW gehen, nur wenige spüren den Unterschied .. welcher den Wechsel notwendig machen würde.
So ist es auch bei NVidia und AMD.
Rockt der 580-Nachfolger nicht, bleibt das 580-SLI Setup bis Maxwell drin. Audi kommt mir nie in die Garage, bzw. AMD in den Rechner.
:d
Ich bin kein Fanboy, aber die Erfahrungen mit AMD/ATI waren seit der 850XT (Audi Ur-Quattro) nicht überzeugend.

Das unterschreibe ich :coolblue:

BMW ftw. aber Audi hat die besseren Motoren ;)
Und ich mag Audi bzw. AMD nicht :P
 
So lange wirds nicht mehr dauern denk ich..NV "baut" ja keine 40er mehr. Ich hoffe mal das dann HighEnd Mitte des Jahres kommt.

---------- Beitrag hinzugefügt um 10:45 ---------- Vorheriger Beitrag war um 08:08 ----------

hihi :d
AIL

""Was genau willst Du ueber GK110 hoeren? Weil Du sonst schon was handfestes ueber Kepler gehoert hast oder was? Ich hab ein paar Fetzen rausgelassen bis jetzt und da es schon zuviel des Guten wurde ich hoeflich gebremst von jetzt ab still zu halten. Kein Grund zur Unruhe bis jetzt""



:fresse:
 
Zuletzt bearbeitet:
Kepler darf ruhig das verbrauchen was die 580 braucht,wenn sie dafür die doppelte leistung bringt :d
Wenn Kepler DAS schafft, dann:
1. Hut ab :eek:
2. braucht wer 2xGTX580 mit WC-HK vernickelt@AC-Shop? :d
3. rein mit GTX780 bzw deren zwei* :fresse:

*(wie ich mich kenne würde es wohl auf ein SLi-Pärchen hinauslaufen -> Games wie BF3@120Hz dauerhaft machbar + 3D mit 2x60FPS dauerhaft bei max Settings -> für beides sind nämlich sogar die 2x580er zu lahm^^)


PS: Stand heute erwarte ich von Kepler eine Performance von GTX580@SLi-Niveau :fresse:
 
warum sollte NV in 28 mehr oder gleich als in 40 verbrauchen?...irgendwie versteh ich die Denkweise nicht....?
Wieso sollte AMD HighEnd gegen im mom nichts setzen...? Hält die einer für doof?
Wieso wird über Geld geredet von Karten die es nicht ansatzweise gibt außer in Hirngespinsten und den Test Karten....?
 
Es scheint wohl alles in grünen Tüchern zu sein nach Huangs Aussage im letzten Jahr das die komplette Familie innerhalb von 3 Monaten erscheint. :banana:
Das wird auch die Tegra 3+ Leute wohl sehr freuen.
 
Zuletzt bearbeitet:
Stimmt doch hat er damals doch gesagt als er den Holzdummi hochgehoben hat wer dem noch was glaubt ist selber schuld.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh