nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Ich hab zwei 470er im SLI und brauch was mehr ;) Vor allem der VRAM ist arg klein, wo eben 4xSGSSAA oft das Fass zum überlaufen bringen und die FPS Rate extrem absinkt. Mit "schlechten" AA Bits ist die Performance auch nicht unbedingt brachial, trotz 95%+ GPU Auslastung auf beiden GPUs.
Im Moment halte ich mich mit wenig spielen bzw. mit älteren Titeln über Wassen ;) letztens für 7€ Medal of Honor 2010 im Steam mitgenommen. Das geht mit 4xSGSSAA sehr smooth (~60FPS) und der VRAM langt dabei auch völlig ;) So müsste das bei allen Games laufen :fresse:
Skyrim mit 4xSGSSAA und FullHD + Mods (inkl. ordentlich erhöhter Sichtweite) packt der 1280MB VRAM aber leider nicht :(

Ich hoffe Kepler in groß bekommt seine 4GB VRAM pro GPU. Dann bin ich wieder zwei Jahre versorgt mit zwei Karten ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein paar Aufkleber von einem Acer NB wenns sonst schon nicht viel neues gibt:)

Klick
 

Anhänge

  • images_stories_gusssss_acer_timeline_ultra_gt_640m_450x405.png
    images_stories_gusssss_acer_timeline_ultra_gt_640m_450x405.png
    65,2 KB · Aufrufe: 104
Insgesamt hört es sich nicht mehr so überragend gut an...
Wenn man nur in ausgewählten Spielen deutlich schneller ist, bzw die Karte davonfliegen soll, in "normalen" Games aber 10-20% langsamer als ne 7970...
Damit wäre man wohl im Durchschnitt so schnell wie ne 580-7950, dass könnte es zumindest in Sachen Preis den AMDs zu einem Rutsch verhelfen, der Verbrauch soll ja ziemlich gut sein!

Aber da ist auch ein ganz großer Abschnitt NV ist der böse schwarze Mann der den Engel ATI vernichten will :d
Könnte also durchaus darauf hindeuten das Charlie kalte Füße bekommt wenn er auf einmal wieder so extrem die Fanboy Keule schwingen muss.
 
Zuletzt bearbeitet:
Insgesamt hört es sich nicht mehr so überragend gut an...

Abwarten

Falls dort wirklich dedizierte Ageia Hardware verbaut ist,kann diese mit anderen Physik Bibliotheken möglicherweiße auch besser umgehen,wie es eine CPU oder normale Shaderunits anderer Mitbewerber könnten

Bei allem anderen ist Charlie wieder der Alte hab mir echt schon Sorgen um ihn gemacht:d
 
Zuletzt bearbeitet:
Die Karte wird vermutlich schon sehr gut, besonders im Vergleich zur 560 bzw 580 wenns um Leistung bzw L/Watt geht...
Aber das sie durchgängig die 7970 schlagen wird, wie es OBR prophezeit, war eher wunschdenken und das deutet sich jetzt an :)
 
Die 660 kann man sich in den Po schieben. Wenn die zwischen 7950 und 7970 liegen würde, wäre das schon top!

Dann wäre auch das Thema geklärt, dass Nvidia natürlich noch ne 670 und 680 raushaut. Und diese ziehen dann sicherlich davon, wenn nicht gute Nacht!
 
Far faster than an AMD HD7970/Tahiti for a chip with far less die area and power use, and it blew an overclocked 580GTX out of the water by unbelievable margins

Ganz so schlecht kann sie wohl nicht sein und da nunmal Physik egal ob PhysX,Ode,oder jegliche andere,ist sowas verbautes gar nicht so verkehrt:)
 
Zuletzt bearbeitet:
Was Manche hier für Erwartungshaltungen und gar Illusionen haben ist nicht mehr normal. DAZU sage ich "gute Nacht" :fresse2:

Bin immernoch so gespannt wie Kepler wird, wie Anfang Januar. Gab ja auch im großen und ganzen nicht viel Verlässliches seit dem :fresse:
Ich hoffe einfach nur dass die karten so früh wie möglich kommen und eine bessere Leistung (Preis/Leistung) haben als Fermi. Das wär für mich bereits genug. Mich juckts schon ewig in den Fingern, weil ich mir endlich ein IVY+Kepler Sys aufbauen will :wall:
 
Meine Vermutung (auf Basis der derzeitgen Modelle von NV)

GTX 660 in etwa 570er Niveau, damit man den Anschluss an AMDs 78x0 behält, fraglich ob man damit der 7950 gefährlich wird
GTX 670 dann 7950- 7970 Niveau (mein Tipp: 580 + 15-20%)
GTX 680 7970 + 30% (ggf noch eine Ultra als Antwort auf eine OC 7980)

Je mehr ich über Kepler lese, desto mehr drängt sich mir der eindruck eines Konzeptes auf, welches vllt Sinnvoll ausgedacht ist, aber nicht Sinnvoll zu ende geführt wurde. Ich vermute immer noch GK 110 im Juni (frühestens) GK 104 hoffentlich im März/April. Sonst holt sich AMD auch die härtesten GK Abwarter (ausser Fanboys), denn bei der 7er Serie scheint AMD seine Hausaufgaben mit Bonus gemacht zu haben

Bleibt zu hoffen, dass diese Geheimnistuerei nicht davon rührt, dass Kepler 2012/2013 erst Vollständig ist und GK 104 sich noch weiter verschiebt
 
@scully:

Du solltest echt nicht immer nur das zitieren was dir gerade gefällt. Oder wenn dein Problem tiefgründiger ist: Du solltest echt nicht selektiv lesen ;)
 
@scully:

Du solltest echt nicht immer nur das zitieren was dir gerade gefällt. Oder wenn dein Problem tiefgründiger ist: Du solltest echt nicht selektiv lesen ;)

Das ist etwas was Charlie aufgreift für ein"selektiertes" Szenario mit Physikunterstützung,wie auch immer sich das dann bei der Mehrzahl der Games darstellt

Wie gesagt Physik gibts nicht nur mit PissX und solche Hardware könnte auch bei anderen Vorteile bringen:)


Was Charlie primär sagen wollte,mit seinem ausladenden Beitrag ist,das Nvidias GK104 nur bei Physik punkten kann,und das Marketing dieses ausschlachten wird
 
Zuletzt bearbeitet:
Interessant wäre wenn zukünftige Konsolen auf einem Kepler-basierten Chip zurückgreifen würden. Dann könnte sich die Investition in PhysX-HW-Einheiten (ob und wenn ja in welcher Form es sie denn je gibt) durchaus längerfristig lohnen.

Ich persönlich denke eher, dass man die gesteigerte double precision Leistung im Gamermarkt als eine Art PhysX-HW verkauft. Dann würde sich irgendwie der Kreis schliessen.
 
Ich persönlich denke eher, dass man die gesteigerte double precision Leistung im Gamermarkt als eine Art PhysX-HW verkauft. Dann würde sich irgendwie der Kreis schliessen.

Was willst du damit erreichen?

Atomare Explosionen bei Crysis in den Neutronenbereich auflößen:fresse:

Spekulationen gehen sogar davon aus das man sich bei der Mehrzahl der Geforce Modelle dessen entledigen wird und nur Tesla sowie Quadro massiv aufrüstet

DP ist nicht von Belang für den Einsatzzweck im Gamermarkt nichtmal für Physik
 
Zuletzt bearbeitet:
Hmm wem "glaubt" man nun, dem NVidia-Hasser oder dem AMD-Hasser...? :hmm:

Ich denk mal die fischen beide noch im Dunkeln und werfen sich durch solche Aktionen die Klicks zu :d
 
10-20% langsamer als ne Tahiti. Gehe ich mal von der 7970 aus würde die GTX660(ti) immernoch 10-20% über der GTX580 liegen. Das würde leistungstechnisch schon hinkommen. Ich denke aber nicht, dass wir zu Anfang ne 670 sehen werden. Eher sowas wie ne 660(knapp unter der GTX580) und 660ti. 1-2 Monate später dann 680 und 670 (juni-Juli)
Die 670 dann mit 30% Leistungszuwachs zur 660ti und die 680 mit 15-20% vor der 670. Rechnerisch passen so die 55-70% Leistungszuwachs derGTX680 zur GTX580.
Geht man nur von einer normalen 660 aus wären etwa 20% abzuziehen. Ich warte also geschmeidig auf die GTX680.

Wie lange brauchte EVGA nach Release der GTX580 um ihre GTX580 Classified HydroCopper auf den Markt zu schmeißen? Sowas würde mir vorschweben, oder ein SLI aus zwei 670ern.
 
Zuletzt bearbeitet:
Wie lange brauchte EVGA nach Release der GTX580 um ihre GTX580 Classified HydroCopper auf den Markt zu schmeißen? Sowas würde mir vorschweben, oder ein SLI aus zwei 670ern.

Ich schätze mal 1 Monat wird es dann noch dauern bis die Sondermodelle erwerbbar sind.
Allerdings weißt du ja schon, das zwei hammergeile Karten keinen Sinn machen wenn man sie in Reihe schaltet. Die kosten auch n Ars.h voll Kohle und da kann man sich gleich die Pissgeile holen. ;)
 
:hmm: stimmt, in Reihe macht keinen Sinn, eher Parallel zusammen laufen lassen *G* :fresse2:

ne, spaß...besser zwei pissgeile, aber das liebe Geld^^ Den einen Monat warte ich dann liebend gerne noch...oder doch referenz und auf die Kühler warten ?? :wall:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh