nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Die 680 sollte auch DX 11.1 haben. Bei dem 7 er AMDs steht das auch nicht auf der Packung sondern im kleingedruckten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber würde man denn nicht, wenn man die Physik während eines DX-Spieles auf der GPU berechnen will, auf DirectCompute setzen? Ich muss zugeben so tief bin ich in der Materie nicht drin, aber genau so hätte ich dieses Feature verstanden - denn Stream, Cuda und OpenCL gab es ja bereits vor DX11, irgendwo muss da ja der Unterschied liegen.
 
Könnte man, aber warum sollte man!?
Das bedeutet, das du direkt alle nicht DX11.1 GPUs außen vor lassen würdest, wenn du dort die neueste Version forcieren würdest.

OpenCL bietet dir dabei eine saubere Alternative. Und ist ebenso schon am Markt angekommen. Macht also wenig Sinn hier auf nagelneues zu setzen. Vor allem, wenn das was am Markt ist, nichtmal im Ansatz ausgenutzt wird.
Es gibt schlicht und einfach keine Alternative zu PhysX aktuell. Ob da nun DX11.1 drin ist oder nicht, ist vollkommen egal, weil PhysX eben Cuda ist.
 
Ok dann liegt es also schon länger nicht mehr an der fehlenden Möglichkeit, sondern nur an der Motivation des Programmierers :) Das erklärt natürlich warum du sagst das eine hat nichts mit dem anderen zu tun.

Danke für die Erklärung :)
 
Ich würde es nichtmal fehlende Motivation nennen. Bedenke, nicht jeder hat HighEnd GPUs im PC.
Stell dir mal ner poplige Mittelklasse GPU von vor drei/vier Jahren vor, welche in aktuellen Games noch Physikeffekte berechnen muss. Die kommt heute schon nicht mit neuen Games klar... Das Teil dann nochmal mehr fordern ist ziemlich unsinnig.
Und das ist der größte Schwachpunkt an diesen GPU Physikgeschichten. Dort wo es was bringen würde, nämlich bei den durchschnitts Gamer PCs, dort ist einfach überhaupt keine Leistungsluft vorhanden ;)
Die Ambitionen der Gameprogrammierer gehen also gegen Null, weil fast niemand die Effekte nutzen können würde ;)
Bei PhysX greift NV teilweise ein, damit man dort PhysX implentiert. IdR sind das dann NV sponsored Titel ;)

Der Ansatz von Ageia damals war da weit besser. Denn dort brauchte man Zusatzhardware, die den PC so nicht weiter belastet hatte. (außer eben durch minimal mehr Belastung für die Zusatzgrafikeffekte)
Wer die Karte hatte, konnte es nutzen, wer nicht, eben nicht...
Problem war nur, das Teil war anfangs teuer ohne Ende und verkaufte sich schlecht. Weil es keine Games groß gab. Nur ohne Karten am Markt baut auch niemand die Effekte in die Games und umgekehrt. Teufelskreis imho.
 
Zuletzt bearbeitet:
Ich würde es nichtmal fehlende Motivation nennen. Bedenke, nicht jeder hat HighEnd GPUs im PC.
Stell dir mal ner poplige Mittelklasse GPU von vor drei/vier Jahren vor, welche in aktuellen Games noch Physikeffekte berechnen muss. Die kommt heute schon nicht mit neuen Games klar... Das Teil dann nochmal mehr fordern ist ziemlich unsinnig.
Und das ist der größte Schwachpunkt an diesen GPU Physikgeschichten. Dort wo es was bringen würde, nämlich bei den durchschnitts Gamer PCs, dort ist einfach überhaupt keine Leistungsluft vorhanden ;)
Die Ambitionen der Gameprogrammierer gehen also gegen Null, weil fast niemand die Effekte nutzen können würde ;)
Bei PhysX greift NV teilweise ein, damit man dort PhysX implentiert. IdR sind das dann NV sponsored Titel ;)

Der Ansatz von Ageia damals war da weit besser. Denn dort brauchte man Zusatzhardware, die den PC so nicht weiter belastet hatte. (außer eben durch minimal mehr Belastung für die Zusatzgrafikeffekte)
Wer die Karte hatte, konnte es nutzen, wer nicht, eben nicht...
Problem war nur, das Teil war anfangs teuer ohne Ende und verkaufte sich schlecht. Weil es keine Games groß gab. Nur ohne Karten am Markt baut auch niemand die Effekte in die Games und umgekehrt. Teufelskreis imho.

Hab im Moment 2 260er drin und Mafia 2 oder BAC laufen mit allen drin flüssig und die war damals auch nur Mittelklasse;)..

Warte halt auf Kepler:)!!
 
Hab im Moment 2 260er drin und Mafia 2 oder BAC laufen mit allen drin flüssig und die war damals auch nur Mittelklasse;)..

Warte halt auf Kepler:)!!

Mittelklasse war damals bestenfalls ne 9800GTX/250GTS bzw. noch weiter runter die 9800GT/9600GT.

Mal ganz davon ab, du erzählst hier was von SLI bzw. zwei Karten. Wer hat das bitte als Otto Normalo!? Denk mal drüber nach...
 
Also können wir praktisch gut und knapp mit 500€ pro Karte rechnen.
Danke knapper Verfügbarkeit zu Release wahrscheinlich 50€ mehr.
 
Das mit den Physikberechnungen habe ich verwechselt. War vielleicht ein Wunschgedanke. Das einzig interessante Feature von DX11.1 ist bei stereoskopischem 3D begraben:
[...]Neu ist beispielsweise die Unterstützung von stereoskopischem 3D durch eine eigene Schnittstelle, die dann vermutlich sowohl mit AMD- als auch mit Nvidia-Grafikkarten funktionieren wird. [...]

Quelle
 
jo was wir schon vermutet hatten....

das hieße aber die übertaktet mal geschmeidige 30-40% ?
 
jo was wir schon vermutet hatten....

das hieße aber die übertaktet mal geschmeidige 30-40% ?

Ja das heisst aber auch, dass 1400Mhz (das wäre ein Plus von 100% für diejenigen die nicht rechnen können ;)) wie hier sooft gelabert wurde so gut wie unmöglich ist. Scheinbar ist bei 1150 im Schnitt Schluss.

D.h. die haben eine voll übertaktete GTX680 mit einer unübertakteten 7970 verglichen. Was ein Armutszeugnis. Ich habe mir ehrlich gesagt mehr von NV erhofft...
 
Zuletzt bearbeitet:
Damit bewarheitet sich aber ein Stock-Clock von 706MHz und keine 1006MHz!

Nein, ... immer noch Auslesefehler!
Die 1006 MHz sind fix.

---------- Post added at 14:19 ---------- Previous post was at 14:18 ----------

jo was wir schon vermutet hatten....

das hieße aber die übertaktet mal geschmeidige 30-40% ?

Nein, .... 1006 MHz GPU und 6008 MHz VRam sind Default.
 
Es können auch die 706MHz fix sein und in den alten Benches wurden die 1006MHz falsch ausgelesen.
 
Nein, ... immer noch Auslesefehler!
Die 1006 MHz sind fix.

Nein, .... 1006 MHz GPU und 6008 MHz VRam sind Default.

Das unterschreibe ich so.

Ich denke auch das die 680er nen ziemlich gutes OC-Verhalten an den Tag legt, denn bei der Spannung sollte noch einiges drin sein. Kleine Chips gehen vom Takt her ebenfalls meist besser.

Einziger Nachteil gegenüber der 7970 könnte die eigentlich unwesentlich höhere Packdichte sein.
 
OK Olli, d.h. du hast schon eine GTX 680 und auch schon getestet ;)

Komm schon, NDA hin oder her, versorg uns mit einem Test...
 
OK Olli, d.h. du hast schon eine GTX 680 und auch schon getestet ;)

Komm schon, NDA hin oder her, versorg uns mit einem Test...

Nein, hab ich nicht, ... aber wie mittlerweile bekannt sein sollte, gibt es genügend Leute die eine besitzen, zu denen ich aber nicht gehöre.
Wenn ich eine hätte, müsste ich mich aber auch ans NDA halten ...
 
Ich akzeptiere das ja auch, aber ich würde gern mal wissen, wann denn nun die NDA fällt. Das kann doch nicht sein, dass da auch so ein Geheimnis draus gemacht wird :(
 
Damit bewarheitet sich aber ein Stock-Clock von 706MHz und keine 1006MHz!

Wie bitte kommst du darauf? Durch den GPU-Z 0.59 Screen, der sowohl die Taktraten als auch die Hotclocks immer noch nicht richtig erkennt? Solange da keine neue Version rauskommt, muss man das immer und immer wieder durchkauen? 706 ist nicht stock.
 
Zuletzt bearbeitet:
Wie bitte kommst du darauf? Durch den GPU-Z 0.59 Screen, der sowohl die Taktraten als auch die Hotclocks immer noch nicht richtig erkennt? Solange da keine neue Version rauskommt, muss man das immer und immer wieder durchkauen? 706 ist nicht stock.

Na Anhand des GPU-Z Bildes des Links. Aber wenn das ein Auslesefehler ist, ist es doch geklärt!?!
 
Ja das heisst aber auch, dass 1400Mhz (das wäre ein Plus von 100% für diejenigen die nicht rechnen können ;)) wie hier sooft gelabert wurde so gut wie unmöglich ist. Scheinbar ist bei 1150 im Schnitt Schluss.

D.h. die haben eine voll übertaktete GTX680 mit einer unübertakteten 7970 verglichen. Was ein Armutszeugnis. Ich habe mir ehrlich gesagt mehr von NV erhofft...

Hier die Antworten darauf...takte teilweise gleich, teilweise etwas weniger...die ersten beiden Bilder haben die gleichen Takte. Einmal mit und einmal ohne tweaken. Selbst ohne Tweaks sind die Radeons schneller...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh