nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
das könnte hiermit zusammenhängen:
http://forum.beyond3d.com/showpost.php?p=1380692&postcount=267


Aber sicher ist damit auch nichts


Du wirst doch nicht behaupten wollen, eine GTX 380 wäre nur wie eine GTX 285, obwohl sie in dem einzigen bisher gezeigten Benchmark schon mal 70 % schneller ist?

ciao Tom

P.S. vielleichte eine kleine Anekdote zu damals (Winter 2007). Ein Kumpel schrieb mir damals über ICQ von einem G100, der wohl 3 mal so schnell wie ein G80 wäre. Ich hab ihm gesagt, sollte es einen Chip geben, der tatsächlich so schnell ist, dann wird ihn nVidia ganz bestimmt nicht zu dieser Zeit veröffentlichen. Tatsächlich kam es dann auch so. Aber bei einigen schwirrte dieses Gerücht wohl noch herum und so waren sie dann sehr enttäuscht (ebenso mein Kumpel, der wirklich mit so einer Steigerung rechnete). Aber wenn man sich mal die theoretischen Daten zur Shaderleistung anschaut, dann könnte mit dem damaligen G100 bereits Fermi (aka GF100 im Spielebereich) gemeint gewesen sein.;)

ne,das nicht,aber die theorien,das der fermi gleichschnell bzw. maximal 10-15% schneller als die 5870 sein soll,verdichten sich ja eigentlich immer mehr!deswegen dieser vergleich!

3d vision ob sich das durchsetzen wird,ist immer eine frage des konsumenten,ob die breite massen das eben auch annimmt bzw. bereit ist dafür geld da zulassen,am ende interessiert die firmen usw. nur eins,wirft ein produkt rendite ab.vorteil ist natürlich,das auch die tv geräte usw. 3d fähig werden,was damals zu elsa zeiten ja nicht war!

---------- Beitrag hinzugefügt um 09:13 ---------- Vorheriger Beitrag war um 09:07 ----------

Warum sucht man künstliche Vergleiche?! Das Video liefert doch einen Vergleichswert. Und bezüglich der wohl verwendeten GTX285 ist der Performance-Sprung sehr gut.

GTX285 vs GTX 380
38 min 65
50 avg 84
72 max 125

Unterschied zwischen GTX 285 und 5870 sind
http://www.pcgameshardware.de/aid,6...e-im-Benchmark-Test/Grafikkarte/Test/?page=10
53 fps vs 67 fps avg

Somit
5870 27% schneller als GTX 285
GTX 380 68% schneller als GTX 285

du kennst doch aber garnicht das testsystem der 380gtx,wenn das nun z.B. 4ghz i7 waren,kann man da bei fc2 auch mal locker 10fps und mehr rausholen zu 3,5ghz.
damit wäre der fermi immernoch schneller,aber eben wieder die besagten 10-15%,das bei bestimmt größeren stromverbrauch,höheren anschaffungspreis für den konsumenten.ich denke viele,die sich jetzt eine 5870 gekauft haben,werden für den fermi,sollte er nur 10-15% schneller sein,ihre graka nicht verkaufen.
ich haba zwar ati,bin aber eher nvidia zugeneigt,warum keine ahnung,weil mir grün gefällt,aber vielleicht hat nvidia nunmal ihr portfolio etwas anders ausgerichtet,der gamermarkt ist vielleicht auch wirklich nicht mehr so rentabel für nvidia,dann wollen sie zwar immernoch ein zugpferd,aber die entwicklung geht eben dann doch eher in die professionelle ecke,da dort die gewinne größer sind!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
PCGH hat mit einem 3.5 Ghz i7 gebencht und erreicht damit 53 fps mit einer GTX 285. PC Perspective erreichen 50 fps. Scheint also eine etwas schwächere CPU gewesen zu sein.
 
PCGH hat mit einem 3.5 Ghz i7 gebencht und erreicht damit 53 fps mit einer GTX 285. PC Perspective erreichen 50 fps. Scheint also eine etwas schwächere CPU gewesen zu sein.


man weis auch nicht,ob die beiden testsysteme vollkommen gleich waren,oder z.B. bewusst beim rechten system eine schlechter getaktete cpu usw. zum einsatz kamen.
ich würde immer abwarten...bis wirklich echte benches rauskommen.wie sagte mein statistik professor immer,glaube nur der statistik,die du selbst gefälscht hast!
 
Zuletzt bearbeitet:
ne,das nicht,aber die theorien,das der fermi gleichschnell bzw. maximal 10-15% schneller als die 5870 sein soll,verdichten sich ja eigentlich immer mehr!deswegen dieser vergleich!



du kennst doch aber garnicht das testsystem der 380gtx,wenn das nun z.B. 4ghz i7 waren,kann man da bei fc2 auch mal locker 10fps und mehr rausholen zu 3,5ghz.
!

Wie kommst du zu der Aussage obwohl du den Benchmark gesehen hast?

Irgendwo hatte ich auch mal eine Scallierung mit unterschiedlichen CPUs gepostet (glaube Xbitlabs.com wars)aus der ganz klar hervorging das bei einer Einzelkarte 5870 ab einem Core2Duo mit 4GHZ nur noch ganz geringe bis gar keine Leistungszuwächse zu verzeichnen sind in Games.Also kann man das Argument hier wurde eventuell ein 4GHZ Core I7 u ein 3,5Ghz gegen einander getestet schonmal als geringfügig bezeichnen bei Einzelkarten.

Ausserdem spielt bei Cuda Anwendungen wie Raytracing die CPU nur eine untergeordnete Rolle u dort haben wir mehr als die doppelte Shaderleistung gesehen
 
Zuletzt bearbeitet:
Wie kommst du zu der Aussage obwohl du den Benchmark gesehen hast?

Irgendwo hatte ich auch mal eine Scallierung mit unterschiedlichen CPUs gepostet (glaube Xbitlabs.com wars)aus der ganz klar hervorging das bei einer Einzelkarte 5870 ab einem Core2Duo mit 4GHZ nur noch ganz geringe bis gar keine Leistungszuwächse zu verzeichnen sind in Games.Also kann man das Argument hier wurde ein 4GHZ Core I7 u ein 3,5Ghz gegen einander getestet schonmal als geringfügig bezeichnen bei Einzelkarten.

Ausserdem spielt bei Cuda Anwendungen wie Raytracing die CPU nur eine untergeordnete Rolle u dort haben wir mehr als die doppelte Shaderleistung gesehen

ich habe ja geschrieben,die theorie,das der fermi bei heutigen aktuellen games nur 10-15% schneller sein soll.

extrem beispiele wie crysis oder raytracing,kann die ja natürlich die 5870 abziehen...ausserdem habe ja nicht ich die gerüchte in die welt gesetzt!
 
Zuletzt bearbeitet:
werde das mit 5850@5870 niveau (single natürlich) testen,mit quad 9650 bei 3/3,6/4/4,25 ghz testen!
1920x1080 (FULL HD Tv),4xAA und 16xAF,Ultra ... Okay?
 
Zuletzt bearbeitet:
sorry für Offtopic
@ColeTrickle:
Du wirst wahrscheinlich erstaunt sein,habe auch viel Far Cry 2 durchgebencht,ob 3-oder 4gigs macht so gut wie kein Unterschied aus bei Singlecard,oder?
 
bei mir war das 3.8 (i7) auf 4 gig kannste dann vergessen, wenn dann 4.2 oder höher, voher merkste nix greifbares an mini FPS.
 
sorry für Offtopic
@ColeTrickle:
Du wirst wahrscheinlich erstaunt sein,habe auch viel Far Cry 2 durchgebencht,ob 3-oder 4gigs macht so gut wie kein Unterschied aus bei Singlecard,oder?

benche dann,will erstmal die 5850@5870 niveau bringen...1.system steht bei meiner besseren hälfte,bin aber heeme xD!
 
Bild bitte anpassen und Vantage nutz in dem Vergleich mal gar nix ;)
 
Wurde doch schon alles abgeklärt. Ich verweise nochmals auf:

http://www.hardwareluxx.de/community/showpost.php?p=13762683&postcount=1220

oder auf

http://forum.beyond3d.com/showpost.php?p=1380703&postcount=268

Das die erzielten Werte bei PCGH doch deutlich schlechter ausfallen, könnte auch daran liegen das man erstens noch diesen Treiber verwendet hat: Catalyst 8.66 RC6 und zweitens die Werte für die min FPS nochmals selber nachrechnet, da: Wichtig: Der Durchschnitswert für die Minimum-Fps wird oft falsch berechnet – bitte selbst nachrechnen.
 
benche dann,will erstmal die 5850@5870 niveau bringen...1.system steht bei meiner besseren hälfte,bin aber heeme xD!

Na dann nehmen wir doch mal Far Cry2 mit fast identischen Settings:)

Wie du siehst gibt es ab dem Q6660 fast keine Zuwächse mehr u es ist egal ob da nun ein Core i7 werkelt mit 3,5GHz,oder ein Q6660.Beide spenden genügend "Futter" in der Auflösung um die 5870 zu versorgen

Erst ab niedrigen 18" Auflösungen 1280x1024 macht sich eine starke CPU bemerkbar,aber wer spielt heut zu Tage noch in dieser Auflösung von vor vor gestern;)

Und auch der Fermi Bench ist mit höherer Auflösung gelauncht worden,also sollte das CPU Thema zweitrangig sein
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    132,9 KB · Aufrufe: 89
Zuletzt bearbeitet:
Du irrst dich ein "Bisschen" kann das sein bzw hast den Werdegang von 3DVision,Revelator oder was auch immer nicht richtig verfolgt.

Dann wäre das aber eine seeehr lange Kinderrzeit bei Nvidia:cool:

Denn das System gab es schonmal vor vielen Jahren(ca 1999),also ist es schon seehr lange aus den Kinderschuhen:)

Wie lange eine Technik schon existiert, sagt aber nichts darüber aus, wie etabliert sie ist. Die 3D Technik hat sich mitnichten schon durchgesetzt, sondern wie auch die diesjährige CES gezeigt hat, rückt sie gerade erst jetzt in den Blickpunkt der Hersteller was eine wirkliche Verbreitung angeht.

Elsa war damals der Zeit weit vorraus und konnte sich auch nie durchsetzen und außerdem hat sich die grundsätzliche Technik dahinter bis heute nicht wesentlich geändert. Ich rechne allerdings damit, dass sich dies sehr schnell ändern könnte, da wie ich bereits sagte jetzt jeder namhafte Monitor oder TV-Hersteller auf den Zug 3D aufspringen wird. Raytracing gibt es auch schon lange, von einer Bedeutung in z.B. Games ist man aber wohl noch Jahre entfernt.
 
Die ganze 3D Geschichte steckt für mich noch zu sehr in den Kinderschuhen

Das hattest du geschrieben,worauf ich geantwortet habe,da steht nichts von etabliert;)

Und in den Kinderschuhen steckt sie nunmal nicht mehr.

Shuttertechnologie kann man nicht neu erfinden.Was will man auch an "Auf/ZU" neu erfinden:fresse: Sie ist u bleibt so wie sie damals vorgestellt wurde,ganz gleich von welcher Firma sie heute vermarktet wird.

Das einzige was sich da eventuell noch verbessern könnte wäre,das wir eines guten Tages 100Hertz für jedes Auge bekommen,sobald die Displays soweit sind;)
 
Zuletzt bearbeitet:
Na dann nehmen wir doch mal Far Cry2 mit fast identischen Settings:)

Wie du siehst gibt es ab dem Q6660 fast keine Zuwächse mehr u es ist egal ob da nun ein Core i7 werkelt mit 3,5GHz,oder ein Q6660.Beide spenden genügend "Futter" in der Auflösung um die 5870 zu versorgen

Erst ab niedrigen 18" Auflösungen 1280x1024 macht sich eine starke CPU bemerkbar,aber wer spielt heut zu Tage noch in dieser Auflösung von vor vor gestern;)

Und auch der Fermi Bench ist mit höherer Auflösung gelauncht worden,also sollte das CPU Thema zweitrangig sein


Die Frage wäre halt ob ein Fermi von zusätzlicher CPU-Leistung mehr profitiert. Wissen werden wir es allerdings erst mit den ersten richtigen Benches.
 
Das Ziel ist aber 3D ohne Brille, nur dann wird es eine breite Akzeptanz auch abseits von Kino oder Gaming geben. Wenn man sich aber die Preise für solche Lösungen anguckt, die es ja durchaus schon gibt, kann man sich vielleicht auch vorstellen wo man in Bezug auf Massenverbreitung momentan steht. Das wollte ich damit sagen. Aber ok wir werden sehn wie sich das weiterentwickelt. Aber jetzt genug offtopic.
 
Zuletzt bearbeitet:
Das Ziel ist aber 3D ohne Brille, nur dann wird es eine breite Akzeptanz auch abseits von Kino oder Gaming geben. Wenn man sich aber die Preise für solche Lösungen anguckt, die es ja durchaus schon gibt, kann man sich vielleicht auch vorstellen wo man in Bezug auf Massenverbreitung momentan steht. Das wollte ich damit sagen. Aber ok wir werden sehn wie sich das weiterentwickelt. Aber jetzt genug offtopic.

lcd und plasma haben vor 5jahren auch unmengen geld gekostet...jetzt bekommt man das zeug hinter her geworfen.
so wirds auch bei 3d sein,da sich nunmal alle tv hersteller,kino,sogar tv damit beschäftigen wird das standard werden,erst sehr teuer,aber irgendwann auch bezahlbar...deswegen wird sich das,denke ich auch durchsetzen,auch für den pc!
 
Bzgl 3D:
Für einen 1,5stündigen Film mal eine Brille aufzusetzten mag durchaus von der Masse akzeptiert werden, aber ich glaube kaum für längeres Gaming. Dazu werden die Brillen dann auf Dauer doch etwas unbequem und die Technik verursacht immer noch bei vielen Augenprobleme/Kopfschmerzen.
Der einzige Bereich, wo sich 3D imho mittelfristig durchsetzten wird ist das Kino, vielleicht noch Bluray.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh