nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
alleine fuer Accelerated Jittered Sampling wird die karte schon gekauft :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mikroruckler sind für GPGPU irrelevant. Und wie stark man es in Spielen wahrnimmt, ist individuell verschieden. Tatsache ist vielmehr, bekommt nVidia keine brauchbaren Yields mit A3 bzw A4 zustande (imo 40% bei sehr guter und 50-60% bei mäsziger Performance), dann hat Fermi verloren bzw ein Respin ist wahrscheinlich. Dann ist der Konkurrent aber nicht mehr Hemlock, sondern Northern Island. Aber hoffen wir, dass es soweit nicht kommt. Fehlende Konkurrenz nützt niemandem etwas.

Man kann auch wärend der Produktion neue Revisionen einführen. Außerdem ist GPGPU nur wieder nen Teilgebiet. Alles in Allem hat eine SingleGPU-Karte die sich mit einer DualGPU-Karte messen kann gewonnen.
 
Wenn ne 360 GTX schneller wäre, als ne 5870, wärs echt geil :) Obwohl das Ding dann aj auch net 400 Euro oder so kosten darf, dann bringts net mehr so viel! Aber son Preishammer ala 300-330Euro wäre für ne 360GTX sehr gut, wenn sie schneller als ne 5870 ist!

Los jetzt, wo sind Computerbase Tests :)
 
°° Was den fürs Tests ? Es gibt keine Karten für irgendwelche Tests !
 
ich behaupte mal das sind Werte von einer "385er" :d Juli?

Ja klar, nur weil irgend ein User im beyond3D Forum ein Gerücht verbreitet, muss es doch nicht gleich wahr sein?!:wall:

Außerdem: Sollte es sich bei der Präsentationskarte wirklich um eine GTX360 (448SP, 320 Bit SI usw.), dann wäre ein vollwertiger Fermi ja der Überkiller. Gut für Nvidia, schlecht für die Kunden (Wartezeit).


mfg
 
Ist auch irgendwie merkwürdig, dass man Far Cry 2 gewählt hat. Gerade da soll der Fermi doch nicht so gut abscheiden.


Vielleicht genau deswegen, um zu zeigen wie stark die Effizienz der Texturleistung gegenüber der GT200 trotz Reduktion der TMUs geworden ist.

Also kann das ein Benchmark sein, in dem der Fermi gegenüber dem Vorgänger so richtig aufdreht, dagegen wirds vielleicht auch Spiele geben bei denen der Vorsprung um einiges geringer ist.

Da müssen wir wohl auf Tests warten. :)
 
@CypressFX
tu dir den Kopp net weh....
wenn du lesen könntest wolltest hättest du mitbekommen das die Leutchen schreiben das die Tests wahrscheinlich mit dem "vollwertiger Fermi " liefen aber im März erstmal "eventuell" nur die kleine Karte kommt.
 
°° Was den fürs Tests ? Es gibt keine Karten für irgendwelche Tests !

Samples werden bestimmt schon unterwegs sein.

Wundert mich eigentlich das PCGH von nem Test redet. Allerdings wird die Ausgabe wohl schon vor der CES gedruckt worden sein, auf der man ja erst wiklich Infos sammeln konnte.

Ok, Ausgabe ist vorher erstellt worden.
 
Fermi-SLI - hoho, da bin ich dabei.:d Naja, abwarten, was die Grünen da zurechtbasteln - ich hoffe einfach nur auf gutes Multimonitoring, sonst geh ich doch zu ATI.
 
Dies ist kein GF100 schönrede Thread. Unterschiedliche Menschen haben nunmal unterschiedliche Meinungen/Einschätzungen. Es gibt momentan auf Grundlage von alldem was jetzt über GF100 bekannt ist, keinen Grund weder für übermäßige Euphorie noch unangebrachten Pessimismus. Meine Meinung
 
Interessant zu lesen. Gehen für 3D wirklich nur 120Hz-Monitore? Das man SLI dafür braucht ist ja nicht so das Problem, aber drei neue Monis, die sind teuer...
 
Man muss immenroch sehen das es Benchmarks von NV sind, die extra gewählt wurden.


Wie gesagt , schaut euch mal bei CB Stalker CoP an, da macht ne 5770 eine GTX285 platt, wenn ich jetzt ATI wär würde ich das als erstes bsp geben.


Wartet doch erstmal mit test von 3ten kommen die mehr als 1spiel udn eine 60sec sequenz eines benchmarkes testen!

Bisher wissen wir genausoviel wie vorer, die wird schneller als 5870, aber in welchen maßen weiss hier immernoch keiner!
 
Interessant zu lesen. Gehen für 3D wirklich nur 120Hz-Monitore? Das man SLI dafür braucht ist ja nicht so das Problem, aber drei neue Monis, die sind teuer...

naja rechne es dir selbst aus
bei einem 60hz monitor bleiben dann nur 30hz fuer jedes auge
das is dann imho nimmer flimmerfrei ;)
 
Jo, ist mir auch schon aufgefallen...
Die werden alle am heulen sein weil Fermi doch besser ist als sie erwartet haben. :)

Wo seht ihr da besser als erwartet?

Ich seh sie ist schneller als die 5870 (simuliertes system!)

Und das in Benchmarks die NV ausgewählt hat! Und dann nur ausschnitte!

Als ob NV extra das schlechteste oder normales zeigt, die werden schon extra das beste rausgepickt haben!

Also abwarten und tee trinken!
 
Dies ist kein GF100 schönrede Thread. Unterschiedliche Menschen haben nunmal unterschiedliche Meinungen/Einschätzungen. Es gibt momentan auf Grundlage von alldem was jetzt über GF100 bekannt ist, keinen Grund weder für übermäßige Euphorie noch unangebrachten Pessimismus. Meine Meinung

Ich habe nichts gegen Leute die den GF100 gut oder schlecht reden. Echt scheiße finde ich es nur, wenn man es halt vollkommen ohne Argumente macht, dann ist es in meinen Augen Fangeblubber. Vor einer Woche gab es hier noch eine ganz große Anzahl von Leuten die den GF100 schlecht geredet haben ohne auch nur ein sinnvolles Argument zu haben. Ich kann BiTbUrGeR nur zustimmen, von der Seite kommt jetzt nichts mehr.


Zu den Benchmarkergebnissen: Es stellt sich ja auch noch die Frage wie die GF100 im Test getaktet war, schließlich stehen die finalen Taktraten immer noch nicht fest.

Edit:
@Haro: Nunja das mit dem simulierten System hatten wir doch schon, darauf würde ich nicht mehr herumreiten. Das war ein extrem ähnliches Testsystem in dem die GTX285 etwa gleich schnell war wie bei NV und dann hat man halt eine HD5870 eingebaut und gemessen. Also stellt es bitte nicht so dar als wenn es irgendwelche hochgerechneten Werte seien. Es sind harte Fakten. Natürlich muss das jetzt nicht in jedem System so aussehen, aber für Besitzer eines i7 dürfte damit klar sein wie GF100 vs HD5870 in Far Cry 2 bei ihnen aussieht.
 
Zuletzt bearbeitet:
Wie gesagt , schaut euch mal bei CB Stalker CoP an, da macht ne 5770 eine GTX285 platt, wenn ich jetzt ATI wär würde ich das als erstes bsp geben.

Ich denke ich weiß, wie du es meinst. Aber fairer Weise muß man sagen, dass die 5770 mit DX11 (ohne Tessellation) und die 285er mit DX10 gebencht wurde. Und nur so konnte wohl die 5770 besser aussehen, unter DX10 eher nicht.

Mir hat das heute Gesehene erst mal gereicht, um zu sagen: bis März oder so kann ich ruhig noch auf den Fermi warten. Hoffenlich wird er aber nicht zu teuer. Auf 500+ habe ich nicht wirklich Lust. Da ich Stalker CoP schon unter DX10 durch habe brauch ich jetzt noch keine DX11-Karte.

Ich bin auf jeden Fall gespannt, wie sich der Fermi dann in realen Games schlägt. Schlecht schein er auf keinen Fall zu sein.

PS: Hoffentlich hat NV auch etwas gegen Microruckler bei SLI gemacht. Ich wollte ja mal SLI nutzen, wo das ja endlich auf Intel-Chipsätzen funzt.
 
Zuletzt bearbeitet:
Echt scheiße finde ich es nur, wenn man es halt vollkommen ohne Argumente macht, dann ist es in meinen Augen Fangeblubber.

Schon richtig, aber es gibt überhaupt keinerlei stichhaltige Argumente, weil es bisher nichts an brauchbaren und prüfbaren Fakten gibt.

Also ist bis hierher und auch die nächsten Wochen alles nur stochern im Nebel. (Fermi=Nebel des Grauens?) :fresse:
 
Was man jetzt so liest dürfte es ja doch ne BOMBEN KARTE werden, ATI wird dann eine 5890er mit erhöhten Taktraten bringen und noch immer einen Hauch langsamer sein. Dafür werden die Preise der 58er in den Keller fallen, und alle Ati Jünger haben wieder das altbekannte Argument der Preis/Leistung ;)

Was auch sinnvoll ist ;)
 
sehen würd ich gerne mal fermi in ganz ordinären games die es zur Zeit gibt>Dx9 mit SSAA zb., ehe ich Dx11 Spiele in Masse zocken kann haben wir schon die übernächste Generation, jetzt und heute muß das Ding sich beweisen in den Konsolenports und nicht in irgendwelchen D11 Benchmarks, aber davon hört man absolut nix.
 
sehen würd ich gerne mal fermi in ganz ordinären games die es zur Zeit gibt>Dx9 mit SSAA zb., ehe ich Dx11 Spiele in Masse zocken kann haben wir schon die übernächste Generation, jetzt und heute muß das Ding sich beweisen in den Konsolenports und nicht in irgendwelchen D11 Benchmarks, aber davon hört man absolut nix.

Stimmt, aber warum sollte man auch mit altem Kram werben.

Ich schätze GF100 aber auch unter DX9 extrem schnell ein. Wie es mit SSAA aussieht weiß ich nicht (generel fehlen Angaben zur Unterstützung), aber vielleicht hat ja jemand Infos...

Sehr gut dagegen scheint die leistung unter AA zu sein. So verliert laut NV der GF100 von 8x MSAA zu 32x CSAA gerade mal 7% Leistung. Verbesserung der Bildqualli von Konsolenports scheint also gesichert zu sein.
 
@CypressFX
tu dir den Kopp net weh....
wenn du lesen könntest wolltest hättest du mitbekommen das die Leutchen schreiben das die Tests wahrscheinlich mit dem "vollwertiger Fermi " liefen aber im März erstmal "eventuell" nur die kleine Karte kommt.

Achte du erstmal auf deine Grammatik;) Denn im 3DCenter wird auch gesagt, dass es die GTX360 gewesen sein soll!


mfg
 
@Neurosphere
das ist mir aber kräftig wumpe :d auch bei NV bekommstes Flimmern nur mit SSAA weg auch bei AF HQ...

---------- Beitrag hinzugefügt um 14:41 ---------- Vorheriger Beitrag war um 14:38 ----------

Achte du erstmal auf deine Grammatik;) Denn im 3DCenter wird auch gesagt, dass es die GTX360 gewesen sein soll!


mfg
1. nö
2. was willste uns jetzt sagen?

um nochmal hier rauf zukommen
32x CSAA> das ist doch auch nur 8xMSAA und der Rest Coverage Samples...damit können sie mich aber nicht erfreuen...das ist Matsch³ darauf würd ich wetten.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh