nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
der g300 wird wenn er so kommt wie im start-thread sicher einiges schneller...die daten lassen ja ne 295gtx locker hinter sich und das ohne optimierungen mit denen man sicher auch rechnen darf. Tippe auf min 1,5x fache leistung... bei mir wird es jetzt eine 5870 und zum g300 steige ich dann wieder um..
 
Konkurenzprodukt zu 3D Vision

Hey Leude,

minimal offtopic, aber da viele von Euch auf dem aktuellen Stand sind:
Habt ihr mal was gelesen, ob ATI auch eine 3D Lösung in der Pipeline hat?

Würde gerne bei ATI bleiben, aber 3D ist einfach zuuuuuuuuu GEIL:love:.

Danke,
Totti
 
Zuletzt bearbeitet:
er meint wohl eher 3d auf dem bildschirm..so mit 3d brille...
ich hab nichts gehört...und die hätten sicher schon die werbetrommel gerürt!
 
Zuletzt bearbeitet:
könnte mir denken das dx12 oder 13 dann auch mal 3d bringt und zwar direkt im spiel integriert nicht solche "billigen" wie mit brillen oder den 3D Monitoren wo einfach alles verschoben wird.
 
Ja, mit Brille... Verfolge das Thema jetzt schon seit über 10 Jahren und endlich gibt es native Unterstützung im Treiber (anscheinend leider nur von Nvidia) und 60hz pro Auge. Zalman 3D und Konsorten sind alle für mich keine Alternative.

Muss wohl schweren Herzens auf Nvidia warten... Danke, Totti
 
Ja, mit Brille... Verfolge das Thema jetzt schon seit über 10 Jahren und endlich gibt es native Unterstützung im Treiber (anscheinend leider nur von Nvidia) und 60hz pro Auge. Zalman 3D und Konsorten sind alle für mich keine Alternative.

Muss wohl schweren Herzens auf Nvidia warten... Danke, Totti

Passenden Bildschirm nicht vergessen:d
 
Ja, den Bildschirm muss man einkalkulieren. Zum Glück brauche ich eh einen. Leider haben die unterstützten Monitore keine "FullHD" Auflösung => Kompromiss.

@KlausW: DirectX soll die Komplexität von 3D-Berechnungen möglichst weit vom Programmierer verbergen => keine Lösung. Es sollte schon auf Treiberebene gelöst werden (auch unter Performance-Aspekten). Wie gut das geht sieht man an der Liste der unterstützen "3D Spiele": Es sind viele Spiele dabei die VOR der 3D-Treiber-Unterstützung heraus gekommen sind. Kritisch sind übrigens immer Shooter, da ein 3D-Zielkreuz nicht allen im Treiber realisiert werden kann.

Es ist der richtige Weg. Jetzt aber genug... :)
 
Der G(T)300 wird wie damals der G80 wie eine Bombe einschlagen:asthanos:Ich bin mir ziemlich sicher, dass der G(T)300 spätestens im November da ist.
 
Der G(T)300 wird wie damals der G80 wie eine Bombe einschlagen:asthanos:Ich bin mir ziemlich sicher, dass der G(T)300 spätestens im November da ist.

Ich gehe von 10-15% schneller als ATI und von Q1 2010 aus. Sonst hätte man doch schon was hören müssen :confused:
Naja ich kann warten, die kommenden Spiele laufen alle noch locker auf meiner Karte (Risen, Dragon Age, Assassins Creed 2, Modern Warfare 2, etc)
 
Zuletzt bearbeitet:
Ich gehe von 10-15% schneller als ATI und von Q1 2010 aus. Sonst hätte man doch schon was hören müssen :confused:
Naja ich kann warten, die kommenden Spiele laufen alle noch locker auf meiner Karte (Risen, Dragon Age, Assassins Creed 2, Modern Warfare 2, etc)

ich gehe eher von 20%- 40% schneller als ati aus
 
wenns so passiert wie mit dem G80, werden so einige blöde aus der Wäsche gugge.
 
könnte mir denken das dx12 oder 13 dann auch mal 3d bringt und zwar direkt im spiel integriert nicht solche "billigen" wie mit brillen oder den 3D Monitoren wo einfach alles verschoben wird.

wie soll das gehen?!

Es gibt Möglichkeiten 3D auch ohne Brille auf Monitoren darzustellen. Dabei ist jedoch die Position des Betrachters sehr wichtig, ansonsten ist der Effekt sehr schwach, oder das Bild verschwommen. Außerdem muss es ein spezieller Monitor sein, der Bilder auf meherern Ebenen (glaube 2) übereinader darstellen kann.
Auf der CeBit gab es die Technik mehrfach zu bestaunen (Telecom und Fraunhofer Institut).

Ich fand sie weit angenehmer für die Augen/Kopf. Bei der Nvidia Technik wurde mir nach 15min schummerig.
 
Zuletzt bearbeitet:
Der G(T)300 wird wie damals der G80 wie eine Bombe einschlagen:asthanos:Ich bin mir ziemlich sicher, dass der G(T)300 spätestens im November da ist.

Paperlaunch vielleicht, ansonsten Full agree @killuah
 
ich frage mich immer wieder woher ihr alle wissen wollt das gt300 ne neue Architektur sein soll habe nie ne entsprechende news gelesen.
 
@KlausW
zwar nur ein Gerücht, aber mehr als Gerüchte haben wir ja momentan nicht:
Klick

Wobei bei Nvidia der Änderungsbedarf zur Erfüllung von DX11 eventuell höher ist als er bei ATI war--->Neuentwicklung hat mehr Sinn als eine Anpassung.
Nvidia schleppt ja z.B. afaik nicht schon seit einiger Zeit einen bisher unnützen Tessellator mit sich rum. Bei DX11 ist er allerdings Pflicht.
 
Zuletzt bearbeitet:
und deshalb stellen es fast alle als Fakt dar?

Fudzilla kann man eh nimmer glauben ( Fehler Quote ca 30% bei gpu spekulationen ) und es hat auch keine andere Seite übernommen bzw ähnliche quellen genannt.
 
und wo ist das Problem?
hier sind genügend Leute unterwegs, die die extrem schlechte Chipausbeute als Fakt darstellen.


aha und weill dies tun müssen es die anderen auch tun? wobei es bei der ausbeute zumindest 2 unabhängige quellen gibt.

Sowas ist für mich eher Wunschdenken auch wenn ich es selber hoffe da wenn die mm² bisher stimmen die ( Roh ) Leistung niemals verdoppelt werden kann ohne komplett neue Architektur ( 5D Shader? )
 
aha und weill dies tun müssen es die anderen auch tun? wobei es bei der ausbeute zumindest 2 unabhängige quellen gibt.

Sowas ist für mich eher Wunschdenken auch wenn ich es selber hoffe da wenn die mm² bisher stimmen die ( Roh ) Leistung niemals verdoppelt werden kann ohne komplett neue Architektur ( 5D Shader? )

GT200b = 470mm2 (55nm)
GT300 = ca. 520mm2 (40nm)

Nun Beispiel ATi:
RV770 = 256mm2 (55nm)
RV870 = 338mm2 (40nm)

Also ist eine Verdopplung der Rohleistung gar nicht so unwahrscheinlich, wenn das ATi auch hinbekommt ;)
Und der RV870 hat eher mehr als doppelte Rohleistung als ein RV770. Also schon eher doppelter RV790, welcher 282mm2 auf die Waage bringt.
 
Zuletzt bearbeitet:
? also das letzte was ich gehört habe ging eher Richtung 450-500

und ati wurde um ca 33% grösser bei genauer verdoppelung nvs bei deinem beispiel knapp 10%
 
Nvidia hat noch einen grossen GPGPU-Teil, welcher nichts mit der Rohleistung (welche uns interessiert) zu tun hat. Und wie gesagt, musst ihn eher mit dem RV790 vergleichen (+20% Die-Size).
Und sonst: Nicht zu genau nehmen :shot:

Ob sie nun "nur" die 1.8 fache Rohleistung erhalten oder die 2 fache ist ja kein grosser Unterschied mehr
 
Zuletzt bearbeitet:
naja bei 1,8 ohne starke interne Verbesserungen wären sie gleichauf mit der 5870 4890 war ja nichtmal mehr knapp 10% hinten.
Das kann nicht sein wäre einfach nur peinlich für NV, und würde dem Wettbewerb für uns Kunden schaden.


GPGPu Teil werden sie wohl auch kaum entfernen können ( ausser es gibt extra Karten dafür ) da sie in der Rohleistung ja deutlich hinter dem RV770 sind und nur durch Marketing und deutlich besseren Programmen sogut dastehen.
 
Zuletzt bearbeitet:
@KlausW
ich seh schon. Du siehst das Ganze zu verbissen.
Man sollte jede News und jedes Posting zum derzeitigen Zeitpunkt kritisch hinterfragen bzw. sich nicht dran aufhängen (das wollte ich mit "und wo ist das Problem?" ausdrücken)

P.S. bitte keine 5D Shader. Die bekommt man in Spieleanwendungen so schlecht ausgelastet, wobei mich die morgen erscheinenden Benches hoffentlich eines Besseren belehren werden.
 
Zuletzt bearbeitet:
naja schlecht ausgelastet kann sein aber sehr gut für die Produktionskosten und ideal für GPGPU denke nicht das NV ne um 51700% höhre GPGPU Performance in 10 jahren hinbekommt ohne 5D shader

zumindest nicht ohne dies auf 10*10 cm zu vergrößern ^^


und ja sehs bisschen verbissen weill einfach zu viele Leute hier ne neue Architektur als fakt darstellen. und es dadurch immer weiter übernommen wird
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh