nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Abgesehen von der Tatsache, dass AMD einen gewissen Anteil am Stimmrecht besitzt, bezweifel ich das es GloFo schaffen würde bis Ende diesen Jahres GPUs in 28nm herzustellen. Dazu haben sie noch nicht genügen Erfahrungen gesammelt.
 
Zuletzt bearbeitet:
Abgesehen von der Tatsache, dass AMD einen gewissen am Stimmrecht besitzt, bezweifel ich das es GloFo schaffen würde bis Ende diesen Jahres GPUs in 28nm herzustellen. Dazu haben sie noch nicht genügen Erfahrungen gesammelt.
Vor allem wirds zuerst keine komplexen High End Chips geben in 28nm. Weder bei TSMC, noch bei GF.
 
Vor allem wirds zuerst keine komplexen High End Chips geben in 28nm. Weder bei TSMC, noch bei GF.

Bin ohnehin dafür, dass man wie damals in ATI-Manier die kleinen Low-End-Prozessoren erstmal damit fertigt.
 
Ihr wollt mich wohl veräppeln :hmm:
Aufgeräumt und jetzt :btt:
 
Gehe mal davon aus,das die Karten mit Display Port ausgerüstet sein werden, oder ?
 
Davon gehe ich auch stark aus, zumal ATi/AMD es mit der jetzigen Generation vorgemacht hat. Es wäre denkbar ungünstig dieses Feature nicht anzubieten.
 
Die Frage ist, warum man dann für das Surround Gaming Feature von NV zwei Karten benötigen soll. Denn native Displayport brauch keinen eigenen Taktgeber für den Monitor, sprich man könnte gleichsam ein ähnliches Feature wie AMD anbieten. Tut man aber nach jüngsten Spekulationen nicht.

Ich denke mal wenn dann haben die Karten nen Display Port Anschluss im HDMI/DVI Modus laufen. Also beispielsweise nen DP, nen HDMI und nen DVI (inkl. Analog) Anschluss. Aber nur max. zwei davon gleichzeitig nutzbar...

Und wenn das der Fall sein sollte, könnten die das von mir aus auch via Adapter liefern. Also nen DVI to DP Adapter beilegen und gut. So realisiert man die größt mögliche Anschlussvielfalt mit allen erdenklichen Kombinationsmöglichkeiten die technisch machbar sind mit zwei Taktgebern.
 
Zuletzt bearbeitet:
Also iwie is der Startpost ja nen Witz, oder gibt es einfach noch keine Infos,Benches etc. bzw. die Videos wo man die Karte sieht hab ich ja gesehn aber Bilder oder so fehlen mir.
 
Muss daran liegen, dass es keine Benches oder komplette Specs gibt.
Manche Leute...
 
Also iwie is der Startpost ja nen Witz, oder gibt es einfach noch keine Infos,Benches etc. bzw. die Videos wo man die Karte sieht hab ich ja gesehn aber Bilder oder so fehlen mir.

Nein gibt es nicht...
Es gibt ein paar Brocken an Infos zur Karte die offiziell bestätigt wurden, aber viel ist es nicht. Auch steht die Taktrate wohl noch nicht fest. Von aussagekräftigen Benches ganz zu schweigen...
 
Zuletzt bearbeitet:
Ui, das ist ja sehr überzeugend :fresse: hab eig. so schon größeres Intressen bzw bin ich gespannt wie der vergleich zwischen HD5870 und "GTX380" aussieht. :/ Naja dann muss ich wohl noch warten.
 
Gabs nicht ein paar verschwommene Fotos von der CES, wonach die genutzten Karten wohl 2 DVI Anschlüsse hatten?
 
Zuletzt bearbeitet:
Die Frage ist, warum man dann für das Surround Gaming Feature von NV zwei Karten benötigen soll. Denn native Displayport brauch keinen eigenen Taktgeber für den Monitor, sprich man könnte gleichsam ein ähnliches Feature wie AMD anbieten. Tut man aber nach jüngsten Spekulationen nicht.

Ich denke mal wenn dann haben die Karten nen Display Port Anschluss im HDMI/DVI Modus laufen. Also beispielsweise nen DP, nen HDMI und nen DVI (inkl. Analog) Anschluss. Aber nur max. zwei davon gleichzeitig nutzbar...

Zwei DVI scheinen die Standard-Möglichkeit für den Anschluss von Displays oder Beamer zu sein. Anhang der Tatsache, dass 3D Vision Surround aber bis zu drei Monitore unterstützt, stellten wir uns natürlich die Frage, ob NVIDIA nicht auch eine GF100 mit mehr als den üblichen zwei DVI-Anschlüssen anbieten wird. Klare Antwort von NVIDIA: Nein! Auch die neuen GF100-Grafikkarten werden allesamt nur zwei DVI-Anschlüsse bieten. NVIDIA sieht DisplayPort noch nicht für das Jahr 2010, schließt allerdings nicht aus, dass es später auch mal eine entsprechende Option dafür geben könnte. Ob eine Karte auch in der Lage ist mehr als zwei Displays anzusteuern, bleibt unklar, halten wir aber durchaus für möglich.

http://www.hardwareluxx.de/index.ph...-zeigt-fermi-spricht-aber-nicht-darueber.html

technisch möglich aber wirtschaftlich bringen 2 verkaufte grafikkarten einfach mehr.

und nvidia ist sich wahrscheinlich auch ziemlich sicher das 3d vision surrround viel leistung frist.

Für mich sieht der nach einem normalen HDMI aus ...

jap :d
 
Für mich sieht der nach einem normalen HDMI aus ...
naja, die Form unterscheidet sich ja nicht zwischen den normalen und den kleinen Steckern und wie soll man aus dem Blickwinkel die Größe vernünftig abschätzen?
Ich ging von einem Mini-HDMI Anschluss aus, da bei meiner Karte das HDMI-Kabel, das ich hier habe, neben dem DVI-Kabel keinen Platz mehr hätte. Die Buchse selbst würde aber tatsächlich geradeso noch drauf passen.
Aber da man es imho schlecht abschätzen kann, hab ich nun im Bild mit einem Programm nachgemessen und von der Höhe (ca. 4 mm) her könnte es dann doch ein normaler HDMI-Anschluss sein.

ciao Tom
 
technisch möglich aber wirtschaftlich bringen 2 verkaufte grafikkarten einfach mehr.

und nvidia ist sich wahrscheinlich auch ziemlich sicher das 3d vision surrround viel leistung frist.



jap :d

Warum das Feature dann nicht "Triple SLI only" anbieten u an jede Karte nur ein Monitor,dann wäre die Lastenverteilung in 3D Suround nicht so ungleichmässig:xmas:


und nvidia ist sich wahrscheinlich auch ziemlich sicher das 3d vision surrround viel leistung frist.


Davon ist auszugehen da sich die Framerate nahezu halbiert im 3D Modus;)
 
Zuletzt bearbeitet:
kann es sein das die mit der SSAA Leistung nur auf G200 Level sind?
Dann kommt kein SSAA....
 
Wie kommste da drauf ?

Kann ich mir aber eigentlich nicht vorstellen.

Interessante fände ich, ob die Karten mit hohen AA Einstellungen immernoch mehr einbrechen als mit 4x AA oder so...

(Also prozentual gesehen).

Da war es ja bisher so, dass die NV Karten ab 8x AA ziemlich Leistung gelassen haben.
 
Wie kommste da drauf ?
Keine Ahnung wie er da drauf kommt, meine Vermutung is ja dass einfach das Thema SSAA wieder mal aufkommen sollte, denn in mayer2-Threads kommt das dauernd vor, ist der heilige Grahl. :d

Zum Thema 8xAA gibts Gerüchte dass NVidia da an besserer Performance gebastelt hat, obs stimmt werden wir erst sehen.
 
http://www.hardwareluxx.de/index.ph...-zeigt-fermi-spricht-aber-nicht-darueber.html

technisch möglich aber wirtschaftlich bringen 2 verkaufte grafikkarten einfach mehr.

und nvidia ist sich wahrscheinlich auch ziemlich sicher das 3d vision surrround viel leistung frist.



jap :d

Neja technisch aber auch nur über DisplayPort. Nen dritten DVI/HDMI Port zu verbauen ist ohne dritten Taktgeber erstmal nicht drin. Es sei denn man kann aus zwei Dual Link DVI Ports vier SingleLink DVI Ports machen, potentiell machbar, aber eben mit dem Nachteil der geringeren Bandbreite und Auflösungsbeschränkung ;)

Warum das Feature dann nicht "Triple SLI only" anbieten u an jede Karte nur ein Monitor,dann wäre die Lastenverteilung in 3D Suround nicht so ungleichmässig:xmas:

Wie kommst du darauf, das das was mit der Lastverteilung zu tun haben soll?
Es ist defintiv nicht so, das die Karte an dem der Monitor hängt das Bild für nur diesen Monitor berechnet. Sondern bei drei Monitoren steigt die Auflösung (im Beispiel von drei 1920x1200er Monitoren) auf 5760x1200. Im normalen SLI berechnet Karte 1 also Frame A in kompletter Auflösung und Karte zwei Frame B. Beim Tripple SLI kommt da noch Frame C für die Dritte Karte hinzu. Die Auslastung der Karten hat also nix damit zu tun, wo die Monitore dran klemmen. Weil ein einziger Frame sowieso nur von einer einzigen GPU berechnet wird.

Ob NV oder auch AMD sich irgendwann mal vom AFR Modus verabschieden, steht in den Sternen, wünschenswert wäre es, aus MR/Input Lag Sicht. Andererseits bringen Sachen wie SFR ganz andere Probleme mit. Gerade auf die Lastverteilung bezogen. Denn umso höher die Bildbreite (bei gleichbleibender Bildhöhe) und um so mehr GPUs dran arbeiten, desto schlechter die Lastverteilung nach herkömmlichen Verfahren.

Es gibt auch Folien auf denen das steht.... :hmm:

Edith sagt:

Um das auch zu belegen
http://www.computerbase.de/bildstrecke/28115/29/

Neja in wie weit man der gezeigten Folie unter realistischen Bedingungen noch trauen kann, bleibt abzuwarten. Ich denke mal NV hat sich hier schon den nahezu besten Fall ausgesucht. IdR werden wir wohl deutlich weniger Leistungszuwachs unter 8xAA im Gegensatz zum Vorgänger sehen ;)
 
solange das bei 8xAA - SSAA spielbar ist kann man ja zufrieden sein.
Da steht ja nichtmal in welcher Auflösung oder welche Qualitätseinstellungen genommen wurden....alles sehr spekulativ.

---------- Beitrag hinzugefügt um 11:44 ---------- Vorheriger Beitrag war um 11:22 ----------

Neja in wie weit man der gezeigten Folie unter realistischen Bedingungen noch trauen kann, bleibt abzuwarten. Ich denke mal NV hat sich hier schon den nahezu besten Fall ausgesucht. IdR werden wir wohl deutlich weniger Leistungszuwachs unter 8xAA im Gegensatz zum Vorgänger sehen ;)

wenn der Performancezuwachs nicht so hoch ist wie beim Vorgänger, dafür aber mehr Qualität vorhanden ist würde ich das auch begrüßen. Laut den Folien haben die anscheinend auch an der Bildqualität gearbeitet.
 
solange das bei 8xAA - SSAA spielbar ist kann man ja zufrieden sein.
Da steht ja nichtmal in welcher Auflösung oder welche Qualitätseinstellungen genommen wurden....alles sehr spekulativ.

---------- Beitrag hinzugefügt um 11:44 ---------- Vorheriger Beitrag war um 11:22 ----------



wenn der Performancezuwachs nicht so hoch ist wie beim Vorgänger, dafür aber mehr Qualität vorhanden ist würde ich das auch begrüßen. Laut den Folien haben die anscheinend auch an der Bildqualität gearbeitet.

Es ist aber recht egal in welcher Auflösung und welchen Settings getestet wurde.
Denn man will damit nur zeigen wie gut die Fermi unter 8x nun abgehen im Gegensatz zum Vorgänger.

Zum Thema Optikverbesserung, das bleibt abzuwarten, am 8xMSAA Modus wird man sicher wenig bis nix gedreht haben. Aber es kommt irgend so ein Mischmasch Modi neu hinzu...
 
Wie kommst du darauf, das das was mit der Lastverteilung zu tun haben soll?


Ich meinte damit eigentlich nicht die Berechnung,sondern die Ausgabe der Bilder:)

Aber ein Triple SLI wäre in dem Falle ja noch schlimmer als es jetzt schon umgesetz werden soll,mal ganz davon abgesehen das ich da für Energiesparoptionen im Treiber schon wieder schwarz sehe bei der Lastverteilung im 3D Suround:wink:
 
Ich meinte damit eigentlich nicht die Berechnung,sondern die Ausgabe der Bilder:)

Aber ein Triple SLI wäre in dem Falle ja noch schlimmer als es jetzt schon umgesetz werden soll,mal ganz davon abgesehen das ich da für Energiesparoptionen im Treiber schon wieder schwarz sehe bei der Lastverteilung im 3D Suround:wink:

In welchen Teilen das Bild schlussendlich zerhackstückelt wird ist doch total Banane... Das tut der Sache den geringsten Abbruch...

Zum Anderen, das bleibt abzuwarten, ich denke mal wenn NV mit dem Feature kommt, und man Multimonitoring bewirbt, wird wohl auch ein brauchbarer 2D Stromsparmodi mit im Boot sein...
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh