nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Bedeutet also, dass bei NVidia aufgrund deren Architektur mit weniger Flops genauso viel Leistung erzielt wird, als bei ATI mit mehr Flops. Richtig?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bedeutet also, dass bei NVidia aufgrund deren Architektur mit weniger Flops genauso viel Leistung erzielt wird, als bei ATI mit mehr Flops. Richtig?

Die Frage ist, auf was man Leistung bezieht...
Es gibt auch andere Bereiche, in welchen GPUs ganz oben mitmischen und da sieht NV kein Land mit ihren Karten gegen die AMDs...

Ist halt alles Auslegungssache, dazu kommt, das die AMD GPUs deutlich kleiner und günstiger zu produzieren sind. Es kann sich also quasi jeder selbst überlegen, wer die bessere Arbeit gemacht hat ;)


Ich für meinen Teil glaube schon fast daran, die GT300er werden eher ne Lachnummer mit exorbitannt hohem Verbrauch aber nicht wirklich viel mehr Mehrleistung als den AMDs, die Fakten lesen sich zwar gut, aber wenn man sieht, wie viel mehr theoretische Power die G200er dem alten G80 haben, und was am Ende bei übrig bleibt, vor allem inGame Leistung könnte sich bei ähnlichem Trend das ganze Schnell als Papiertieger entpuppen...
 
Ich für meinen Teil glaube schon fast daran, die GT300er werden eher ne Lachnummer mit exorbitannt hohem Verbrauch aber nicht wirklich viel mehr Mehrleistung als den AMDs, die Fakten lesen sich zwar gut, aber wenn man sieht, wie viel mehr theoretische Power die G200er dem alten G80 haben, und was am Ende bei übrig bleibt, vor allem inGame Leistung könnte sich bei ähnlichem Trend das ganze Schnell als Papiertieger entpuppen...

Dabei sollte man auch nicht vergessen, dass seit dem G80 nicht mehr viel an der Architektur verändert wurde. Das Bestehende wurde einfach etwas verbessert und "frisiert" damit man eine schnellere GPU erhält. Von so einer Lösung kann man auch nicht viel erwarten. Dafür ist das Ergebnis eigentlich schon fast wieder richtig gut :d
 
Was glaubt ihr zu der Bandbreite der Karte?

Ich finde, dass ein GDDR5 mit 512bit Interface recht sinnfrei ist, denn braucht man überhaupt über 200 GBit/s? Die HD2900 Serie hatte auch über 100 GBit/s und viel gebraucht hat es ihr sag ich mal nicht viel, oder kann man das mit dem GT300 nicht vergleichen, weil dort alles anders wird?
 
sind 2 unteschiedliche architekuren, einfach mal abwarten. aber im grunde kann bandbreite nie schaden. vor allem wenn es um auflösungen von 1920x1200/aufwärts + AA/AF geht.
 
Was glaubt ihr zu der Bandbreite der Karte?

Ich finde, dass ein GDDR5 mit 512bit Interface recht sinnfrei ist, denn braucht man überhaupt über 200 GBit/s? Die HD2900 Serie hatte auch über 100 GBit/s und viel gebraucht hat es ihr sag ich mal nicht viel, oder kann man das mit dem GT300 nicht vergleichen, weil dort alles anders wird?

Gigabyte, nicht Gigabit. Und ob man das braucht, kann noch keiner sagen, ich persönlich würde allerdings auch eher von einem dünneren Interface ausgehen. Die Speicherbandbreite ist nicht in erster Linie das Problem der aktuellen Karten.
 
Was glaubt ihr zu der Bandbreite der Karte?

Ich finde, dass ein GDDR5 mit 512bit Interface recht sinnfrei ist, denn braucht man überhaupt über 200 GBit/s? Die HD2900 Serie hatte auch über 100 GBit/s und viel gebraucht hat es ihr sag ich mal nicht viel, oder kann man das mit dem GT300 nicht vergleichen, weil dort alles anders wird?

Neja wenn man schaut, eine HD4850 mit 1GHz GDDR3 Speicher ist im Gegensatz zu ner HD4870 mit 1GHz GDDR5 Speicher doch schon im Schnitt ne ganze Ecke langsamer bei sonst gleichem Takt und gleichem Rest...
Heist soviel wie, die kleiner 50er ist an einigen Stellen schon Bandbreitenlimitiert.

NV löst derzeit das Bandbreitenproblem mit 512Bit SI aber nur GDDR3 Speicher.
Mit 1242MHz wären das bei 512Bit SI 158976MB/sec
Mit 1GHz GDDR5 und 512Bit SI wäre man bei 256000MB/sec.
Das sind gerade mal 61% mehr als die 285er GTX hätte. Aber von den ALUs und der theoretischen Rechenleistung her kommt die "Neue" wohl mit weit mehr als dem doppeltem ;)
 
Neja wenn man schaut, eine HD4850 mit 1GHz GDDR3 Speicher ist im Gegensatz zu ner HD4870 mit 1GHz GDDR5 Speicher doch schon im Schnitt ne ganze Ecke langsamer bei sonst gleichem Takt und gleichem Rest...
Heist soviel wie, die kleiner 50er ist an einigen Stellen schon Bandbreitenlimitiert.

NV löst derzeit das Bandbreitenproblem mit 512Bit SI aber nur GDDR3 Speicher.
Mit 1242MHz wären das bei 512Bit SI 158976MB/sec
Mit 1GHz GDDR5 und 512Bit SI wäre man bei 256000MB/sec.
Das sind gerade mal 61% mehr als die 285er GTX hätte. Aber von den ALUs und der theoretischen Rechenleistung her kommt die "Neue" wohl mit weit mehr als dem doppeltem ;)

Sprich, das 512Bit SI und GDDR5 sind gerade mal gut so um die 61% gesteigerte Rechenleistung auch effizient nutzen zu können? (rein theoretisch betrachtet :p )
 
Sprich, das 512Bit SI und GDDR5 sind gerade mal gut so um die 61% gesteigerte Rechenleistung auch effizient nutzen zu können? (rein theoretisch betrachtet :p )

Das ist Quatsch. Die Nutzbarkeit irgendwelcher arithmetischer Rechenleistung hängt nur sehr bedingt von der Speicherbandbreite ab, das kommt ganz auf die durchzuführenden Tasks an.
 
Mhh wenn die so ein großes Speicherinterface hat und 512 ALUs bin ich mal auf den Stromverbrauch gespannt ...
 
Das ist Quatsch. Die Nutzbarkeit irgendwelcher arithmetischer Rechenleistung hängt nur sehr bedingt von der Speicherbandbreite ab, das kommt ganz auf die durchzuführenden Tasks an.

Ach ja? Und wie verhält sich das mit einem G200 und einem 64bit SI? Warum ist der G200 dann so langsam (ich hab den G200 als Beispiel genommen ;) )
Die GPU kann ihre Rechenleitung nicht mehr zu 100% ausnutzen bzw. umsetzten weil das SI bremst!
 
Zwichen Arithmetikleistung und Speicherbandbreite besteht grundsätzlich keinerlei lineare (oder sonstwie geartet) Abhängigkeit, das ist alles, was ich sage. Du wirst auch mit extrem geringer Speicherbandbreite Datenströme in die ALUs füttern können, mit denen du sie völlig auslasten kannst, beliebig viele sogar. Natürlich kannst du ebenso Tasks erfinden, die von beidem gleichmäßig viel brauchen, aber du kannst auch welche entwickeln, die unbegrenzt mit steigender ALU-Anzahl skalieren (oder nur mit steigender Bandbreite). Es ist eben eine Frage der spezifischen Applikation. Und genau deswegen denke ich, dass es sich nicht lohnt, darüber Statements abzugeben, weil es eben von Anwendung zu Anwendung so unterschiedlich ist.

mGa schrieb:
Mhh wenn die so ein großes Speicherinterface hat und 512 ALUs bin ich mal auf den Stromverbrauch gespannt ...

Das Speicherinterface hat nicht wirklich Einfluss auf den Stromverbrauch.
 
Zuletzt bearbeitet:
gt200 langsam wegen zuwenig Speicherbandbreite wer hat den den Quatsch verzapft? beim Gt200 ist Ram OCen das was am wenigsten leistung bringt
 
Zuletzt bearbeitet:
NV wird sicher versuchen so früh wie möglich ein paar voll funktionsfähige erste Karten zu produzieren und diese dann der Presse zwecks Tests auszuliefern.

Der geneigte Enthusiast holt sich dann, wenn das Gesamtpaket stimmt, erstmal keine ATI HD 58xx, sondern wartet, bis er eine GTX 3x0 kaufen kann.

Dann wird ATI aber auch mit einer X2 kontern. ;)


Zum Thema: 5000 Stream Prozessoren, 20 TFlops und 11nm bis 2015 ?

Holy Shit !!! :d

Hoffentlich kommen die CPUs dann leistungsmäßig einigermaßen hinterher, nicht dass die High End GPUs "Däumchen" drehen. :fresse:
Nun ja, ich denke schon - dank Intels Tick-Tock Modell.

Da bin ich mal gespannt ! :)

MfG
Edge


MfG
Edge
 
Zuletzt bearbeitet:
Dann wird ATI aber auch mit einer X2 kontern. ;)
MfG
Edge

sicherlich, stellt sich nur die Frage ob nVidia auch tatsächlich die 28nm so schnell hinterher schiebt....
mannomann, das giebt wieder ein Getümmel :haha: :shot:
 
Zwichen Arithmetikleistung und Speicherbandbreite besteht grundsätzlich keinerlei lineare (oder sonstwie geartet) Abhängigkeit, das ist alles, was ich sage. Du wirst auch mit extrem geringer Speicherbandbreite Datenströme in die ALUs füttern können, mit denen du sie völlig auslasten kannst, beliebig viele sogar. Natürlich kannst du ebenso Tasks erfinden, die von beidem gleichmäßig viel brauchen, aber du kannst auch welche entwickeln, die unbegrenzt mit steigender ALU-Anzahl skalieren (oder nur mit steigender Bandbreite). Es ist eben eine Frage der spezifischen Applikation. Und genau deswegen denke ich, dass es sich nicht lohnt, darüber Statements abzugeben, weil es eben von Anwendung zu Anwendung so unterschiedlich ist.
Dem kann man nur zustimmen, wobei man im Mittel bei Gamebenches schon fast sagen kann, das sich die benötigte GPU Leistung ca. linear mit der Speicherbandbreite verhällt. Wie gesagt im Mittel. Gibt da sicher auch Ausnahmen, die da drastisch andere Werte liefern ;)


Das Speicherinterface hat nicht wirklich Einfluss auf den Stromverbrauch.
Indirekt schon, mehr SI bedeutet mehr VRam Chips, sprich mehr Verbrauch...
Aber ob sich das am Ende drastisch auswirkt, würde ich bezweifeln...

gt200 langsam wegen zuwenig Speicherbandbreite wer hat den den Quatsch verzapft? beim Gt200 ist Ram OCen das was am wenigsten leistung bringt

Das hat nirgends jemand behaupet ;)

naja wenn NV soschnell 28nm nachschiebt kann dank TSMC das ATi ebenso

Das wäre die Frage, so einfach ist das dann doch nicht...
Und pures shrinken ist eigentlich eher NV Spezialität ;) AMD hat das sonst eher seltenst gemacht, mal gucken was wird...
 
Zuletzt bearbeitet:
Indirekt schon, mehr SI bedeutet mehr VRam Chips, sprich mehr Verbrauch...Aber ob sich das am Ende drastisch auswirkt, würde ich bezweifeln...

Nö. Man kann auch mit wenigen Chips ein extrem breites Interface realisieren. Du hast aber natürlich Recht, dass der Speicher entsprechend viel Leistung verbrät.
 
Nö. Man kann auch mit wenigen Chips ein extrem breites Interface realisieren. Du hast aber natürlich Recht, dass der Speicher entsprechend viel Leistung verbrät.

Jetzt steh ich auf dem Schlauch... :(
Bitte um Erklärung (vllt auch im Technikthread...)

Wenn ich 512Bit SI habe, dann habe ich bei aktuellem Stand 16 Speicherchips, bei 256Bit SI sinds nur deren 8.

Mit 8 Chips mit je 128MB = 1024MB VRam sollten ne Ecke weniger brauchen als 16 Chips a 64MB...

Oder wo liegt der Hund begraben?
Könnte man die 64Bit Einzellcontroller der aktuellen GPUs auch mit nur je einem VRam Chip bestücken?
 
Zwichen Arithmetikleistung und Speicherbandbreite besteht grundsätzlich keinerlei lineare (oder sonstwie geartet) Abhängigkeit, das ist alles, was ich sage. Du wirst auch mit extrem geringer Speicherbandbreite Datenströme in die ALUs füttern können, mit denen du sie völlig auslasten kannst, beliebig viele sogar. Natürlich kannst du ebenso Tasks erfinden, die von beidem gleichmäßig viel brauchen, aber du kannst auch welche entwickeln, die unbegrenzt mit steigender ALU-Anzahl skalieren (oder nur mit steigender Bandbreite). Es ist eben eine Frage der spezifischen Applikation. Und genau deswegen denke ich, dass es sich nicht lohnt, darüber Statements abzugeben, weil es eben von Anwendung zu Anwendung so unterschiedlich ist.

Ich versuche es mal anders zu erklären:

Dein SI stellt eine Verbindung zwischen einer Fabrik und Lagerhäusern da. Die Frabrik bzw. Fabriken sind die ALUs, die Lagerhäuser der VRAM. Wenn ich nun ein 64bit SI und viele ALUs habe, dann stehen mir ganz viele kleine Fabriken aber nur eine Landstraße zu den Lagerhäußern zu verfügung. Um die Fabriken optimal mit Daten zu versorgen, muss ich also entweder viele Landtraßen oder eine große Autobahn bauen.

Um auf das Beispiel mit dem SI zurück zu kommen: wenn ich nun ein 64bit SI und ein Monster-GPU bzw. unzählige ALUs habe, ist es doch (realtiv) egal wie rechenintensiv die Aufgaben sind, die ALUs müssen mit Infos gefüttert werden. Wenn sie ihre Infos nur über die Landstraße bekommen, wird das ganze System entsprechend ausgebremst.

€dit: damit das ganze nicht zu OT wird, vllt. lagern wir die Diskussion in den Technik-Thread aus? :)
 
Zuletzt bearbeitet:
Hoffentlich - und sei es nur ein Paperlaunch !

Dann können wir dank großer Tests im Web endlich beide neuen Generationen des grünen und roten Lagers miteinander vergleichen ! :)
 
Zuletzt bearbeitet:
Hoffentlich - und sei es nur ein Paperlaunch !

Dann können wir dank großer Tests im Web endlich beide neuen Generationen des grünen und roten Lagers miteinander vergleichen ! :)

genau, vllt werden dann die rotena uch ebbes billiger wer weiß. aber im November werdenw irs dann sehen, also ich kann bis dato warten.
 
Zuletzt bearbeitet:
Denke auch mal das NV es schwer haben wird noch bis zum Weihnachtsgeschäft viele Chips in den Handel werfen zu können, wenn überhaupt.

Es wird vom Start weg bestimmt gleich abgespeckte Versionen geben um die Ausbeute zu erhöhen und den Markt zu befriedigen.
 
Also das hat NVidia noch nie so gemacht, dass es vom Start weg Midrange Karten gab - von daher wird die langsamste Karte im unteren High End angesiedelt sein -> "GTX 360" !

Die kleinen, richtig kastrierten, Modelle werden dann vielleicht zur CeBit vorgestellt - vielleicht sogar schon in 28nm und bis spätestens Sommer erhältlich sein - wer weiß ?!


Ich will keine Diät Version sehen,ich will welche mit gaaaanz viel Speck u Cholesterin u ein Sahnehäubchen obendrauf u das schleunigst:shot:

Genau - und das ganze gefüllt mit viel Caramell ! :d

Ich bin aber auch skeptisch, ob es noch bis Dezember einen "Hard - Launch" gibt, wenn dann sicher nur mit sehr geringen Stückzahlen -
aber ein Paperlaunch wirds sicherlich geben - dieses soll dann den Enthusiasten erläutern: Kauft keine pöse ATI und wartet zur Not noch bis Anfang 2010,
wir haben die schnellste Single GPU am Markt ! (auch wenn noch nicht physikalisch vorhanden) :fresse:


Nee - Low End oder Midrange muss bei einem nV Launch echt nicht sein und das war, wenn mich mein Gedächtnis nicht täuscht, in den letzten Jahren auch nie so der Fall.
Was klar ist - nV wird so schnell wie möglich versuchen einen Shrink auf 28nm durchzuführen, um Kosten zu sparen, und falls notwendig, noch mal ein bissl an der Taktschraube drehen ! :)
 
Zuletzt bearbeitet:
Ich versuche es mal anders zu erklären:

Dein SI stellt eine Verbindung zwischen einer Fabrik und Lagerhäusern da. Die Frabrik bzw. Fabriken sind die ALUs, die Lagerhäuser der VRAM. Wenn ich nun ein 64bit SI und viele ALUs habe, dann stehen mir ganz viele kleine Fabriken aber nur eine Landstraße zu den Lagerhäußern zu verfügung. Um die Fabriken optimal mit Daten zu versorgen, muss ich also entweder viele Landtraßen oder eine große Autobahn bauen.

Um auf das Beispiel mit dem SI zurück zu kommen: wenn ich nun ein 64bit SI und ein Monster-GPU bzw. unzählige ALUs habe, ist es doch (realtiv) egal wie rechenintensiv die Aufgaben sind, die ALUs müssen mit Infos gefüttert werden. Wenn sie ihre Infos nur über die Landstraße bekommen, wird das ganze System entsprechend ausgebremst.

€dit: damit das ganze nicht zu OT wird, vllt. lagern wir die Diskussion in den Technik-Thread aus? :)

Ne er meint eher, das es durchaus auch Aufgaben gibt, wo einfach pure Rechenpower gebraucht wird, sprich da werden die ALUs einmal mit Daten gefüttern und rechnen sich dann dumm und dämlich ohne nochmal auf große Datenmengen aus dem Speicher zugreifen zu müssen.
In Games sieht das aber eher anders aus, da wird schon allein durch die Texturen und deren Größe massiv Bandbreite beansprucht.

Es kommt halt immer auf die Rechenaufgabe an, welche beweltigt werden muss, pauschal kann man da also keine Aussage treffen.
Für Games darf die Bandbreite aber wie angesprochen dennoch nicht zu langsam sein, sonst entsteht künstlich ein Flaschenhals, der die FPS begrenzt...
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh