nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Tut mir leid. Aufgrund des Kontextes bin ich davon ausgegangen, dass du dich auf die Zahlen von Motkachler beziehst. Darauf bezieht sich auch mein zweiter Absatz. Woher kommt dieses Bild überhaupt? Ist das offiziell? Laut den Werten hätte die Tesla dann Shader mit 1465MHz und somit wären diese 1700MHz für die GeForce, die immer wieder in den Spekulationen auftauchen, schon alles andere als reine Spekulation. Die wären dann schon sehr realistisch.

Edit: @Neurosphere: Er meint aber, das damals für DP 5xx bis 630 angegeben waren. Nach dieser Grafik wären es 750.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Woher kommt dieses Bild überhaupt? Ist das offiziell?
davon gehe ich aus, da es Computerbase im Rahmen eines Artikels zu den Tesla-Karten geliefert hat: Klick

@all
worauf ich raus will:
Bisher hat nVidia verständlicherweise primär Infos zu DP rausgegeben.
Nirgends konnte man in Zahlen lesen, wie schnell sie in SP ist.

zu dem was Neurosphere geschrieben hat:
Ein Faktor von 2 haben wir daraus abgeleitet, wie nVidia bei der DP-Berechnung vorgeht. nVidia hat nicht gesagt (soweit ich mich erinnere): Die SP-Leistung wird doppel so schnell ausfallen. Oder doch?

Mit der Folie will ich jetzt auch nicht unbedingt darauf raus, dass die Tesla-Karten höhere Taktraten bekommen werden, als bisher angenommen.
Aber vielleicht verhält sich DP zu SP eben nicht genau um den Faktor 2, da in SP doch mehr Berechnungen pro Takt ausgeführt werden können. Anders gesagt: das zusätzliche MUL fällt nur bei DP weg und kann in SP wenigstens zum Teil noch genutzt werden.
Ich hab jetzt nicht alle Newsartikel zu dem Thema nochmal durchgeschaut.
Für den Fall, das ich etwas übersehen habe (nVidia hat doch konkrete Angaben zu SP gemacht...), stelle ich meine Gedanken hier einfach mal zur Diskussion.

Oder das Diagramm ist einfach nur schlampig erstellt worden oder ich hab nur ungenau extrapoliert.
 
Zuletzt bearbeitet:
Evtl stehen die Taktraten für Fermi ebenfalls noch nicht genau fest. Zwar hat NV sie so vorgestellt, allerdings verschaft man sich so luft falls es doch noch zu Problemen kommen sollte.

A1 soll soviel ich weiß mit 495/1100 gelaufen sein, wenn ich mich nicht irre. A2 dürfte also schon mehr geschaft haben als die vorgestelten Fermis. Mit A3 muss man erst noch Tests durchführen, aber 750/1600-1700 müssen nicht unrealistisch sein. All diese Infos sind aber mit vorsicht zu genießen da sie auch nur von Usern kommen. Aber mehr sind Charlie oder Fuad auch nicht.
 
Zuletzt bearbeitet:
[...] Zum einen sind die Quadro- und Tesla-Karten immer deutlich niedriger getaktet gewesen als die GeForce und ums gleich deutlich zu sagen, da brauch jetzt nicht wieder drüber diskutiert werden, denn das ist einfach eine Tatsache. [...]

Dafür hast du bestimmt auch eine Quelle, odr? ;)
 
Hi, also ich kenne bereits heute mein zukünftiges System :

I7-930
Gtx360
8GB Ram

... freue mich wahnsinnig auf die Fermi, hoffentlich wirds für CRYSIS reichen, damit meine ich minimum 50FPS;)
 
das alle noch ein so alten game zoggen wollen , kauft ihr euch das dann erst oder wie?

Das jeder immer Crysis hernimmt, ok es frisst aber ich fand es früher auf mein 3850CF schon gut zu spielen und zum testen ok , aber nur weil man jetzt AA zuschalten kann nochmal durchzoggen :d sogut war die story auch net und es gibt ja wohl genug neues.
 
@Dampfkanes: Ein zusätzliches MUL gibt es beim Fermi nicht mehr. Der Faktor 2 wurde zwar nie direkt genannt, aber in einer Grafik, die auch im Whitepaper ist, steht, dass der Fermi 256 DP ops /clock und 512 SP ops / clock schafft.

Somit kann eigentlich nur die Taktrate die Erklärung dafür sein. Diese Grafik ist wahrscheinlich auch deutlich neuer als die mit 620GFlops DP, denn die alte Grafik habe ich schon in vielen Foren gesehen und die hier kannte ich noch nicht. Die einzig logische Erklärung scheint mehr Optimismus von Nv bezüglich der Taktraten zu sein.
 
die C870 hat die gleichen shadertaktraten wie die 8800gtx von 1350mhz, nur die 8800ultra war mit 1500mhz gut 10% schneller, was nichts ist im gegensatz zu den 40% zwischen den für die ersten teslas spekulierten 1200mhz und den für die gtx380 spekulierten 40%

soweit ich sehen kann gibts keine Teslas mit G92, die Desktop-G92 takten schon deutlich schneller als die G80 Teslas, ist aber irgendwie nicht zu vergleichen.

ich sehe da einzig die 8800ultra die bei gleichem chip 10% höher taktet, bei wikipedia kann ich leider keine hinweise finden dass die taktraten später angeglichen wurden, also dass die teslas anfangs langsamer getaktet hätten.


n haufen wikipedia:
Nvidia Tesla
Nvidia-Geforce-9-Serie
Nvidia Tesla
Nvidia-Geforce-8-Serie
Nvidia-Geforce-200-Serie
 
@hung00r: Das ganze ist auch nicht einfach zu recherchieren. Es ist schwer zu vergleichen, da immer neuere Versionen mit besseren Taktraten herauskommen. Aber dein Vergleich mit der Ultra zeigt es ja schon ganz gut. Natürlich bezieht sich die Aussage immer auf das Flagschiff der GeForcegeneration, also 8800Ultra bzw. in unserem Fall GTX380. Wer sich aber in der Vergangenheit bei den Veröffentlichungen die Taktraten angesehen hat, konnte feststellen, dass dort oft 100 bis 200MHz dazwischen lagen (und da waren die Taktraten insgesammt noch niedriger). Also 10 bis 20% kamen hier öfter vor.
Die 1700MHz wären dann in diesem Fall 16% gegenüber den 1465MHz.
 
Zuletzt bearbeitet:
stimmt, wobei die 1465Mhz imho nicht so sicher sind, drei slides weiter ist da wieder von 520-630 gflops DP die rede, also könnte es auch einfach eine schlampig erstelltes diagramm sein. die 630gflop/s sind aber auch noch nicht so sicher :)
 
Wie erwähnt beruht meine Spekulation natürlich auf den 1,5 TFlop/s. Allerdings sind die mir bekannten Bilder in der Galerie alle direkt von Nv. Somit ist dieses Bild dann wohl auch offiziell, wenn CB da nicht geschlampt hat. Somit haben wir zwei sich widersprechende Angaben.
 
Wieso? Hat er vorher behauptet die seien echt? Es war doch zu erwarten, dass es sich um ein Fake handelt. Wenn offizielle Benchmarks kommen wird Nv die wohl selbst posten. Lustig finde ich allerdings den Kommentar am Schluß. Da Fermi und 58xx nicht verfügbar sind wenden die Gamer sich den Konsolen in Scharen zu. Ist ja logisch ne GeForce7 ist auch viel besser als ne GTX285. ;) Ich würd mal eher behaupten 90% Prozent der Leute sind einfach zu dumm für einen Computer ...
 
@Hentur
ich hatte mich auch zuerst über Lucif3rhawk Aussage gewundert, da mir nur diese Nachricht zu den gefälschten Folien bekannt ist.
Aber wahrscheinlich war die Aussage recht allgemein gehalten.
Sprich: Er hätte keine negative Nachricht im Zusammenhang mit dem Fermi erwartet, da Fud meist eher pro nVidia ist.

...die auch im Whitepaper ist, steht, dass der Fermi 256 DP ops /clock und 512 SP ops / clock schafft...
stimmt, daran hab ich nicht gedacht.


@all
vielleicht noch als kleine Ergänzung zu der Tabelle mit den Spezifikationen:
http://www.gamestar.de/hardware/news/grafikkarten/2311251/nvidia.html
 
Zuletzt bearbeitet:
Naja diese Aussagen relativieren zumindest die Leistung der Karten, welche in diesem ominösen Bench angegeben sind.
 
@Hentur
ich hatte mich auch zuerst über Lucif3rhawk Aussage gewundert, da mir nur diese Nachricht zu den gefälschten Folien bekannt ist.
Aber wahrscheinlich war die Aussage recht allgemein gehalten.
Sprich: Er hätte keine negative Nachricht im Zusammenhang mit dem Fermi erwartet, da Fud meist eher pro nVidia ist.

Genau, aber immerhin, ist nun bekannt, dass es ein Fake sein soll, obwohl offiziell ist das ja auch noch nicht oder?
 
Wieso? Hat er vorher behauptet die seien echt? Es war doch zu erwarten, dass es sich um ein Fake handelt. Wenn offizielle Benchmarks kommen wird Nv die wohl selbst posten. Lustig finde ich allerdings den Kommentar am Schluß. Da Fermi und 58xx nicht verfügbar sind wenden die Gamer sich den Konsolen in Scharen zu. Ist ja logisch ne GeForce7 ist auch viel besser als ne GTX285. ;) Ich würd mal eher behaupten 90% Prozent der Leute sind einfach zu dumm für einen Computer ...

Signed !

Außerdem gibbet ja außer den HD5XXXer Karten und dem Fermi keine Grafikkarte mit der man spielen kann. (Achtung Ironie !)
 
@Lucif3rhawk
PCGH hatte kontakt mit nVidia aufgenommen und nVidia soll gesagt haben, sie könnten die Benchmarks nicht bestätigen:
Klick
und diese Seite hat wohl auch bei nVidia nachgefragt:Klick
 
Zuletzt bearbeitet:
@hung00r: Das ganze ist auch nicht einfach zu recherchieren. Es ist schwer zu vergleichen, da immer neuere Versionen mit besseren Taktraten herauskommen. Aber dein Vergleich mit der Ultra zeigt es ja schon ganz gut. Natürlich bezieht sich die Aussage immer auf das Flagschiff der GeForcegeneration, also 8800Ultra bzw. in unserem Fall GTX380. Wer sich aber in der Vergangenheit bei den Veröffentlichungen die Taktraten angesehen hat, konnte feststellen, dass dort oft 100 bis 200MHz dazwischen lagen (und da waren die Taktraten insgesammt noch niedriger). Also 10 bis 20% kamen hier öfter vor.
Die 1700MHz wären dann in diesem Fall 16% gegenüber den 1465MHz.

Ähm wo siehst du da bitte Unterschiede?
Also ich sehe eine auf G80 basierte Tesla Karte, die mit exakt den selben Taktraten der 8800GTX kommt.
Es liegt also die Vermutung nahe, das eben die 8800Ultra noch nicht draußen/fertig war als man die Tesla Karte auf den Markt gebracht hat. Fakt ist jedoch, das die Tesla Karte später als die 8800GTX kam (rund ein 5 Monate)

Zumahl es auch keine Quadro FX Karten im Workstation Bereich mit den Ultra Taktraten gibt.

Zum G200
Fast alle gezeigten Tesla Karten basieren auf dem G(T)200 in der Ursprungsform...
Haben exakt den GPU und Shadertakt Takt der 280GTX.
Auch hier gibt es keine neuen einzell Tesla Karten auf GT200b Basis und dementsprechend auch keine höheren Taktraten.
Es wurde aber ähnlich der 260GTX der Shrink von 65 auf 55nm auch bei den Teslas vorgenommen bei den späteren Modellen, diese haben aber nach wie vor die selbe Taktrate... Es gibt einfach kein neueres Produkt.

Eine Außnahme haben wir aber dennoch, es gibt die S1060er Version mit 4 GT200b Chips und auch höheren Taktraten (bis auf 30MHz Shadertakt an der 285GTX)


Warum behauptest du also die Tesla Karten seien 10-20% langsamer als die Modelle mit gleicher GPU im Desktop Segment?
Zusammenfassend nochmal:
Tesla C870 = 8800GTX G80 (kam vor der Ultra)
Tesla C1060 = 280GTX GT200 (kam vor dem G(T)200b. Später dann auch mit GT200b mit identischen Taktraten aber nicht als neue Karte verkauft, ähnlich 260GTX 65 vs. 55nm)

Ich sehe hier ganz klar nix von niedrigeren Taktraten...
 
Zur 8800er Serie:
Erstmal ist zu sagen, dass die 8800Ultra nichts anderes als eine übertaktete 8800GTX ist (mit leicht verbessertem Kühler). Außerdem kam die 8800Ultra (2.5.2007) vor der Tesla C870 (20.6.2007) heraus. Tesla C870 und 8800Ultra basieren also auf dem selben Chip und obwohl die Tesla später kam ist sie niedriger getaktet. Hier schlägt einfach das Argument zu, bei GPGPU-Karten geht man mit dem Taktraten nicht bis an die Grenze, da Zuverlässigkeit den letzten paar % Leistung vorgezogen wird.
Die Tesla jetzt mit der 8800GTX zu vergleichen ist genau so, als wenn man die neuen Tesla mit der GTX360 und nicht GTX380 vergleicht, denn im Grunde ist die GTX380 die Ultra Version. Früher gab es halt eine GTX und eine Ultra, heute gibt es eine kleine GTX (mit der alten GTX gleichzusetzen) und eine große GTX (mit der Ultra gleichzusetzen).

Zur GT200er Serie:
Nach meiner recherche musste ich tatsächlich feststellen, dass es hier keine Taktunterschiede zwischen Tesla und Gamerkarten gibt. Wenn man sich allerdings nun ansieht wie viele Hersteller von Haus aus übertaktete GT200(b) Karten anbieten (ich hab hier sogar Modelle mit 18% gefunden bei den Shadern), komme ich zu dem Schluß, dass Nv die Gamerkarten mit GT200 genauso konservativ wie die GPGPU-Karten getaktet hat, weil man Aufgrund der schwachen Leistung der Ati-Karten nicht unter Druck stand.

Wenn ich dies nun auf den Fermi übertrage und wieder von den 1465MHz ausgehe, so komme ich zu dem Schluß, dass 1700MHz Shadertakt drin sein könnten, aber man die Karten von Haus aus wohl auch nur auf 1465MHz takten wird. Denn egal wo der Takt genau liegen wird, gehe ich davon aus, dass die Ati-Karten nur in Bezug auf Preis/Leistung eine Konkurrenz darstellen.
 
Was soll denn das "was möglich ist" möglich ist fast immer mehr takt als von werk aus (ausser bei so karten wie GT240) aber übertankten kann man jede karte.

Nur man kann nicht sagen ob dann jeder Chip bei normalspannung diesen takt mitmacht, nur weil manche ihre karte um mehr als 200MHz übertakten können , heisst es nicht das es jeder kann und schon garnicht mit normaler spannung dann!
 
Genau manche 5870 er kann man auf 1100 GPU und 1400 Speicher hochtakten mit reverenz Kühler.
Und der Fermi wird nicht so leicht zu kühlen sein nach dem was man bisher weis.
Wenn die Tesslas schon mit dem niedrigen takt auf 225 TDP kommen sollte das schwierig werden bei den Gamer Karten.
 
Zuletzt bearbeitet:
Das steht doch überhaupt nicht zur Debatte, dass ATi/AMD irgendwann mit einer neuen Serie rauskommt :stupid:

Fakt ist, dass wir noch nicht wirklich was handfestes zum G300 haben, geschweige denn wissen wann er nun in den Handel kommt.
 
Omg muss man immer alles bis ins kleinste Detail durchkauen?
Natürlich kann man jede Karte übertakten, denn es gibt ja Schwankungen in der Qualität. Somit muss der Hersteller nun einen geeigneten Takt festlegen, den auch jede Karte schafft. Für gewöhnlich nimmt man hier den höchsten Takt, den alle Karten schaffen. Wenn man nun aber auf Nummer sicher gehn möchte bleibt man halt noch einmal 100MHz unter dem Takt von dem man annimmt, dass ihn alle Karten schaffen. Im GPGPU-Markt wird man sowas eher als im Gaming-Markt machen, da man dort keine Abstürze und eine höhere Datenintegrität haben möchte.
Steht man im Gaming-Markt aber nicht unter Druck, so wird man dort vieleicht auch niedriger takten. So kann man schließlich 6 Monate später eine höher getaktete Karte verkaufen.
Das ganze hat dann aber mit dem normalen Übertakten aufgrund von Fertigungsschwankungen nichts mehr zu tun. Die Karten sind viel mehr von Haus aus untertaktet. Ein gutes Beispiel gibts hier beim Core2Duo E6600. Der hat einen Standarttakt von 2400MHz und ich bin mir sicher, dass es kein einziges Modell dieser Cpu gibt, dass keine 2800MHz schafft.
 
Wieso? Hat er vorher behauptet die seien echt? Es war doch zu erwarten, dass es sich um ein Fake handelt. Wenn offizielle Benchmarks kommen wird Nv die wohl selbst posten. Lustig finde ich allerdings den Kommentar am Schluß. Da Fermi und 58xx nicht verfügbar sind wenden die Gamer sich den Konsolen in Scharen zu. Ist ja logisch ne GeForce7 ist auch viel besser als ne GTX285. ;) Ich würd mal eher behaupten 90% Prozent der Leute sind einfach zu dumm für einen Computer ...

Das eher nicht, fürn PC gibt es kaum noch herausragende Exklusive Games, und da die Konsolen immer besser werden geht der Trend eben dahin. ICh find diese Multi-Gen auch erbärmlich :wall:
 
Zum Glück schlug das Neue Batman ein wie eine Bombe !:banana:
Gigantisches Game, da passt alles hoch³:xmas::bigok:
Solche Games braucht der PC, dann wäre alles wieder in Butter.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh