ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Bei meinen GTX läuft jo der GDDR3 schon mit 900 Mhz. Glaube noch nicht ganz daran das die Karten so daher kommen, oder es hat noch viel Reserve nach oben. Es darf weiter Spekuliert werden. :haha:

mfg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Trigger060: Liest du den Thread?

@SOLDIER: GDDR3 1,1ns kann max. 900MHz (natürlich geht immer noch mehr).
 
Zuletzt bearbeitet:
@ Trigger060,

Dankeschön, aber das ist schon seit einiger Zeit bekannt und wird hier schon über ein par Seiten lang diskutiert.

Mitlesen ;)
 
Zuletzt bearbeitet:
Die Spezifikationen sind hier doch sogar in einer News genannt worden. Allerdings hegt www.3dcenter.de in ihrer heutigen News wieder einiges an Bedenken dazu.

Hier mal ein kleiner Auszug:
www.3dcenter.de schrieb:
...Nichts desto trotz erscheinen uns die gemachten Angaben weiterhin als schwer unglaubwürdig bis hin zu nach menschlichem Ermessen falsch: So wird nVidia nach einiger Aussage beim G80-Chip noch nicht auf unified Shader-Einheiten setzen. Diese Funktionalität will man rein in Software (per Treiber) zur Verfügung stellen, in Hardware soll es aber weiterhin die Unterscheidung zwischen Vertexshader- und Pixelshader-Einheiten geben ...

... Insofern ist es unklar, wieso DailyTech hier mit fester Stimme von gleich 128 unified Shader-Einheiten beim G80-Chip berichten - die Diskrepanz zu den eigentlich allgemein bekannten nVidia-Aussagen bezüglich unified Shader-Einheiten müsste doch eigentlich auffallen. Aber auch insgesamt fäll es schwer, diesen "Spezifikationen" zu glauben: Die 128 Shader-Einheiten wäre eine äußerst massive Steigerung gegenüber dem G71-Chip, selbst wenn man diesen ausnahmsweise mal mit 48 Shader-Einheiten rechnen würde (der G71-Chip hat pro Pipeline zwei Shader-Einheiten, welche allerdings nur in seltenen Fällen gleichzeitig eingesetzt werden können) ...

... Selbst bei einer deutlichen Vereinfachung der Shader-Einheiten, welche durch den Sprung auf das Shader Model 4 und gleichzeitig durch den Wechsel auf unified Shader eigentlich nicht möglich erscheint, ist der berichtete Sprung doch viel zu groß...

Quelle: www.3dcenter.de

Und dabei ist das noch nicht alles. 3DCenter nennen da noch mehr Gründe, die Zweifel aufkommen lassen. Aber lest doch einfach mal selbst nach. ;)
 
Die Spezifikationen sind hier doch sogar in einer News genannt worden. Allerdings hegt www.3dcenter.de in ihrer heutigen News wieder einiges an Bedenken dazu.

Hier mal ein kleiner Auszug:


Quelle: www.3dcenter.de

Und dabei ist das noch nicht alles. 3DCenter nennen da noch mehr Gründe, die Zweifel aufkommen lassen. Aber lest doch einfach mal selbst nach. ;)

ja dass mit den 1350mhz war mir so oder so sehr schleicherhaft

zum rest sag ich auch nix. sehr komisch wie viele seiten zz andere sachen berichten
 
nach eigener Aussage von Nvidia vor einigen Monaten, wollen sie keine direkten Unified Schader einsetzen (so wie es ATI im R600 vor hat?), weil damit die Transistormenge so hoch wäre, das der Strombedarf und die Wärmeentwicklung stark ansteigen würde (aber vielleicht hat sie ja deshalb eine kombinierte Luft-Wasserkühlung?). Nvidia wollte seine Vertex- und Pixelshader diese Aufgaben erfüllen lassen, sodaß hier vielleicht die 128 Unified Shader herkommen (Vertex + Pixel). Weiß jemand wieviele Shader der G80 haben wird? Im Großen und Ganzen wird das dann über die Treiber abgearbeitet. Die 1350MHz verwirren schon, da keine der genannten Komponenten diese Leistung bringt (575MHz bzw. 900MHz = 1475MHz), aber vielleicht beruht diese Angabe ja auch auf der Addition der Leistungswerte aller eingesetzen Shader (V+P).

Also abwarten, Testen und bewerten -> dann kaufen ;)

P.S.: dies ist nur meine bescheidene Interpretation des Ganzen.
 
hat sich mal einer gedanken darüber gemacht, was für eine cpu man haben müsste damit die karte nicht limitiert wird? es gibt ja einige hier im forum die sagen das ihr C2D die aktuellen karten schon limitiert...
Ja hab ich und das Resultat ist folgendes:
Ich werde auf 1920x1200 spielen. Dabei ist der CPU-Speed nahazu irrelevant. Da macht es dann nur noch einen Unterschied, ob ich einen Singlecore oder einen Dualcore habe...und den hab ich!;)
@bassmecke
ich zweifel mal stark daran das du weisst was wirklich beinahe oder lautlos heißt eine 7900GTX ist auch ein staubsauger, ein kleiner radialer mistquirl der nicht mal auf eine größe eines 80mm lüfters kommt.
Also ich hab das Teil in einem gedämmten Gehäuse und ich höre die Graka nicht. Kann ja sein, das da was säuselt, wenn ich bei offenem Case die Ohren dranhalte, das interessiert mich aber nicht die Bohne. :d Solange ich nix höre, bin ich zufrieden.
@Markus : Mir hat man diesen "Wahn" mit dem zweiten 'X' bei luxx erklärt, verstehe ich trotzdem nicht so ganz aber irgendwoher müssen die Leute das Geld hier schließlich haben. Keine Ahnung ob wir uns mit Managern unterhalten die Unternehmen in den Ruin treiben, Politiker im Forum rum wuseln oder die Leute einfach für die neue Grafikkarte hungern^_^
Wir sind hier einfach Leute, die ihren PC zum Hobby gemacht haben. Hobbies kosten nunmal Geld. ;) Ein Satz 18" Prollofelgen für mein Auto würden mehr Kosten, als meine PC-Ausgaben für das ganze Jahr. Also ist das alles sehr relativ. Es zwingt Euch doch keiner zu kaufen und aufzurüsten.
Außerdem sind wir hier im G80/R600 Thread. Da drücken sich nunmal sehr wenige Midrange und Lowend-User rum. Hier sind die Leistungsfreaks. Wenn ihr das anders wollt, müßt ihr mal im X800GTO oder 7600GT Thread rumlesen.;)
aber bis jetzt hat man bei jedem launch von HW gesagt: "wow das reicht dann wieder 2 Jahre" und? 3 Monate später kamen die selben User und kauften sich die next gen... Also..
Ich garantiere dir, das sind nicht sie selben User. ;)
Ihr habt feste Strategien zum Hardwarekauf?

Also ich bin da flexibel und hab keine Gesetze an die ich mich halten muss.
__________________
Ist auch besser so.:d So können wir wenigstens schnell reagieren.


@Triggfer060
Die Info ist alt, aber von Dir schön zusammengefasst. :)

@Twinnie, Diablo-Killer999 und markus-maximus
:btt: Hier gehts um G80/R600!;)
 
Zuletzt bearbeitet:
lest mal volgendes dazu..
verstehe ich das richtig, das der g80 eigentlich nur für die quadro serie entwickelt wurde.und nur ev ein ableger davon für den desktopbereich abfällt!?
ev. brauchen ja bild/video/render-programme keine unif-shader..
512video ram
256physik ram =)


http://de.theinquirer.net/2006/10/06/g80chip_leitet_turbocacheaera.html

Der ursprünglicher verfasser auf englisch hatte wenig ahnung und die Deutsche übersetzung schiesst den Vogel endgültig ab :lol:

Also wenn Inq. dann NUR das orginal - bei den übersetzungen ins deutsche klingt das dann alles irgendwie net so wie es gemeint war.
 
Aber gut klang es dennoch. ;)

Ok, ok, den Spaß wars mir wert. :d
 
wenn ich das so lese sieht das eher nach der grafikeinheit in der PS3 aus

man der englische text ist ja noch schlimmer :haha:

irgendwie haben die dort alles zusammengehauen von quadro zum highendchip bishin zum ps3 grafikchip :lol:
 
Zuletzt bearbeitet:
:lol: PS3... wenn's die irgendwann überhaupt mal gibt :lol:
hast du aber nicht wirklich das Gefühl, dass Sony den Grafikchip entwickelt hat oder?? DIe XBOX360 hat doch auch schon unified Shaders?
 
Sind grad die Spezifikationen des G80 durchgedrungen, wie aktuell die Information ist weiß ich jedoch ist.

Beide Karten sollen mit fast 23 Zentimetern die selbe Länge haben wie die 7900 GTX und X1900 XT. Inklusive Kühlkonstruktion wird die Karte die mittlerweile obligatorischen zwei Slots belegen. Um den Stromhunger zu befriedigen empfiehlt Nvidia ein 450 Watt-Netzteil für eine Geforce 8800 GTX und ein 400 Watt-Netzteil für eine Geforce 8800 GTS. Für SLI wird sogar eine 800 Watt-Stromversorgung empfohlen.


Geforce 8800 GTX:

Chiptakt: 575 MHz
Speichertakt: 900 MHz
Speichermenge: 768 MByte
Speicherinterface: 384 Bit
Theoret. Speicherbandbreite: 86 GByte/s
Shaderzahl: 128 Unified-Shader mit 1.350 MHz

Geforce 8800 GTS:

Chiptakt: 500 MHz
Speichertakt: 900 MHz
Speichermenge: 640 MByte
Speicherinterface: 320 Bit
Theoret. Speicherbandbreite: 64 GByte/s
Shaderzahl: 96 Unified-Shader mit 1.200 MHz


Nochmal bitte?!?

500MHZ chiptakt??? es wurde doch schon über einen chiptakt von 1,5GHZ spekuliert? Das versteh ich jetzt nicht ganz, und der Speicher sollte doch auch GDDR4 Speicher sein der mit 2.000 - 3.000MHZ läuft, ich versteh gar nichts mehr, kann mich mal einer bitte aufklären?
 
Ich habe zwar schonmal die Frage gestellt, aber was solls ;). Und zwar wird ja schon die jetzige Generation (wenn auch nur minimal) von 8x-PCI-E ausgebremst. Eigentlich müssten doch bei der neuen Generation 16x-PCI-E noch mehr bringen?
 
Zuletzt bearbeitet:
Ich habe zwar schonmal die Frage gestellt, aber was solls ;). Und zwar wird ja schon die jetzige Generation (wenn auch nur minimal) von 8x-PCI-E ausgebremst. Eigentlich müssten doch bei der neuen Generation 16x-PCI-E noch mehr bringen?

Kann niemand genau sagen, ich glaube aber dass die Datenmengen so langsam für solche Späße ausreichen - demnach sollten 2x16x mehr bringen als 2x8x. Aber das muss erst gemessen werden...
 
naja selbst zwischen pcie 4x und 8x gibt es ja kaum einen unterschied, von daher wird 16x genauso bringen wie vorher... nichts. außer man setzt eine sli-version ohne bridge ein aber das macht ja keiner.
 
Die GTX-Karte wird nach unseren Informationen einen Hybrid Wasserkühler bekommen. Das heißt, dass man die Karte alternativ mit Wasser kühlen kann. Normalerweise läuft der Lüfter, bindet man die Karte in die W-Kühlung ein kann dieser ausgestellt werden.
Wie effektiv die Kühlung ist wird sich noch zeigen und darüber entscheiden ob wir noch einen Kühler für die Karte produzieren werden.

quelle: von einem der Aqua-Computer Chefs/Gründer
 
[Mr.Burns Stimme]

Ausgezeichnet, ausgezeichnet :teufel:

[/Mr.Burns Stimme]

Meiner Meinung nach eher ein sehr fauler Kompromiss und alles andere als eine sinnvolle Lösung. Denn: Um mit Wasserkühlung höchste Effizienz zu erzielen, muß die Kühlflüssigkeit möglichst nahe und mit ausreichendem Querschnitt an das GPU-Die herangeführt werden, um die Hitze möglichst früh "abzufangen". Dann aber hat man beim Betrieb mit Luftkühlung genau dort Hohlräume, sprich: Isolation (da Luft ein vergleichsweise schlechter Wärmeleiter ist, nicht anderes macht ein Wollpulli: er hält die warme Luft nahe am Körper gefangen) im Kühlkörper, wo man zur Wärmeableitung besser massives Kupfer oder Heatpipes bräuchte.

Führt man aber umgekehrt die Wasserleitungen nicht nahe an die Hitzequelle heran, verteilt sich die Hitze über den gesamten Kühlkörper, und wird nur dort an das Wasser abgegeben, wo dieser tatsächlich von Wasserleitungen durchzogen ist, mitunter also nur ein geringer Prozentanteil der Gesamtfläche.
 
frag mich auch was dieses mischmas der beiden soll. Will eher eine luft und für die, die eine wakü haben eine wakü version. Wenn man sich eine gtx holt und eine wakü braucht wird sie sowieso für die ohne zu teuer (da man sich dann eine wakü besorgen muss). Oder ist diese lösung entweder oder? also das man wakü kann oder sie mit luft kühlen?
 
also das man wakü kann oder sie mit luft kühlen?

genau wenn du ne wakü hast kannst du den lüfter abklemme oder evtl sogar per software auschalten, oder auch mitlaufen lassen, und wenn du nur luftkühlung hast dann kühlst du halt mit dem selben kühler die karte halt nur mit dem lüfter.
 
fraglich ob die sich nicht gegenseitig im weg stehen (wo der wakü ist kommt kein luftstrom, und wo die lukü durchblässt kommt kein wasser). Bin ja mal gespannt auf die ersten berichte von den grakas. Ich werde ja auf die nachfolger oder gar erst auf die g9 od. r7 warten :d
 
Meiner Meinung nach eher ein sehr fauler Kompromiss und alles andere als eine sinnvolle Lösung. Denn: Um mit Wasserkühlung höchste Effizienz zu erzielen, muß die Kühlflüssigkeit möglichst nahe und mit ausreichendem Querschnitt an das GPU-Die herangeführt werden, um die Hitze möglichst früh "abzufangen". Dann aber hat man beim Betrieb mit Luftkühlung genau dort Hohlräume, sprich: Isolation (da Luft ein vergleichsweise schlechter Wärmeleiter ist, nicht anderes macht ein Wollpulli: er hält die warme Luft nahe am Körper gefangen) im Kühlkörper, wo man zur Wärmeableitung besser massives Kupfer oder Heatpipes bräuchte.

Führt man aber umgekehrt die Wasserleitungen nicht nahe an die Hitzequelle heran, verteilt sich die Hitze über den gesamten Kühlkörper, und wird nur dort an das Wasser abgegeben, wo dieser tatsächlich von Wasserleitungen durchzogen ist, mitunter also nur ein geringer Prozentanteil der Gesamtfläche.


Wow, du hast die als eine Sample Karte organisiert und den Kühler in seine einzelteile zerlegt ... oder bist du nur Hellseherisch veranlagt ?

Den Kühler aufgrund von 3 pics abzuschreiben auf denen man GARNICHTS vom aufbau erkennen kann ist mal mehr als anmaßend :rolleyes:

Diese Hybrid bauweise ist sicherlich nicht gerade kostengünstig - wenn das Teil nix taugt würde nVidia es nicht als Referenzkühler einsetzen.
 
Zuletzt bearbeitet:
genau wenn du ne wakü hast kannst du den lüfter abklemme oder evtl sogar per software auschalten, oder auch mitlaufen lassen, und wenn du nur luftkühlung hast dann kühlst du halt mit dem selben kühler die karte halt nur mit dem lüfter.

och das ganze könnte doch garnicht so schlecht sein, nicht jede wakü kühlt die komplette karte...für die gpu die wakü und der lüfter kühlt die ganze karte..aber vermutlich wird es nichts revolutionäres sondern nur eine faule kompromislösung...

und anarchy hat recht...bei der 7900gtx haben sie für luftverhältnisse einen tollen kühler entwickelt von daher sollte die neue lösung auf jeden fall besser sein
 
Zuletzt bearbeitet:
Wow, du hast die als eine Sample Karte organisiert und den Kühler in seine einzelteile zerlegt ... oder bist du nur Hellseherisch veranlagt ?

Den Kühler aufgrund von 3 pics abzuschreiben auf denen man GARNICHTS vom aufbau erkennen kann ist mal mehr als anmaßend

Diese Hybrid bauweise ist sicherlich nicht gerade kostengünstig - wenn das Teil nix taugt würde nVidia es nicht als Referenzkühler einsetzen.
Dem ist nichts mehr hinzuzufügen. :bigok:
 
Zwischen 4x und 8x gibt es einen gewaltigen Unterschied ;).


Fazit: PCIe x4 meist ausreichend

Während der professionelle Benchmark SPECviewperf 8.0 in aller Regel sensibel auf Änderungen in der verfügbaren Grafikbandbreite reagiert, stellen Spiele wie erwartet deutlich geringere Anforderungen.

Die von uns verwendeten Anwendungen wie Doom 3 oder Unreal Tournament 2003 setzen eine gewisse Mindestbandbreite voraus, konkret ungefähr x4 PCI Express. Darüber hinaus ist jedoch kaum eine Leistungssteigerung mehr festzustellen. Besonders überraschend ist dies auch unter Berücksichtigung des doch recht anspruchsvollen 3DMark 05, der mit grafischen Schmankerln nicht gerade zimperlich um sich schmeißt und technisch ohne weiteres als Trendsetter bezeichnet werden kann.

http://hardware.thgweb.de/2004/11/05/pci_express_durchleuchtet_alle_modi_im_test/page12.html

;)

ok test is schon was älter aber so dramatisch hat sich das imho nicht geändert.
 
Zuletzt bearbeitet:
naja selbst zwischen pcie 4x und 8x gibt es ja kaum einen unterschied, von daher wird 16x genauso bringen wie vorher... nichts. außer man setzt eine sli-version ohne bridge ein aber das macht ja keiner.



Schwachfug , selbst bei z.B. einer 7900GTX hast Du messbare
Unterschiede zwischen 8x / 16x , auch wenn noch gering.

Fakt ist mit der neuen Graka Generation und der Möglichen
Bandbreite ist 16x absolut von Vorteil.

Die SLI Lösung 4x/16x , nach klingelts ? Ist demnach auch
der blanke Hohn , da ist ja der NFurz4 mit 8x/8X ja immernoch
sinnvoller.

Greetz Koyote008
 
Schwachfug , selbst bei z.B. einer 7900GTX hast Du messbare
Unterschiede zwischen 8x / 16x , auch wenn noch gering.
Ein messbarer Unterschied ist zu vernachlässigen. Da muß ein spür- und sichtbarer Unterschied sein, dass es sich lohnt. ;)
Fakt ist mit der neuen Graka Generation und der Möglichen
Bandbreite ist 16x absolut von Vorteil.
Leih mir bitte deine Glaskugel! :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh