ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Aktuelle Gerüchte:

FX62 + R600 ES (niedriger getaktet!) = 10800 Pkt. im 3DMark06
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das hört sich ja schon mal fett an.
wenn man dem glauben schenkt und sich überlegt, was der r600 mit finalen taktraten und einem hochgetakteten E6600 leistet... ui ui ui
 
Nochmal zu dem Speicher...

Ich denke das AMD/ATI mit Sicherheit GDDR4-Speicher verbauen wird. Das da Engpässe auftreten, kann möglich sein, ist aber in meinen Augen unwahrscheinlich. Außerdem lassen sich mit GDDR4-Speicher nochmal die Taktraten steigern, bei effizienteren Energieverbrauch. Wieso sollte man also GDDR3-Speicher nehmen, der am Limit arbeitet? Die Ausbeute, die man an guten GDDR3-Speicher hätte, würde im Vergleich zu GDDR4-Speicher doch wesentlich teurer ausfallen. Alleine schon um den Stromhunger der Karte zu senken kann ich mir das sehr gut vorstellen.
 
das hört sich ja schon mal fett an.
wenn man dem glauben schenkt und sich überlegt, was der r600 mit finalen taktraten und einem hochgetakteten E6600 leistet... ui ui ui

Der E6600 bremst... nur so zur Information. Er ist der Flaschenhals. Selbst bei nur einer 8800GTX, hinkt der E6600 hintendrein, selbst bei 3.8 Ghz ;)
Somit wirst du die Grafikkarte nur bei Auflösungen mit 1920x1440 und darüber wirklich mit einem E6600 ausreizen können. Für 1280x1024er TFTs wird diese Karte in Verbindung mit einem E6600 totale Geldverschwendung sein.
 
20.1 oder mit vista am 27.1 ... aber janur kann man als fest betrachten.
den wenn directX 10.0 da ist, macht eine DX10 karte auch erst richtig sinn.

Ich tippe auf Ende Q1 07 bis Anfang Q2. Habe da was geflüstert bekommen von einer taiwanesischen Quelle (keine Homepage, ein Kontaktmann).
 
Wo? Im 3Dmark 2005 :lol:

hmm.. er meint wohl 3Mark 2001 :lol: :lol:

Rofl, vll einfach mal lesen und denken?^^:haha:
Ode rist es für dich nicht klar, dass es im 06er ist....:shot:

mfg nakai

€: Anscheinend wurde die Score bereits mit vollem Takt erreicht. Nun gehts wohl ans Treibertweaking. Also erwartet nicht zuviel vom R600.
 
Zuletzt bearbeitet:
Der E6600 bremst... nur so zur Information. Er ist der Flaschenhals. Selbst bei nur einer 8800GTX, hinkt der E6600 hintendrein, selbst bei 3.8 Ghz ;)
Somit wirst du die Grafikkarte nur bei Auflösungen mit 1920x1440 und darüber wirklich mit einem E6600 ausreizen können. Für 1280x1024er TFTs wird diese Karte in Verbindung mit einem E6600 totale Geldverschwendung sein.



entschuldige aber das ist ja mal komplett aus der luft gegriffen bei 1280x1024 +aa +af +hdr +hq wird eine 8800gtx als auch ein "vermutlich" R600 ins schwitzen kommen....

bei diesen settings ist aber zu 99% die grafikkarte die limitiert und nicht die cpu... ;)
 
jo eben, der c2d @ oc ist sicherlich in der lage, die power für die neuesten und schnellsten grakas zu liefern, grade mit aa und af auf max.
 
entschuldige aber das ist ja mal komplett aus der luft gegriffen bei 1280x1024 +aa +af +hdr +hq wird eine 8800gtx als auch ein "vermutlich" R600 ins schwitzen kommen....

bei diesen settings ist aber zu 99% die grafikkarte die limitiert und nicht die cpu... ;)

aber nicht bei so ner geringen auflösung, da limitiert sicherlich nicht die graka. graka limitiert erst bei 1600x1200 aufwärts.
um dir zu zeigen, dass deine aussage nicht der wahrheit entspricht, gebe ich dir folgenden link:

http://www.computerbase.de/artikel/...geforce_8800_gtx/19/#abschnitt_hl2_lost_coast

ein auszug von den benchmarks:

hl2 lost coast: 1280x1024, 4aa/16af: 8800gtx 95 fp/s

WAHNSINN, wie sehr die 8800gtx ins schwitzen gerät (achtung ironie!)
 
Zuletzt bearbeitet:
naja 99% war vieleicht etwas hoch gegriffen aber 80% der games sind sicher in diesen settings nicht cpu limitiert.... bf2 ist wohl eins der schlechtesten bsp. erstens limitiert die engine sowieso (ingame) auf 100fps und außerdem ist das game 1 1/2 jahre alt.... bei aktuelleren games gothic3, oblivion, dark messiah etc sieht die sache sicher anders aus...
 
der cb test ist mit einem non-oc fx-60 gemacht worden, da sieht das ja auch schon anders aus. und hl2 ist extrem cpulastig.

für den r600 sollte man dann schon einen c2d im besitz haben, ist leider so... ein x2 @ 3ghz ist bald schon das alte eisen, traurig traurig...
 
Für 1280x1024er TFTs wird diese Karte in Verbindung mit einem E6600 totale Geldverschwendung sein.

naja, mag sein, dass das flagschiff von ATi auf 1280*1024 wenig bringt, auch mit zugeschaltetem AA + AF (ohne HQ einstellung), aber mich persönlich stört das weniger, da ich auf 1680*1050 rumgurke und da schon eher mehr performance von der graka gefordert sind.

und 20"+ widescreen tfts werden ja immer beliebter. also ist es für einen besitzer eines solchen nicht verkehrt mit einem c2d (getaktet) zu einem r600 zu greifen.

außerdem will man mit der karte ja auch neue spiele gut spielen können (sprich: crysis, ut2007, c&c3)
 
aber nicht bei so ner geringen auflösung, da limitiert sicherlich nicht die graka. graka limitiert erst bei 1600x1200 aufwärts.
um dir zu zeigen, dass deine aussage nicht der wahrheit entspricht, gebe ich dir folgenden link:

http://www.computerbase.de/artikel/...geforce_8800_gtx/19/#abschnitt_hl2_lost_coast

ein auszug von den benchmarks:

hl2 lost coast: 1280x1024, 4aa/16af: 8800gtx 95 fp/s

WAHNSINN, wie sehr die 8800gtx ins schwitzen gerät (achtung ironie!)

Deine Aussage ist in diesem Zusammenhang falsch.
Wie ein Vorredner schon sagte ist HL2 sehr CPU Lastig.
Du kannst gerne einen Link posten in dem aufwändige Engines getestet werden, diese entprechen eher der Leistungsskalierung von zukunftigen Games. Z.B Githic 3 oder Oblivion, NFS Carbon mit seinem Blureffekt hat mehr Sinn als HL2. Kein G80 Besitzer hat die Karte nicht wegen HL2 gekauft.
Gothic 3 hat an wenigen Stellen in Städten ca. 19 - 28fps (1280x1024) mit einer GTX/GTS.

Der Oblivion Test zeigt eher wie die Grafikkarte bei 1280x1024 limitieren kann: http://www.computerbase.de/artikel/...vidia_geforce_8800_gtx/20/#abschnitt_oblivion
 
Zuletzt bearbeitet:
ja, aber die r600 wird bestimmt geil , mit einen e6600 @3,6 ghz !! des wäre bestimmt cool, wenn die r600 so gut ist wie 2x 8800 gts !! das wäre wirklcih mal was geiles !!
 
Ja, die Fanboys müssen wohl mal wieder mit komischen Behauptungen ran. ^^ Obwohl es natürlich toll wäre. Nur leider ist das absolut unrealistisch.
 
[...]
für den r600 sollte man dann schon einen c2d im besitz haben, ist leider so... ein x2 @ 3ghz ist bald schon das alte eisen, traurig traurig...

Das ist einfach falsch. Selbst ein X2@2,8GHz reicht für eine 8800GTX völlig aus.
 
Er wird aber kaum schneller als der G80 sein...

mfg Nakai

BLA, BLA, BLA................:shot:

Genau so wie ein 1900 kein bisschen schneller ist als ein 7900. Was macht ein fanboy wenn er wegen seiner lieblingshardware ins schwitzen kommt? er macht den rest schlecht und labert kacke. :lol:
Warum sollte denn ein r600 nicht schneller werden als ein g80?
1. Weil er mehr Schaltungen besitzt als ein g80.
2. Weil man ihn wegen 80mm schneller takten kann.
3. Weil wahrscheinlich gdr4 draufkommt und davon mehr.
4. Weil Amd 3 Monate mehr Zeit für die Entwicklung hat.
5. ..............
6................

Also ich hole mir die bessere Karte für DX10! Im Moment ist es noch nicht soweit und nur Freaks holen sich Hardware für Software die es noch nicht gibt. Warum sollte mann nicht Zeit schinden und Hardware dann holen wenn mann sie wirklich braucht? Ist d ann sicherlich billiger und aktueller.:banana:

Und die Freaks warten ein halbes Jahr auf Crisis und gurken es auf 800x600, weil ihre "veraltete" Technologie abkackt. Aber hey, Fanboys!!! Holt euch die g80 und wirft eurem Lieblingverein die Kohle in den Rachen. :teufel:
 
aber nicht bei so ner geringen auflösung, da limitiert sicherlich nicht die graka. graka limitiert erst bei 1600x1200 aufwärts.
um dir zu zeigen, dass deine aussage nicht der wahrheit entspricht, gebe ich dir folgenden link:

http://www.computerbase.de/artikel/...geforce_8800_gtx/19/#abschnitt_hl2_lost_coast

ein auszug von den benchmarks:

hl2 lost coast: 1280x1024, 4aa/16af: 8800gtx 95 fp/s

WAHNSINN, wie sehr die 8800gtx ins schwitzen gerät (achtung ironie!)



entschuldige die ausdrucksweise.... du bist aber schon ein etwas komischer vogel (nicht böse gemeint) editierst einen anderen link rein ohne es dazu zu vermerken.... gestern bei meinem posting war da noch der link zu bf2 und heute plötzlich hl2 lost coast.... :hmm:

und außerdem bringst du mit lost coast wieder ein bsp. eines games das über 1 1/2 jahe alt ist....
 
Zuletzt bearbeitet:
BLA, BLA, BLA................:shot:

Genau so wie ein 1900 kein bisschen schneller ist als ein 7900. Was macht ein fanboy wenn er wegen seiner lieblingshardware ins schwitzen kommt? er macht den rest schlecht und labert kacke. :lol:
Warum sollte denn ein r600 nicht schneller werden als ein g80?
1. Weil er mehr Schaltungen besitzt als ein g80.
2. Weil man ihn wegen 80mm schneller takten kann.
3. Weil wahrscheinlich gdr4 draufkommt und davon mehr.
4. Weil Amd 3 Monate mehr Zeit für die Entwicklung hat.
5. ..............
6................

Also ich hole mir die bessere Karte für DX10! Im Moment ist es noch nicht soweit und nur Freaks holen sich Hardware für Software die es noch nicht gibt. Warum sollte mann nicht Zeit schinden und Hardware dann holen wenn mann sie wirklich braucht? Ist d ann sicherlich billiger und aktueller.:banana:

Und die Freaks warten ein halbes Jahr auf Crisis und gurken es auf 800x600, weil ihre "veraltete" Technologie abkackt. Aber hey, Fanboys!!! Holt euch die g80 und wirft eurem Lieblingverein die Kohle in den Rachen. :teufel:

Nakai ist bestimmt kein nVdida Fanboy, er denkt einfach logisch. Bisher waren, jetzt mal von der 9700Pro abgesehen, alle Topmodelle immer etwa auf dem gleichen Niveau. Ob 6800U vs. X850 XT, 7800GTX vs. X1800 XT oder 7900GTX vs. X1900 XTX. Zwar gab es geringe Unterschiede, aber beide waren immer etwa auf dem gleichen Niveau. Und außerdem schreibt Nakai ja daß der R600 schneller wird, aber eben nur eín wenig.

1. Mehr Transistoren |= mehr Leistung
2. 80nm |= mehr Taktung
3. Mehr RAM |= mehr Leistung & GDDR4 |= mehr Leistung (SI!)
4. Mehr Zeit |= mehr Leistung
 
Rofl...mich gleich als Fanboy abzustempeln.
Im derzeitigen Zustand des R600 schafft er vll 12500 Punkte im 3DMark06 auf einem Kentsfield. Und wieviel schafft ein G80 auf dem Kentsfield. Etwa 12000 Punkte.

Ja, die Fanboys müssen wohl mal wieder mit komischen Behauptungen ran. ^^ Obwohl es natürlich toll wäre. Nur leider ist das absolut unrealistisch.

Komisch? Ich mach wenigstens keine unüberlegten Aussagen und ein fanboy bin ich schon gleich garnicht.

Warum sollte denn ein r600 nicht schneller werden als ein g80?
1. Weil er mehr Schaltungen besitzt als ein g80.
2. Weil man ihn wegen 80mm schneller takten kann.
3. Weil wahrscheinlich gdr4 draufkommt und davon mehr.
4. Weil Amd 3 Monate mehr Zeit für die Entwicklung hat.
5. ..............
6................

Zu 1.: Der Nv40 hatte 222Mill. Transis und war wesentlich langsamer als sein Komkurrent der R420 der nur etwa 170 Transis hatte.

Zu 2.: Seit wann sind Fertigungstechnologien für die Geschwindigkeit eines Chips. Bsp.: Der 65Nm-P4 war langsamer als der 90Nm-Athlon64.

Zu 3.: Falls der Chip 30% mehr Speicher und dieser 30% schneller als auf dem G80 ist, bedeutet das keine Steigerung von 60%. Vll höchstens 10% und auch nur bei bestimmten Anwendungen.

Zu 4.: Ich versteh deine Logik irgendwie nicht...der R600 hätte zur weihnachtszeit erscheinen sollen. Eine solche Verspätung kann nur bedeuten das irgendetwas bei der Produktion nicht stimmt.
Das Fintuning durch Takterhöhung und Verbesserung des Chips sind schon lange vorbei. Jetzt müssen guten Yields her.


Die einzigen beiden die mich als Fanboys abgestempelt haben, sind anscheinend selber welche. Nun ja Fanboys sind faktenresistent und falls ihr doch keine seid, dann tut es mir leid.


Das ist einfach falsch. Selbst ein X2@2,8GHz reicht für eine 8800GTX völlig aus.

Wobei die Benchmarks etwas anderes sagen, sicherlich reicht ein X2 für den G80 locker aus. Wer aber mehr will, braucht eine andere CPU.

da stimme ich zu, er wird gerade so schnell sein den g80 in einigen benches zu schlagen. allein schon der spekulierte hohe stromverbrauch deutet darauf hin, das ati die karte sehr auf kante getaktet ausliefert um die konkurrenz besiegen zu können.

Wenn überhaupt, von dem was ich gehört habe, hat NV was in der Hinterhand. Einen verbesserten Treiber oder einen etwas verbesserten G80.
Und wie es aussieht, könnte der R600 den kürzeren ziehen.
Nun das ist nur eine Spekulation am Rande.

mfg Nakai
 
ich warte trotzdem den R600 ab...und nein,ich wart nich immer und immer wieder auf die nächst bessere Graka.Ich werde kaufen,wenn ich den G80 mit dem r600 vergleichen kann.klar,wird die nächste graka dann besser G81? R700ß :o) Ist mir aber dann egal....Eine Frage hab ich allerdings,es wird immer gesagt,daß die CPU limitiert.Ich hab mir allerdings nun einen e6600 anstelle meines amd 3500 eingebaut und hab kein einziges Flap mehr...liegt das daran,daß ich nur ne 6800gt habe?bringt das dann nichts...?
 
ich warte trotzdem den R600 ab...und nein,ich wart nich immer und immer wieder auf die nächst bessere Graka.Ich werde kaufen,wenn ich den G80 mit dem r600 vergleichen kann.klar,wird die nächste graka dann besser G81? R700ß :o) Ist mir aber dann egal....Eine Frage hab ich allerdings,es wird immer gesagt,daß die CPU limitiert.Ich hab mir allerdings nun einen e6600 anstelle meines amd 3500 eingebaut und hab kein einziges Flap mehr...liegt das daran,daß ich nur ne 6800gt habe?bringt das dann nichts...?

kommt immer drauf an welche grafik-settings du verwendest. bei hoher auflösung und aa/af ist die 6800GT einfach am ende, da bringt auch eine schnellere CPU nichts mehr. bei niedrigen settings sollte das intel-system allerdings ne ecke schneller sein.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh