ATI RV670 & R670 (HD3800) *Speku-Thread*

Status
Für weitere Antworten geschlossen.
Es ist sogar mehr!

80*80 = 6400
55*55 = 3025

Verkleinerung von ca. 53%
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der R600 hat 420mm² da währe der R670 mit 190mm² ca. 54% kleiner.
 
Zuletzt bearbeitet:
Der R600 hat 420mm² da währe der R670 mit 190mm² ca. 54% kleiner.

Und das könnte passen, etwas spart man wohl durch das Interface, dafür kostet der UVD nochmal Kleinigkeiten extra - und eventuelle Änderungen durch den Shrink.

194 mm² ist auf jeden Fall realistisch.
 
müsste aber nicht eigentlich bei angenommen gleicher Transistor Anzahl und angenommen gleicher anliegender Spannung und bei der besagten Schrumpfung der DIE Fläche die Temps schlechter werden?

Meine Vermutung stützt sich auf die Aussage, das ja die Fläche welche die Wärme an den Kühler abgibt, deutlich schrumpft und somit weniger Wärme abgegeben wird!?
Neja auch egal wird schon werden...


So wie [HOT] den möglichen R680 beschrieben hat, könnte das ne sehr interessante Karte werden... wenn das Teil auch noch brauchbare Leistung dann liefert, könnt ich mir glatt vorstellen so ein Teil zu holen...

Was ich aber als Problem sehe, im CPU Markt sind bei weitem keine Meilensprünge in Sicht und die im Grakamarkt wird mit jeder Generation (sprich also sagen wir mal einmal im Jahr) die Leistung nahezu verdoppelt...

Es ist ja mittlerweile bei derzeitigen HighEnd Karten schon so, das selbst der schnellste erhältliche Prozessor (also ein 3GHz Quad von Intel) bei einigen Games schon an manchen Stellen limitiert... Ich frag mich wo das noch hingehen soll... Schaut euch 3DMark06 an, die Grafik dort ist eigentlich richtig gut, selbst einige Top Games der letzten Monate bringen es nicht auf so gute Grafik und Details. Aber dennoch limitiert hier der 3GHz Quad schon massiv...
 
Du darfst das aber auch nicht vermischen. Bei den CPU Tests vom 3D Mark wird auf den Software-Rasterizer umgeschaltet, somit wird alles komplett von der CPU berechnet.

Wenn man das bei irgendeinem aktuellen Game umschalten könnte, dann würdest du auch sehen dass es auch da ruckeln würde wie Sau. Die CPU's sind dafür nicht ausgelegt. Deshalb kann man es im Normalfall auch nicht umschalten, man merkts aber zum Beispiel wenn man irgendwas in 3D programmiert und statt dem Hardware-Rasterizer den Software-Rasterizer nutzt. Da ruckelt so gut wie alles ;)
 
Ne ich mein nicht den CPU Test, dort ist klar das nur die CPU Power zählt...

Ich mein die normalen Grafiktests, bench mal mit ner aktuellen Graka im Std. Modus von 3DMark mit nem aktuellen Dualcore/Quadcore mit 2GHz und danach mit 3GHz.
Rein logisch gesehen, sollte ja die FPS Rate recht gleich bleiben, aber ne is nicht, mit 3GHz hat man deutlich mehr FPS. Gleiches spiel zwischen 3 und 4GHz...

Sollte ja auch nur ein Beispiel sein, in Games siehts zum Glück noch nicht so drastisch aus, aber an einigen Stellen ist es eben auch schon so... Wenn die Grafikentwicklung/CPU Entwicklung so weiter geht, wird sich das aber in nicht all zu ferner Zukunft auch in sehr vielen Games wieder finden.
 
Zuletzt bearbeitet:
Stimmt, das verläuft aber exponentiell, nicht linear. Klar von 2 auf 3 GHz mag man noch was spüren, aber von 3 auf 4 GHz wird der Unterschied schon recht mager.

Davon abgesehen bin ich der Meinung dass eher die Graka's limitieren. Klar mit ner noch schnelleren CPU könnte man sicher auch noch was reißen, aber trotzdem is die Graka dann am Ende...
 
Nene zwischen 3 und 4GHz ist der Unterschied auch noch drastisch...

Wenn du nen Dualcore mit 4GHz hast, und den gegen nen Quad mit 3GHz antreten lässt, hast am Ende weniger gesamtpunkte mit dem Quad als mit dem DC.

Obwohl der Quad mehr CPU Punkte liefert. Sprich der Schub den der hohe CPU Takt aus der FPS Rate der Grafiktests rausholt ist enorm.

Hab das anfangs auch nicht so war haben wollen, aber hier im Forum vor allem im HD2900XT/Pro Thread haben einige paar Vergleichsscreens gepostet.

Ich bin ja dafür das endlich mal wieder ein neues 3D Mark kommt, da die alten Teile so gar nicht mehr zum Vergleich taugen...
 
Hast ja recht. Aber für ein paar Punkte und FPS von 3 auf 4GHz zu takten da hilft sicher ne neuere Graka mehr. Vor allem wenn mal was neues kommen würde. Bin mal echt gespannt ob ATI diesmal was richtig gutes auf die Beine stellen kann, dann wird so ein Teil meine x1900XTX ablösen :)
 
müsste aber nicht eigentlich bei angenommen gleicher Transistor Anzahl und angenommen gleicher anliegender Spannung und bei der besagten Schrumpfung der DIE Fläche die Temps schlechter werden?

Meine Vermutung stützt sich auf die Aussage, das ja die Fläche welche die Wärme an den Kühler abgibt, deutlich schrumpft und somit weniger Wärme abgegeben wird!?
Neja auch egal wird schon werden...


So wie [HOT] den möglichen R680 beschrieben hat, könnte das ne sehr interessante Karte werden... wenn das Teil auch noch brauchbare Leistung dann liefert, könnt ich mir glatt vorstellen so ein Teil zu holen...

Was ich aber als Problem sehe, im CPU Markt sind bei weitem keine Meilensprünge in Sicht und die im Grakamarkt wird mit jeder Generation (sprich also sagen wir mal einmal im Jahr) die Leistung nahezu verdoppelt...

Es ist ja mittlerweile bei derzeitigen HighEnd Karten schon so, das selbst der schnellste erhältliche Prozessor (also ein 3GHz Quad von Intel) bei einigen Games schon an manchen Stellen limitiert... Ich frag mich wo das noch hingehen soll... Schaut euch 3DMark06 an, die Grafik dort ist eigentlich richtig gut, selbst einige Top Games der letzten Monate bringen es nicht auf so gute Grafik und Details. Aber dennoch limitiert hier der 3GHz Quad schon massiv...

die Hersteller sind ja nicht gezwungen den Querschnitt zu verringern, somit vergrößert sich der Widerstand auch nicht.
Es werden lediglich die Wege verkürzt und die Spannung reduziert.
Hinzugefügter Post:
528 GFLOP/S

Ab welche rAuflösung limitiert 256Bit?!? 1280 zu 1024 ?!?!
Oder ist das nur hohles gelaber?
Also immerhin ist der Speicher schneller und eine Ultra hat auch keine 512Bit oder?!?
Also die GTX hat zumindest 368Bit oder so.


Improvements
 
Zuletzt bearbeitet:
Wieso Querschnitt? Was meinst du damit?
Die Fläche wird auf garantiert verringert, weil somit mehr Chips auf einen Wafer passen und somit die theoretische Ausbäute besser ist, wie viele Chips wirklich von so nem Wafer zu gebrauchen sind, weis wohl nur TSMC selbst

Und ne, eine Speicherbandbreiten Limitierung wird denke ich auch nicht bei Erhöhung der Auflösung eintreten, viel mehr bei Verwendung von AA.
Die GTX hat 384Bit SI...

Mit 512Bit und 800MHz Speichertakt kommen am Ende knapp 100GB/sec Speicherbandbreite raus. (also die normale HD2900XT mit 512MB Speicher)
Bei 256Bit und 1200MHz Speichertakt sind 75GB/sec. (also bei ner HD2950XT)
Es wäre jetzt gut zu wissen ob 75GB/sec noch reichen oder ob da schon ein Limit auftreten könnte... lässt sich aber schwer sagen, da die Karten ja noch net da sind.
Die GTX kommt auf ca. 83GB/sec...
 
@F-kopp: 256Bit limitieren nie, der Speicher limitiert. Der RV670XT bekommt GDDR4 mit 1,2GHz (2,4GHz DDR) spendiert, welche sehr schnell arbeitet. Man kann mit 256Bit eine gleich große Speicherbandbreite erreichen, wenn der Vram entsprechend schneller taktet.
 
Das ist schon sehr erstaunlich - somit entgeht AMD der "Superlaunchwoche" mit dem RV670. Da kommen ja die Phenoms, die neuen Intels, der NForce7, AMDs neue Chipsets, tonnenweise neue Boards, der G92, das wird ein spassiger November ;).
 
@F-kopp: 256Bit limitieren nie, der Speicher limitiert. Der RV670XT bekommt GDDR4 mit 1,2GHz (2,4GHz DDR) spendiert, welche sehr schnell arbeitet. Man kann mit 256Bit eine gleich große Speicherbandbreite erreichen, wenn der Vram entsprechend schneller taktet.

Aber aufgrund seines Taktes und nicht seiner Größe, oder?!?
 
Quelle: Computerbase.de

ATis RV670 kommt am 15. November


12. Okt 2007, 00:05 AMD soll heute seine Add-In-Board-Partner (AIB-Partner) über eine Vorverlegung des Starttermins für den ATI RV670 vom 19. auf den 15. November informiert haben. Ob es sich in der Produktbezeichnung dabei, wie bislang vermutet, um eine Radeon HD 2950 handelt, soll sich kommende Woche entscheiden.

ATi war in der Vergangenheit etwas in Verruf geraten, da das Unternehmen bisweilen so genannte Papiertiger vorgestellt hatte. Mit einer Vorverlegung des Starttermins für den RV670 sieht es dieses Mal jedoch ganz nach einer Produktvorstellung mit gleichzeitiger Verfügbarkeit für den Kunden aus.

Eine Radeon HD 2950 XT (sofern sie so heißen würde) soll mit einer Rechenleistung von 528 Gigaflops das bisherige Flaggschiff, die Radeon HD 2900 XT (ATi R600), ablösen, die es auf 474 Gigaflops bringt. Eine HD 2950 XT (?) soll mit 825 MHz takten, während eine HD 2900 XT mit 742 MHz taktet. Allerdings soll der RV670 nur über ein 256 Bit breites Speicherinterface angebunden werden, was den Leistungsvorsprung insbesondere in höheren Auflösungen begrenzen dürfte.

Die kommenden RV670-Modelle werden sowohl PCI Express 2.0 als auch Shader Model 4.1 bzw. DirectX 10.1 unterstützen. Der Preis einer Radeon HD 2950 XT (RV670-XT) soll sich auf relativ niedrig kalkulierte $249 belaufen. Verantwortlich für den Preis des RV670-XT sind vor allem das schmalere Speicherinterface und eine reduzierte Anzahl an Transistoren ggü. dem R600. Dennoch sollen die Anti-Aliasing-Leistung sowie die Qualität der anisotropen Texturfilterung verbessert worden sein.

Interessant dürfte es für den geneigten Kunden auf jeden Fall werden, wenn die Neuvorstellungen Nvidias neuer GeForce-8800-Modelle und ATis Ablegern des RV670 am 15. November aufeinander treffen werden.
 
Ich möchte Crysis mit allem auf max bei 1290 zu 1024 zocken können.
Wird dies aufgrund des "geringen" Speicherinterfaces nicht mögl. sein?!?
 
Ich möchte Crysis mit allem auf max bei 1290 zu 1024 zocken können.
Wird dies aufgrund des "geringen" Speicherinterfaces nicht mögl. sein?!?

ich finds nur zu geil, wie sich alle nur wegen des einen Spiels solche Sorgen machen! Könnt ihr deswegen nachts sogar nicht schlafen? :lol:

Hehe, ich glaub, ich bin zu normal für diese Community :angel:
 
Daten des RV670 aka HD2950XT lesen sich ganz gut.
Wenn dann noch im Zubehör ein Dualslot Nachrüstkühler erscheint, kann man dem Chip bestimmt nochmal gut Feuer geben :)
 
Ich möchte Crysis mit allem auf max bei 1290 zu 1024 zocken können.
Wird dies aufgrund des "geringen" Speicherinterfaces nicht mögl. sein?!?

Wir haben doch oben schon geklärt das noch keiner weis was mit Crysis kommen wird...
Des weiteren wird durch ne höhere Auflösung auch nicht wirklich mehr Speicherbandbreite gebraucht... denn das ist mir irgendwie unlogisch.
Genau so wie bei höherer Auflösung auch nicht wirklich viel mehr VRam Verbraucht wird...

Und wie auch oben schon gesagt, kann man mit mehr Takt auch die geringere Größe des Speicherinterfaces ausgleichen.
 
ich finds nur zu geil, wie sich alle nur wegen des einen Spiels solche Sorgen machen! Könnt ihr deswegen nachts sogar nicht schlafen? :lol:

Hehe, ich glaub, ich bin zu normal für diese Community :angel:

nein es gibt auch noch leute, die denken darüber nach und können schlafen. bzw is es nicht das wichtigeste in ihrem leben über crysis nachzudenken (auch wenn wir hier in der minderheit sind :bigok:)
 
Hmm, ich brauch unbedingt noch eine Übergangsgrafikkarte bis zum 15.11. mit der ich CoD4 zocken kann, stelle nichtmal hohe Ansprüche. Nur flüssig soll es ein. Meine X1250 OnBoard Grafik reicht dafür einfach nicht aus (800x600, alles auf low).

Hab allerdings auch keine Lust mir noch so'n Kaliber wie die 2900 Pro etc. zu kaufen, wenn ich mir eh die 2950 hole. Der Wertverlust wäre zu groß. Was könnt ihr solange empfehlen?
 
X1950GT und die auf Pro flashen

Auch wenn die X1950GT bzw. Pro schneller ist, habe ich mir eben eine HD2600XT GDDR4 für schlappe 75EUR gegönnt. Für die Leistung ist der Preis allemal vertretbar und ich zerstöre mir meine Silence-Kulisse des PCs nicht (55Watt Last). Wichtig war mir außerdem der HDMI-DVI-Adapter, da ich so gleich am Plasma anschließen kann.

Dort fällt es nicht ganz so doll auf, wenn man kein AA+AF an hat. :drool:

So kann ich wenigstens das erste Wochenende des CoD4-Launchs (09.11.)überstehen. Dann gehts weiter mit der 2950.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh