ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
und was is an der geschichte schlimm? oh gott.. die bösen von amd und ati :lol:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich versteh die INQ story nicht...


1) „Ihr wisst schon, dass OCWorkbench Sachen von der Konferenz berichtet hat. Damit ist klar, dass die NDAs nicht mehr die geringste rechtliche Bindung haben.“
--> das hat scheinbar der Reporter von INQ namens Theo gesagt. Weiß einer, was OCWorkbench "verraten" hat? und wieso sind die NDAs von ATI/AMD rechtlich hinfällig, wenn einer von OCWorkbench etwas von der Konkurrenz (also NVidia) berichtet hat?

2) scheinbar war es ja eine gute nachricht für ATI, wenn einer von AMD (G. Amato) ihn "wie einen alten Freund" umarmt hätte.

3) die Sache mit dem "Public Domain". ich konnte per google nichts befriedigendes darüber herausfinden. was soll das in dem fall genau sein. der inhalt des gesprächs bezieht sich ja auf "1)"...

4) es sollte eine INQ-Geschichte geändert werden, die "im Übrigen nur eine Reportage war". wurde die von der INQ seite gelöscht? konnte nichts finden.

5) gehört zu 4): was soll das "„Zum Teufel auch, warum schreibt ihr die **(@*((@$*)*@ Geschichte nicht selbst?“"? Wenn es um die INQ geschichte geht, haben sie es doch selber geschrieben.


sehr komisch.
 
mich eigentlich auch. da scheint wol was ganz gehörig schief gelaufen zu sein.
 
@lalanunu und die anderen

Hört endlich auf zu spammen und wenn ihr nichts zum Thema (r600) posten könnt dann lasst es doch einfach. Schwer oder?
 
nur das ich mit 2GPUS fast 0,5KW für die Grafik brauche

Das sehe ich anders.
1. Kann man auf 65nm technologie weiter machen und basteln
2. Kann man wie NVidia es auch erst gemacht hat die Tacktraten der GPU und des Speíchers runtersetzen.
3. Könnte man auch auf ne zusätzliche Wakü wie sie schon z.B. bei der Toxic Version der X1950XTX verbaut wurde für solche Karten serienmäßig umsteigen
4. Muss man ja nicht umbedingt die Dual-X2900XTX sofort auf den Markt bringen sonder kann auch mit der XT anfangen, einmal wegen des Verbrauches und wenn es bessere Kühlmöglichkeiten gibt kann man die XTX nachschieben.

MFG CiAgeBee

*Klick*
 
Zuletzt bearbeitet:
@CiAgeBee

ne dual XTX ist zu krass, wenn dann auf jeden fall taktreduziert und das nicht zu knapp (siehe NV)
aber ich denke beim momentanen kenntnisstand steht solch ein monster nicht zur debatte - vor der umstellung auf 65nm geht überhaupt nix in der richtung
über solche karten können wir vielleicht ab Q4 diskutieren

gruß klasse
 
What n dat? Ich meine, deren Einstellung ist ja mal klar - Anti-AMD und Anti-ATI, so sieht also Journalismus aus...lol?! Grünes Monster...ja sicher, die bösen AMDler.

Deren Einstellung wär wohl anders, wenn die dort anders behandelt worden wären, denkst du nicht auch? Und dauernd so PR Leute schicken, die einem total auf den Geist gehen und scheisse labern macht die nicht grad sympatischer..
 
Zuletzt bearbeitet von einem Moderator:
So schlimm wie hier einige den R600 nun vermarkten wird es bestimmt nicht werden. Amd / Ati weiss um ihre Leistung und wird in einigen Tagen den R600 komplett vorführen und alle Benchmarks der Öffentlichkeit zugänglich machen werden. Auch wenn die XT knapp an die GTX, und manchmal zwischen GTS bis GTX pendelt, wird sich damit der Preis um die 350-370 Euro rechtfertigen lassen. Die Performance wird dieser Chip erst unter 3D310 (Games wie Crysis, Timeshift, event. Call of Juarez, Cast Crause,... ) ausspielen können,- und es sind einige Besonderheiten miteingebunden, wie wirklich Vollkommene Vista Tauglichkeit, HD-Sound, HDMI, sehr gute BQ und fast kostenloses Antialiasing.
Auch sollte man den Final Treiber abwarten und nicht voreilig Schlüsse ziehen von Benchmarks des DT.
Aber genug, sind ja nur ein paar Tage, bis dahin ....
 
Die neuen AA Modi (erst mit R600 freigschaltet) und sogar bis 24 fach (wers braucht, und ob man den Unterschied merkt) sind schon feine Sachen.
Bis 12 fach AA soll es "for free" sein, vor allem zwecks des 512 Bit SI, und
den Quality Settings (AF/AA)
Am 2 Mai soll man die Katze aus dem Sack lassen und bis spätestens 14. Mai sollen die Karten bei den Händlern/ Onlineshops sein. Die HD 2900 XT zumindest, die XL weiss man noch nicht, denk aber die kommt etwas später.
Dies widerspricht jedoch ATI da man die Gesamte Palette releasen wollte.
Aber besser die bringen was als noch länger warten!:banana:
 
So schlimm wie hier einige den R600 nun vermarkten wird es bestimmt nicht werden. Amd / Ati weiss um ihre Leistung und wird in einigen Tagen den R600 komplett vorführen und alle Benchmarks der Öffentlichkeit zugänglich machen werden. Auch wenn die XT knapp an die GTX, und manchmal zwischen GTS bis GTX pendelt, wird sich damit der Preis um die 350-370 Euro rechtfertigen lassen. Die Performance wird dieser Chip erst unter 3D310 (Games wie Crysis, Timeshift, event. Call of Juarez, Cast Crause,... ) ausspielen können,- und es sind einige Besonderheiten miteingebunden, wie wirklich Vollkommene Vista Tauglichkeit, HD-Sound, HDMI, sehr gute BQ und fast kostenloses Antialiasing.
Auch sollte man den Final Treiber abwarten und nicht voreilig Schlüsse ziehen von Benchmarks des DT.
Aber genug, sind ja nur ein paar Tage, bis dahin ....

Ganz meine Meinung:d
 
Endlich mal einer, welcher meiner Meinung ist,- und nicht schon wieder angegriffen werde. Nichts für Ungut,- ist aber so.
Aber Back to Topic, wollte dies nur mal schnell loswerden.
Hoffe es wendet sich alles zum Guten,- Anzeichen kommen bald!
 
Das BQ ist doch bei den R580er gut sowie bei der G80, also viel besser wirds net und irgendwann sind wir dann mal am ende des sichtbaren.

Wenns in etwa so wie beim G80 ausfällt isses doch jut.

Sind eigentlich alle Hersteller Anfangs gezwungen den ATi Stockkühler zu verbauen oder kann man von Sapphire o.ä. schon eigene Kreationen erwarten? Bin zwar nicht davon überzeugt(bezogen auf vergangene Modelle) aber vll. schafft ATi ja auch so ein glanzstück von Stockkühler wie beim G80.

Der Preiskampf soll endlich losgehen und am besten auch bei den Mobilen Lösungen nicht halt machen!
 
@ Bemme: das schaffen die mit Sicherheit... Stichwort - ca. 600 Gramm schwerer Vollkupfer Kühler.. Der wohl, wie hier der k4ktus schon mal geschätzt hat, von den reinen Rohstoffkosten mit sicherheit ca. 10-25% der Produktionskosten der Karte ausmacht..

Naja.. immer wieder lächerlich Berni_ATIs fantasievollen Vorstellungen hier lesen zu können. Vor allem immer wieder dieses hirnlose "AMD/ATI wissen um ihre Leistung..", klar wissen die das, aber das macht den R600 nicht automatisch schneller..

Ich glaub der kauft sich selber den schrott am meisten ab und kann dann besser schlafen. Echt komicsher VOgel der Typ, das mit der "wirklich Vollkommene Vista Tauglichkeit" kann nur Argumentation eines sehr verzweifelten fanboys sein.. :haha:
 
1. Erst wenn es offizielle Benchmarks gibt, die zu 100% nachvollziebar sind, kann man die Performance der X2900XT wirklich einschätzen.

2. Scheinen gewisse seltsame Vögel beim bloßen Gedanken daran zu verzweifeln, dass eine X2900XT mit 512 MB ein Paar % schneller sein könnte als eine 8800GTX.:haha: Nur so lassen sich hier einige Posts erklären.
 
Nach all dem halte ich es für möglich das der R600 speziell in Vista "mit DX10" seine stärke zeigt.

Wiederumm bis DX10 kracher kommen, is schon der G90 evtl da..
 
Finale Treiber wird es im Mom. noch nicht geben, es wird als Finale Treiber angegeben ist es aber nicht, es ist nur der weiter programierte Treiber vom Betatreiber, kurz gesagt der Beta vom Betatreiber :)

MfG
 
@ Händler: Das könnte sein... Dann wär der r600 aber imo gegenüber einer g80/g90 interessanter, weil er jetzt schon ausreichend Leistung bietet (GTS 640/GTX sind ja für die meisten Leute schon overdrived, der r600 dann also auch), man mit dem r600 dann aber für die ersten dx10-titel im gegensatz zum g80 nicht nachrüsten müsste. Also ich fänd' das jetzt einen Kaufgrund.

Nachteil ist: Es lässt sich ohne dx10-titel nur vermuten, nicht beweisen.. Und dx10-benchmarks gibt's auch noch net...

Was mich mal bzgl. des Stromverbrauchs interessiert: Ist es eigentlich so, dass der Chip, auch wenn die Shader in dx9 nicht ausgelastet werden, und einige Features beim spielen ebenfalls nicht benötigt werden, trotzdem den vollen Stromverbrauch hat? Kann ich mir eigentlich nicht vorstellen...

OK, er wird sicher ähnlich hoch liegen, wird ja nicht 'runtergetaktet oder teilabgeschaltet oder ähnliches, aber er erreicht doch auch nicht die theoretischen höchstwerte...

Insofern bin ich auch gespannt auf realistische tests bzgl. stromverbrauch...

Noch ein Gedanke: Können die möglicherweise nicht genutzten unified-shader-einheiten auch für physik-berechnungen genutzt werden? Müsste doch "nur" im Treiber implementiert werden, oder? Oder geht das schon so bzw. ist das eh schon geplant?

In jedem Fall stelle ich mir vor, dass die 16 ROPs evtl. die max. Framerate begrenzen, aber reserven in geometrie und shaderberechnungen (z.B. aufwendige beleuchtung usw.) dafür sorgen, dass die ROPs jedenfalls nicht auf die shader warten müssen und so dauerhaft (also vor allem im min fps-bereich auch) ausgelastet werden können.

In diesem Zusammenhang eine Frage z.B. an Nakai: Wie verhält sich das.... Ist die Leistung der ROPs auch von irgendwas abhängig (z.B. overdraw), oder ist das render-backend (ich denke das sind die ROPs), wenn man ihm genug futter gibt, immer gleich schnell (max. pixel-füllrate)?
 
Zuletzt bearbeitet:
Radeon HD 2900 XT besser als erwartet

Die Vorab-Benchmark-Ergebnisse bescheinigen der neuen Radeon HD 2900 XT ein vernichtendes Urteil.
Dort rangiert sie gerade einmal auf gleicher Höhe mit einer GeForce 8800 GTS, doch weit abseits einer GTX. Dabei sollte man aber bedenken, dass hier überwiegend im aktuell noch gebräuchlichen DX9 getestet wird. Ändert man die Disziplin und lässt zur Abwechslung auch mal ein DX10 Spiel zu Wort kommen, dann zeigt sich eine überraschende Kehrtwende.

http://www.bilgiustam.com/?p=125

Naja doch schon was Älter und warscheinlich schon mal geposted wurden datum nicht gesehen.
 
Zuletzt bearbeitet:
Ich finde man muss aber auch die Vorteile der G80 sehen die sich wie schon die G70 doch sehr gut übertackten lassen!? ATI/AMD könnte das in der Vergangenheit nicht von sich behaupten, da die Karten an sich schon extrem heiß wurden und was den performance Zuwachs angeht kann man da meiner Meinung auch nicht vom Spitzenwerten reden.
Mickrige 500Punkte mehr für 100Core/200Speicher MHZ mehr. Also erlich das könnte man auch mit CPU overclocking (wobei die CPU auch limitiert haben könnte) machen. Obs in Spielen was bringt weiß ich nicht glaube aber das das ähnlich aussieht.
Ein nachteil ist natürlich das es noch keine gescheiten Treiber gibt aber das macht auch nicht mehr so viel hin.

MFG CiAgeBee
 
Zuletzt bearbeitet:
Der G80 ist kein schlechter, sondern ein sehr guter Grafikchip, das steht hier in keinster Weise in der Debatte. Es geht nicht darum, welcher Chip besser ist, sondern wie der r600 wird/ist/sich verhält...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh