ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
ist der G80 schon ein kracher
Hmm, finde ich in einer gewissen Weise nicht, warum?!
Ich bin der Meinng, dass schon längst eine DX9 Highendkarte, egal ob nV oder ATI die Anforderungen an DX9 apps flüssig darstellen sollte, also 30fps min. Bis jetzt waren dazu min 2 Karten notwendig, um zB im 3D mark06 ein flüssigen Durchlauf darstellen zu können. Dafür sollte eigentlich eine Highendkarte langen, sollte man meinen.
Dieses scheint nun die 8800 zu schaffen, aber: es ist eine DX10 Karte. Ergo, sie schafft gerade so einen DX9 Bench sauber hinzulegen aber beim 3D mark 07 wird sie alleine auch wieder nix richten können ( Spekulation ).
Was denkt ihr darüber?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das hat nichts mit den karten zu tun, man sieht ja manchmal wie eine x1900 oder 7900gtx von einer schwachen cpu ausgebremst werden können. das die perfomance nicht reicht liegt eher an den spiele entwicklern/engines, das diese mies oder auch garnicht optimiert werden (stichwort g3 :rolleyes:) und mit
3dmark will ich erst garnicht anfangen :rolleyes:
 
Nun ja, schwache CPU würde ich jetzt bei meinem Sys nicht sagen. Wenn ich den 06 mit einem C2D@3,4Ghz benche, geht eine einzelne Graka trotzdem in die Knie.

Was die Programmierer der "freien" Spielesoftware tun ist, spezielle Funktionen der jeweiligen Hersteller bevorzugen, gerade so wie sie gesponsort werden. Wie zb in Battle Field xxxx was ja nV optimiert ist. Das ist dann aber zb nicht mehr 100% DX9 kompatibel. Sonst müßte es ja ebenfalls genauso auf ATI's laufen, und umgekehrt.
Futuremark hält sich ebenfalls strikt an die DX9 Vorgaben, da ist nur drinn was auf DX9 drauffsteht. Ich hab den Eindruck, das die beiden großen, nV und ATI, absichtlich ihre hardware bremsen, um so dem geneigten User Aufrüstoptionen zu "bieten".
Schau Dir doch bloß mal die Konsolen an, dann verstehst Du was ich meine. Denn da ruckelt nichts weil eben die Programmierer sich strickt an die Vorgaben des jeweiligen Konsolenherstellers halten müssen.
 
Du kannst Konsolen doch gar nicht mit PCs vergleichen. Die Optimierungsarbeiten bei Konsolen sind doch um ein vielfaches einfacher, als beim PC. Bei Konsolen gibt es keine 100.000 verschiedenen Konfigurationen, sondern immer nur eine.
 
Da hast Du recht, aber es gibt ja auch einige Titel die auf beidem laufen.
Ich denk da jetzt zb an Halo, ursprünglich für PC gedacht, war es das Zugpferd für die xBox. Es lief ja auch relativ gut auf einem gut bestückten PC, besonders natürlich mit den GraKa's die sich damals voll an DX9 hielten (9800er). Auf 5900er Karten ging es gerade noch so.
Gears of War ist auch durchaus lauffähig auf einem guten Games PC, die Entscheidung für release auf der xBox360 ist ja eher politisch MS bedingt.
Ich stimme aber grundsätzlich Deiner Meinung zu, da Konsolen aus einem Stück sind.
Andererseits, muß man in einen PC Titel einfach nur mehr Installationroutinen einbauen um es kompatibler zu machen. Leider macht man das kaum, eben wegen sponsoring oder mangels Zeit und Geld.
 
in der aktuellen pcgh sind ja bekanntlich jetzt schon alle daten zum g80 also vor dem release..deshalb nehme ich die ankündigung ernst das sie in der nächsten ausgabe benches zum g80 und alle daten und fakten zum R600 bringen wollen.falls nicht schon eher die "bombe" platzt
 
Das hat aber nicht wirklich was mit sponsoring etc zu tun. Natürlich performen Grakas der Sponsoring-Firmen besser mit dem Spiel (siehe HL2, Doom3 etc.) aber so einfach, wie du es dir machst ist es nun auch nicht. Mehr Installationsroutinen bringen auch nur bedinngt was. Man muss beim Proggen der Spiele viel mehr darauf eingehen, was es für verschiedene Systemkonfigurationen gibt. Und genau das endet in einer Sisyphos-Arbeit. Sprich, das ist unmöglich.

Wunderbar veranschaulicht wird dies doch immer wieder an Bugs in Spielen. Momentan recht ordentliches Beispiel ist Dark Messiah of Might and Magic. Viele beklagen sich über Abstürze oder ähnliches. 2 Patches sind deswegen momentan in Arbeit. Aber nicht jeder hat mit diesen Bugs zu kämpfen. Das hängt auch wieder mit der Systemkonfiguration zusammen. (Natürlich auch mit der Programmierung im allgemeinen).
 
Hmm, finde ich in einer gewissen Weise nicht, warum?!
Ich bin der Meinng, dass schon längst eine DX9 Highendkarte, egal ob nV oder ATI die Anforderungen an DX9 apps flüssig darstellen sollte, also 30fps min. Bis jetzt waren dazu min 2 Karten notwendig, um zB im 3D mark06 ein flüssigen Durchlauf darstellen zu können. Dafür sollte eigentlich eine Highendkarte langen, sollte man meinen.
Dieses scheint nun die 8800 zu schaffen, aber: es ist eine DX10 Karte. Ergo, sie schafft gerade so einen DX9 Bench sauber hinzulegen aber beim 3D mark 07 wird sie alleine auch wieder nix richten können ( Spekulation ).
Was denkt ihr darüber?

Deswegen kann man auch nicht so ohne weiteres sagen, das eine 6800Ultra zu langsam für SM 3.0 ist.
Man kann jede Karte mit dem ältesten Methoden in die Knie zwingen, die Frage ist, wann die Füllraten oder die Shaderleistung limitieren.
Außerdem wird es immer so sein, man braucht immer das neueste System um ein neues Spiel mit ordentlichen Frames spielen zu können.

Aber wieder Btt:
Weder R600 und G80 werden die Anforderungen gewisser Gamer sättigen können, dafür werden sie zu schwach sein.

Langsam sollten aber echt mal Infos veröffentlicht werden...irgendwie stinkt das.

mfg nakai
 
naja wenn man aber bedenkt das die karte (wahrscheinlich) erst ende januar/anfang februar vorgestellt wird braucht man eigentlich nichts zu erwarten. beim g80 kamen die infos auch erst vor ein paar wochen
 
in der aktuellen pcgh sind ja bekanntlich jetzt schon alle daten zum g80 also vor dem release..deshalb nehme ich die ankündigung ernst das sie in der nächsten ausgabe benches zum g80 und alle daten und fakten zum R600 bringen wollen.falls nicht schon eher die "bombe" platzt

Sprich PCGH liefert uns angeblich in der nächsten Ausgabe alle Daten und Fakten zum R600? Glaub ich jetzt mal gar nich, aber wenn es so drin steht.. ?
 
Sprich PCGH liefert uns angeblich in der nächsten Ausgabe alle Daten und Fakten zum R600? Glaub ich jetzt mal gar nich, aber wenn es so drin steht.. ?


fakten, nicht ALLE fakten.

großer unterschied.

das sie alle fakten bringen wollen glauben die wohl selbst nicht :d

vllt 1-2 infos.
 
Fakten sagen nur leider nichts aus, sie heizen nur wieder die Spekulationen / den Hype an - aber deshalb lieben wir dieses Forum ja alle so :d
 
unklar, bis her ist fast rein garnix bekannt :(
aber es wird vermutet im januar, den ab 30.1 soll ja vista kommen.

denke mal ATI wird die zeit noch ein wenig nutzen, aber langsam könnte es doch mal so weit sein das ein paar infos durchsickern :(
 
Infos sollten auch langsam mal kommen, denn was nVidia da vorgelegt hat, sowohl in der BQ, wie auch in der Power, muss von ATi auch erstmal erreicht werden.
 
aber ansicht kann man es schon als posetiv ansehen, das es keine tape out meldungen gab. beim R520 war ja nur 16x1 arch, aufgrund der probleme mit fertigung. der R580 hatte ja recht schnell sein tape out.

hoffen wir mal das es nicht wieder eine kastrierte version kommen wird, aber ich sehe da positiv entgegen mit dem RV570 haben sie ja schon einen guten 80nm chip abgeliefert *auf X1950pro guck* :d
 
Zuletzt bearbeitet:
hab ich im 3dcenter forum gelesen.
weiß die genaue quelle nicht mehr, aber da meinte jemand relativ sicher, dass die am 27.1.07 kommen soll...

klar, kann auch falsch sein (ist ja auch nur ein gerücht), aber da hat man immerhin ein datum auf das man sich freuen kann ;)
 
Quartal ist eben ein sehr dehnbarer Zeitraum ;)
Ich halte Mitte/Ende Januar aber für naiv. Die Produktioneschienen werden wohl erstmal für nVidia heißlaufen. Zudem ist man auf GDDR4 angewiesen.
 
Da würd ich nicht drauf wetten. ATi ist im Zugzwang, das war Nvidia nicht.
 
hmm... gegen PCIe 2.0 habe ich ja nichts, aber das lässt vermuten, dass der R600 wirklich bis zu 300 Watt ziehen kann...

hoffentlich hat der auch gute stromsparmodi...

und das soll außerdem auch gut gekühlt werden...
 
Manman, ich habs ja schon fast befürchtet:

ATis R600 setzt auf PCIe 2.0?

Wieso befürchtet? Das ist die beste Nachricht zum R600 seit langem. Kein unnötiges Kabelmanagement mehr nötig wie bei der 8800GTX. Und jetzt kommt bitte nicht und sag der R600 würde dann auch 300W verbrauchen. Schau mal die 8800GTX an: 150W PCIe + 2x 75W extern von NT = 300W. Verbraucht sie die? Nein. Also ist PCIe 2 für den R600 gut. Wenn du kein PCIe 2 hast brauchste hat wieder zwei Kabel, mit PCIe 2 eben nicht. AMD will halt PCIe konform bleiben.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh