ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Ist doch völlig Wurst! Die 8800 zerreist ALLES! Wahnsinns Bärenkarte. Die neue von ATI kann ruhig schneller sein, ne hochgeblasene 8800 folgt sowieso.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
irgendwie scheint mir hier der G80 überbewertet zu werden...
der sprung von G7x / R5x0 auf G80 ist jetzt nicht so groß wie der von NV3x auf NV4x...

aaaaber back to topic:
@wombat: die quelle deines zitats scheint sich sicher zu sein, dass der R600 taktdomains haben wird... das ist ja schon mal fraglich...

ok, ich denke, AMD/ATi wird uns mit dem release des R600 ein bisschen überraschen, aber taktdomains kann ich mir bei denen irgendwie nicht vorstellen

und 2 GHz für die shader klingen für mich extremst unrealistisch...
 
Ehm quasi doch! Oft auch mit vollem AA und AF bei hohen Auflösungen schneller als ne 7900GTX oder ne XTX im CF oder SLI Betrieb....dazu brauch ich nix zu sagen? Gabs so noch nie....
 
Quellenangabe bitte ...

wouldn't necessarily be that expensive

:lol:

das wären mindestens 33% höhere Kosten vergliechen zur GTX wenn sie den gleichen GDDR3 nehmen, bei GDDR4 wird es eher richtung 40%+ gehen -> Alleine für die blanken Chips !



@Takt -

Hat ATI überhaupt jemals Taktdomains benztzt bisher ?
 
Zuletzt bearbeitet:
Was epY gefragt hat, kann da keiner was zu sagen? Ich frag mich auch gerade, was Vec3 / Vec4 eigtl genau heißt und komm auf keine sinnvolle Antwort...

es wird unterschieden zwischen skalaren alus und vector alus. skalar alus sind ganze einfache alus (die hat zB g80), vector alus sind komplexere alus die theoretisch mehr leisten können, aber den nachteil haben je höher die theoretische leistung einer einzelnen alu ist, umso schwieriger ist es diese dann auch komplett auszulasten.so ist THEORETISCH eine vec4-alu 4x so leistungsfähig wie eine skalar-alu, was in der praxis aber selten bis nie der fall sein wird. zudem brauchen vektor-alus mehr transistoren als skalare einheiten. es hängt dann also von der designentscheidung ab ob man viele kleine alus einbaut (g80) oder weniger, dafür fettere alus (wie wohl beim r600).

habs mal versucht ganz simpel zu umschreiben, wenn jetzt gleich so ein grafikkarten guru das liest haut der mir das wahrscheinlich um die ohren ^^


@Takt -

Hat ATI überhaupt jemals Taktdomains benztzt bisher ?

bis jetzt nicht, aber das muss ja nichts heißen.
 
Zuletzt bearbeitet:
es wird unterschieden zwischen skalaren alus und vector alus. skalar alus sind ganze einfache alus (die hat zB g80), vector alus sind komplexere alus die theoretisch mehr leisten können, aber den nachteil haben je höher die theoretische leistung einer einzelnen alu ist, umso schwieriger ist es diese dann auch komplett auszulasten. zudem brauchen vektor-alus mehr transistoren als skalare einheiten. es hängt dann also von der designentscheidung ab ob man viele kleine alus einbaut (g80) oder weniger, dafür fettere alus (wie wohl beim r600).

habs mal versucht ganz simpel zu umschreiben, wenn jetzt gleich so ein grafikkarten guru das liest haut der mir das wahrscheinlich um die ohren ^^
werd hier keinen beschimpfen, hast du gut gemacht mit dem vereinfachen!

nun eine etwas andere Erklärung auf die Frage was der Unterschied zwischen Vec3 und Vec4 ist:

Zunächst einmal sollte man wissen dass bestimmte Bereiche in der GPU in einer bestimmten Weise angesprochen werden, d.h. in ihrer Sprache. Die für den Bereich der Shaders ist es die OpenGL Shading Language oder GLSL. Diese Sprache ermöglicht einem bzw. dem Programmierer, Effekte wie zum Beispiel
Schatten, Environment Mapping, Per-Pixel Lighting, Bump Mapping, Parallax Bump Mapping, HDR ....usw zu erzeugen. Sicherlich ist es auch möglich diese mini-programme oder Befehle bzw. Shaders auch in "assembly style" zu entwickeln. Jedoch wird dies aufgrund der immer größer werdenden Komplexität der Beleuchtungsmöglichkeiten bzw. die der assembly shader sehr aufwendig. Deswegen nutzt man häufiger die sog. GLSL, eine "Sprache" mit der man auf der C/C++ Basis shaders entwickeln kann. Als nächstes sollte man auch im Hinterkopf haben, dass es 2 verschiedene Arten von Shadern in GLSL gibt, einmal die Vertex und dann die Fragment shader. Auf beide möchte ich jetzt nicht detailliert eingehen (einige werden wissen warum).
Ihr habt sicherlich schon mal gesehen wie teile eines solchen shaders aussehen, reine Mathemathik bzw. Vektorrechnung. Jetzt kann man schon fast erahnen,dass es bestimmte Möglichkeiten geben wird diese Shader bereiche anzusprechen: und zwar mit float, init, bool und sampler!
vec2, vec3, vec4 sind dann die 2D, 3D and 4D fließkomma vektoren, die anderen integer und boolean

und nun mal ein bisschen detaillierter, warum überhaupt ein Vektor mit 4 dimensionen:

Vec3 ist ein 3-dimensionaler vektor, Vec4 ist ein 4-dimensionales Equivalent. Wenn man von Vec3 zu Vec4 transformiert, dann wird einfach nur ein w feld hinzugefügt, zurück transformiert von Vec4 zu Vec3 wird aus (X,Y,Z,W) --> (X/W, Y/W, Z/W). So hat man dann seine Positionen, die allerdings noch etwas verrechnet werden müssen!
 
@Wombat: Es wird 4:1 sein!
Sei dir mal sicher.
Wenn es dann noch ein Zwischending vom R500 und dem R5x0 wird, könnten es auch nur 12 ROPs sein.
Falls es ein 3:1 Verhältnis wird, wären es 16 ROPs aber dafür 32 TMUs, das denke ich eher nicht.

Ach ja die Quelle ist B3D^^

Ich kann nur sagen, das der R600 schwächer aussieht als er ist. Wenigstens wird er ein super Registermanagement haben.

das wären mindestens 33% höhere Kosten vergliechen zur GTX wenn sie den gleichen GDDR3 nehmen, bei GDDR4 wird es eher richtung 40%+ gehen -> Alleine für die blanken Chips !

Was im Highend nicht gerade interessiert...
ATI haut einen Monsterchip raus, weil es der letzte ist den sie selber fabrizieren können...

mfg Nakai
 
irgendwie scheint mir hier der G80 überbewertet zu werden...
der sprung von G7x / R5x0 auf G80 ist jetzt nicht so groß wie der von NV3x auf NV4x...

aaaaber back to topic:
@wombat: die quelle deines zitats scheint sich sicher zu sein, dass der R600 taktdomains haben wird... das ist ja schon mal fraglich...

ok, ich denke, AMD/ATi wird uns mit dem release des R600 ein bisschen überraschen, aber taktdomains kann ich mir bei denen irgendwie nicht vorstellen

und 2 GHz für die shader klingen für mich extremst unrealistisch...

Stimmt hier wird die G80 voll hochgepusht, werden von einigen vergöttert....diese Freaks........naja.

Finde auch vor allem die Leistung der 8800GTS als nicht zu toll, da bei einigen Spiele sogar die 1950XTX drankommt und die Nase vorn hat.

LOl und wer mit dem Argument kommt, die 8800GTS kann komplett DX10 unterstützen, da lach ich ihn aus.
Bis die Spiele rauskommen ist die 8800GTS ne absolut lahme Schnecke....
 
Sagt jeder mit gesundem Menschenverstand und der sich nicht hat betäuben und mitziehen lassen von der Vergötterung der G80...
 
Finde auch vor allem die Leistung der 8800GTS als nicht zu toll, da bei einigen Spiele sogar die 1950XTX drankommt und die Nase vorn hat.

Fragt sich nur ob die benches der ATi mit normalem (schlechten) WA-AF oder mit HQ-AF gemacht wurden ... ich tippe auf WA-AF. Die G80 hat jedenfalls das gute AF per default eingestellt ...



Inq :

http://uk.theinquirer.net/?article=36403

Alle Jahre wieder : Externes Gehäuse für GraKa ?

Maybe it is just a rumour. Or it could just be a bit of R&D that's going to be ditched or shrunk. But maybe, just maybe, this time it's for real.

Ich fänd das jedenfalls cool :xmas:
Hinzugefügter Post:
Der letzte Chip von Ati wird alles in denn Schatten stellen.;)
ja, für ca 3 Monate bis nV sein refresh launched ... und XFX hat ja seit kurzem die übertaktete XXX Serie am Start.
Hinzugefügter Post:
Was im Highend nicht gerade interessiert...

mfg Nakai

Das ist Unsinn - es gibt nur wenige Freaks die egal was zahlen um das schnellste zu haben - viele wollen nicht viel mehr als 500 ausgeben wie man es z.B. im 8800GTX thread sehen kann. Wenn die R600 in allen belangen teurer ist wird sich das auch entsprechend im Preis niederschlagen - bzw. in der Preisdifferenz da nV die G80er rechtzeitig billiger machen kann ...
 
Zuletzt bearbeitet:
Das ist Unsinn - es gibt nur wenige Freaks die egal was zahlen um das schnellste zu haben - viele wollen nicht viel mehr als 500 ausgeben wie man es z.B. im 8800GTX thread sehen kann. Wenn die R600 in allen belangen teurer ist wird sich das auch entsprechend im Preis niederschlagen - bzw. in der Preisdifferenz da nV die G80er rechtzeitig billiger machen kann ...


Und? Highend ist Prestige, hauptsache man kann einen guten Ruf einkassieren.
Natürlich kann man einen Chip nicht zu teuer machen, dann wird er natürlich nicht gekauft. Wobei ich 599€ oder höher für realistisch halte.


mfg Nakai
 
X2800 XTX = Dragons Head
X2800 XT = Cats Eye
X2800 XL = UFO

Die X2800 XL wird beschnitten sein, XTX und XT werden sich nur in den Taktraten unterscheiden, dies aber deutlich (z.B. 700MHz vs 1000MHz).


@Nakai: Ich denke daß es mehr als 16 ROPs werden, 32 klingen ganz gut :)
 
Zuletzt bearbeitet:
Hört sich doch gut an!
Will umbedingt wieder ne Ati haben ... diese schrotte von 7800 kotzt mich mit der schei** bildqualität einfach nur an!
 
Da sagste was, mir völlig Latte wie schnell die NVidia's in Benches sind, da in echten spielen stellenweise kaum merkbare Unterschiede da sind im Gegensatz zu den Benches, aber in pucto Bildqualität liegt Ati definitiv weit weit vor den NVidia's, und da sollten sie auch mal was dran machen, anstatt immer nur schneller zu laufen oder weiter zu springen.
 
als ne Ati???
Woher hast Du denn die Info???
Jetzt sag bitte nicht von einem der von Ati auf NVidia umgestiegen ist, denn der muss ja sagen das die Bildquali besser ist weil man sich ja sonst fragen könnte wofür der Herr 630€ ausgegeben hat....

hmm vielleicht für Mr.Benchie 07 zu werden, könnte ja sein.
 
qujck schrieb:
Da sagste was, mir völlig Latte wie schnell die NVidia's in Benches sind, da in echten spielen stellenweise kaum merkbare Unterschiede da sind im Gegensatz zu den Benches, aber in pucto Bildqualität liegt Ati definitiv weit weit vor den NVidia's, und da sollten sie auch mal was dran machen, anstatt immer nur schneller zu laufen oder weiter zu springen.

ich glaub, da ist ein bisschen was an dir vorbeigegangen, so wie es aussieht!

Bei der Bildqualität hat sich mit dem G80 einiges getan.

lese dir das Bitte erstmal durch, bevor du so einen Schwachsinn daher redest

http://www.computerbase.de/artikel/...a_geforce_8800_gtx/6/#abschnitt_bildqualitaet
 
Zuletzt bearbeitet:
Naja, R580 HQ-AF ist mit dem G80 AF vergleichbar. Und auch das R580 6x AA hält mit dem G80 ziemlich gut mit.
 
Stimmt hier wird die G80 voll hochgepusht, werden von einigen vergöttert....diese Freaks........naja.

Finde auch vor allem die Leistung der 8800GTS als nicht zu toll, da bei einigen Spiele sogar die 1950XTX drankommt und die Nase vorn hat.

LOl und wer mit dem Argument kommt, die 8800GTS kann komplett DX10 unterstützen, da lach ich ihn aus.
Bis die Spiele rauskommen ist die 8800GTS ne absolut lahme Schnecke....

Die 8800 GTS lässt sich halt gut Ocen und dann zeigt sie auch ihr wahres Potential, wo selbst die X1950XXT nicht mehr rankommt.

hier mal meine Ergebnisse:
3D-Mark06: http://service.futuremark.com/compare?3dm06=699993
3D-Mark01: http://service.futuremark.com/compare?2k1=9101912

Aquamark:
 
Zuletzt bearbeitet:
w0mbat schrieb:
Naja, R580 HQ-AF ist mit dem G80 AF vergleichbar. Und auch das R580 6x AA hält mit dem G80 ziemlich gut mit.

jep stimmt, jedoch ist es nicht so, dass immernoch so eine "Flackershow" vorherrscht wie es beim G70/G71 der Fall war!

nVidia hat in dem Bereich sehr gut aufgeholt! Das Bild ist wirklich merkbar schöner!
 
Das G80-Bild ist 1a. Verbesserungen sind da nurnoch im Detail möglich, was man aber über ATi in ähnlicher Weise sagen kann, wenn man die HQ-Einstellungen zum Vergleich heranzieht.
Aber dann zieht eine G80-Karte den R580+ in puncto Performance über den Tisch.
=> Her mit der X2800!
 
Ich hau mir schon die ganze Zeit auf die Finger, das ich mir bloß keine GF8800ér hol. Warte sehnsüchtig auf den R600. Weil auch wenn der R600 auch nur gleichschnell mit dem G80 sein sollte, so ist´s meine CF-Option die mir Recht gibt. In Sachen Bild-Quali konnt NV ja auch nur Nachziehen :hmm:


Greetz
 
jep stimmt, jedoch ist es nicht so, dass immernoch so eine "Flackershow" vorherrscht wie es beim G70/G71 der Fall war!

nVidia hat in dem Bereich sehr gut aufgeholt! Das Bild ist wirklich merkbar schöner!


bevor du sagts ich würde schwachsinn labern, widersprech Dir mal nicht selbst, erst ist NVidia besser dann hat NVidia gut aufgeholt.

Schau Dir einfach mal beide Karten alleine unter 2D Betrieb nebeeinander an, und dann rede weiter.

Nicht direkt aggro angreifen nur weil einer etwas sagt was nicht in nem Computerbasebericht gesagt wird.

Immer locker bleiben.
 
Ich seh den Widerspruch zwischen "aufgeholt haben" und "besser sein" nicht, aber vll. bist du mir ja einfach nur zu schlau. ;)
Und ich wundere mich weiter, auf welcher Basis du hier Dinge feststellst, die die gesammelten Hardwareredakteure dieser Welt in ihren 8800er-Tests nicht festgestellt haben.
 
du schreibst
qujk schrieb:
in pucto Bildqualität liegt Ati definitiv weit weit vor den NVidia's

Sorry aber das ist schlicht und einfach falsch! Diese Aussage zeugt doch von deiner Unwissenheit was den G80 angeht!

mit "Aufgeholt" meine ich ja auch gleichgezogen und dann in überholt!^^ :d


Ich bin sehr zufrieden mit meiner GTX und mich würde es freuen, wenn der R600 richtig abgeht und nVidia wieder was ordentliches nachlegen muss!
Wir alle sind doch dafür, dass die Technik weiter vorranschreitet.

nix für ungut
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh