ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
das weiß keiner aber ich kann mit sicherheit sagen: es wird ein kühler draufgebaut, der das ding kühlen kann, soviel steht mal fest, das kann ich mit sicherheit sagen, weil es schon immer so war ;) aber mehr transis muss nicht immer bedeuten, dass es mehr strom frisst, das ist immerhin kein chip nach dem intel-prinzip!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
inquirer hat angenommen das die unified shader einen höheren transistor count verursachen, deshalb kann es sein das der r600 mehr haben wird.

der G70 hat nicht mal 300 Millionen transistoren, die zusätzlichen shader und pipes, noch ein paar transistoren für neue und verbeserte features...könnten 400Millionen sein oder 450...

das sie US 150 millionen mehr brauchen bezweifele ich sehr.
 
Nemesys schrieb:
zum glück gibts keine sicheren quellen, mehr transistoren bedeutet mehr befehle in einem laboratorischen zeitraum :eek: nv-fanboy ;)
lol jetzt werd ich als fanboy beschimpft weil ich das wieder gebe was in der pcgh beschrieben ist, ich tipp euch den text einfach mal ab dammit ihr mich nicht beschuldigt !!!


ATI/Nvidia: Von transistoren und Architekturen

erst kleiner artikel warum D3D10 so viel leistung brauch und dann...


Ati will dem problem mit Unified shadern zu leibe rücken. diese recheneinheiten verstehen sich auf sämtliche funktionen, welche in der vertex, geometry und pixel shader stufe benötigt werden. Nvidia sieht die zeit für eine solche verienheitlichung noch nicht gekommen und will ledeglich die Vertex einheiten so weit aufbohren, dass diese die funktionalität der Geometry.shader stufe übernehmen können.

Zusätzlich soll sowohl bei ATI als auch bei nvidia die anzahl der funktionseinheiten steigern. ATI wird aktuell mit 64 unified shadern einheiten gehandelt, bei nvidia vermuten wird 16 vertex geometry shader und 32 pixel shader einheiten zu je zwei ALUs - im pixelteil also ebenfalls 64 einheiten. über die anzahl der Textur einheiten kann nur spekuliert werden: ATI hat due möglichkeit, deren anzahl nahezu beliebig festzulegen, und könnte so von den bisherigen 16 eventuell auf 24 oder gar 32 TMU,s skalieren - GDDR4 speicher mit mehr als einem Gigahrtz takt würde die nötige bandbreite liefern, um mehr als 16 TMU,s auszulasten. bei nvidia sindin der bisherigen render pipeline die TMU,s stärker an die ALUs gekoppelt. daher ist es hier eher ein 2:1 verhältniss von ALUs und TMUs (64:32) zu erwarten.

dies alles führt zu einer massiv erhöhten zahl an transistoren bei beiden Chips. eine Größenordnung von rund 500 millionen für den G80 und eher richtung 550 bis 600 Millionen für den R600 scheint realistisch.

selbst abgetippt aus der aktuellen pcgh die heute erschienen ist :)
 
lol sobald iergentwas gegen ati spricht sind alle skeptisch oder schweigen oder der quellen bringer (in dem fall ich) wird als NV fanboy beschimpft, ich will euch doch garnix :)
ich finde ja selbst das ATI die bessere firma ist, habe ja schonmal erwähnt,
Fusion ATI und AMD die besten vereinen sich :wink:
 
Night<eye> schrieb:
lol sobald iergentwas gegen ati spricht sind alle skeptisch oder schweigen oder der quellen bringer (in dem fall ich) wird als NV fanboy beschimpft, ich will euch doch garnix :)
ich finde ja selbst das ATI die bessere firma ist, habe ja schonmal erwähnt,
Fusion ATI und AMD die besten vereinen sich :wink:


was hat denn damit zu tun? du interpretierst etwas viel in gewisse aussagen...
keiner hat was in der richtung gemeint. also keine sorge....
 
cl55amg schrieb:
was hat denn damit zu tun? du interpretierst etwas viel in gewisse aussagen...
wegen mehr transistoren = Höherer strom verbauch und mehr abwärme ?
das liegt für mich auf der hand wenn ich in die vergangenheit blicke :)
 
Night<eye> schrieb:
wegen mehr transistoren = Höherer strom verbauch und mehr abwärme ?
das liegt für mich auf der hand wenn ich in die vergangenheit blicke :)


das kann so stimmen, muss aber nicht...dafür gibt es auch einige beispiele.
 
Aber man kann schon davon ausgehen, dass die Wärmeentwicklung weiter steigen wird.

Nicht zuletzt, wegen der Meldung vor ein paar Monaten, dass die neuen GPUs alle noch mehr Strom fressen werden. :fresse:

Würde aber sicherlich nicht nur mich wundern, wenn dann auf einmal der G80 doppelt so schnell ist, und nicht mehr Strom bei 90nm brauchen würde als der G70. :fresse:
 
Hö in welchem Vertigungsverfahren werden die den Produziert. Ati in 65nm oder nicht??? Warum sollen die dann wärmer werden...
 
Nemesys schrieb:
und wo soll der rest der leistung hingepflanzt werden, wenn kein platz mehr ist? in grafikkarten gibt es keine einzige kleine ecke, die nicht mikro-technologie beinhaltet

auf dem PCB ist sicher noch einiges an Platz frei, es hat ja auch mehr als 10 schichten.
 
wo steht denn, dass ATi den R600 in 65 nm produzieren wird?

ich hab bis jetzt immer nur was von 80 nm gelesen. ebenso bei nvidia
 
BMX-er Boi schrieb:
wo steht denn, dass ATi den R600 in 65 nm produzieren wird?

ich hab bis jetzt immer nur was von 80 nm gelesen. ebenso bei nvidia
Ups, hast recht der R600 wird in 80nm gefertigt. Kamm mit den K8L durcheinander :fresse:
 
Jo und bei dem Wechsel zu 80nm sparen die max.25% der Fläche ein.
Wenn jetzt noch doppelt soviel Shader drauf sitzen und zusätzliche Shaderteile für DX10 eingebaut werden müssen, wirds kann schnell mollig warm. ;)

Zudem kann es sein, dass der schnellste G80 auch noch in 90nm kommt. Aber ich denke doch, dass Nvidia schon soweit ist, mit ihrer Fertigkung, das auch 80nm bei G80 benutzt wird. Sonst wäre es echt schwer alles noch einmal zu steigern....
 
naja bin skeptisch bei nvidia
letztes jahr kahm nvidia auch erst mit 110 und ati direkt mit 90nm

vermute dass es diesesmal auch so sein wird
Nvidia mit 90nm und ati mit 80nm
aber bis GPU,s in 65nm kommen wirds noch n jahr dauern
wär natürlich eine positive überraschung für mich wenn der G80 ebenfalls in 80 nm kommt
aber bei den hitze monsternwähren wohl 65nm noch zu viel :fresse:
 
is doch latte wieviel transistoren und wieviel nm irgendwas hat,die leistung zählt die am ende raus kommt.

nv hat immer mehr schnickschnack,als erstes s3.0 usw ,und was hats gebracht...nix ....nv hat schlechtere bildquiltät und leistung unter aa/af
 
richtig
im interview mit NV sagte der sprecher das Nvidia sich sehr auf dieses problem konzentriert und versucht AA/AF zu verbessern, entweder ists marketing gerede oder der G80 wird wirklich ein hammer chip. wir dürfen gespannt sein :wink:
 
G80 und R600 sind meiner Meinung nach totaler Overkill.

Wer braucht schon 130 Frames in 'nem Spiel? 40 - 60 reichen doch vollkommen.

Crysis wird auch in Dx9 super aussehen :shake:
 
seio schrieb:
Crysis wird auch in Dx9 super aussehen :shake:
und mit ner next-gen Graka bestimmt imemr über 100fps laufen... Wer´s glaubt...
(Ein bisschen was an Bildquali vorrausgesetzt)
 
Zuletzt bearbeitet:
@ Seio
im Grafik markt gibt es kein overkill
jedenfalls nicht was leistung angeht,
selbst wenn die chips 100% schneller währen wären sie noch lange weg vom overkill ;)
um so mehr power die grafik karten um so mehr möglichkeiten haben die entwickler bessere optik und realistischere grafik zu schaffen
 
Night<eye> schrieb:
um so mehr power die grafik karten um so mehr möglichkeiten haben die entwickler bessere optik und realistischere grafik zu schaffen
Und umso mehr Qualitätsmodi kann man reinknallen. :love:

Deswegen lohnt ne vermeintlich "zu" schnelle GraKa immer mehr als ein "zu" schneller Prozessor.
Einem Prozessor kann man nicht sowas wie Kantenglättung etc zur Langeweilebekämpfung aufbrummen.
 
Es gibt halt Leute, die das beste haben wollen und keine Kompromisse ingehen wollen.

Klar sieht Crysis auch toll mit DirectX9 aus...aber der totale Flash wirds erst mit D3D10.

Jedem das seine. Zudem soll D3D10 die Spiele ja auch noch beschleunigen.
Also hat man mit Glück bei mehr Effekten dieselbe Performance wie mit DX9 Karten oder hat sogar noch ein flüssigeren Spielablauf.

Und falls der G80 auch noch 1GB Grafikspeicher hätte, wäre dies auch noch ein großer Vorteil. Soweit ich weiß, profitiert die Unreal3Engine von allen Speichergrößen, auch von 1GB.

Zudem will hier sicherlich kaum einer 120 fps haben.
Ich denke eher, die Leute knallen hohe Auflösungen und AA und AF rein.
Und wenn man noch D3D10 Effekte hat, siehts mit dem G80 schonmal bedeutend besser aus, als mit einer 7900.
 
die bild qualität spielt natürlich die größte rolle,
aber das er 1 GB speicher kommt bezweifle ich iergentwie, wenn dann eher der R600
oder es wird so sein wie bei der 6800Ultra und 7800GTX das erstmal kleine modelle raus kommen (damals mit 256mb) und später dann versionen mit 512mb also in diesem fall 1 GB,
denke eher das nvidia wieder GX2 karten baut die dann 2 x 512mb ram haben werden, mal sehen.
 
seio schrieb:
G80 und R600 sind meiner Meinung nach totaler Overkill.

Wer braucht schon 130 Frames in 'nem Spiel? 40 - 60 reichen doch vollkommen.

Crysis wird auch in Dx9 super aussehen :shake:
:hmm:
ich wär froh wenn ich in jedem spiel mit AA und AF und allen Details 40 FPS hätte....
ich glaube nicht das der G80 oder R600 das schaffen
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh