ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Am 18. Oktober sollen wohl die Specs der Presse mitgeteilt werden und im November soll auf irgendeiner LAN der G80 offiziell gelauncht werden.
Hinzugefügter Post:


Denke nicht. Die 8800 Karten werden so ab 600 € kosten und die 7950 GX2 bleibt so auf 500 € niveau.

die gx2 sind eh schon eol, werden also keine neuen mehr hergestellt, nur noch restverkauf, die werden bald vom markt verschwunden sein.
 
So gut wie in Stein gemeißelt dürfte aber sein, dass zu dem R600er launch ein Refresh des G80 kommen wird - Das sieht man ja schon alleine an der Namensgebung des G80 (8800 xx) Februar/März dürften dann die 8900 xx folgen...

Ich bin wirklich sehr gespannt auf die ersten Benches der G80 und den ersten benches unter Vista mit G80 und R600.

Mal so nebenbei, ATI hat doch schon die unified shader Technologie bei der X-Box 360 angewendet - meint ihr das sich daraus schliessen lassen kann das ATI mehr "Ahnung" bzw. "Erfahrung" auf diesem Sektor hat als nVidia?!
 
zumindestens haben sie den vorteil das sie schon ein grafikchip produzieren mit einer unified shader architektur ;)

glaub aber das nvidia sich da aber auch nicht lumpen lässt... wie schauts den mit dem RSX der ps3 aus?. wüsste gern ob nv dort auch schon die usa benutzt oder eher auf herkömmliche mittel setzt
 
Mal so nebenbei, ATI hat doch schon die unified shader Technologie bei der X-Box 360 angewendet - meint ihr das sich daraus schliessen lassen kann das ATI mehr "Ahnung" bzw. "Erfahrung" auf diesem Sektor hat als nVidia?!

ich denke nicht, dass ATI mehr Ahnung von USA hat. Nvidia wollte/konnte in seinem G80-Chip noch keine direkten USA einbauen, weil bei den 90nm-Chips die Transistormenge so hoch wäre, das der Energiebedarf und damit die Wärmeabgabe zu hoch wären. ATI sieht das wohl anders, vlt. kommt der R600 ja auch in 80nm oder gar 65nm??

Noch bis Mittwoch, dann sind wir wohl schlauer, was den G80 angeht.
 
laut
soll der r600 ne ecke schneller sein als der g80.
von der chip grösse her , soll aber nvidia den grösten chip bauen.
ich hoffe das die beiden recht nah zusammen liegen, damit sich nicht alle ärgern müssen die jetzt zum g80 greifen.währe auch schlecht für den markt wenn einer zu dominat wär.
 
Denkt ihr etwa alle, dass wir am Mittwoch schon alle specs bekommen? Ich glaube das wohl eher nicht. Auch wenn ich sie sehnlichst erhoffe. Aber was bringt es eig die ganzen specs zu kennen? ICh glaube nicht, dass man so schon die Leistung hinreichend genug bestimmen kann.
 
ich hoffe mal das die beiden Karten sich nicht als kleine Heizkraftwerke entpuppen werden, hoffe desweiteren das sie nicht grade stromschlucker sind...aber das ist wohl nur wunsch denken..

sind das dann scho dx10 karten ?
 
Skeptisch wurde ich, als ich hörte, dass der G80 keine US besitzt. Ich warte erst noch den R600 ab, bevor ich mich entscheide...
 
wer sagt, daß der G80 keine USA besitzt?? Hardwaremäßig sicherlich nicht, aber wenn die früheren Äußerungen Nvidia´s stimmen, dann werden sie die USA über ihre Treiber generieren und die V+P-Shader dazu benutzen, wie das dann Leistungs- und Grafikmäßig aussieht, lassen wir uns überraschen.
 
ich nehme mal nicht an das ihr mit USA das Land USA meint ;) könnte mich jemand bitte aufklären was USA in Verbindung mit ner Graka bedeutet ;) ?

@_jan_

thx
 
das ist die Unified Shader Architektur. Inwiefern das an performance beim G80 kostet, weil es nur softwaremässig ist... Keine Ahnung, hört sich aber im ersten Augenblick nicht gut an.
 
Zuletzt bearbeitet:
Seitdem ich meinen X2 auf 3,0 Ghz und eine 7900GTX verbaut habe, geht mein Netzteil unter Volllast in die Knie. Es ist ein bequiet 520W mit 32A auf der 12V Schiene. Everest zeigt unter Vollast 11,74V an - gelegentlich bleibt mein Sys stocken für einige Sekunden, geht dann weiter oder es schmiert aber ab.

Wenn ein 520W Netzteil nicht mal für nen X2 + 7900GTX ausreicht, was benötigt dann erst der G80 oder gar der R600.

Die Netzteilhersteller wirds freuen, endlich einige schlagkräftige Argumente für die >700W-Modelle.

Ich finds aber einfach nur ärgerlich, 110€ für ein Netzteil ausgegeben, das keine 12 Monate hält^^
 
Seitdem ich meinen X2 auf 3,0 Ghz und eine 7900GTX verbaut habe, geht mein Netzteil unter Volllast in die Knie. Es ist ein bequiet 520W mit 32A auf der 12V Schiene. Everest zeigt unter Vollast 11,74V an - gelegentlich bleibt mein Sys stocken für einige Sekunden, geht dann weiter oder es schmiert aber ab.

Wenn ein 520W Netzteil nicht mal für nen X2 + 7900GTX ausreicht, was benötigt dann erst der G80 oder gar der R600.

Die Netzteilhersteller wirds freuen, endlich einige schlagkräftige Argumente für die >700W-Modelle.

Ich finds aber einfach nur ärgerlich, 110€ für ein Netzteil ausgegeben, das keine 12 Monate hält^^

Schwachsinn, dein NT muss kaputt sein.

- Asus P5W DH Deluxe
- C2D E6600 (2400MHz@ 1,08v, 3600MHz@ 1,48v)
- XFX 7800GTX 512MB (2D > 225/1200, 3D > 600/1800)
- 2GB Ram, G.Skill 800MHz@ 2,15v 4-4-4-8
- 5 HDD´s
- 2 optische Laufwerke
- Wakü
- 2 Kaltlichtkathoden
- 7 Lüfter + Lüftersteuerung
- Tastaur/Maus

[...]

Vollast: 334 - 356W

Dein X2 zieht weniger als der C2D und deine 7900GTX ist auch sparsamer.
 
Zuletzt bearbeitet:
Dann teste mal bitte folgendes:

Starte ATI Tool, 3D View
und starte parallel BOINC Manager, oder alternativ prime mit beiden cores.
Was zeigt dann Everest bei 12V an?

Müsste bestimmt in die Knie gehen, oder?

Greetz
max
 
Nein, bestimmt nicht. Der Fehler bei dir liegt wo anders oder dein NT ist kaputt, ein 520W Marken-NT reicht locker für einen X2 + 7900GTX aus. Da würde sogar ein 350W Marken-NT fast reichen.
 
Zuletzt bearbeitet:
Ok thx, schreibe gerade ne mail an den bequiet support. mal schauen was die antworten werden.
 
Schwachsinn, dein NT muss kaputt sein.



Dein X2 zieht weniger als der C2D und deine 7900GTX ist auch sparsamer.

http://******************/prozessor...nahme-einfluss-von-vcore-takt-auslastung.html <<< coole quelle! ;) würd mich mal interessieren, welcher link dahinter steckt.

€: mein be quiet 470w bricht auf der 12v leitung auch ein bei graka oc, habe aber ne x1900xt... x2@2900mhz
€2: das heißt allerdings nicht dass mein system dadurch instabil wird, also nicht falsch verstehen! ;)
 
Zuletzt bearbeitet:
Skeptisch wurde ich, als ich hörte, dass der G80 keine US besitzt. Ich warte erst noch den R600 ab, bevor ich mich entscheide...

US sind nicht zwingend nötig um DX10 darzustellen und bieten auch nicht unbedingt einen vorteil (mehr tranistoren)
aber warte ruig noch ein viertel jahr ;)
 
Naja ich würde wirklich warten bis alles draußen ist. DX10 wird jetzt zwar auch dann von XP unterstützt, aber man muss ja beide Karten erst vergleichen.

mfg Nakai
 
Naja ich würde wirklich warten bis alles draußen ist. DX10 wird jetzt zwar auch dann von XP unterstützt, aber man muss ja beide Karten erst vergleichen.

mfg Nakai

es gibt auch leute die nicht genug leistung bei dx9 mit den jetzigen karten haben,
wieso sollten diese leute dann noch ein viertel jahr länger warten ?
:wink:
du kannst ruig warten ich weiss was ich mir zu lege
 
Vielleicht doch.

Dazu schau mal hier: klick mich
 
Es gab aber heute eine MEldung, dass DX9.0L für geben wird. Und das is so weit ich weiß DX10 für XP.
 
Glaubt ihr das es von dem G80 auch nochmal eine abgespeckte AGP-Version geben wird?
So wie für die GeForce 7 Reihe zur seiner Zeit die 7800GS?
 
Zuletzt bearbeitet:
Sollten sich die Gerüchte zur Stromaufnahme bestätigen, kannst du eine AGP (nicht AGB) Version vergessen.

Im Grunde würd ich es eh vergessen, da AGP für den High-End-Bereich schon lange gestorben ist.
 
Sollten sich die Gerüchte zur Stromaufnahme bestätigen, kannst du eine AGP (nicht AGB) Version vergessen.

Im Grunde würd ich es eh vergessen, da AGP für den High-End-Bereich schon lange gestorben ist.
@ avendexx:

Haste Recht, deshalb bin ich schon letztes Jahr auf den PCI-EX Zug aufgesprungen.

Die Frage bezog auf die vielen User die noch mit AGP unterwegs sind!
Die werden ja jetzt dann spätestens gezwungen ihr SYS. umzurüsten?!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh