R520 Verspätung

xxmartin schrieb:
Schonmal Reviews zum 16-Pipe X850XT-PE gelesen? Der Kühler ist ein Monster und die Karte glüht trotzdem bei 70-80°C vor sich hin. Das kommt halt davon, wenn man wie ATI auf wenig Effizienz setzt und einfach nur massiv an der Taktschraube zu drehen versucht (siehe Intel). Vergleiche mal eine 350 MHz 6800GT mit einer 500+ MHz X800 Karte ... wer hat da die bessere Pro-Takt-Leistung? Ein hochgetakteter 32-Pipe X900 würde selbst in 90nm nur so vor sich hin dampfen ... Also abwarten was da wirklich kommt und nicht an irgendwelchen Fantasien festhalten.

Dann hast du dir vielleicht die falschen reviews angesehen, oder ist das nur Fanboy Geplubbere? Die ATi verbraucht weniger Watt. Welche Karte hier glüht ist fraglich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...trotzdem wird sie bis zu 75°C warm.
 
Gurkengräber schrieb:
...trotzdem wird sie bis zu 75°C warm.

Das kann man nicht bestreiten und ist sicherlich auch richtig. Hier kommt aber der Lüfter ins Spiel. Vielleicht dreht der niedriger, aber das ist hier nicht das Thema. Meine 6800GT wird auch über 80°. Das kommt davon, dass ich den Lüfter nur mit 35% laufen habe.
 
Nee, versteh ich mich nicht falsch, ich wollte die X850 nicht schlecht machen. Aber du kannst halt niemanden als Fanboy beschimpfen wenn er sagt, dass die X850 genau so heiß wird wie NVidia Karten, trotz geringerer Verlustleistung. ATI verbaut leider beschissene Lüfter, das ist schon seit der 9700Pro so. Die Karten selbst sind aber super, das bestreite ich nicht.
 
@mirko10

die 7800GTX verbraucht weiniger watt als die 6800Ultra und ist kuhler.

die 7800GTX verbraucht ein bissel weniger watt als die x850XT PE glaub ich (unterschied ist nur gering) aber dafur ist die 7800GTX wohl ein guter schritt kuhler und schneller als die x850XT PE

vorliebe hin oder her aber es ist ein fakt das die x850xt pe wohl schneller als ein 6800Ultra ist und weniger watt verbraucht aber wohl ein bissel warmer wird.

und was xxmartin sagt stimt.
die x850 gebruacht weniger power, aber dafur wird die x850 warmer was bedeutet das die nvidia karte weniger verlust hat also effeizienter ist, was auch der grund fur die 32pipe ATi sein konte,

was du sagst das die x850 weniger strom verbraucht als die 6800ultra stimt.
aber zum gluck hat Nvidia dies mit der 7800gtx verbessert, aber ich hoffe nur das ATI ihr warme problem repariert sonst will ich nicht wissen wie der kuhler vom r520 aus sieht den der t520 wird ja noch grosser sein als die x850core.

@Gurkengräber
das wahr ja auch der grund fur viele leute so wie mich um den referenz kuhler von der 9800pro runtre zu machen und nen silencer drauf zu machen.
bester kuhler je ist ja der 5800Ultra
das ding holte sich die luft von drausen und blies die warme luft auch nach drausen, ding wahr nur so sau laut :(
 
Zuletzt bearbeitet:
Starscream schrieb:
@mirko10

die 7800GTX verbraucht weiniger watt als die 6800Ultra und ist kuhler.

die 7800GTX verbraucht ein bissel weniger watt als die x850XT PE glaub ich (unterschied ist nur gering) aber dafur ist die 7800GTX wohl ein guter schritt kuhler und schneller als die x850XT PE

vorliebe hin oder her aber es ist ein fakt das die x850xt pe wohl schneller als ein 6800Ultra ist und weniger watt verbraucht aber wohl ein bissel warmer wird.

und was xxmartin sagt stimt.
die x850 gebruacht weniger power, aber dafur wird die x850 warmer was bedeutet das die nvidia karte weniger verlust hat also effeizienter ist, was auch der grund fur die 32pipe ATi sein konte,

was du sagst das die x850 weniger strom verbraucht als die 6800ultra stimt.
aber zum gluck hat Nvidia dies mit der 7800gtx verbessert, aber ich hoffe nur das ATI ihr warme problem repariert sonst will ich nicht wissen wie der kuhler vom r520 aus sieht den der t520 wird ja noch grosser sein als die x850core.

Dann sollte man aber fair sein und bei der Wahrheit bleiben. Die XT PE verbraucht weniger. Und das die 7800 GTX jetzt so gut ist im Verbrauch, im Vergleich zur 6800 Ultra, liegt am Fertigungsprozess. 110nm anstatt 130nm.
Ati will die Karten in 90nm fertigen. Wer dann die Nase vorne hat sollte klar sein.
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=190&seite=5

@Gurkengräber: Ich dachte das war immer andersrum.
 
@mirko10

??? also folgens dir bedeutet ein kleinerer proces auch weniger stromverbrauch?

schon mahl von Intel gehort? und von AMD?
INtel ging auch uber auf ein kleineres procede auch 90nm und auf einmahl hat die kleinere Intel viel mehr stromv erbraucht und wurde viel warmer als die grossere alte INtel.

AMD ging auch nach 90nm bei denen hat es geklapt und hat die 90nm version weniger stromn verbraucht als die alte grosse CPu.

dies sol dich erklaren das den wechsel zu einen kleineren procede nicht immer komt mit einen tieferen storm verbrauch etc.
man soll nicht vergessen das TSMC vornrein gesagt hat das 90nm extrem neu ist fur grafikkarten man kan also nicht sagen wie gut die GPUs sein werden.
und das der r520 3 monate spater komt ist ja nicht weil der chip bis jetzt so sau gut ist, ATi hat sogar zu gegeben das die r520 einen respin bekomt weil die yields so schlecht waren, dies ist jetzt schon die 2e launch verschiebung fur den r520.

und der grund das die 7800 weniger strom verbraucht als die 6800 liegt nur teilweise an dem kleinere procede, das liegt auch daran das Nvidia ein team am arbeiten hatte um dafur zu sorgen das die g70 weniger strom frist.

und dazu des zu kleiner das procede des zu mehr (bin das wort vergessen) power leaks, also des zu kleiner das procede des zu scvhwieriger wird es um die power leaks im auge zu behalten.
vorallem bei einen sehr neuen procede wie 90nm.
wen ATi gluck hat kan der r520 einen bomben GPu werden ohne probleme aber wen ATI kein gluck hat wird der r520 die ersten par monate einen bomben gpu mit viel abwarme und ein hoher verbrauch.

wie es jetzt im ende sein wird kan keiner sagen.
weil 90nm ist neu, und ATI gibt nix heraus.
und am ende macht diese 2e verschiebung nicht einen sehr guten eindruck oder nicht?
 
Keine Panik auf der Titanic - das Wasser reicht für alle ...

Ich hatte micht kurz im Benchmarkthread zur GTX umgeschaut, aber was hier los ist, ist ja nicht mehr schön. Deshalb hier nochmal was zum Thema:

Also die Benchmarks von den Kollegen des 3DCenter sind ja schon sehr bezeichnend. Besonders gut finde ich die dort verwendeten Softwaretitel zum Testen - z.B. ganz ohne 3Dmurks ...
Genial ist auch die ermittelte Mehrleistung zur X850XT-PE: ganze 2-5 Prozent, bei den wohl mit High-End Karten am meisten benutzen Auflösungen/Einstellungen. Das sollte man sich mal überlegen bevor man die Jungs bei ATI völlig runter macht, weil sie jetzt noch keine neue Karte vorstellen

Gut, wenn man jetzt von einer älteren Generation oder einer 6800 (ultra) wechselt ist es OK. Wenn ich mich damals zu einer 6800er entschieden hätte würde ich wohl nun auch eine neue Grafikkarte brauchen. Dort sind es in den besagten Auflösungen/Einstellungen: satte 49-71 Prozent Mehrleistung. Das geht schon echt ab ...

Also ganz locker bleiben. In ein paar Monaten lächeln wir darüber. (Oder die Next-Gen Konsolenbesitzer über uns ... ;) )

MFG,

jpr
 
@jpr

ich habe gerade eben den review den du meinst gelesen

sorry aber der ist sehr schlecht.

die haben einen P4 3.6 gebraucht um die karte zu testen und einen p4 3.4 glaub ich.
diese CPU sind zu langsam.
desshalb haben mehrere sites (die die mittel hatten) den 7800GTX getestet mit einen AMD64 FX der auf 3.4 und mehr getaktet wahr.
die INtel CPu womit 3dcenter getestet hat sind zu langsam und halten die 7800GTX zu stark auf.
das ist der grund weil die 7800GTX nur einen kleinen power boost hat gegen der x850.

und nach die game benches gesehen zu haben kan man deutlich sehen das bei 1600x1200 es die CPu ist die die 7800GTX und ich denek auch die x850 ab bremst.

ist schon komisch zu sehen das bei 1024x786 die 7800gtx viel schneller ist als die x850 bei diesem CPU.
ich wurde mahl reviews von anatech etc anschauen die haben wirklich nur auf 1600x1200 gebenched mit nen zum ende ubertakteten CPu.

und die game tiel die 3dcenter gebraucht hat sind mehr oder weniger die standard games fur directx und opengl.
ich wurde mahl mehrere reviews lesen manche gehen mehr ein auf FPS wie anandtech und andere gehen mehr ein auf bild qualitait.
aber was 3dcenter gemacht hat ist dem 7800gtx benchen auf FPS und dies mit einemn zu langsamen CPU/
 
Zuletzt bearbeitet:
dafür ist der einsatz einer solchen cpu realistisch, denn mal ehrlich, wer kann sich schon n ee oder n fx leisten??
 
@hummelhum
stimt die wenigsten werden eine FX haben der uber die 3Ghz getaktet ist.

aber wen man ne karte testen wil gegen ihre konkurenz die 6800ultra und x850xt pe und dies in frames per sec dan finde ich das man schon sorgen sol das die CPu oderso keine al zu starke bremse vormt.

den sonst sieht man die benches und man sieht das die 7800gtx genau so schnel ist wie ne x850 obwohl es, und ohne zu wissen das die CPU die 7800GTX ziemlich stark ab bremst konte jeder dies ja glauben.

deshalb finde ich es ein schlechten review.
ja du hast recht eine FX 3Ghz+ werden die wenigsten haben aber trotzdem ein review wo man nicht viel dran hat (ausser vom teil wo die bild qualitait verglichen wird)


ps.
beyond3d bringt eigene ideen das die G70 in wirklich keit 32pipes hat aber das die 8 extra pipes aus geschaltet sind wegen schlechte yields.
http://www.beyond3d.com/#news24313

ich glaubs irgendwie nicht aber se haben ne gute geschichte.
 
@Starscream:

Die Kollegen vom 3Dcenter solltest Du nicht diskreditieren. Die Artikel sind immer sehr gut und die Threads im Forum größtenteils sehr fundiert.

Dein Nachredner hat es schon erwähnt und ich möchte das nochmal bekräftigen. Anand verwendet Auflösungen jenseits der 1600x1200 ... und das ist ist nicht so ohne weiteres auf die, im Alltag von den meisten Usern gespielten, Auflösung/Einstellungen übertragbar.

So gut wie alle verwendeten Softwaretitel laufen auf höchsten Einstellungen bei 1600*1200 mit einer X850XT-PE sehr gut und ich wollte die GTX nicht schlecht machen ganz im Gegenteil. Sie ist was sie ist:

3Dcenter:
"Faktisch gleicht nVidia hier den bisher bestehenden riesigen Abstand zwischen Radeon X850 XT-PE und GeForce 6800 Ultra nun bei der GeForce 7800 GTX mit schierer Rohpower aus ... "
 
der test von 3dc soll wohl aussagen was die meisten leute mit der karte erreichen und nicht die paar wenige mit einer brutal übertakteten cpu.
 
Außerdem kann man die X850XT nicht mitm R520 vergleichen, der R520 wird wahrscheinlich effizienter sein, da ja mehr Pipes vorhanden sind, also wird der Schritt ähnlich sein wie von der GF5 auf die GF6, mehr Pipes (mehr Effizienz) weniger Takt.
 
ich versuche ja auch nicht die leute bei 3dcenter zu diskredieteren ich sage meine meinung.

ja ihr habt recht das nur die wenigsten in 1600x1200 oder hoher spielen werden.

und ja es stimt die meisten leute werden wahrscheinlich ein system haben das ungefahr ein CPu hat wie den P4 3.6.

und ich verstehe es nicht ganz aber die quote die du gebrauchst:."Faktisch gleicht nVidia hier den bisher bestehenden riesigen Abstand zwischen Radeon X850 XT-PE und GeForce 6800 Ultra nun bei der GeForce 7800 GTX mit schierer Rohpower aus ... "
damit sagen die wen ich es deutlich verstehe das die 7800GTX den vorsprung der die x850 hatte auf der 6800 ausgleicht was nicht stimt.
Also im endeffekt ist folgens denen die 7800gtz ungefahr so schnel wie die x850? oder ist mein deutsch so schlecht?


und du jpr komst nach dem lesen von diesen review und sagst selber das der 7800GTX nur ein kleiner schrit schneller ist als einen x850.
dies wird wahrscheinlich auch das bild sein was die meisten leser haben nach dem lesen solch einen review.

anandtech sagte auch selber das die auflosungen die die gebraucht haben etwas ist was wahrscheinlich nur sehr wenige gebrauchen, die haben aber diese auflosungen gebraucht um sehr deutlich sehen zu lassen wie stark die CPUs von heute ab bremsen und auch um deutlich sehen zu lassen wie viel schneller die 7800GTX ist.

ja es stimt die auflosungne sind unrealistisch aber die probieren ja sehen zu lassen das die 7800GTX ein stuck schneller ist.
 
Naja, jedem das seine. Einigen wir uns daruf, dass die GTX besser ist als die XT-PE ;) Wieviel wird sich hoffentlich bald zeigen. Ich bin mir jedenfalls 100% sicher, dass das ATI Topmodell das nächste halbe jahr (bis zum R520) noch einen sehr guten Job macht. Auch im Vergleich zur GTX, den man ja auslegen kann wie man möchte. Nichts für ungut.

jpr

PS: Dein Deutsch ist gut :bigok:
 
@ starscream: genau das wollte ich damit sagen. es müssen benchmarks mit mehreren systemen gemacht werden.mir ist auch klar, dass sobald man nen fetten prozessor dahinter klemmt die leistung stark nach oben geht. aber der test mit dem "schwachen" prozessor zeigt mir dass ich mit meiner karte gut bedient bin und keine neue brauche, weil sie bei mir einfach keine merkbare leistungssteigerung bringen würde. aber generell find ichs schon interessant wie hoch so ne karte geht und wie der leistungsunterschied zwischen verschiedenen testsystemen ist
 
ich weis das mein deutsch schlecht ist :P
ich schreibe nicht so viel.


der grund wieso ich dem review schlecht finde ist weil nirgendwo gesagt wird das eine 7800GTX durch der CPu abgebremst wird, und am ende sogar einfach gesagt wird das eine 7800GTX genau so schnel ist als wie x850.
 
ATI hat ein paar Probleme.
Das ist klar. Nur sollten manche NV Fans nicht über den R520 mutmaßen,was vllt. sowieso nicht stimmt.Wartet doch einfach ab.Wenn sich jemand aufgrund der Verspätung des R520 die GTX kauft, dann soll er das auch tun. Nur ist ATI deswegen keinesfalls abgeschlagen.Die Benches zeigen,dass jeder ,der sich eine GTX kauft, selbst mit einem Oberklasseprozessor kaum einen Unterschied zu einer XT850xt-pe(oder 6800U) verspüren wird.Es steht in den Sternen ob der R520 sich in der Effizienz verbessert,so dass er mit einem Prozzesor, der eine GTX nicht komplett ausreizt, trotzdem schneller ist. Es ist verwunderlich was einige hier behaupten."die 32 pipes werden eh kaum was bringen" etc. bli bla blubb.ATI entwickelt schon sehr lange am R520 und nicht ohne Grund haben sie den R500 verworfen.
Ich vermute lediglich,dass der R520 schneller sein wird,und wenn er vorgestellt ist dann auch eingermaßen verfügbar.Warscheinlich wollen sie es sich nicht leisten,eine Graka rauszubringen,die im Gegensatz zur Nvidia-Karte kaum verfügbar ist.
Das würde das Image mehr schädigen,als wenn sie die Karte nur um 2-3Monate verschieben.So können sie jetzt genug Karten produzieren,die beim Launch dann in ausreichender Stückzahl vorhanden sind.

Letztendlich werden es die Spielebenchmarks entscheiden zu welcher Leistung der R520 fähig ist.Und vllt. in Auflösungen die auch im Alltag gespielt werden ;)
 
Oberteufel schrieb:
Ich vermute lediglich,dass der R520 schneller sein wird,und wenn er vorgestellt ist dann auch eingermaßen verfügbar.Warscheinlich wollen sie es sich nicht leisten,eine Graka rauszubringen,die im Gegensatz zur Nvidia-Karte kaum verfügbar ist.
Das würde das Image mehr schädigen,als wenn sie die Karte nur um 2-3Monate verschieben.So können sie jetzt genug Karten produzieren,die beim Launch dann in ausreichender Stückzahl vorhanden sind.

Letztendlich werden es die Spielebenchmarks entscheiden zu welcher Leistung der R520 fähig ist.Und vllt. in Auflösungen die auch im Alltag gespielt werden ;)

denk ich auch fast, wenn man nur probleme mit dem fertigsmodus hätte, würde das wohl eher eine längere verzögerung beseuten!
 
Oleg, wieder so sinnfreie Antworten. Wer sich jetzt schon eine von den Karten kauft ist selber Schuld. Keine dieser Karten wird auch nur im geringsten ausgereizt. Wenn jemand zuviel Geld hat, bitte schön, soll er doch. Da flieg ich lieber in Urlaub und kauf sie mir wenn sie nur mal mehr so um die 150€ - 200€ kosten :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh