ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das denke ich auch. Insofern nix Offizielles gekommen ist, halte ich diese ganze Panikmache wirklich für nen schlechtes Spiel, was alle nun gewollt oder ungewollt mitspielen.
 
Zuletzt bearbeitet:
Ich kann schon schreiben, dass es wohl Probleme mit dem GDDRIV-Speicher gibt.
 
Wir wissen weniger als nichts ... selbst das nichts das wir wissen ist bullshit :d

LOL

einfach abwarten...in 2 wochen wissen wir bestimmt mehr^^
bin sowieso der meinung, das alles, was vorher "rauskommt" mit abstand zu betrachten is...erst wenn jemand vertrauliches die getestet hat, kennen wir die wahre leistung...
 
Der 3te Weltkrieg wird ausbrechen, doch was wird der Grund sein?
Ja genau, der ewige Streit um die Grafikkarten!
 
Scheint mir aber etwa gleich auf zu sein wie die 8800 GTS
 
Zuletzt bearbeitet:
Bei der X1950 XTX gabs ja auch keine Probleme mit GDDR4... Ich mag GDDR4, ich kann ordentlich ocen und dabei noch die Timings schärfen ;)
Es kann natürlich sein, dass es Probleme mit 1024 MB gibt...
 
Zuletzt bearbeitet:
meine vermutung ist das ati leider nicht zu nv ausschliessen kann...hoffe aber das mit der nächsten genaration von beiden ein kampf entsteht und den preiskampf anfachht denn zur zeit kann nvidia die preise bestimmen...ok die preise sind schon gesunken aber am anfang waren die g80 wirklich teuer...mir ist es eigentlich egal welche marke im pc steckt hauptsache schnell und preislich ok...meine 8800 verrichtet ihren dienst gut...mal sehen was als nächstes bei mir rein kommt
 
meine vermutung ist das ati leider nicht zu nv ausschliessen kann...hoffe aber das mit der nächsten genaration von beiden ein kampf entsteht und den preiskampf anfachht denn zur zeit kann nvidia die preise bestimmen...ok die preise sind schon gesunken aber am anfang waren die g80 wirklich teuer...mir ist es eigentlich egal welche marke im pc steckt hauptsache schnell und preislich ok...meine 8800 verrichtet ihren dienst gut...mal sehen was als nächstes bei mir rein kommt

Ich würde das so generell nicht sagen wollen. So wie es ja scheint nutzen derzeitige Games/Benches die Vorteile der GPU nicht aus. Und somit ist der G80 schneller. Wenn der Trend aber in die Richtung geht, dann wird der R600 was reißen können und im Vergleich zum G80 immer mehr Leistung gewinnen.

Nakai hatte da mal vor paar Tagen hier nen aufschlussreichen Artikel gepostet.

Es wird sich wohl wieder mal erst später in mehreren Monaten entscheiden welche Karte am Ende besser da steht was zukünftige Games betrifft.

Mal sehen, ich bin noch Recht zuversichtlich und diese zuversicht wird mit Sicherheit wenn dann erst mit den ersten offiziellen Benches kippen.

Im Grunde genommen haben egal was auch passiert mit dem R600 alle G80 Besitzer nur Vorteile. Wenn der R600 floppt, bleibt die G80 Preisstabil, wenn sie richtig gut wird, können die G80 Besitzer günstig ein SLI Gespann aufbauen.
Verstehe desshalb so gar nicht warum hier sehr viele die neuen ATI Karten schlecht reden müssen!
 
Weil es leider bei manchen mit dem *denken* nicht weit her zu sein scheint :(

Sorry für OT
 
Hmm naja ich denke wir sollten einfach abwatzen bis die ersten Tests von fundierten quellen kommen und damit meine ich nicht dailytech oder the inquirer ^^.

imho werden G80 und R600 etwa gleich auf liegen. evtl kann ATI wiedermit leicht verbesserter bildqualität punten.

Also abwarten und Tee trinken ;)
 
direktx 10 karten sollte man auch mit direktx 10 Games benschen und nicht mit alten direktx 9 sachen.erst wenn die ersten direktx 10 games draußen sind wird man wissen was die r600 karten wirklich drauf haben und ob die nvidia teile dann noch so stark sein werden.zur zeit braucht kein gamer eine direkt x10 karte.ich würde es sogar besser finden wenn ati noch später kommen würde im herbst zb und dann von Anfang an die power bringt die alles wegpustet.
 
....zur zeit braucht kein gamer eine direkt x10 karte......
bitte nicht von dir auf andere schließen ;)
dx10 braucht sicher jetzt noch keiner, weil das feature noch brach liegt, aber eine G80 (in 2 wochen gilt das auch für den R600) kauft man sich vorallem wegen der power und die ist auch unter dx9 sehr gut

es gibt halt auch leute die zocken unter 1920x1200 und nicht nur unter 1280x1024
bei der auflösung kann schon 2xAA zu ruckelorgien führen (je nach spiel)

gruß klasse
 
@ killermurmel

klar und ati/amd macht solange keinen umsatz und stanzen ihre 2900xt/xtx karten ein ?

Denkst du Nvidia schläft bis herbst?

Für mich sind der r600 und G80 ungefähr mit einer 6600gt/gtx zu vergleichen .... sie können zwar dx10 sind aber lahm darin.

Erst der G90 / r700 wird die richtige dx10 performance bringen.

Diese Karten sind eher auf dx9 ausgelegt da die ersten dx10 games erst ende des jahres kommen
 
Unter DX10 solls doch imho nur "flüssgier" laufen, neue grafikeffekte gibts doch nicht..?

zitat aus der quelle von oben

nd remember, Crysis is a DX9 game with an additional DirectX 10 codepath which will only help in getting better performance (gains) for the ones with DX10 cards.

Bekommt man nun mit DX10 neue Grafikefekte oder nicht? siehe auch

http://www.pcgames.de/?article_id=577640 DX10 thema
 
Zuletzt bearbeitet:
naja das große Geld wird ja sowieso mit den Mittelklasse karten gemacht.ich kann mit meine x1950xtx alles auf hoch zogen mit 1680-1050 und wenn ich die Auflösung höher haben will kann ich auch ne zweite reinhauen.dann habe ich genug Leistung.ich würde also auch mit zwei x1950xtx karten locker reichen bis die nächste Generation kommt.aber das ganze spekulieren bringt ja sowieso gar nichts,kann ja sein
das die r600 karten doch besser sind als heute alle denken
 
Naja 2 Grafikkarten ist immer so ne Sache killermurmel. Die Performance Zuwächse merkste in manchen Games gar net. Vor allem Crossfire war zur meiner X1900 Crossfire Zeit echt übel. In jedem benchmark super performance, in games musstest manchmal sogar auf einzel schalten damit man richtig zocken konnte.

SLi ist das sicher etwas besser, wobei das auch überflüssig ist.

Für Leute die zocken wollen, lohnt sich dann lieber ne schnellere Einzelkarte.
Für Benchmarker ist das aber natürlich interessant.
 
Das größte Problem von SLI/Crossfire ist der Stromverbrauch, der in keinem Verhältnis mit der Performancesteigerung steht... Wenn ich allerdings lese, dass ne X2900 XTX 230W verbrauchen soll, dann könnte ich mir gleich ne zweite X1950 XTX kaufen... Das kommt dann ungefähr aufs gleiche heraus... Für mich aber keine Alternative...
 
Zuletzt bearbeitet:
@ killermurmel

klar und ati/amd macht solange keinen umsatz und stanzen ihre 2900xt/xtx karten ein ?

Denkst du Nvidia schläft bis herbst?

Für mich sind der r600 und G80 ungefähr mit einer 6600gt/gtx zu vergleichen .... sie können zwar dx10 sind aber lahm darin.

Erst der G90 / r700 wird die richtige dx10 performance bringen.

Diese Karten sind eher auf dx9 ausgelegt da die ersten dx10 games erst ende des jahres kommen

Junge der R600 hat die doppelte Dx 10 Performance.Gucks ins 3dcenter Forum,.:wall: Die X2900 ist für Dx 10 Spiele gedacht.Nix mit zulangsam ....:cool:
Genau deswegen werde ich auch immer Ati kaufen.:cool: Ich habe mehr von der Geschichte......:)
 
Ja, sag ich doch:
Aber der R600 ist komplett auf Crysis und UT3 programmiert und wird die G80 daher total weg0wn3n...
Außerdem soll ne XTX schneller sein, als ein GTX-SLI Gespann.
Desweiteren gibt es wohl neue Beta-Treiber, die die Leistung des R600 in Auflösungen ab 1280x1024 um min. 33% steigern sollen und im 3dmark06 die Punkte gar fast verdoppeln.

Und xptweaker... kein kommentar... obwohl, doch: Kannste mir das Wetter für Freitag sagen? Meine Kristallkugel is inner RMA (Knusegundes Krempel und Kristallkugel Keschäft braucht ewig...) und ich wollte Freitag wahrscheinlich grillen. big thx im Voraus.
 
Zuletzt bearbeitet:
Das größte Problem von SLI/Crossfire ist der Stromverbrauch, der in keinem Verhältnis mit der Performancesteigerung steht... Wenn ich allerdings lese, dass ne X2900 XTX 230W verbrauchen soll, dann könnte ich mir gleich ne zweite X1950 XTX kaufen... Das kommt dann ungefähr aufs gleiche heraus... Für mich aber keine Alternative...

Und noch mal, die Thermal Design Power Angabe hat nix mit der wirklichen Leistungsaufnahme zu tun, ...
Warum versteht das denn keiner!?
 
Und noch mal, die Thermal Design Power Angabe hat nix mit der wirklichen Leistungsaufnahme zu tun, ...
Warum versteht das denn keiner!?
Richtig. Aber von ungefähr kommen die Werte auch nicht. Ein Kühler der 230W bewältigen soll, wird mit Sicherheit nicht auf eine Karte gebaut, die 110W real verbraucht. Dafür is Kupfer mittlerweile viel zu teuer und die Ohren der Käufer viel zu empfindlich.
 
viel wichtiger ist der Idle verbauch.
 
Ich sehe, es geht wieder mal heiss her. :d Gibts jetzt eigentlich schon nen Termin?

Naja 2 Grafikkarten ist immer so ne Sache killermurmel. Die Performance Zuwächse merkste in manchen Games gar net. Vor allem Crossfire war zur meiner X1900 Crossfire Zeit echt übel. In jedem benchmark super performance, in games musstest manchmal sogar auf einzel schalten damit man richtig zocken konnte.

SLi ist das sicher etwas besser, wobei das auch überflüssig ist.

Für Leute die zocken wollen, lohnt sich dann lieber ne schnellere Einzelkarte.
Für Benchmarker ist das aber natürlich interessant.
Genau meine Meinung. :)
 
Richtig. Aber von ungefähr kommen die Werte auch nicht. Ein Kühler der 230W bewältigen soll, wird mit Sicherheit nicht auf eine Karte gebaut, die 110W real verbraucht. Dafür is Kupfer mittlerweile viel zu teuer und die Ohren der Käufer viel zu empfindlich.

Das stimmt schon, aber diese Angaben sind auch immer sehr sehr hoch angesetzt, siehe CPUs.
Viel weniger als 150W werden es nicht sein, dann hätte man einen der Stromanschlüsse wohl weglassen können.
Anders rum gesehen werden es auch wohl nicht über 200W sein, denn dann würde die Stromversorgung (bei 2x6Pin PCIe Stecker) schon fast am Limit laufen, was auch unwarscheinlich ist.
Ich tippe eher so auf 160-190W.

Die letzten ATI Generationen waren eigentlich durch die Bank weg keine Stromsparwunder. Aber ich sage mal das sind noch humane Werte.
Was viel wichtiger sein wird, ist die Idle Stromaufnahme.

Der Kühler ist wirklich sehr sehr groß, aber ich würde es mal so sehen, ATI hat früher eigentlich immer Kritik hinnehmen müssen was Kühlung betrifft. Vllt brauch es einen voll Kupfer Kühler um die Karte bei geringer Lautstärke/Drehzahl des Lüfters betreiben zu können!
Kupfer ist zwar teuer, aber lieber was ordentliches verbauen als am Ende wieder als unfähig dazustehen ;)

So sehe ich die Sache mit dem Kühler.

Ich denke auch mit der 65nm Version wird sich da gewaltig was ändern an der Kühlung.
 
Die 1950XTX hat ja eine TDP von 125W zwei wären dann 250WTDP was ungefähr der TDP der 2900XTX entspricht
Ich denke untereinander kann man die TDPs schon einigermaßen vergleichen nur man muss sich halt bewusst sein dass der Reale Verbrauch deutlich niedriger liegt
der Idel Verbrauch war ja bei bisheringen Atikarten relativ niedrig durch Spannungs-und Taktabsenkungen ich denke so wird es auch bei der 2900 sein
 
Zuletzt bearbeitet:
Iss ja gut ;)
Den Idle Verbrauch kann man ja selbst z.B. mittels ATT senken...

Sollte keine persönliche Beleidigung gegen dich sein, aber es ist halt so das hier alle paar Tage jemand was von 230W in den Thread wirfst und dann geht das geflemme wieder los von wegen NV kann das viel besser bla bla bla.

Fakt ist wohl das noch keine Werte zum wirklichen Stromverbrauch bekannt sind und alle derzeitigen Watt Angaben entweder falsch sind, oder sich auf die TDP beziehen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh