ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Und?
1. 3DmarK06 ist nicht aussagekräftig.
2. Keine übertakteten Karten mit einem übertakteten Prozessor vergleichen.

mfg Nakai

Ich rede hier von einer GTX@Standart Takt! :rolleyes:

Um eine GTX auszureizen auf Standart braucht man die entsprechende CPU!

Und von daher ist eine X2900XT laut Benchmark nicht schneller!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann hat der R600XT, trotz schwächerer CPU mehr Punkte.
Das könnte auf 3DMark06-Optimierungen hindeuten oder auf bessere Treiber.
Mehr sag ich dazu nicht.

mfg Nakai
 
Mit ner GTX@ default und C2D 3,6Ghz liegste über 12500 Punkte beim 06ér, bei 3Ghz so um die 11500.
 
nur ist 3d06 nicht aussagekräftig. das haben wir doch auch schon beim kleinen G84 gesehen.
 
Ich sehe das ähnlich, deshalb werde ich mir bei "Release" eine X2900XT holen!

Zur Zeit verrichtet eine GTX ihren Dienst bei mir.

Ich werde die beiden Karten auf einem System testen, dann folgt mein Fazit!

Die Karte die leistungsfähiger ist, bleibt drin.

Vollkommen egal was für ein Name draufsteht!
 
Nun besteht halt die Gefahr, dass nVidia vollends davonzieht und das wäre für uns alle schlecht. Die haben in den 6 Monaten nach dem G80 bestimmt nicht geschlafen.
 
@trouble: zuviel geld?

und es bleibt immer noch der immense Energiehunger des xt... das sollte man bei der ganzen Diskussion nicht vergeßen was anderes wäre wenn die xt sagen wir mal 30-40Watt über alle bereiche weniger verbraucht.
 
Und?
1. 3DmarK06 ist nicht aussagekräftig.
2. Keine übertakteten Karten mit einem übertakteten Prozessor vergleichen.

mfg Nakai

1. Lassen wir das als Vergleich einfach mal gelten, was anderes haben wir im Moment nicht.

2. Ein oc E6600@3,7 macht 3300 CPU Marks, ein standard QX6700 macht 4000 CPU Marks. Damit wurde der Test ausgeführt. Wenn man also vergleichen will, dann läge die non oc GTX bei ca. 12000 mit einem non oc QX6700 - von daher...
 
ATI hat jetzt mit AMD nen guten Partner, die schlafen bestimmt auch nicht und entwickeln schon die nächste Generation.
Also ich mach mit 3,6Ghz und Standard GTX über 12500 Point´s und das noch mit dem alten Treiber unter XP.
 
Zuletzt bearbeitet:
ga´nz sicher nicht. der G80 stammt ja auch aus einer nach FX zeit
 
2. Ein oc E6600@3,7 macht 3300 CPU Marks, ein standard QX6700 macht 4000 CPU Marks. Damit wurde der Test ausgeführt. Wenn man also vergleichen will, dann läge die non oc GTX bei ca. 12000 mit einem non oc QX6700 - von daher...

Nur wenn die Treiber von dem Quadcore Profit ziehen. Um wieviel schneller ist ein
QX6700 als ein übertakteter E6600 in realen Bedingungen, also im 3DMark06 und spielen?
Ich bitte um Aufklärung.

mfg Nakai

€: Okay hat sich geklärt.
 
Zuletzt bearbeitet:
Na überhaupt nicht ausser im 3Dmark.Glaube nicht das da nen Unterschied zwischen Quad und C2D ist beim zocken bei gleichem Takt.

mfg
 
Zuletzt bearbeitet:
@trouble: zuviel geld?

und es bleibt immer noch der immense Energiehunger des xt... das sollte man bei der ganzen Diskussion nicht vergeßen was anderes wäre wenn die xt sagen wir mal 30-40Watt über alle bereiche weniger verbraucht.

Nein, Geld habe ich nicht zuviel!

Nur ist es ein "Hobby" von mir, Hardware nach ihrer "Leistung" zu beurteilen und NICHT nach ihrem Namen!

Mein 2tes System ein P-M@2,8GHz habe ich auch mit sämtlichen High-End Grafikkarten getestet (hier auch im Forum nachzulesen!), die 7800GS+ von Gainward wurde durch eine Sapphire 1950Pro getauscht; da eindeutig meine Ergebnisse gezeigt haben das die ATI im AGP Bereich bei neuen Spielen die Nase vorn hat!

Daher verstehe ich die ganze Diskussion nicht "ATI vs. NVIDIA"! :grrr:

Fest steht, es sind beides "High-End" Grafikkarten ob die eine nun minimal schneller ist, als die andere spielt keine Rolle!

Es geht einzig und allein um die "Performance" in kommenden Spielen!
 
Zuletzt bearbeitet:
Nur wenn die Treiber von dem Quadcore Profit ziehen. Um wieviel schneller ist ein
QX6700 als ein übertakteter E6600 in realen Bedingungen, also im 3DMark06 und spielen?
Ich bitte um Aufklärung.

mfg Nakai

Gegenfrage: wie stark profitieren die Treiber des R600 vom Quadcore im vergleich zu denen des G80?
 
Tja, solange wir keine Tests haben, kann ich darauf nicht antworten.


mfg Nakai
 
woher sollen wir das wissen?

Daher verstehe ich die ganze Diskussion nicht "ATI vs. NVIDIA"!

schlimmer finde ich das kritik an einem produkt sofort als Fanboyismus des konkurenten abgestemmpelt wird.
 
Zuletzt bearbeitet:
@Nakai & Sephirot

Eben! ;)

Also bleibt nur zum Vergleich was wir im Moment haben.
 
wieviel strom verbraten die karten denn ?
gts 320
gts 640
gtx 768
2900xt
2900xtx

auch muss man mal beachten , dass die 2900xt ca 400 euro kosten soll
ne gts (mit 320mb meist gleichauf mit ner gts 640mb) kostet momentan 240euro.
das find ich schon hammer.
 
Hi, ihr wisst doch bestimmt noch wie auf der Cebit so ein Professor behauptet hat, der G80 hat 160 Stream Prozessoren statt 128..

Wie w0mbat es schon sagte, der G80 hat 128 Shaderunits und pro Cluster noch 4 SFUs, die alle 4 Takte eine SpecialFunktionBerechnung durchführen.
Zusammen kommt man auf 160 Streamprozessoren, außerdem ist es dem Prof egal was das für Einheiten sind.

mfg Nakai
 
wieviel strom verbraten die karten denn ?
gts 320
gts 640
gtx 768
2900xt
2900xtx

auch muss man mal beachten , dass die 2900xt ca 400 euro kosten soll
ne gts (mit 320mb meist gleichauf mit ner gts 640mb) kostet momentan 240euro.
das find ich schon hammer.

kann mal jemand auf sinnvolle posts antworten ?
danke
 
wieviel strom verbraten die karten denn ?
gts 320
gts 640
gtx 768
2900xt
2900xtx

auch muss man mal beachten , dass die 2900xt ca 400 euro kosten soll
ne gts (mit 320mb meist gleichauf mit ner gts 640mb) kostet momentan 240euro.
das find ich schon hammer.

GTS ca. 110Watt
GTX ca. 140Watt

Was die 2900xt verbraucht weis hier noch keiner, sieht derzeit aber nach 160-180Watt aus. Die 2900xtx soll nicht mehr in 80nm kommen, sondern erst im 3Q in 65nm! Der Verbrauch dieser Karte steht noch in den Sternen :rolleyes:
 
Zuletzt bearbeitet:
Na lt. dem Artikel von PCGH will NV das erst beim Launch von R600 alles richtig aktivieren

ja wenn PCGH das sagt.. aber dem ist nicht so
 
Falsch! Die R600 Reihe ist der Gegner der G80 Reihe. Eine 8800 Ultra wäre eine 7800GTX 512, eine 6800 Ultra Extreme, ein reines Prestige Objekt. Sowas macht ja Nvidia öfters, aber die XTX tritt jetzt erstmal gegen die GTX an. So und nicht anders!

Die Ultra ist für den Preis von mindestens 900 € angedacht. Da kommen paar 1000 Stück. Also ist das nur Show. Wenn ATI wollte könnten die sowas auch bringen, nur machts keinen Sinn und ist typisch für Nvidia. Immer aggressiv in den Markt drängen.
 
Habe ich HEUTE etwas verpasst ?

Gabs schon Details / Benchmarks oder irgendwas ?

Der Thread ist Seitenweise gewachsen , vielleicht hilft mir mal
wer mit den Info´s des Tages :)

PLEASE !

Greetz Koyote008
 
Redest du mit mir? Wenn du aufgepasst hast hättest du bemerkt daß der G80 schon vor ein paar Tagen die Treiberverbesserung bekommen hat. Und ich bin auch nicht frustriert, an meiner Aussage hatt sich gar nicht verändert. Schau dir einfach mal die GPGPU Benches an :wink:

Der treiber is noch beta in der Final version is sicher noch mehr din ;)
 
@kojote
hier gabs eben nen gewaltiges gespamme um die ersten benchens
die sollten irgendwo bei seite 40-42 stehen

edit:sry, war schon seite 38^^
 
Zuletzt bearbeitet:
Die Ultra ist für den Preis von mindestens 900 € angedacht. Da kommen paar 1000 Stück. Also ist das nur Show. Wenn ATI wollte könnten die sowas auch bringen, nur machts keinen Sinn und ist typisch für Nvidia. Immer aggressiv in den Markt drängen.

Über den Preis der ULTRA ist noch gar nichts bekannt, das sind nur GERÜCHTE!
Wenn sie wirklich nur mit 650/1080MHz getaktet ist, wird die Karte NIE 900Euro kosten! Man kann wirklich erwarten das man nur ein bisschen überlegt bevor man einen sollchen blödsinn weiter verbreitet, den es gibt jetzt schon 8800GTX Karten die keine 900Euro kosten und auch schon um die 650MHz dank Wakü getaktet sind!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh