ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hey ;) ich darf mich hier auch dazu äußern. Ich flame ja nicht rum.

Aber wenn ich jetzt lese das die GTX auf 650/1000 läuft ist es ja auch kein Wunder :)

war schon ein riesiger Abstand so :)

daher würde mich interessieren, um wie viel die gtx@fast-ultra schneller ist, wie die normale gtx
 
sollten so ca. 10 -15% ausmachen!

Aber jetzt :btt: ---> R600

wollte ich nur wissen, damit ich weiß, wie und wo sich die R600 einreiht zumindest lt. dem test

edit: dann sind sie als relativ knapp hinter einer normalen 8800gtx, schade...hätte mir geacht, dass zumindest die xtx knapp vor der normalen gtx ist...vielleicht werden die treiber noch besser usw. waren ja nur modifiziert
 
Zuletzt bearbeitet:
wollte ich nur wissen, damit ich weiß, wie und wo sich die R600 einreiht zumindest lt. dem test

Jop, schon klar, ... so ganau kann mans aber auch nicht sagen was die Ultra kann, kann ja sein dass nV auch an den Shader taktraten gespielt hat, was dann auch wieder etwas mehr Leistung bringen würde!
 
Jop, schon klar, ... so ganau kann mans aber auch nicht sagen was die Ultra kann, kann ja sein dass nV auch an den Shader taktraten gespielt hat, was dann auch wieder etwas mehr Leistung bringen würde!

achso...stimmt
:btt:
 
aber hallo ! ein absolut für mich disqualifizierender Faktor. Wenn die kleinste schon um die 180W verbrät ziehen die großen sicherlich 220-240W !

Das ist einfach viel zu viel.
 
aber hallo ! ein absolut für mich disqualifizierender Faktor. Wenn die kleinste schon um die 180W verbrät ziehen die großen sicherlich 220-240W !

Das ist einfach viel zu viel.

das hieß es ja schon von anfang an, das die xt/xtx so viel verbraten :(
 
genau so ist es, NV cheatet ja auch jetzt noch im Treiber, man kann im CP die Optimierungen aus stellen, mach ich das CP zu und wieder auf sind sie wieder an:hwluxx:
Ich würd gern mal ohne Testen aber das funzt net, da sind es für den G80 ganz ganzes Stück schwanzmark weniger;)

In den Benches haben dailytech bestimmt mit AI OFF gebencht was dann ja unfair ist wenn NV die Optimierungen an hat.
Aber ich denke eh das die Benches fake sind, bei mir ist alles fake bevor ich es nicht selbst sehe:)

auf HQ sind die optimierungen definitiv aus.
 
nö laut w0mbat nicht.... der hat fest dran geglaubt, dass die xt deutlich unter 200W bleibt...
 
jo aber das hab ich nie wirklich geglaubt. Ich meine wer kauft sich so ne Karte ? am besten noch die OEM Version :fresse: kannst beim Zocken gemütlich deinen Ellenbogen drauf ablegen :haha: und hast im Winter so immer nen warmen ARM :d
 
aber hallo ! ein absolut für mich disqualifizierender Faktor. Wenn die kleinste schon um die 180W verbrät ziehen die großen sicherlich 220-240W !

Das ist einfach viel zu viel.
mann anni, sieh doch nicht immer alles so enorm negativ
ich bin auch darauf aus möglichst effiziente komponenten einzusetzen, aber man muss warten wieviel es dann in der praxis werden

vorallem ist für mich der idle-verbrauch interessant, denn da läuft die karte wesentlich mehr als unter vollast
wenn die XL/XT/XTX da punkten können und sparsam bleiben, dann stören mich auch 200W im vollast nicht

ein hoher idle-verbrauch stört mich persönlich sehr, ich hatte ne x1900GT im rechner und laut anzeige <130W im idle (karte hat keine 2D/3D-profile und eine feste spannung)
jetzt mit der 88GTS sind es im idle 160W, dabei hab ich sie schon manuell auf 250/400 heruntergetaktet
das stört mich wesentlich mehr! denn das ist wirklich verschwendung

das soll kein anfang einer diskussion sein, nur aufzeigen das reine TDP-angaben erstmal nicht viel aussagen, auch wenn sie heftig erscheinen

gruß klasse
 
jo da muss ich dir Recht geben.Hoffe ATI senkt im idle den Stromverbrauch auch durch runtersetzen der Spannungen. Dann wäre da was möglich.
 
sind so zwischen 16-25% je nach CPU

Du weißt selber (aus dem Ultra / 2-Kern Thread) das deine Zahlen nicht stimmen. Bei dem Takt dürfte die Ultra eher zwischen 10 und 15 % mehr Performance haben und nicht das doppelte... jedenfalls wenn man die Zahlen laut dem "Praxistest" hernimmt - da warens ca. 11% ;)

Ich finds echt lustig - Fuzzi schreibt das die XL nicht mehr als 180 Watt verbrauchen SOLLTE da sie nur EINEN Stecker benötigt. Er weiß also nicht wieviel sie braucht sondern er vermutet nur (wie so oft).
Man man entweder können/wollen hier Einige nicht richtig lesen oder deren "English" ist richtig derbe... :stupid:

Gruß

Simon
 
Zuletzt bearbeitet:
Du weißt selber (aus dem Ultra / 2-Kern Thread) das deine Zahlen nicht stimmen. Bei dem Takt dürfte die Ultra eher zwischen 10 und 15 % mehr Performance haben und nicht das doppelte... jedenfalls wenn man die Zahlen laut dem "Praxistest" hernimmt - da warens ca. 11% ;)

Ich finds echt lustig - Fuzzi schreibt das die XL nicht mehr als 180 Watt verbrauchen SOLLTE da sie nur EINEN Stecker benötigt. Er weiß also nicht wieviel sie braucht sondern er vermutet nur (wie so oft).
Man man entweder können/wollen hier Einige nicht richtig lesen oder deren "English" ist richtig derbe... :stupid:

Gruß

Simon


Das stimmt so nicht ganz. Eine Ultra soll ja anscheinden mit 680 / 1080 getaktet werden oder ?

Wenn ich mal meine Penismark Werte Vergleiche auf default und auf 680/1080 ist das ein extremer Sprung.

Außerdem habe ich geschrieben es kommt auf die CPU an. Ein Quadcore pusht die Graka natürlich nochmal ordentlich bei höheren Taktraten im Gegensatz zu nem Dual Core ;)

erst lesen bitte !
 
jetzt mit der 88GTS sind es im idle 160W, dabei hab ich sie schon manuell auf 250/400 heruntergetaktet
das stört mich wesentlich mehr! denn das ist wirklich verschwendung

das soll kein anfang einer diskussion sein, nur aufzeigen das reine TDP-angaben erstmal nicht viel aussagen, auch wenn sie heftig erscheinen

gruß klasse

hä? mein ganzes sys braucht idle ca. 200W und vollast knapp 300W
das wären ja ca. 50W mehr bei den topmodellen...
 
Zuletzt bearbeitet:
Das stimmt so nicht ganz. Eine Ultra soll ja anscheinden mit 680 / 1080 getaktet werden oder ?

Wenn ich mal meine Penismark Werte Vergleiche auf default und auf 680/1080 ist das ein extremer Sprung.

Außerdem habe ich geschrieben es kommt auf die CPU an. Ein Quadcore pusht die Graka natürlich nochmal ordentlich bei höheren Taktraten im Gegensatz zu nem Dual Core ;)

erst lesen bitte !

Oh man, auf einer schnelleren CPU hat natürlich jede Karte mehr Leistung als auf einer langsameren :wall:

Die 11% waren bei einer Standart vs 650/1030... ok mit 680/1080 sinds dann halt 13,8%... :wayne:
Schick mir doch einfach mal deine Resultate per PN - ich rechne dir das dann gerne mal vor...

@all - gabs nun eigentlich schon offizielle Test zu der Leistung/Stromverbrauch etc.? Ach, noch keinen - ja dann wartet doch einfach mal ab :grrr:

Was mich hier wirklich aufregt sind diese halbwissenden an den Haaren herbeigezogenen Aussagen die dann für wahr gehalten werden.
Mein Gott wenn die scheiss Karten am 2. Mai kommen sollen dann wartet doch einfach mal ab und glaubt nicht jeden Scheiß der hier geschrieben wird.

Gruß

Simon
 
Was mich hier wirklich aufregt sind diese halbwissenden an den Haaren herbeigezogenen Aussagen die dann für wahr gehalten werden.
Mein Gott wenn die scheiss Karten am 2. Mai kommen sollen dann wartet doch einfach mal ab und glaubt nicht jeden Scheiß der hier geschrieben wird.

Gruß

Simon

das nennt man: test bzw. benchmark (ob er stimmt oder nicht, weiß ja keiner außer sie selbst)
 
Oh man, auf einer schnelleren CPU hat natürlich jede Karte mehr Leistung als auf einer langsameren :wall:

Die 11% waren bei einer Standart vs 650/1030... ok mit 680/1080 sinds dann halt 13,8%... :wayne:
Schick mir doch einfach mal deine Resultate per PN - ich rechne dir das dann gerne mal vor...

@all - gabs nun eigentlich schon offizielle Test zu der Leistung/Stromverbrauch etc.? Ach, noch keinen - ja dann wartet doch einfach mal ab :grrr:

Was mich hier wirklich aufregt sind diese halbwissenden an den Haaren herbeigezogenen Aussagen die dann für wahr gehalten werden.
Mein Gott wenn die scheiss Karten am 2. Mai kommen sollen dann wartet doch einfach mal ab und glaubt nicht jeden Scheiß der hier geschrieben wird.

Gruß

Simon

mal schön locker duch die hose atmen
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh