AMD Radeon HD 6700: Weitere Details durchgesickert

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hardware muss ja auch ausgenutzt werden und das wird sie momentan in den seltensten fällen... wegen einem spiel paar hunter euro zu investieren, ist schon leicht verschwenderisch, aber das muss jeder selber wissen.

Das lässt sich nicht pauschalisieren. Vor allem gibts hier im Forum Leute, welche selbst eine 480GTX oder HD5870 klein bekommen. Und das in vielen Games.
Auflösung, AA/AF Einstellungen und Details im Game spielen da massiv eine Rolle. Auch steht man hier teils stark auf Downsampling, am besten in Verbindung mit AA/AF (SGSSAA)
In Summe der ganzen Sachen kann man eine 480GTX allein zum Beispiel da nicht mehr empfehlen, der fehlt einfach die Puste in vielen Games.

Aber jeder Mensch ist da anders in seinem Empfinden. Wer gerne 3-4 Jahre mit der aktuellen Hardware leben kann, soll das tun. Andere wollen/müssen halt immer das neueste und schnellste haben ;)
 
Das lässt sich nicht pauschalisieren. Vor allem gibts hier im Forum Leute, welche selbst eine 480GTX oder HD5870 klein bekommen. Und das in vielen Games.
Auflösung, AA/AF Einstellungen und Details im Game spielen da massiv eine Rolle. Auch steht man hier teils stark auf Downsampling, am besten in Verbindung mit AA/AF (SGSSAA)
In Summe der ganzen Sachen kann man eine 480GTX allein zum Beispiel da nicht mehr empfehlen, der fehlt einfach die Puste in vielen Games.

Aber jeder Mensch ist da anders in seinem Empfinden. Wer gerne 3-4 Jahre mit der aktuellen Hardware leben kann, soll das tun. Andere wollen/müssen halt immer das neueste und schnellste haben ;)


sicherlich, da hast du recht. Nur sollte man nicht den Kosten/Nutzen Faktor außer Augen lassen. Ist es wirklich so ein großer Unterschied, ob ich nun 8aa oder 16aa reinmachen, jetzt nur mal als beispiel oder halt irgendwelche tollen AA modi, die extreme Leistung schlucken. Ich persönlich merke da wenig Unterschied, jedenfalls keinen der Hardwareanschaffungen im Werte von ein paar Hundert Euro rechtfertigen, hobby hin oder her. Aber wie gesagt, jedem das seine, bin da tolerant, auch wenn ich es nicht verstehe.
 
Neja ob nun 16xMSAA oder 8xMSAA sollte recht Banane sein...
Aber ein Spiel beispielsweise mit zweifacher Downsampling Auflösung der nativen Monitorauflösung (sind in Summe viermal so viele Pixel zu berechnen) zu fahren und dann dort noch SGSSAA und AF drauf zu knallen ist schon massiv Leistungsfressend.

Mit SGSSAA bekommst du flimmern weg und auch werden die Kanten geglättet. Mit Downsampling verschwinden auch die Kanten sehr elegant.

Und dann reicht selbst das Topmodell der neuesten Generation idR nicht mehr aus... Und das ist der Punkt. Kommt halt auf die Ansprüche drauf an...
Jemand der leidenschaftlich gern zockt und einmal mit diesen Settings gezockt hat, wird das nicht mehr missen wollen... Und dann sind wir an dem Punkt, das 3-4 Jahre alte GPU Hardware das nichtmal mehr im Ansatz schafft. Wenn ich mir ansehe, vor vier Jahren waren X1950XTX und 7950GX2 die Topmodelle. Damit sieht man in heutigen Games selbst mit mittleren Detaileinstellungen und beispielsweise nem 22" Monitor kein Land mehr ;)

Und wenn der jenige die selbe Meinung damals schon vertreten hat, wird er sicher auch damals nicht zum Topmodell gegriffen haben. Also wohl eher was im Bereich X1950Pro/7950GT gekauft haben. Damit siehts dann gleich noch viel schlechter aus ;)
 
Zuletzt bearbeitet:
Ich sehe das auch ähnlich wie du classic.

Natürlich kann man wie fsonne sagt eine High End Karte locker ins Schwitzen bekommen mit Auflösungen jenseits von Full HD und entsprechend hohem AA. Aber mal ganz im ernst: Wir sind hier eben nicht mehr in Zeiten von 3D-Spielen mit maximaler Auflösung von 1024x768 bei denen man mit 19" Röhren durchaus noch Pixelblöcke ohne Anstrengung wahrnehmen konnte. Bei den heutigen hohen Auflösungen sind eigentlich AA-Modi über 4x eher was für Fans von Augentests oder Leuten die einen geringeren Abstand zum Monitor als 30cm haben. ;)
Selbst bei meinen 1680x1050 geh ich selten über 2x AA, weil einfach kaum Treppchen wahrnehmbar sind und schon gar nicht beim Spielen selbst. Viel wichtiger sind Anisotrope Filter und nicht wabernde Texturen, was meiner Meinung nach eine Schwachstelle der ATIs bei manchen Spielen ist.
Es soll natürlich jeder kaufen, was er möchte. Es kitzelt mir auch ständig in den Fingern eine neue Karte zu kaufen, aber ich schaff es doch immer wieder mich zu disziplinieren und zu sagen: Was du hast reicht noch lange und ist das Geld einfach nicht wert.

Der rationale, preisbewußte Spieler sollte eigentlich immer mindestens eine Generation überspringen, wenn die Taktung der Neuerscheinungen im Ein-Jahres-Rhythmus weitergeht.
 
Flimmernde Texturen hast du in vielen Spielen auch bei NV. Ich hatte lange Zeit eine AMD Karte im System. Neben wenigen kleinen Tests mit NV Karten habe ich mich dann entschlossen mal zu NV zu wechseln. Und was soll ich sagen, das was hier viele von Texturflimmern usw. berichten, was angeblich nur bei AMD so sein soll, ist bei einigen Games auch massiv bei NV sichbar. Da hilft auch 16xHQ AF nix erzwungen im Treiber.

Abhilfe schafft da SGSSAA ;) Und wie angesprochen Downsampling ist der Treppchenkiller, kostet aber extrem an Leistung.
Ist halt immer eine Frage der eigenen Ansprüche...
 
Ich kann hier in allen belangen fdsonne zu 100% zustimmen.

Allerdings ist auch das alles eine Einstellungssache und absolut nicht pauschalisierbar. Eigentlich ist alles richtig, denn es kommt immer auf den User an, was er will und was er ausgeben kann. Aber wie er schon ansprach, es ist schwer sich mit weniger zufrieden zu geben, wenn man einmal weis was möglich ist. Andersherum der, der es nicht kennt, kann oft nicht nachvollziehen, warum andere soviel Geld, für sowenig mehr bezahlen. Für den der es will, ist es schon fast kein Gedanke mehr wert, darüber nachzudenken obs Sinn macht oder nicht. Es wird einfach gekauft ;)



Eagle
 
Zuletzt bearbeitet:
Viel wichtiger sind Anisotrope Filter und nicht wabernde Texturen, was meiner Meinung nach eine Schwachstelle der ATIs bei manchen Spielen ist.
dass man die filteroptimierungen nicht abstellen kann ist definitiv eine schwachstelle. mit der hd4000 wars ganz schlimm, seit der hd5000 ist es erträglich und vielleicht wirds mit der hd6000 besser.
 
Also ich muss sagen, dass ich momentan auch ganz interessiert auf den Launch der HD6700er Karten schaue. Momentan hat mein Gamer-PC noch nen Q6600er@oc, sowie eine gtx280er, die ordentlich Strom verpulvern.. 290W@load. Mein Ziel ist es die Leistung @load in etwa zu halbieren. Da kommen die neuen grakas von AMD ganz recht! Eine HD5770 wäre schon ganz gut mit einer TDP von 108W. Ich bin gespannt, ob die HD6750 in Sachen Performance/Watt noch eine Schippe drauf legen kann :)
 
Also ich hoffe mal, daß die Filter noch besser werden.
Ich kenn halt nur die der 4000er Serie und davor hatte ich eine 1950Pro, die dagegen eben nicht flimmerte. Das liegt wohl an der Architektur des R600 und aufwärts. Als Beispiel mal Warhammer Online. Da waberte so ziemlich jede Textur (z.B. Korn von Feldern ganz ekelig) verglichen mit der hier auch vorhandenen G92 8800GTS, bei der das Bild sehr ruhig war.

Wenn man das aber schon zur 5000er Serie verbessern konnte, dann besteht ja Hoffnung, daß die 6000er da nochmal besser abschneidet.
Ist auch kaum nachzuvollziehen, denn die Anisotrope Filterung kostet bei weitem nicht so viel Leistung im Vergleich zum Antialiassing.
Lassen wir uns mal überraschen.
 
Wenn man das Bild genau anschaut kann man erkennen das, dass Bild unten \"abgeschnitten\" wurde. Womöglich steht da noch etwas Interessanntes.
 
Also ich muss sagen, dass ich momentan auch ganz interessiert auf den Launch der HD6700er Karten schaue. Momentan hat mein Gamer-PC noch nen Q6600er@oc, sowie eine gtx280er, die ordentlich Strom verpulvern.. 290W@load. Mein Ziel ist es die Leistung @load in etwa zu halbieren. Da kommen die neuen grakas von AMD ganz recht! Eine HD5770 wäre schon ganz gut mit einer TDP von 108W. Ich bin gespannt, ob die HD6750 in Sachen Performance/Watt noch eine Schippe drauf legen kann :)

Oh, ein übertakteter Q6600 + GTX280 und dann "nur" 290W Spielelast, das geht doch noch :fresse:
mein damaliges System mti Q6600 und 8800GTX hatte (bei 3.8GHz CPU-Takt wohlbemerkt) schon 220W im Idle :fresse2:

Aber die Leistungsaufnahme unter Last auf etwa 150W zu reduzieren, dürfte wohl realtiv schwierig werden, auch mit nem aktuellen Vierkerner und einer HD6xxx wirst du da auf an die 200W kommen, schätze ich.
 
Oh, ein übertakteter Q6600 + GTX280 und dann "nur" 290W Spielelast, das geht doch noch :fresse:
mein damaliges System mti Q6600 und 8800GTX hatte (bei 3.8GHz CPU-Takt wohlbemerkt) schon 220W im Idle :fresse2:

Aber die Leistungsaufnahme unter Last auf etwa 150W zu reduzieren, dürfte wohl realtiv schwierig werden, auch mit nem aktuellen Vierkerner und einer HD6xxx wirst du da auf an die 200W kommen, schätze ich.

Ja, naja.. der Quad hat halt ne rel. moderate Spannugszugabe bei mir.
Aber ich sehe es nicht ein, dass mein Gaming System im Idle 160W verbraucht und bei Spielen 290W. Bin momentan noch am Überlegen, wie ich mein neues System dann aufbaue, aber 160W maximal sollten irgendwie möglich sein... auch mit Undervolting.
Mal schauen, was die neuen Ati 6700er Karten so verbrauchen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh