ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 2)

Status
Für weitere Antworten geschlossen.
Berni: deinen Optimismus in allen ehren, aber es wäre echt super wenn du das nicht immer als 'ne Tatsache hinstellen würdest. Anhand der vielen Quellen die du lieferst glaub ich da nämlich noch nicht so daran. Danach heißt es wieder "super, A/A haben so viel angekündigt und es ist wieder nichts geworden".
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Deswegen hab ich ja auch nicht geschrieben das es ATI gefixt hat.:coolblue:

jo überleg mal wer bei Valve im Boot sitzt ;) da kannste mal drüber nachdenken warum das so schnell ging und das steam update für den g80 bei dem der nebelbug entfernt wurde erst so spät kam..


Aber naja egal :)
 
Ich kann hier sowieso einige schon wieder nicht verstehen, die den R600 runtermachen.
Aussagen wie die Karte kam zu Spät, schlechte Leistung und zweifelhafte Steamumfragen.:stupid:
NV hatte garkeine andere wahl als den G80 schnell zu releasen mit allen Problemen, der G70/71 war ohne ende grottig und ATI war mit dem R580 besten aufgestellt.
Z.b. Nebelbug wurde beim R600 inerhalb von 2-3Wochen gefixt, da hat es bei NV 6 Monate gebraucht, und die noch vorherschenden probleme werden größtenteils mit den 7.6 und 7.7er gefixt.
Sicherlich wird die Karte bei der lauten und sehr guten Kühlösung durch Treiber nicht viel leiser, und der Stromverbrauch wird sich auch nicht groß verringern aber wer im Highendbereich jedes Watt zählt, soll sich lieber an Mid/Lowrange halten.
Ich will auch kein Streit hier losbrechen, aber ich denke einige haben zuviel erwartet vom R600 durch das ganze gehype,*berni schiefanguck*).
Die Karte liegt Leistungsmäßig genau da, wo sie Preismäßig steht mehr nicht.

Du hast eigentlich schon recht, nur mit Dingen wie "wer im Highendbereich jedes Watt zählt, soll sich lieber an Mid/Lowrange halten" halte ich für ziemlich dreist, realitätsfremd und ehrlich gesagt auch schlichtweg dumm.

Den valve bug würde ich jetzt auch nicht unbedingt als Argument der Zuverlässigkeit des Ati Treiber teams werten. Du solltest bedenken, dass Valve und Ati zusammen arbeiten. Es ist deutlich leichter für ATI das Problem per Steam update zu lösen. NV hatte diese Möglichkeit nicht.....

Du hast aber wie gesagt recht, dass die Karte von der P/L genau da ist wo sie hingehört. Nicht mehr und nicht weniger.
 
valve hat nur ein interesse: spiele verkaufen. das der nebelbug beim G80 so lange existiert hat, ist sicher nicht valves verschulden. wenn sie es gekonnt hätten, dann hätten sie es SOFORT gefixt..

Fabi
 
valve hat nur ein interesse: spiele verkaufen. das der nebelbug beim G80 so lange existiert hat, ist sicher nicht valves verschulden. wenn sie es gekonnt hätten, dann hätten sie es SOFORT gefixt..

Fabi


Der Nebelbug war ein Sandkastenkleinkinderkrieg zwischen NV und Valve, beide wollen software bzw hardware verkaufen. Frage war wer länger leben kann mit dem bug...du glaubst jetzt nicht, dass man ernsthaft 6 Monate braucht, um einen bug zu fixen.

Klar hat valve durch den bug weniger soft verkauft, NV aber auch weniger Karten, dafür ATI mehr Karten, von wem wird valve nochmal gesponsort?
 
ABer dann sollte man auch nicht den schwarzen Petter zu NV schieben, HL2 ist einfach ein schlechtes Argument.
Und den Umweltschutz zu liebe, sollte man schon auf die Verlustleistung achten.

die 2900XT ist eine gute Karte die halt ihre macken hat ebenso wie die von NV.
 
Ich finde es von beiden Firmen sch... das durch irgendwelche manipulationen mal die eine und mal die andere Karte besser läuft z.b. LP DX10 und CoJ DX10 oder auch das evt. verzögerte update seitens Valve bei den NV Karten.
Sowas ist für uns Kunden ja mal ganz mies, die ein haufen Kohle für die HW ausgeben :motz: :kotz:
 
valve hat nur ein interesse: spiele verkaufen. das der nebelbug beim G80 so lange existiert hat, ist sicher nicht valves verschulden. wenn sie es gekonnt hätten, dann hätten sie es SOFORT gefixt..

Fabi



Ja ne ist klar. Zufällig taucht bei beiden dieser Nebelbug auf. Bei Ati ist es Valves Schuld und bei NVIDIA NVIDIAs Schuld. Na sowas. Deine Begründung ist so toll, es muss einfach stimmen. :shot:
 
Ja das reicht, du willst aber nicht den 17er damit befeuern oder ?


Die Graka ist für nen kollegen der nen 107cm Plasma Fernseher damit befeuern will...momentan schwanke ich noch zwischen gts 640mb und 2900xt

btw.
Nethands ist nicht ganz aktuell ^^ hab nen 20" ws,c2d,1800xtpe etc.
 
Ja ne ist klar. Zufällig taucht bei beiden dieser Nebelbug auf. Bei Ati ist es Valves Schuld und bei NVIDIA NVIDIAs Schuld. Na sowas. Deine Begründung ist so toll, es muss einfach stimmen. :shot:

hab ich irgendwo geschrieben, dass es bei nvidia nvidias schuld ist ?

ich habe nur geschrieben, dass valve es so schnell gefixt hat, wie es eben ging, unabhängig vom betroffenen vendor..

lies erstmal, was ich schreibe, bevor du hier tatsachen verdrehst :stupid:
 
Zuletzt bearbeitet:
hab ich irgendwo geschrieben, dass es bei nvidia nvidias schuld ist ?

ich habe nur geschrieben, dass valve es so schnell gefixt hat, wie es eben ging, unabhängig vom betroffenen vendor..

lies erstmal, was ich schreibe, bevor du hier tatsachen verdrehst :stupid:

Mir ist das zwar kakki-egal, weil ich kein Interesse an CS:S habe aber du hast folgendes geschrieben: das der nebelbug beim G80 so lange existiert hat, ist sicher nicht valves verschulden.

Also:
1. Valve hat damit nix zu tun (deine Aussage)
2. Nvidia ebensowenig (deine Aussage)
3. ATI Schuld? (logische Schlussfolgerung)

Oder hast du nach 5min selber vergessen was du erzählt hast?
macht nix! bist hier in bester Gesellschaft :bigok:
 
Der Nebelbug ist glasklar Valves Schuld, und sie haben 6 Monate gebraucht um den zu fixen!
Merkwürdig dass dieser bei der HD 2900 XT auch auftrat oder? Wird wohl auch NVIDIAs Schuld gewesen sein oder wie?
Warum der bei der HD 2900 XT so schnell gelöst wurde ist doch sonnenklar, Valve weiß ja nun wie es geht.
Die Source-Engine hatte Probleme mit DX10 GPUs, also Valves Schuld.

MfG :cool:
 
Der Nebelbug ist glasklar Valves Schuld, und sie haben 6 Monate gebraucht um den zu fixen!
Merkwürdig dass dieser bei der HD 2900 XT auch auftrat oder? Wird wohl auch NVIDIAs Schuld gewesen sein oder wie?
Warum der bei der HD 2900 XT so schnell gelöst wurde ist doch sonnenklar, Valve weiß ja nun wie es geht.
Die Source-Engine hatte Probleme mit DX10 GPUs, also Valves Schuld.

MfG :cool:

Richtig, genau so ist es, ... Valve lässt doch wohl nicht absichtlich, wie einige hier denken, ein Fehler in ihrer Engine, nur weil ATI mit Valve kooperiert, im dann vN schlecht dastehen zu lassen!
Valve hatte sicher auch großes Interesse den Fehler zu beheben.

Und wie JamesRyan schon sagt, hatte/hat die Source-Enginge Probs. mit DX10 Karten!
 
Ja, ..
HD-Ready 1366 x 768,
Full-HD 1920 x 1080
Die Antwort auf meien Frage welche Auflösung der Plasma hat ist es immer noch nicht du Schlaumeier.

Das wären zudem bei weitem nicht alle Auflösungen, HD-Ready hat nicht zwingend nur 1366x168, die können auch mehr haben.
 
Das wären zudem bei weitem nicht alle Auflösungen, HD-Ready hat nicht zwingend nur 1366x168, die können auch mehr haben.


Kommt halt auch auf die Preisklasse an, .. es gibt auch Plasmas mit 42"" die nur 1024 x 768 können!

Was willst du denn genau wissen, dann kann man vlt auch präziesere Antworten geben!


€dit:

Ah, ich glaub ich habs gecheckt, ... es geht nur um den Plasma von Mr.toilet
 
Zuletzt bearbeitet:
Bezüglich Konkurrenz des R600 sei wegen des Preises ja die GTS: Stimmt preislich gesehen natürlich, aber man kann imo nicht ernsthaft behaupten, das wäre immer so geplant gewesen. Wo doch in der Vergangenheit immer um die pure Performance Führung gekämpft wurde. Ati wird nach Erkennen der Leistung des Chips den Preis angepasst haben.

Das natürlich klar, ATI hat das Firmenintern sicher anderst geplant, nur es zählt hier nicht was irgendwann mal geplant war oder was irgendwelche News Seiten ala Fudzilla geschrieben haben, sondern es zählt einzig das offizielle Statement von AMD/ATI und das besagt das die HD2900XT der GTS Konkurent wird! Alles andere ist recht egal.
Wie gut oder schlecht es für ATI/AMD ist das sie kein GTX/Ultra Leistungsklassenprodukt haben, steht auf nem anderen Blatt.

jo überleg mal wer bei Valve im Boot sitzt ;) da kannste mal drüber nachdenken warum das so schnell ging und das steam update für den g80 bei dem der nebelbug entfernt wurde erst so spät kam..


Aber naja egal :)

Es gab doch gar kein Steam Update mit dem der Nebelbug entfernt wurde!
Sondern das Problem wurde mit nem neuen Treiber seitens NV entfernt oder hab ich was verpasst?

Du hast eigentlich schon recht, nur mit Dingen wie "wer im Highendbereich jedes Watt zählt, soll sich lieber an Mid/Lowrange halten" halte ich für ziemlich dreist, realitätsfremd und ehrlich gesagt auch schlichtweg dumm.

Aber dennoch muss man dazu sagen das die G80 Karten im Vergleich gesehen genau so inakzeptabel schlecht dastehen, wie die R600. Und jetzt kommt nicht wieder mit "aber der G80 ist um x Watt sparsamer".
Es ist und bleibt inakzeptabel hoch!

ABer dann sollte man auch nicht den schwarzen Petter zu NV schieben, HL2 ist einfach ein schlechtes Argument.
Und den Umweltschutz zu liebe, sollte man schon auf die Verlustleistung achten.

die 2900XT ist eine gute Karte die halt ihre macken hat ebenso wie die von NV.

Du hast sicher Recht das NV nicht die gleichen Möglichkeiten in Sachen Nebelbugfixung gehabt hat wie ATI, aber dennoch ist es lachhaft wie man für eine Problembehebung über ein halbes Jahr brauchen kann, ...

Und Umweltschutz, wie schon gesagt, alle hacken jetzt auf ATI rum und sehen die G80 Karten als ware Stromsparwunder, sprich sie sehen über die gleichen Schwächen der G80 Karten weg, bleibt mal auf dem Teppich, beide Produkte haben einen inakzeptabel hohen Stromverbrauch, das ist Fakt.
Wer sich daran stört, soll was anderes kaufen.

Einige hier würden sicher auch nen dicken Mercedes CLS 65 AMG kaufen und sich dann aufregen, das der Sprittverbrauch viel höher ist als bei nem 1,0l Polo!

Der Nebelbug ist glasklar Valves Schuld, und sie haben 6 Monate gebraucht um den zu fixen!
Merkwürdig dass dieser bei der HD 2900 XT auch auftrat oder? Wird wohl auch NVIDIAs Schuld gewesen sein oder wie?
Warum der bei der HD 2900 XT so schnell gelöst wurde ist doch sonnenklar, Valve weiß ja nun wie es geht.
Die Source-Engine hatte Probleme mit DX10 GPUs, also Valves Schuld.

MfG :cool:

Wieso denn Valve?
Der Nebelbug ist doch mit dem einen neuen NV Treiber weg gewesen, auch ohne Steam Update, oder etwa nicht?
 
Zuletzt bearbeitet:
Vor allen Dingen ist es der größte Schwachsinn zu sagen "kauft euch ne GTS, schont die Umwelt". Da lach ich echt so dermaßen laut, wenn ich sowas höre.

Die Umwelt rettet ihr sicher nicht wenn ihr 10 Watt bei ner Graka spart Jungs. Das geht anders!
 
Vor allen Dingen ist es der größte Schwachsinn zu sagen "kauft euch ne GTS, schont die Umwelt". Da lach ich echt so dermaßen laut, wenn ich sowas höre.

Die Umwelt rettet ihr sicher nicht wenn ihr 10 Watt bei ner Graka spart Jungs. Das geht anders!

Jo, GTS kaufen und im idle runter takten :lol:
aber lassen wird das wieder, das gibt gleich wieder streit!
 
Zuletzt bearbeitet:
Ich finds nur so dermaßen heuchlerisch dann auf die umwelt anzuspielen. das interessiert die umwelt nämlich nicht. die interressiert ob ihr eueren pc richtig ausmacht (an der steckerleiste) oder tagelang idlet und euren Standby ausmacht oder ob ihr das wasser laufen lasst beim zähne putzen und sowas. Die 10 Watt stören keinen, vor allem nicht wenn ihr z.B. Ökostrom bezieht der aus regenerativen Energien gewonnen wird :)
 
hier hat kein Mensch von Umwelt geredet, mich interessiert eigentlich nur meine Stromrechnung, weil ich die bezahlen muss...

habe auch nie irgendwas verglichen bezüglich Stromverbrauch, war nur die Aussage "wenn Stromverbrauch zu hoch => nach mitteklasse umschauen"
Sowas ist halt einfach sehr engsinnig. Habe mir die HD und nicht die GTS gekauft eben weil die für mich sparsamer ist wenn ich die im idle auf 200/200 takte und bald auch Spannung senken kann.

Und wenn das undervolting und Runtertakten von den Kunden mittlerweile schon als feature angesehen wird dann haben die beiden Firmen einfach irgendwas falsch gemacht. Das hat dann nichts mehr zu tun mit mercedes verbraucht mehr als ein Polo, sondern einfach nur Ignoranz und die fehlende Bereitschafft wenigstens mal zu versuchen den Verbrauch zu drosseln.
 
hier hat kein Mensch von Umwelt geredet, mich interessiert eigentlich nur meine Stromrechnung, weil ich die bezahlen muss...
Ich denke mal das diejenigen die den Stromverbrauch so schönreden noch bei Ihren Eltern wohnen^^



Und wenn das undervolting und Runtertakten von den Kunden mittlerweile mer ist wenn ich die im idle auf 200/200 takte und bald auch Spannung senken kann.schon als feature angesehen wird dann haben die beiden Firmen einfach irgendwas falsch gemacht. Das hat dann nichts mehr zu tun mit mercedes verbraucht mehr als ein Polo, sondern einfach nur Ignoranz und die fehlende Bereitschafft wenigstens mal zu versuchen den Verbrauch zu drosseln.
Jupp, ganz meine Meinung, das verstehe ich bei beiden Firmen nicht...die Karte hauen schon genug Saft weg, da könnte man wenigstens unter 2D einiges sparen.
 
Ich denke mal das diejenigen die den Stromverbrauch so schönreden noch bei Ihren Eltern wohnen^^

Das finde ich ja noch gar nicht so schlimm, ist ja auch legitim (also nicht das schönreden, sondern das bei Mutti wohnen) oder würdest du dir als 13 Jähiger Bängel gedanken machen, was dein PC verballert beim zocken, nur damit du deine Langeweile rum bekommst?
Ich finde es eher viel schlimmer das der Verbrauch von den G80 Karten nun mehr als bedeutend besser dargestellt wird, ... aber ich rede ja gegen ne Wand und hab nur die Rote Brille auf...

Jupp, ganz meine Meinung, das verstehe ich bei beiden Firmen nicht...die Karte hauen schon genug Saft weg, da könnte man wenigstens unter 2D einiges sparen.

Das ist so einfach nicht machbar, meine XT rennt zum beispiel nur mit 350/350, ich hab auch schon gelesen das es welche gibt die nur mit 4xx/4xx laufen im idle, ansonsten gibts Bildfehler. Spannungsabsenkung, weis ich nicht, würde die Sache noch verschärfen.
Dadurch das alle immer nur nach Leistung schreien, müssen halt solche Transistormonster gebaut werden, logischerweise steigt der Stromverbrauch dann auch mit im idle, ...
Vllt sollte man sich mal darüber Gedanken machen ob man Teile des Chips abschalten kann, würde aber sicher wieder extrem Planungs- und Realisierungsaufwand bedeuten, was imho bei ner Karte die nach 6 Monaten idR schon wieder überholt ist, nicht lohnen würde, sehe ich zumindest so.
 
Das finde ich ja noch gar nicht so schlimm, ist ja auch legitim (also nicht das schönreden, sondern das bei Mutti wohnen) oder würdest du dir als 13 Jähiger Bängel gedanken machen, was dein PC verballert beim zocken, nur damit du deine Langeweile rum bekommst?
Ich finde es eher viel schlimmer das der Verbrauch von den G80 Karten nun mehr als bedeutend besser dargestellt wird, ... aber ich rede ja gegen ne Wand und hab nur die Rote Brille auf...
Klar kann ich verstehen wenn ein 13 Jähriger sich keinen Kopf macht um den Stromverbrauch, dann sollte er sich aber auch nicht weiter zu dem Thema äussern, da er da auch nicht mitreden kann ;)



Das ist so einfach nicht machbar, meine XT rennt zum beispiel nur mit 350/350, ich hab auch schon gelesen das es welche gibt die nur mit 4xx/4xx laufen im idle, ansonsten gibts Bildfehler. Spannungsabsenkung, weis ich nicht, würde die Sache noch verschärfen.
Dadurch das alle immer nur nach Leistung schreien, müssen halt solche Transistormonster gebaut werden, logischerweise steigt der Stromverbrauch dann auch mit im idle, ...
Vllt sollte man sich mal darüber Gedanken machen ob man Teile des Chips abschalten kann, würde aber sicher wieder extrem Planungs- und Realisierungsaufwand bedeuten, was imho bei ner Karte die nach 6 Monaten idR schon wieder überholt ist, nicht lohnen würde, sehe ich zumindest so.
Es ist sehr wohl machbar einen bestimmten Takt zu finden, den jede Karte mitmacht...ist ja bei 3D Takt das gleiche) ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh