Ati R520 (2)

Status
Für weitere Antworten geschlossen.
Jlagreen schrieb:
du aber auch ;)


Beispiele bitte? Hmm also ich kann aus dem Stand 3 nennen, zum einen den NV3x und dabei der Übergang zu 0,13µ und den Paperlaunch der letzten Gen und das aktuelle "Flimmern", wobei NV scheint aus Fehlern zu lernen, so war der NV40 ein Hit und nen Paperlaunch gabs auch ned mehr, das Flimmern ist mit dem 78.03 auch behoben ;). Wenn ich schon a la "Aber der da baut auch Mist..." argumentiere, dann auch mit Beispielen :).

Richtig, der NV30 war (sorry) die Missgeburt an Grafikship schlecht hin. Er bot kein Direct X9, aber was noch viel schlimmer war, er kam nicht ansatzweise an die Leistung des R300 heran. nVidia hielt es offenbar nicht notwendig, einen 256 BIT-Bus zu verwenden, sondern versuchte die Leistung aus den massiven Mehrtakt herrauszuholen, zusammen mit teuren DDR2-Speicher, der auch sehr heiss wurde.

Das ging sogar so weit, dass einige 5800 Ultras abgeraucht sind, im 2D Modus.

Der Grund? Um die Ohren der Leute wenigstens im 2D Modus zu schonen, regelte sich der Lüfter runter.

Soweit so gut, nur leider erkannte der Treiber nicht, dass der Bildschirmschoner im 3D Modus lief, der Lüfter der Karte lief im 2D Modus - der Chip der Karte pruzelte ab.

Soviel zu den Treibern von nVIdia.

Dann kam der NV35. Und obwohl nVidia genug Zeit gehabt hat, kam auch dieser nicht an die Leistung des R350 heran (Shaderleistung + DX9), schon garnicht an die Filterqualität.

Und als nVidia die 5950 Ultra auf den Markt brachte, brauchte ATI die Taktraten mit dem R360 nur ein wenig anzuheben um nVidia auf Distanz zu halten.

Mit dem NV40 gelang es dann endlich mal, an ATI kurze Zeit vorbeizuziehen (leistungsmäßig), doch an Features hat der NV40 deutlich mehr zu bieten als der R420.

Das ATI auch garnicht geschadet, geschadet hat ATI nur, dass sie zur notwendigen Zeit nicht die Karten im Mainstreamsektor hatten, die sie gebraucht hätten.

Dabei fällt es aber auf, dass nVidia immer wieder die Bildqualität für Mehrleistung opfert.

Beispiel gefällig?

Die NV40 bieten zum Beispiel keine winkelunabhängie Anisotropische Filterung mehr.

Oder auch jetzt das Flimmern mit dem G70, nVidia hat erst was getan, als der große Aufschrei kam, das sagt schon alles aus.


die hatten keine andere Wahl als nen NV35 zu bringen und nebenher parallel am NV40 zu arbeiten, hätten sie nen Mittelweg gewählt und zb. den NV35 ausgelassen, wäre ATI davon gerannt, so hatte man wenigstens eine halbwegs vernünftige Karte und da es damals Games wie HL2 ned gab, wussten auch viele ned, was fürn Kack die FX Reihe war.

Aha, du weißt wie nVidia sich zu entscheiden hat, das ist ja mal interessant.

nVidia hätte sich einach ahnen müssen, dass da etwas Größeres von ATI kommt, dann hätten sie auch so konserativ wie ATI vorgehen können, ohne in Zugzwang zu geraten.

Der Weg von nVidia hat von er Entwicklung des NV30 rund 300 Millonen Dollar verschlungen, ATI hat es besser gemacht, auch wenn sie jetzt einmal nicht mehr die Performancekrone haben.

Jep und? Dafür konnte ich mit dem unter Linux zocken, ich musste damals meine Radeon 9800 Pro gegen ne FX5900XT tauschen, weil ich eben Linux auch gerne verwende, dank geht an ATI, die glauben, dass Linux unwichtig ist :).

Also ich bitte dich. Es ist zwar bekannt das nVidia deutlich besser unter Linux performt, gibt anscheinend auch weniger Probleme als mit ATIs, aber Linux ist trotzdem ein OS der Nischengruppe.

So arrogant wie es sich anhört, aber wenn man eben nicht genug Leute hat und auch nicht so viel Geld ausgeben will, muss man das akzeptieren.

ATI hat übrigends angekündigt, einen besseren Linux-Support zu bieten.

Dafür hat ATI ein eigenes "Treiber-Team" für Mac OS.

der Technologievorsprung, also SM3 besteht seit 18 Monaten und dank NV haben die Entwickler auch angefangen das zu verwenden, die Entwickler passen sich dem breiten Grakaspektrum an und da nun genug SM3 Karten im Umlauf sind, kann auch dafür programmiert werden, dank geht an NV ;).

ATI hatte das auch vor, aber nicht zu diesem Zeitpunkt! Und erst jetzt kommen ja die Spiele, bzw. sind kurzeitig auf dem Markt, die einen SM 3.0 Support bieten.

Vorher hat man es wirklich nicht gebraucht, das kannst du nicht von der Hand weißen, das ist einfach so.

ATI wollte den R520 ja schon viel früher bringen, welcher bekanntlicherweiße SM3.0 Support bieten wird.

Nur hätte ATI nicht mit dem Fertigungsprozess zu kämpfen, wäre der R520 schon im ersten Quartal gekommen.

Es ist ja kein Geheimnis mehr, das ATI mit dem Erscheinungstermin deutlich daneben gelegen hat, man dachte einfach es würde besser mit dem 0.09µ-Fertingungsprozess laufen.

trotzdem ist der G70 ne Super Karte und die Dominanz wird sich in kommenden Games so richtig zeigen, wenn denn mal SM3 + HDR richtig zum Zug kommt, bei Splinter Cell und Fear geht die imo schon ordentlich ab ;).

Habe ich etwa geschrieben das der G70 schlecht ist? Nein.

Das Feature "Trancparenz AA" würde ich auch gerne bei ATI sehen, ich halte sehr viel davon, bzw. wünsch mir das.

Ob der G70 so viel besser performt werden wir sehen, wenn der R520 in etwas weniger als 2 Wochen präsentiert wird, SM3 und HDR unterstützt er ja auch.

Dazu kommt die bessere Videoperformance hinzu, mit extrem guter Bildqualität und konkurenzlos niedriger CPU-Auslastung.

ganz genau ;). NV hat seine Hausaufgaben gemacht, ne bessere ATI würden denen auch kaum schaden, denn sie verkaufen schon schön zu netten Preisen. Und mit letzteren machen sie sich gerade besonders beliebt, Preissenkungen in so kurzer Zeit und das ohne Konkurrenz, Hut ab :). ATIs Hochmut sollte lieber ned zu groß sein...

Preisenkungen gibts bei ATI auch zu Genüge, die X800 XT PE zB. Die war letztens für 240€ zu haben und ist schneller als eine 6800 XT und gleichauf mit der Ultra.

Also ohne Konkurenz, die 6600 GT hate ein paar Monate keine Konkuren (P/L Verhältnis), aber das hat sich jetzt geändert, die X800 GT ist schneller und kostet auch nicht mehr :)

Ich sehe außerdem nicht, das ATI hochmütig ist, sondern eher nVidia, die ja wiedermal lustige Folien bei der Präsentation aufgelegt haben.

Arroganz kriegt hier eine ganz neue Bedeutung :)



6 Monate schlechte Yields und Respins sind also Kostenersparnis? :hmm: Also NV verdient mit 110nm, wüsste ned was jetzt bei ATI dagegen sprechen würde und so nebenbei hatte NV grad auch mehrere Monate, um 90nm in Ruhe zu testen. Wer war zu erst bei 110nm? NV natürlich ;), aber ned bei der High-End sondern bei Midrange und das war goldrichtig.

Es hat sicherlich nicht soviel gekostet, wie ein Großteil der 300 Millionen Dollar, die nVidia mit der NV30 rausgehauen hat.

Die FX-Eginige blieb zwar, aber es musste ein ganz neuer Chip entwickelt werden, der NV40 war auch wieder eine Neuentwicklung.

Es mag sein dass der R420 größtenteils noch auf den R300 basiert, aber ATI hats doch irgendwie geschickter gemacht ;)

Viel mehr sollte sich nVidia fragen, warum konnten wir nicht mit 3 Neuentwicklung schaffenm ATI mal so zu treffen, wie sie uns mit der R300 getroffen haben :bigok:

jepp mag sein, aber ein Presample existiert nun mehrere Wochen, also wieso ned mal nen Bench als Werbung auf der Page? Vielleicht weil sie "kein" GTX Killer ist? Schon mal darüber nachgedacht :rolleyes:

Oh man, merkst du noch was?

WEIL MAN DIE KUNDEN NICHT VERÄGERN WILL! Das wäre ein Imageschaden!

ATI und nVidia haben ordentlich eins auf den Deckel bekommen, als die den NV40 und den R420 lange Zeit nicht liefern konnten.

ich habe jeden Fetzen über den R520 gelesen und weisst du was? Nicht einer war von ATI selbst :lol:...

Scheint mir nicht so, sonst würdest du keine Fragen stellen, die bereits seit ein paar Monaten geklärt sind.

Selbst NV hat mehr über den R520 gesagt, als ATI... :haha:

Ja genau, haha! Ne mal ehrlich, so soll das stehen hmm?

(ok wenn auch eher fies..). Und ich versuche zu hinterfragen, wieso man "nix" von ATI "hört", also nicht wieso die Karte so lange braucht, sondern wieso ATI sich überhaupt ned dazu äußert?

Siehe oben, es soll ja kein Papierträger werden, außerdem würde man dann nVidia schneller Spielraum geben um zu reagieren.

Was fragst du überhaupt Sachen die so klar sind wie Klosbrühe?

und falls es dir entgangen ist, NV baut auch Chipsätze und genau daher kommt mein Avatar ;)

Achso, ich dachte die kommen von SIS, zu komsich das ich den nForce2 hatte und nun den nForce4.

Und wusstest du, das ATI schon länger Chipsätze baut als nVidia und die schnellsten Chipsätze mit integrierter Grafik

(Ich meine nur damit den integrierten Grafikchip, nicht den Chipsatz ansich)

aha, einfache Art ne Diskussion zu beenden, einfach mal zu sagen "Klappe zu, denn du sagst eh nix, was Pro ATI ist". Und das stimmt ned, ich habe als einer der ersten im X800GTO Freischaltthread ATI für diese neue geile Graka gelobt ;).

Was du im GTO-Thread schreibst interessiert mich nicht, es geht jetzt hierum was du hier schreibst und das hatte fast bisher überhaupt keinen Inhalt.

Es ist in Ordnung, dass du von nVidia mehr überzeugst bist als ich, der eher zu ATI tendiert, auch wenn nicht mehr so extrem wie in letzter Zeit.

Aber sachlich sollte man dennoch bleiben und die Gegebenheiten sehen :)

Aber naja, ist schon schwer sachlich zu bleiben, wenn man ne brille mit roten Gläsern und 3 weissen Schriftzeichen trägt :coolblue:

Wenn man im Glasshaus sitzt.......

Aber, ich habe jetzt nun wirklich keine Lust mehr mit dir einen Dialog zu führen, da du sowieso größtenteils nicht objektiv bleiben wirst, das kann ich mir auch schnenken.
[/QUOTE]
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich finde den Dialog der beiden einfach Toll !

So braucht man den ganzen Thread ned lesen , und hat so im Groben ne Vorstellung des gesammten Threads ,

selbst wenn man 3 Jahre gepennt hat , weiss man jetzt grob Bescheid ,

ich glaub meine geforce3Ti500 128Mb iss etwas Alt +grinsel+

Gruss Koyote008
 
@Jlagreen
zu dem was du hier schreibst kann man nur 3 buchstaben sagen OMG.
ich mag es wenn leute kein plan von der sache haben und dann mit nV ist so toll, SM3.0 + HDR und man die spiele mit diesen support an einer hand abzählen kann rumprollen.
:rolleyes:

@kimble
full ack
 
Tseng Labs rockt, da hast du Recht.
Aber gegen meine S3 Trio 64 haben die keine Chance. :d
 
also leute gegen
den neuen RSX Grafikchip von ATI in der Xbox 2 hat glabue keiner mehr was zu sagen ... :fresse: :lol:
 
Tschibbl schrieb:
XGI wird euch alle fertig machen, ihr Fanboys.. :bigok:

S3 wirds XGI schon zeigen wo es lang geht. :d

Richtig, der NV30 war (sorry) die Missgeburt an Grafikship schlecht hin.

Informier dich erst einmal über die zahlreichen Grafikchips die es gab EHE du solche Behauptungen aufstellst - mal ein Beispiel, sagt dir der NV1 was?

ATI hat übrigends angekündigt, einen besseren Linux-Support zu bieten.

Den gibt es bereits, ebenfalls die neueren Treiber.

Es hat sicherlich nicht soviel gekostet, wie ein Großteil der 300 Millionen Dollar, die nVidia mit der NV30 rausgehauen hat.

Gibts genaue Zahlen? Wenn ja, ich würde die gerne sehen, weil solche Geschichten interessieren mich durchaus.
 
also mir sagt der NV1 natürlich was ;)
aber die gayForce FX serie war eine missgeburt, laut, langsam und derbste qualität im negativen sinne. ich erinnere mich noch gut an den vergleich 9800pro vs 5900U.
bei ATI waren die texturenübergänge sehr weich, bei der 5900U sahen die textur aus wie ein schachbrett.


PS: saher heulSuSE 9.2 soll der buggy sein :coolblue:
 
dual-cinema-big.jpg

hier kann man es gut sehen, denke mal da wird aple intresse zeigen :fresse:
 
kimble schrieb:
Richtig, der NV30 war (sorry) die Missgeburt an Grafikship schlecht hin. Er bot kein Direct X9, aber was noch viel schlimmer war, er kam nicht ansatzweise an die Leistung des R300 heran. nVidia hielt es offenbar nicht notwendig, einen 256 BIT-Bus zu verwenden, sondern versuchte die Leistung aus den massiven Mehrtakt herrauszuholen, zusammen mit teuren DDR2-Speicher, der auch sehr heiss wurde.
sie war schlecht und damit Punkt. Die ATI Rage oder Fury Maxx waren auch ned das gelbe vom Ei und trotzdem wurden sie gekauft, ebenso wie die FX Karten. Auch wird der R520 gekauft werden und das ganz sicher, es ist nur, dass beim FX genau das gleiche passiert ist wie bisher beim R520, am Anfang die Megalorbeeren und der Aufschrei der Fans und dann hats ewig gedauert und die böse Ernüchterung kam.

kimble schrieb:
Dann kam der NV35. Und obwohl nVidia genug Zeit gehabt hat, kam auch dieser nicht an die Leistung des R350 heran (Shaderleistung + DX9), schon garnicht an die Filterqualität.

Und als nVidia die 5950 Ultra auf den Markt brachte, brauchte ATI die Taktraten mit dem R360 nur ein wenig anzuheben um nVidia auf Distanz zu halten.
der NV35 konnte nicht viel besser sein, weil immer noch die selbe Technik verwendet wurde, die an sich sehr gut ist, nur müssen Games dafür ausgelegt sein, was aber eben kein Spielehersteller machte.

kimble schrieb:
Mit dem NV40 gelang es dann endlich mal, an ATI kurze Zeit vorbeizuziehen (leistungsmäßig), doch an Features hat der NV40 deutlich mehr zu bieten als der R420.
Das ATI auch garnicht geschadet, geschadet hat ATI nur, dass sie zur notwendigen Zeit nicht die Karten im Mainstreamsektor hatten, die sie gebraucht hätten.
ja aber die High-End Chips waren bei beiden nur Paperlaunches :(

kimble schrieb:
Dabei fällt es aber auf, dass nVidia immer wieder die Bildqualität für Mehrleistung opfert.

Beispiel gefällig?

Die NV40 bieten zum Beispiel keine winkelunabhängie Anisotropische Filterung mehr.
Oder auch jetzt das Flimmern mit dem G70, nVidia hat erst was getan, als der große Aufschrei kam, das sagt schon alles aus.
die Treiberoptimierung halte ich allgemein für nen riesen dreck, ob ATI oder NV, beide kurbeln wo es nur geht, dass NV aber bei der GTX sowas machen musste, verstehe ich auch ned... weil ich habe Tests mit dem 78.03er gesehen, viel Performance verliert der auch ned...

kimble schrieb:
Aha, du weißt wie nVidia sich zu entscheiden hat, das ist ja mal interessant.

nVidia hätte sich einach ahnen müssen, dass da etwas Größeres von ATI kommt, dann hätten sie auch so konserativ wie ATI vorgehen können, ohne in Zugzwang zu geraten.

Der Weg von nVidia hat von er Entwicklung des NV30 rund 300 Millonen Dollar verschlungen, ATI hat es besser gemacht, auch wenn sie jetzt einmal nicht mehr die Performancekrone haben.
zunächst hat NV bereits am FX gearbeitet, da war der R300 auch noch ned draußen, außerdem ist es dieselbe Situation, die ATI dieses Jahr mit dem R520 hatte, man ist mitten in der Entwicklung und versucht gute yields zu bekommen und plötzlich hat die Konkurrenz ne neue Karte, da kannste auch ned alles hinwerfen und nochml von vorne beginnen :hmm:

und die Technik des FX war ja was neuartiges, nur eben nicht leistungsfähig genug, die ATI Karten waren auch schon vorm R300 ganz gut teilweise, aber bsp. waren oft OpenGL Probs ein Hindernis zum Kauf.

kimble schrieb:
Also ich bitte dich. Es ist zwar bekannt das nVidia deutlich besser unter Linux performt, gibt anscheinend auch weniger Probleme als mit ATIs, aber Linux ist trotzdem ein OS der Nischengruppe.

So arrogant wie es sich anhört, aber wenn man eben nicht genug Leute hat und auch nicht so viel Geld ausgeben will, muss man das akzeptieren.

ATI hat übrigends angekündigt, einen besseren Linux-Support zu bieten.

Dafür hat ATI ein eigenes "Treiber-Team" für Mac OS.
das ist es ja, dadurch steigt fast keiner mit ATI Karte um, weil viele eben zocken wollen und multiboot ned mögen, genau das gleich Prob mit den Games für Linux...

kimble schrieb:
ATI hatte das auch vor, aber nicht zu diesem Zeitpunkt! Und erst jetzt kommen ja die Spiele, bzw. sind kurzeitig auf dem Markt, die einen SM 3.0 Support bieten.
und wieso kommen "jetzt" die Spiele? Wieso ned als es DX9 shcon gab? Wieso? Vielleicht, "weil" damals kein Schwein mit seiner Graka was damit anfangen konnte?? Wieso soll ein Spieleentwickler Zeit und Geld in etwas investieren, was keiner nutzen kann? Bisher war die Reihenfolge immer so DX Features --> Graka Features --> Spiele Features, in einem Game kommen die Features erst nachdem es unterstützt wird bzw. die Entwicklung an SM3 in Games begann genau dann als der NV40 kam, daher haben wir jetzt glücklicherweise schon ein paar Games, sonst gäbe es die auch ned.

kimble schrieb:
Vorher hat man es wirklich nicht gebraucht, das kannst du nicht von der Hand weißen, das ist einfach so.
Wat ist das für ein Argument???!!!! Das eins der Argumente, die man in der IT-Welt nicht benutzen kann, denn 64MB Karten hat man "damals" auch ned gebraucht und jetzt sind die zu klein, was sagt uns das? Du musst heute den Grundstein für Morgen legen, auch wenn du ihn heute noch nicht brauchst :rolleyes:

kimble schrieb:
ATI wollte den R520 ja schon viel früher bringen, welcher bekanntlicherweiße SM3.0 Support bieten wird.

Nur hätte ATI nicht mit dem Fertigungsprozess zu kämpfen, wäre der R520 schon im ersten Quartal gekommen.

Es ist ja kein Geheimnis mehr, das ATI mit dem Erscheinungstermin deutlich daneben gelegen hat, man dachte einfach es würde besser mit dem 0.09µ-Fertingungsprozess laufen.
jepp stimmt, da ist es leider schief gelaufen :(


kimble schrieb:
Habe ich etwa geschrieben das der G70 schlecht ist? Nein.

Das Feature "Trancparenz AA" würde ich auch gerne bei ATI sehen, ich halte sehr viel davon, bzw. wünsch mir das.

Ob der G70 so viel besser performt werden wir sehen, wenn der R520 in etwas weniger als 2 Wochen präsentiert wird, SM3 und HDR unterstützt er ja auch.

Dazu kommt die bessere Videoperformance hinzu, mit extrem guter Bildqualität und konkurenzlos niedriger CPU-Auslastung.
das stimmt und falls du genau lesen würdest, habe ich nirgends geschrieben, dass ATI viel schneller oder viel langsamer "ist, sein wird", sondern "was wäre, wenn".

kimble schrieb:
Preisenkungen gibts bei ATI auch zu Genüge, die X800 XT PE zB. Die war letztens für 240€ zu haben und ist schneller als eine 6800 XT und gleichauf mit der Ultra.
Also ohne Konkurenz, die 6600 GT hate ein paar Monate keine Konkuren (P/L Verhältnis), aber das hat sich jetzt geändert, die X800 GT ist schneller und kostet auch nicht mehr :)
ich meinte auch eher die Preissenkung der GT/GTX von NV, weil die Karten ja doch noch recht neu sind, bei der letzten Gen hats ewig gedauert bis da mal was gesenkt wurde, aber gut hat ewig gedauert bis es welche zu kaufen gab :lol:

kimble schrieb:
Ich sehe außerdem nicht, das ATI hochmütig ist, sondern eher nVidia, die ja wiedermal lustige Folien bei der Präsentation aufgelegt haben.

Arroganz kriegt hier eine ganz neue Bedeutung :)
das ist Marketing und das machen alle Firmen, ATI würde das genauso machen, gehört leider dazu :(

kimble schrieb:
Es hat sicherlich nicht soviel gekostet, wie ein Großteil der 300 Millionen Dollar, die nVidia mit der NV30 rausgehauen hat.
Die FX-Eginige blieb zwar, aber es musste ein ganz neuer Chip entwickelt werden, der NV40 war auch wieder eine Neuentwicklung.
Es mag sein dass der R420 größtenteils noch auf den R300 basiert, aber ATI hats doch irgendwie geschickter gemacht ;)
egal wie viel, aber es kostet deutlich mehr, als wenn es bereits nen 110nm R520 seit Juni/Juli oder so gäbe

kimble schrieb:
Viel mehr sollte sich nVidia fragen, warum konnten wir nicht mit 3 Neuentwicklung schaffenm ATI mal so zu treffen, wie sie uns mit der R300 getroffen haben :bigok:
der R300 war ein Superwurf keine Frage und NV wird sowas denke ich ned gelingen

kimble schrieb:
Oh man, merkst du noch was?

WEIL MAN DIE KUNDEN NICHT VERÄGERN WILL! Das wäre ein Imageschaden!

ATI und nVidia haben ordentlich eins auf den Deckel bekommen, als die den NV40 und den R420 lange Zeit nicht liefern konnten.
Imageschaden? Was hat denn Specs nennen mit Imageschaden zu tun? Ich finde es viel frecher am Anfang so hohe Töne zu spucken und dann 6 Monate dicht zu halten, das nenne ich Imageschaden. Ich verlange doch gar ned den Release, aber mal hinschreiben, ob es 16Pipes oder 128 sind oder was weiss ich bei wie viel Takt, das geht doch oder? Das ist dann "kein" Release, also kein Paperlaunch, sondern ein "heiß" machen der Kundschaft und damit die Wartezeit zu überbrücken :rolleyes:, aber so wie es aussieht, war sich ATI ned mal sicher, was der R520 eigentlich sein wird (Pipes + Takt) :hmm:


kimble schrieb:
Scheint mir nicht so, sonst würdest du keine Fragen stellen, die bereits seit ein paar Monaten geklärt sind.
vor Monaten geklärt???!! Fast jeden Tag wird hier gefragt, wieso es so lange dauert und wieso ATI ruhig ist und die Specs sind immer noch ned zu 100% geklärt, darf ich dich fragen, was seit Monaten geklärt ist und von wem? Wie hieß der ATI Sprecher dazu?

kimble schrieb:
Siehe oben, es soll ja kein Papierträger werden, außerdem würde man dann nVidia schneller Spielraum geben um zu reagieren.

Was fragst du überhaupt Sachen die so klar sind wie Klosbrühe?
ein Papierträger ist eine releaste Graka, die als Testsamples verschickt wurde und man überall Benchmarks sieht und mehr passiert auch nicht, aber Specs sind was anderes, ein paar Infos, AMD/Intel zeigen ja wie es geht mit ihrer Roadmap und hast ja recht, das sind alles Papierträger :lol:

kimble schrieb:
Und wusstest du, das ATI schon länger Chipsätze baut als nVidia und die schnellsten Chipsätze mit integrierter Grafik

(Ich meine nur damit den integrierten Grafikchip, nicht den Chipsatz ansich)
aha und? Intel verkauft trotzdem mehr... Und ich weiss, das ATI Chipsätze baut und das schon seit langem und mein Avatar ist Nforce, weil ich ein Desktop-System nutze und kein OEM :rolleyes:

kimble schrieb:
Was du im GTO-Thread schreibst interessiert mich nicht, es geht jetzt hierum was du hier schreibst und das hatte fast bisher überhaupt keinen Inhalt.
OMG... und was du schreibst, ist der Sinn des Lebens? Sag mal, wieso pöbelst du gerade mich an? Weil ich was über ATI geschrieben habe, was dir ned passt? Ich schreibe in diesem Thread schon länger und du bist der erste, der mich gleich als NV Fanboy abstuft, ich habe noch niemanden nen Fanboy genannt und habe das auch ned vor, denn nur ein Fanboy macht sowas :hmm:.

kimble schrieb:
Es ist in Ordnung, dass du von nVidia mehr überzeugst bist als ich, der eher zu ATI tendiert, auch wenn nicht mehr so extrem wie in letzter Zeit.
ich bin von NV ned mehr überzeugt, ich kaufe, das was mir passt und da ich eben Linux nutze, war es bisher NV. Da ich nun aber ein NB bekomme, wollte ich eine X800XT zum "testen" kaufen, dh. ich wollte mal selbst vergleichen zu ner 6800GT, dummerweise muss ich aber nun meinen Rechner auflösen, das hat aber nix mit ATI oder so zu tun, sondern weil ich in der Familie grad finanziell aushelfen muss.

kimble schrieb:
Aber sachlich sollte man dennoch bleiben und die Gegebenheiten sehen :)
aha, die Gegebenheiten, dass zb.

1. ATI extrem spät dran ist
2. wir ALLE (ja damit bist du auch gemeint) eigentlich absolut NIX über den R520 wissen
3. man andauernd von irgendeinem Releasetermin hört, der ned bestätigt ist, woher hast du das mit den 2 Wochen zb.?

kimble schrieb:
Wenn man im Glasshaus sitzt.......

Aber, ich habe jetzt nun wirklich keine Lust mehr mit dir einen Dialog zu führen, da du sowieso größtenteils nicht objektiv bleiben wirst, das kann ich mir auch schnenken.
echt hart, da warte ich auf den R520, weil ich meinem Cousin den bestmöglichen Rechner zusammenstellen will und da werde ich hier sowas von angemacht, finde ich einfach ned mehr ok... *kopf schüttel*, ich als "NV Fanboy" gebe ATI ja noch ne Chance, aber danke, dass du mich überzeugt hast, jetzt kann ich ihm ruhigen Gewissens ne NV 7800GTX kaufen :coolblue:

ich bin raus aus diesem Thread, das ist ned mehr diskutieren, sondern gleich als "oberflächlicher Fanboy" abgestuft werden, darauf habe ich keinen Bock

@Kampfwurst
zu SM3 kannst ja mal oben schauen, was ich geschrieben habe, wenn NV das ned gebracht hätte, hätten wir jetzt keine Spiele für

EDIT:
ok, kannst auf alles antworten, aber ich werde darauf ned mehr antworten, weil ich hier wie oben geschrieben, nicht mehr im Thread schreiben werde, habe auch keine Zeit dafür, denn ich muss auch zu Hause arbeiten ;)
 
Zuletzt bearbeitet:
Vor allem in Anbetracht dessen, dass der RSX weder von ATI, noch der Grafikchip der neuen Xbox ist.
 
Deswegen ja :d

nur seit dem ich Dominator18 und doom1 ausm 3dc kenne frag ich lieber ^^
 
ich schlage vor,dass ihr eure diskussion auf pm-ebene verlagert... das nervt irgenwie^^
koyote008 schrieb:
n dieser schnellebigen Zeit sind 4 Monate ein "Universum" , vor allem wenn ATI selbst die "Jünger" bereits vor knapp 1 Jahr mit extrem versprechen so richtig heiss gemacht hat.

naja... ATI hat keine Infos rausgegeben..darfst dich beim INquirer bedanken :fresse:
 
Jlagreen schrieb:
sie war schlecht und damit Punkt. Die ATI Rage oder Fury Maxx waren auch ned das gelbe vom Ei und trotzdem wurden sie gekauft, ebenso wie die FX Karten. Auch wird der R520 gekauft werden und das ganz sicher, es ist nur, dass beim FX genau das gleiche passiert ist wie bisher beim R520, am Anfang die Megalorbeeren und der Aufschrei der Fans und dann hats ewig gedauert und die böse Ernüchterung kam.

Nur kannst du nicht die FuryMaxx, eine Dualkarte, mit einer 5800 Ultra vergleichen.

Das der R520 das Gleiche wie der FX blühlt wage ich mal zu bezweifeln, auch wenn man es vor kurzem noch anehmen könnte.

Die FX kam zu spät (Der R520 ist zwar verdammt spät dran, aber zu spät ist es jedoch nicht)

Denn ATI hat durchaus Karten, die zwar allesamt langsamer als die GTX (GT) sind, jedoch ist das nicht die selbe Situation, wie zwischen den R300 und den NV30 , zumal die R520 höchstwarscheinlich schneller als der G70 sein wird, sonst würde ATI die Karte erst garnicht auf den Markt bringen.

Denn was man nicht weiß ist, wie effizient die Architektur der R520 sein wird, da kann es noch durchaus Überraschungen geben.



der NV35 konnte nicht viel besser sein, weil immer noch die selbe Technik verwendet wurde, die an sich sehr gut ist, nur müssen Games dafür ausgelegt sein, was aber eben kein Spielehersteller machte.

Das hätte sich nVidia eben vorher überlgen müssen, das Ergbnis war extrem niederschmetternd, man hat praktisch 2 1/2 Jahre schlechte Zahlen geschrieben, nVidia hat die Führung lange Zeit an ATI abgeben müssen, nun sind sind sie ja ,ingesammt gesehen, in etwa auf einer Höhe.

Ein Glück für nVidia, dass der nForce so gut ging.

ja aber die High-End Chips waren bei beiden nur Paperlaunches :(

So lange hats auch wieder nicht gedauert, es war recht erträglich, wenn man mal die Situation mit dem R420/NV40 vergleicht.

die Treiberoptimierung halte ich allgemein für nen riesen dreck, ob ATI oder NV, beide kurbeln wo es nur geht, dass NV aber bei der GTX sowas machen musste, verstehe ich auch ned... weil ich habe Tests mit dem 78.03er gesehen, viel Performance verliert der auch ned...

nVidia geht aber einen Schritt weiter bei ATI. Das es ATI macht bestreite ich ja garnicht, aber bei nVidia ist es eben sichtbar, nicht so bei ATI.

Was nicht so schön war ist, dass man bei ATI die Optimierungen vor geraumer Zeit nicht deaktivieren konnte, zumindest nicht ohne weitere Umstände.

Aber beide haben darraus wohl gelernt.

zunächst hat NV bereits am FX gearbeitet, da war der R300 auch noch ned draußen, außerdem ist es dieselbe Situation, die ATI dieses Jahr mit dem R520 hatte, man ist mitten in der Entwicklung und versucht gute yields zu bekommen und plötzlich hat die Konkurrenz ne neue Karte, da kannste auch ned alles hinwerfen und nochml von vorne beginnen :hmm:

Also, seit der gForce2 hat sich nun wirklich nichts Bahnbrechendes getant, das waren alles mehr Evolutionstufen.

Die gForce4 war zwar schneller als die 8500er, aber die ATI war zu diesem Zeitpunkt schon fortschrittlicher, bot also die bessere Shaderperformance und die Bidqualität war damals noch deutlich besser als die der gForce. Heute gibts da kaum noch einen Unterschied.

und die Technik des FX war ja was neuartiges, nur eben nicht leistungsfähig genug, die ATI Karten waren auch schon vorm R300 ganz gut teilweise, aber bsp. waren oft OpenGL Probs ein Hindernis zum Kauf.

Die FX-Engine war Marketing³. Einen wirklichen Nutzen brachte sie nicht.

Und OpenGL wird in Zukunft keine Rolle mehr spielen. Windows Vista wird es nur emulieren und Linux soll eine eigene Schnittstelle bekommen - OpenGL ist bald tot, mausetot.

Aber es nicht von der Hand zu weißen, das ATI schlechter unter OpenGL performt, auch wenns nicht mehr so gravierend wie früher ist, Unterschiede bestehen dennoch.

Das sieht man ja auch ganz gut bei DOOM 3.


und wieso kommen "jetzt" die Spiele? Wieso ned als es DX9 shcon gab? Wieso? Vielleicht, "weil" damals kein Schwein mit seiner Graka was damit anfangen konnte?? Wieso soll ein Spieleentwickler Zeit und Geld in etwas investieren, was keiner nutzen kann? Bisher war die Reihenfolge immer so DX Features --> Graka Features --> Spiele Features, in einem Game kommen die Features erst nachdem es unterstützt wird bzw. die Entwicklung an SM3 in Games begann genau dann als der NV40 kam, daher haben wir jetzt glücklicherweise schon ein paar Games, sonst gäbe es die auch ned.

nVidia hat den Anfang gesetzt, das ist wahr. Die Spielentwickler sehen große Vorteile in SM3.0, da ihnen die Arbeit erleichtert wird. Man spaart Zeit, den Rest kann man sich ja ausmalen.

Es ist aber wirklich so, dass erst jetzt so langsam das Ganze ins Rollen gebracht wird. Ein Beispiel ist ja FarCry, der HL2 mit HDR, oder SplinterCell 3.

ATI ist es für bis zu diesen Zeitpunkt nicht für notwendig, SM3 zu implementieren.


Wat ist das für ein Argument???!!!! Das eins der Argumente, die man in der IT-Welt nicht benutzen kann, denn 64MB Karten hat man "damals" auch ned gebraucht und jetzt sind die zu klein, was sagt uns das? Du musst heute den Grundstein für Morgen legen, auch wenn du ihn heute noch nicht brauchst :rolleyes:

Ich formuliere es mal anders. Sollte man eine ATI ,zu diesem Zeipunkt, nicht kaufen, nur weil sie SM3 nicht unterstützt?

Der Vergleich mit der Speichermenge hinkt ein bißchen. Die Vergangenheit hat gezeigt, dass man immer mehr Speicher brauchen wird und dass das auch weiter der Fall sein wird.

Die Spiele haben bis dahin kein SM3 unterstützt, also sah es ATI für nicht notwendig an, diesen zu emplementieren.

Warscheinlich hat sich ATI da verspekuliert, denn das ganze kommt wohl schneller ins Rollen, also offenbar gedacht.

ich meinte auch eher die Preissenkung der GT/GTX von NV, weil die Karten ja doch noch recht neu sind, bei der letzten Gen hats ewig gedauert bis da mal was gesenkt wurde, aber gut hat ewig gedauert bis es welche zu kaufen gab :lol:

Ja, wenn die die GT(X) meinst, das ist in der Tat nVidia positiv anzurechnen.

Wobei man sagen muss, dass die 6800 Ultra auch ziemlich im Preis gefallen ist und diese eine mehr als ausreichende Leistung bereitstellt.

Somit muss mal halt die GT(X) den Kunden atraktiver machen.

das ist Marketing und das machen alle Firmen, ATI würde das genauso machen, gehört leider dazu :(

Nur nVidia geht hier ab und zu etwas unter die Gürtelinie, bzw.zeigt dies auf eine Art, die weniger als sachlisch angesehen werden kann.

egal wie viel, aber es kostet deutlich mehr, als wenn es bereits nen 110nm R520 seit Juni/Juli oder so gäbe

Das weiß wohl keiner, aber es ist nich anzunehmen. nVidia brauchte schließlich 2 Neuentwicklungen um überhaupt mal ins ATI Regionen zu kommen, der dritte Anlauf war erfolgreich. Man hat ATI zwar nicht dynamisch überholt, aber leicht vorbei gezogen ist man schon, wenn man das Gesammtpaket sieht (Leistung vs. Features)

Aber deutlich war das immer noch nicht. Es gibt ja durchaus Karten von ATI, die schneller als die 6800 Ultra sind.

Der G70 ist wiederum neu, dieser muss sich nun bald mit dem R520 messen.

der R300 war ein Superwurf keine Frage und NV wird sowas denke ich ned gelingen

Sag niemals nie.
Allerdings ist es unwarscheinlich, das einer der beiden Chipschmieden nochmal so in einen Tiefschlaf fallen wird, es geht dafür einfach um zu viel.

Imageschaden? Was hat denn Specs nennen mit Imageschaden zu tun? Ich finde es viel frecher am Anfang so hohe Töne zu spucken und dann 6 Monate dicht zu halten, das nenne ich Imageschaden. Ich verlange doch gar ned den Release, aber mal hinschreiben, ob es 16Pipes oder 128 sind oder was weiss ich bei wie viel Takt, das geht doch oder? Das ist dann "kein" Release, also kein Paperlaunch, sondern ein "heiß" machen der Kundschaft und damit die Wartezeit zu überbrücken :rolleyes:, aber so wie es aussieht, war sich ATI ned mal sicher, was der R520 eigentlich sein wird (Pipes + Takt) :hmm:

Es wirft numal kein gutes Licht, wenn ein Hersteller etwas groß veröffentlicht und dann nicht liefern kann, bzw. das Produkt zu später als gedacht auf den Markt kommt.

Und das hat ATI mit der R520 noch nicht gemacht, also kann man ATI nichts vorwerfen.

Man hat keinen Termin genannt, ATI konnte ihn ja auch garnicht nennen, da eben die Probleme vorhanden waren.

Aber wo hat ATI denn so hohe Töne gespuckt?

Und man macht keine offizienen Angaben, schon garnicht wenn man Probleme wie ATi sie gehabt hat, denn dann kann die Konkurenz besser sich auf einen Gegenschlag vorbereiten.

Wenn ATI bei den Angaben lügt, dann würde man sich zum Gespött machen.

Daher tief stapeln und ersteinmal nichts sagen.


vor Monaten geklärt???!! Fast jeden Tag wird hier gefragt, wieso es so lange dauert und wieso ATI ruhig ist und die Specs sind immer noch ned zu 100% geklärt, darf ich dich fragen, was seit Monaten geklärt ist und von wem? Wie hieß der ATI Sprecher dazu?

Mag sein das es hier bei Hardwareluxx so ist, aber wenn du mal auf www.3dcenter.de in den R520-Spekulationsthread hineinschaust stellst du fest, das Einiges schon sehr klar ist und warum das so und so ist.

ATI hat selber zugeben, dass sie Probleme mit dem Fertingungsprozess hatten und genau danach hast du gefragt, die ganzen Newsseiten sind voll damit.

Man brauchte 2 Respins, da man die Taktraten nicht realisieren konnte, die notwendig sind, damit der R520 schnell genug wird.

ein Papierträger ist eine releaste Graka, die als Testsamples verschickt wurde und man überall Benchmarks sieht und mehr passiert auch nicht

Das ist korrekt, habe ich auch garnicht bestritten.

, aber Specs sind was anderes, ein paar Infos, AMD/Intel zeigen ja wie es geht mit ihrer Roadmap und hast ja recht, das sind alles Papierträger :lol:

Das habe ich doch bereits geschrieben, man will es der Konkurenz so schwer wie möglich machen, zu sehen, wie schnell der R520 wirklich ist.
Bis vor kurzem gab es ja wirklich ein Hin- und Her, das ist nicht das Schlechteste aus Sicht von ATI, aber das Schlechteste aus der Sicht von nVidia :)

Weil es waren ja Spekulationen, aber auch schon eindeutige Tendezen zu sehen, so wie jetzt.

So ist der R520 auf dem Papier dem G70 leicht unterlegen (Fillrate kann man ausrechnen), aber das sagt ja nicht alles aus.



aha und? Intel verkauft trotzdem mehr... Und ich weiss, das ATI Chipsätze baut und das schon seit langem und mein Avatar ist Nforce, weil ich ein Desktop-System nutze und kein OEM :rolleyes:

Intel verkauft nicht nur mehr, Intel ist Marktführer vor ATI/nVidia, wenn es um Grafikchips geht ;)

Schön das du mir unterstellst, ich könnte kein nForce- von eimem gForce-Logo unterscheiden.

Aber man trägt das nicht unbedingt zur Show, welche Hardware man bevorzugt, da geht man von vorne rein härter ins Gefecht, man weiß ja nicht mit wem man es da zu tun hat ;)

Das musst du dann eben auch aushalten.

OMG... und was du schreibst, ist der Sinn des Lebens? Sag mal, wieso pöbelst du gerade mich an? Weil ich was über ATI geschrieben habe, was dir ned passt? Ich schreibe in diesem Thread schon länger und du bist der erste, der mich gleich als NV Fanboy abstuft, ich habe noch niemanden nen Fanboy genannt und habe das auch ned vor, denn nur ein Fanboy macht sowas :hmm:.

Nunja, es ist ja so, dass du wirklich Thesen aufgestellt hast, die so nicht stimmen und es auch so hinbiegst wie es dir passt.

Und der GTO-Thread hat mit diesem ja wohl wirklich Nichts zu tun, zumal ich auch garnicht mehr weiß was du da geschrieben hast, du kannst doch nicht von mir verlangen, das ich das mir alles behalte.

ich bin von NV ned mehr überzeugt, ich kaufe, das was mir passt und da ich eben Linux nutze, war es bisher NV.

Zur Kentniss genommen.

Da ich nun aber ein NB bekomme, wollte ich eine X800XT zum "testen" kaufen, dh. ich wollte mal selbst vergleichen zu ner 6800GT, dummerweise muss ich aber nun meinen Rechner auflösen, das hat aber nix mit ATI oder so zu tun, sondern weil ich in der Familie grad finanziell aushelfen muss.

Ja tut mir ja auch leid, aber ich weiß das nicht was das jetzt mit dem Thread zu tun hat.

aha, die Gegebenheiten, dass zb.

1. ATI extrem spät dran ist
2. wir ALLE (ja damit bist du auch gemeint) eigentlich absolut NIX über den R520 wissen
3. man andauernd von irgendeinem Releasetermin hört, der ned bestätigt ist, woher hast du das mit den 2 Wochen zb.?

1. Ja spät, aber nicht zu spät, so lange gibts ja die GT(X) auch nicht.
2. Wir alle wissen nichts Konkretes, aber es gibt schon Einiges was man weiß, sogar sehr viel.
(Spekuthread auf www.3dcenter.de)
3. Es ist ofiziell, dass der R520 Ende September releast wird.

echt hart, da warte ich auf den R520, weil ich meinem Cousin den bestmöglichen Rechner zusammenstellen will und da werde ich hier sowas von angemacht, finde ich einfach ned mehr ok... *kopf schüttel*, ich als "NV Fanboy" gebe ATI ja noch ne Chance, aber danke, dass du mich überzeugt hast, jetzt kann ich ihm ruhigen Gewissens ne NV 7800GTX kaufen :coolblue:

Ich mache dich nicht an, bzw. habe Nichts gegen dich. Ich verteidige auch nicht ATI.

Es gibt einfach Dinge die richtig gestellt werden müssen. ATI ist dir bestimmt sehr dankbar, das du ihnen noch eine Chance gibst.

:angel:
ich bin raus aus diesem Thread, das ist ned mehr diskutieren, sondern gleich als "oberflächlicher Fanboy" abgestuft werden, darauf habe ich keinen Bock

Ich habe dich nicht als oberflächlich hingestellt, allerdings sah es wirklich so aus, als wärst du ein Fanboy, im Verlaufe des Dialoges hat sich das als anders herausgestellt, warum nicht gleich so?

EDIT:
ok, kannst auf alles antworten, aber ich werde darauf ned mehr antworten, weil ich hier wie oben geschrieben, nicht mehr im Thread schreiben werde, habe auch keine Zeit dafür, denn ich muss auch zu Hause arbeiten ;)

Gelesen und zur Kentniss genommen.

Bis denn

:)
 
@kimble & Jlagreen
könntet Ihr bitte diesen Scheiß per PM klären.

ATI hat eben den 5.9er Treiber veröffentlicht.
 
Indem man die Tasten oft genug drückt.
 
Zuletzt bearbeitet:
@BoSS
dem stimme ich nur zu, einige denken sie haben mehr ahnung als sie wirkllich haben :rolleyes:

aber am ende kann man X1800XT vs. 7800GTX erst machen wenn beide draußen sind.
aber denke mal er wird gleichviel oder gar weniger leistungs und dadurch verlustleistung haben. ;) mal sehen was rauskommt ...
wir müssen uns ja noch ein wenig gedulden.
 
Stratowski schrieb:
Indem man die Tasten oft genug drückt.
Ohne es mir durchgelesen zu haben: Wenn man sich auskennt und meint, seine ausführliche Meinung zu nem Thema posten zu müssen, ist das keine Kunst. Außerdem verfälschen die vielen Zeilensprünge die Länge etwas, wenn es richtige Absätze gäbe sähe es wesentlich kompakter aus und würde den Thread auhc net so langziehen. :d

Aber irgendwie will ich jetzt nix mehr zu dem Thema sagen. Langsam reichts hier irgednwie, das sind ja alles nur Spekulationen und OT was zu nix führt. Man hat mich schon als Spammer bezeichnet weil ich in diesem Thread die meisten Posts verfasst hab. Daher warte ich bis offizielle Benchmarks und Infos zu den Karten draußen sind. Aber ich bin eigentlich relativ stark davon überzeugt, dass es bei mir nochmal nF4 und halt ne 78GT by XFX @450MHz wird. :)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh