kimble
Semiprofi
Jlagreen schrieb:du aber auch
Beispiele bitte? Hmm also ich kann aus dem Stand 3 nennen, zum einen den NV3x und dabei der Übergang zu 0,13µ und den Paperlaunch der letzten Gen und das aktuelle "Flimmern", wobei NV scheint aus Fehlern zu lernen, so war der NV40 ein Hit und nen Paperlaunch gabs auch ned mehr, das Flimmern ist mit dem 78.03 auch behoben . Wenn ich schon a la "Aber der da baut auch Mist..." argumentiere, dann auch mit Beispielen .
Richtig, der NV30 war (sorry) die Missgeburt an Grafikship schlecht hin. Er bot kein Direct X9, aber was noch viel schlimmer war, er kam nicht ansatzweise an die Leistung des R300 heran. nVidia hielt es offenbar nicht notwendig, einen 256 BIT-Bus zu verwenden, sondern versuchte die Leistung aus den massiven Mehrtakt herrauszuholen, zusammen mit teuren DDR2-Speicher, der auch sehr heiss wurde.
Das ging sogar so weit, dass einige 5800 Ultras abgeraucht sind, im 2D Modus.
Der Grund? Um die Ohren der Leute wenigstens im 2D Modus zu schonen, regelte sich der Lüfter runter.
Soweit so gut, nur leider erkannte der Treiber nicht, dass der Bildschirmschoner im 3D Modus lief, der Lüfter der Karte lief im 2D Modus - der Chip der Karte pruzelte ab.
Soviel zu den Treibern von nVIdia.
Dann kam der NV35. Und obwohl nVidia genug Zeit gehabt hat, kam auch dieser nicht an die Leistung des R350 heran (Shaderleistung + DX9), schon garnicht an die Filterqualität.
Und als nVidia die 5950 Ultra auf den Markt brachte, brauchte ATI die Taktraten mit dem R360 nur ein wenig anzuheben um nVidia auf Distanz zu halten.
Mit dem NV40 gelang es dann endlich mal, an ATI kurze Zeit vorbeizuziehen (leistungsmäßig), doch an Features hat der NV40 deutlich mehr zu bieten als der R420.
Das ATI auch garnicht geschadet, geschadet hat ATI nur, dass sie zur notwendigen Zeit nicht die Karten im Mainstreamsektor hatten, die sie gebraucht hätten.
Dabei fällt es aber auf, dass nVidia immer wieder die Bildqualität für Mehrleistung opfert.
Beispiel gefällig?
Die NV40 bieten zum Beispiel keine winkelunabhängie Anisotropische Filterung mehr.
Oder auch jetzt das Flimmern mit dem G70, nVidia hat erst was getan, als der große Aufschrei kam, das sagt schon alles aus.
die hatten keine andere Wahl als nen NV35 zu bringen und nebenher parallel am NV40 zu arbeiten, hätten sie nen Mittelweg gewählt und zb. den NV35 ausgelassen, wäre ATI davon gerannt, so hatte man wenigstens eine halbwegs vernünftige Karte und da es damals Games wie HL2 ned gab, wussten auch viele ned, was fürn Kack die FX Reihe war.
Aha, du weißt wie nVidia sich zu entscheiden hat, das ist ja mal interessant.
nVidia hätte sich einach ahnen müssen, dass da etwas Größeres von ATI kommt, dann hätten sie auch so konserativ wie ATI vorgehen können, ohne in Zugzwang zu geraten.
Der Weg von nVidia hat von er Entwicklung des NV30 rund 300 Millonen Dollar verschlungen, ATI hat es besser gemacht, auch wenn sie jetzt einmal nicht mehr die Performancekrone haben.
Jep und? Dafür konnte ich mit dem unter Linux zocken, ich musste damals meine Radeon 9800 Pro gegen ne FX5900XT tauschen, weil ich eben Linux auch gerne verwende, dank geht an ATI, die glauben, dass Linux unwichtig ist .
Also ich bitte dich. Es ist zwar bekannt das nVidia deutlich besser unter Linux performt, gibt anscheinend auch weniger Probleme als mit ATIs, aber Linux ist trotzdem ein OS der Nischengruppe.
So arrogant wie es sich anhört, aber wenn man eben nicht genug Leute hat und auch nicht so viel Geld ausgeben will, muss man das akzeptieren.
ATI hat übrigends angekündigt, einen besseren Linux-Support zu bieten.
Dafür hat ATI ein eigenes "Treiber-Team" für Mac OS.
der Technologievorsprung, also SM3 besteht seit 18 Monaten und dank NV haben die Entwickler auch angefangen das zu verwenden, die Entwickler passen sich dem breiten Grakaspektrum an und da nun genug SM3 Karten im Umlauf sind, kann auch dafür programmiert werden, dank geht an NV .
ATI hatte das auch vor, aber nicht zu diesem Zeitpunkt! Und erst jetzt kommen ja die Spiele, bzw. sind kurzeitig auf dem Markt, die einen SM 3.0 Support bieten.
Vorher hat man es wirklich nicht gebraucht, das kannst du nicht von der Hand weißen, das ist einfach so.
ATI wollte den R520 ja schon viel früher bringen, welcher bekanntlicherweiße SM3.0 Support bieten wird.
Nur hätte ATI nicht mit dem Fertigungsprozess zu kämpfen, wäre der R520 schon im ersten Quartal gekommen.
Es ist ja kein Geheimnis mehr, das ATI mit dem Erscheinungstermin deutlich daneben gelegen hat, man dachte einfach es würde besser mit dem 0.09µ-Fertingungsprozess laufen.
trotzdem ist der G70 ne Super Karte und die Dominanz wird sich in kommenden Games so richtig zeigen, wenn denn mal SM3 + HDR richtig zum Zug kommt, bei Splinter Cell und Fear geht die imo schon ordentlich ab .
Habe ich etwa geschrieben das der G70 schlecht ist? Nein.
Das Feature "Trancparenz AA" würde ich auch gerne bei ATI sehen, ich halte sehr viel davon, bzw. wünsch mir das.
Ob der G70 so viel besser performt werden wir sehen, wenn der R520 in etwas weniger als 2 Wochen präsentiert wird, SM3 und HDR unterstützt er ja auch.
Dazu kommt die bessere Videoperformance hinzu, mit extrem guter Bildqualität und konkurenzlos niedriger CPU-Auslastung.
ganz genau . NV hat seine Hausaufgaben gemacht, ne bessere ATI würden denen auch kaum schaden, denn sie verkaufen schon schön zu netten Preisen. Und mit letzteren machen sie sich gerade besonders beliebt, Preissenkungen in so kurzer Zeit und das ohne Konkurrenz, Hut ab . ATIs Hochmut sollte lieber ned zu groß sein...
Preisenkungen gibts bei ATI auch zu Genüge, die X800 XT PE zB. Die war letztens für 240€ zu haben und ist schneller als eine 6800 XT und gleichauf mit der Ultra.
Also ohne Konkurenz, die 6600 GT hate ein paar Monate keine Konkuren (P/L Verhältnis), aber das hat sich jetzt geändert, die X800 GT ist schneller und kostet auch nicht mehr
Ich sehe außerdem nicht, das ATI hochmütig ist, sondern eher nVidia, die ja wiedermal lustige Folien bei der Präsentation aufgelegt haben.
Arroganz kriegt hier eine ganz neue Bedeutung
6 Monate schlechte Yields und Respins sind also Kostenersparnis? Also NV verdient mit 110nm, wüsste ned was jetzt bei ATI dagegen sprechen würde und so nebenbei hatte NV grad auch mehrere Monate, um 90nm in Ruhe zu testen. Wer war zu erst bei 110nm? NV natürlich , aber ned bei der High-End sondern bei Midrange und das war goldrichtig.
Es hat sicherlich nicht soviel gekostet, wie ein Großteil der 300 Millionen Dollar, die nVidia mit der NV30 rausgehauen hat.
Die FX-Eginige blieb zwar, aber es musste ein ganz neuer Chip entwickelt werden, der NV40 war auch wieder eine Neuentwicklung.
Es mag sein dass der R420 größtenteils noch auf den R300 basiert, aber ATI hats doch irgendwie geschickter gemacht
Viel mehr sollte sich nVidia fragen, warum konnten wir nicht mit 3 Neuentwicklung schaffenm ATI mal so zu treffen, wie sie uns mit der R300 getroffen haben
jepp mag sein, aber ein Presample existiert nun mehrere Wochen, also wieso ned mal nen Bench als Werbung auf der Page? Vielleicht weil sie "kein" GTX Killer ist? Schon mal darüber nachgedacht
Oh man, merkst du noch was?
WEIL MAN DIE KUNDEN NICHT VERÄGERN WILL! Das wäre ein Imageschaden!
ATI und nVidia haben ordentlich eins auf den Deckel bekommen, als die den NV40 und den R420 lange Zeit nicht liefern konnten.
ich habe jeden Fetzen über den R520 gelesen und weisst du was? Nicht einer war von ATI selbst ...
Scheint mir nicht so, sonst würdest du keine Fragen stellen, die bereits seit ein paar Monaten geklärt sind.
Selbst NV hat mehr über den R520 gesagt, als ATI...
Ja genau, haha! Ne mal ehrlich, so soll das stehen hmm?
(ok wenn auch eher fies..). Und ich versuche zu hinterfragen, wieso man "nix" von ATI "hört", also nicht wieso die Karte so lange braucht, sondern wieso ATI sich überhaupt ned dazu äußert?
Siehe oben, es soll ja kein Papierträger werden, außerdem würde man dann nVidia schneller Spielraum geben um zu reagieren.
Was fragst du überhaupt Sachen die so klar sind wie Klosbrühe?
und falls es dir entgangen ist, NV baut auch Chipsätze und genau daher kommt mein Avatar
Achso, ich dachte die kommen von SIS, zu komsich das ich den nForce2 hatte und nun den nForce4.
Und wusstest du, das ATI schon länger Chipsätze baut als nVidia und die schnellsten Chipsätze mit integrierter Grafik
(Ich meine nur damit den integrierten Grafikchip, nicht den Chipsatz ansich)
aha, einfache Art ne Diskussion zu beenden, einfach mal zu sagen "Klappe zu, denn du sagst eh nix, was Pro ATI ist". Und das stimmt ned, ich habe als einer der ersten im X800GTO Freischaltthread ATI für diese neue geile Graka gelobt .
Was du im GTO-Thread schreibst interessiert mich nicht, es geht jetzt hierum was du hier schreibst und das hatte fast bisher überhaupt keinen Inhalt.
Es ist in Ordnung, dass du von nVidia mehr überzeugst bist als ich, der eher zu ATI tendiert, auch wenn nicht mehr so extrem wie in letzter Zeit.
Aber sachlich sollte man dennoch bleiben und die Gegebenheiten sehen
Aber naja, ist schon schwer sachlich zu bleiben, wenn man ne brille mit roten Gläsern und 3 weissen Schriftzeichen trägt
Wenn man im Glasshaus sitzt.......
Aber, ich habe jetzt nun wirklich keine Lust mehr mit dir einen Dialog zu führen, da du sowieso größtenteils nicht objektiv bleiben wirst, das kann ich mir auch schnenken.
[/QUOTE]
Zuletzt bearbeitet: