nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
verstehe nicht was dieses ganze rumgelaber soll...
Eine HD 5850 ist vllt. höchstens 10% schneller als eine GTX 285. In DX11 vllt. noch ein wenig mehr, was erstmal nicht so wichtig ist.
Ob jetzt eine Karte in einem Spiel mal deutlich langsamer oder schneller ist, ist egal. Es zählt die overall performance.

Wenn ich hier manche Kommentarte lese, dann frage ich mich, ob hier einige Leute bei ATI/NVIDIA arbeiten.

Beide Hersteller machen gute Karten. Ati ist eher auf P/L aus, während Nvidia das bessere Gesamtpaket (physX, 3D vision etc.) und bisher immer ein wenig schneller war.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
u got point classic ;)
 
Zuletzt bearbeitet:
Ich will einfach abwarten obwohl mich eine 5850er oder 5870er schon reitzen würde.
 
Phantom richtig quoten pls... es ging nicht um die 285, lies weiter oben warum das gepostet wurde
 
Natürlich ist ATI technisch besser , sie bekommen mit weniger fast das gleiche bei rum wie Nvidia mit einem Monster.

Ich glaube wir haben unterschiedliche Vorstellungen darüber, was technisch besser bedeutet. Bei deiner Vorstellung empfehle ich dir einen Casio Taschenrechner, denn ich glaube an den Schaltungen kann man nun wirklich nichts mehr optimieren. ;)

Nvidias Strategie zielt halt darauf ab, eine Grafikkarte zu produzieren, die für alles geeignet ist. ATI hingegen baut die Karten nur für 3D-Games ohne Zusatzfunktionen wie PhysX. Nun zu sagen die ATI ist technisch überlegen, weil sie kleiner ist und fast die gleiche Leistung bringt, ist natürlich Quatsch. Denn sie bringt ja nur in einem Teilbereich die Leistung. Ein Allroundchip ist meiner Meinung nach die größere technische Herausforderung. Nun hat der Gamer nichts von der DP Leistung des Fermi und auch nichts von den Mul des G200, aber was kümmert mich das als Gamer, wenn das "Monster" trozdem schneller als die ATI-Karten ist?

Auf längere Sicht könnte es allerdings Einfluss haben. ATI könnte nämlich mit der eingleisigen Strategie sehr schnell ernste finanzielle Probleme bekommen. Nvidia hingegen ist durch den GPGPU Markt zusätzlich abgesichert. Auch wenn ich NV-Fan bin, würde es mir nicht gefallen wenn ATI den Bach runter geht.
 
Das ist etwas wiedersprüchlich. Wenn man jetzt von der Leistung pro Hubraum ausgeht hast du recht sind die Radeons wohl effizienter. Aber Technisch besser kann man das nicht nennen. Es hat schon seine Gründe weshalb Flaschenhälse im Chipdesign vorhanden sind.

Hinzu kommt das wenn ich mir eine RV870 Platine ansehe erweckt das nicht unbedingt den Eindruck auf mich das hier möglichst sparsam gearbeitet werden sollte ;)

Wenn man mal den Herstellernamen darüber ausblendet und nur nakte Zahlen betrachtet stehen vllt 20-25% Mehrleistung für NV bei ~46% mehr Transistoren... -> ergo größere Chipfläche.
Sprich AMD Karten arbeiten effizienter pro Transistor. Und dabei wird nur durchschnitts Gamingleistung betrachtet. Bei 8x AA sinkt der Abstand nochmals.

Wie es im GPGPU Bereich ausschaut ist derzeit nicht ganz geklärt, Fakt ist, NV GPUs lassen sich besser/einfacher auslasten als AMD Pedanten. Mit dem richtigen Tool (siehe Furmark Bench) geht aber auch noch richtig was bei den AMD Karten...
Ich weis, es ist nur ein Bench bzw. ein eher Sinnfreies Tool, aber zeigt die Möglichkeiten der Karte.


Also mal ganz ohne Fanboy gequatsche, AMD liefert mehr Leistung pro Transistor, sprich arbeitet effizienter. Der Chip ist kostengünstiger herzustellen im Verhältniss zur gezeigten Leistung als bei der Konkurenz.
So derzeit die Situation beim RV770 vs. G200b.

Beim Fermi wird das nicht anders sein, was man an den derzeit spekulierten ~3Mrd. Transistoren absehen kann. Die Aussage von ~630GFlops/s bei DP und die logische Schlussfolgerung auf die SP Leistung machen die Sache nicht viel besser, bzw. eigentlich noch schlimmer, sofern das stimmen mag.
Es gibt denke ich keinen Grund hier unnötig mit zu niedrigen Werten vorzupreschen, also was von die Tesla Karten haben weniger Takt oder was auch immer. Denn damit würde sich NV in ihrer Paradedisziplin (DP Berechnung) selbst den Wind aus den Segeln nehmen...

Nüchtern betrachtet sprechen diese Zahlen nicht wirklich von exorbitant viel Mehrleistung. Bei ~78% höherer SP Leistung zum Vorgänger bleiben wohl selbst bei bester Skalierung mit den ALUs und dem Rest der Einheiten nur 20-30% mehr gegenüber dem Top RV870...
Was im übrigen genau ins bekannte NV Schema passt. Aber weiterhin 40-50% mehr Transistoren.

ATI hingegen baut die Karten nur für 3D-Games ohne Zusatzfunktionen wie PhysX. Nun zu sagen die ATI ist technisch überlegen, weil sie kleiner ist und fast die gleiche Leistung bringt, ist natürlich Quatsch. Denn sie bringt ja nur in einem Teilbereich die Leistung. Ein Allroundchip ist meiner Meinung nach die größere technische Herausforderung.

Dann erzähl mir mal was Hardwaretechnisch für PhysX Vorraussetzung ist?
Ganz im Ernst. Das ist eine reine Softwaresache und hat rein gar nix mit der GPU zu tun. Also eine Softwaresache einer Hardware Problematik gutzuheißen ist mal mehr als Fail...
 
^^ Danke, trifft den Nagel auf den Kopf auch wenn es einige hier nicht verstehen wollen.

Und andere PhysX immer noch für nen Hardwarefeature halten :d
 
Dann erzähl mir mal was Hardwaretechnisch für PhysX Vorraussetzung ist?
Ganz im Ernst. Das ist eine reine Softwaresache und hat rein gar nix mit der GPU zu tun. Also eine Softwaresache einer Hardware Problematik gutzuheißen ist mal mehr als Fail...

PhysX ist absolut keine reine Softwaresache. Deshalb wird es auch erst seit der 8800er Serie von NV unterstützt. Natürlich kann man es theoretisch auch von der Cpu rechnen lassen.

Edit: Allerdings spielt PhysX ja auch eher eine untergeordnete Rolle bei den Dingen, die NV-Karten den Ati Hardwaretechnisch vorraus haben.
 
Zuletzt bearbeitet:
Natürlich ist es eine Softwaresache, warum GPU erst ab der 8000er genutzt werden dürfte wohl eher am Leistungsspektrum und den GPU Features bzw Aufbau liegen.

Jetzt musst du mir nur sagen das Nvidia die 8000er für PhysX entwickelt hat, kommt doch mal runter von eurer PhysX wunderwelt.
 
Dann erzähl mir mal was Hardwaretechnisch für PhysX Vorraussetzung ist?
Ganz im Ernst. Das ist eine reine Softwaresache und hat rein gar nix mit der GPU zu tun. Also eine Softwaresache einer Hardware Problematik gutzuheißen ist mal mehr als Fail...

Wenn man durch auslagerung dieser Softwaresache die CPU entlasten kann denke ich kann man es doch gutheißen. Schöner wäre es aber wenn man es beiden Herstellern gutheißen könnte.

Und AMD geht etwas vorsichtiger mit der Chipfläche um bei der Planung für ihre Chips. Das sie nach möglichkeit aber versuchen trotzdem drauf zu klatschen was geht solange es im Rahmen bleibt zeigt doch aber das sie eigentlich eher Angst haben durch zu große Produktionskosten verluste gegen NV einzufahren.

Nvidia geht da schon sehr selbstbewusst ran. Nur das sie sehr zögerlich mit der veröffentlichung von informationen sind deuten ja einige als sie haben die Hosen voll.

Ich denke es ist sehr schwer zum jetzigen Zeitpunkt konkrete Informationen zum neuen Produkt auf den Markt zu werfen. Auch wenn einige denken sowas müsse eigentlich nur logisch sein um AMD den wind aus den Segeln zu nehmen. Man würde damit jedoch nicht nur die abverkäufe der Konkurrenz erschweren sondern auch die eigenen der restbestände. Ich ich denke das einigen Boardpartnern das übel aufstoßen würde.

Der Enthusiastenmarkt für den die Karte ja erstmal sein wird bis die Ableger erscheinen werden wird in der Regel auch dann auf die nächst schnellere karte wechseln wenn er zuvor schon eine karte gekauft hat. Die meisten zumindest denke ich. Wenn NV wirklich Angst davor hätte der markt könnte bis zum erscheinen abgegrast sein würden sie schon entsprechend reagieren :bigok:

---------- Beitrag hinzugefügt um 16:31 ---------- Vorheriger Beitrag war um 16:25 ----------

Natürlich ist es eine Softwaresache, warum GPU erst ab der 8000er genutzt werden dürfte wohl eher am Leistungsspektrum und den GPU Features bzw Aufbau liegen.

Jetzt musst du mir nur sagen das Nvidia die 8000er für PhysX entwickelt hat, kommt doch mal runter von eurer PhysX wunderwelt.



Öhm... weil das von der Architektur des G70 garnicht möglich war zu berechnen? :hmm:
 
Natürlich ist es eine Softwaresache, warum GPU erst ab der 8000er genutzt werden dürfte wohl eher am Leistungsspektrum und den GPU Features bzw Aufbau liegen.

Jetzt musst du mir nur sagen das Nvidia die 8000er für PhysX entwickelt hat, kommt doch mal runter von eurer PhysX wunderwelt.

Nein das hat Nvidia sicher nicht. Allerdings hat man damals berteits angefangen die Grafikkarten so zu optimieren, dass in C programmierte Anwendungen gut darauf laufen. Der Fermi bildet hier nun den Abschluß dieser Entwicklung, denn er ist die erste 100% C++ kompatible GPU. Aus diesem Grund läuft PhysX auf NV-Karten. Selbst wenn ATI damals PhysX gekauft hätte und nicht NV, so wäre man bei ATI heute noch lange nicht soweit, dass PhysX auf ihren Karten laufen würde. Außerdem finde ich es sehr lustig, dass du nun die ganzen Optimierungen der NV-Chips für C klein reden willst. Vor ein paar Seiten hast du noch gesagt, dass der Fermi vieleicht gar nicht mehr für Games taugt, da NV ihn nur noch für GPGPU entwickelt hat. (Das halte ich natürlich auch für falsch. NV geht es darum beide Märkte gut zu bedienen.)
 
Nein das hat Nvidia sicher nicht. Allerdings hat man damals berteits angefangen die Grafikkarten so zu optimieren, dass in C programmierte Anwendungen gut darauf laufen. Der Fermi bildet hier nun den Abschluß dieser Entwicklung, denn er ist die erste 100% C++ kompatible GPU. Aus diesem Grund läuft PhysX auf NV-Karten. Selbst wenn ATI damals PhysX gekauft hätte und nicht NV, so wäre man bei ATI heute noch lange nicht soweit, dass PhysX auf ihren Karten laufen würde. Außerdem finde ich es sehr lustig, dass du nun die ganzen Optimierungen der NV-Chips für C klein reden willst. Vor ein paar Seiten hast du noch gesagt, dass der Fermi vieleicht gar nicht mehr für Games taugt, da NV ihn nur noch für GPGPU entwickelt hat. (Das halte ich natürlich auch für falsch. NV geht es darum beide Märkte gut zu bedienen.)

Das bestreite ich ja gar nicht und damit hast du zum Glück Bitburger auch gleich die Antwort auf seine Frage geliefert.

Ich habe nicht gesagt das Fermi nicht für Games taugt , sonder es nicht das Hauptaugenmerk für die Entwicklung vom Fermi ist. Der Gaming Bereich bleibt über und wird natürlich auch bestmöglich bedient. Aber wenn ihr immer noch nicht aufwacht und weiterhin denkt Nvidia geht es darum einen Monster Gaming Knaller abzuliefern tut es mir leid. Für was macht Nvidia Werbung? Tesla - Workstation - Supercomputer , sie wollen diesen Markt erobern und haben mit ihrer Entwicklung im Augenblick sehr gute Karten das zu schaffen. Was bei Gaming bei rum kommt weiß noch niemand , genau so wenig man die Workstation Leistung ohne weiteres aufs Gaming runter rechnen kann.

Die Karten werden schnell sein , aber es sind keine Gamingmonster wie von Nvidia gewohnt.

Das PhysX auf den C++ kompatiblen GPUS läuft ist ein schmankel aber kein Wunderwerk von Nvidia. Es ist ein Abfallprodukt, Krass gesagt, was den Gamern verkauft wird. Über den nutzen streiten wir uns mal nicht.
 
Mit dem Fermi hat Nvidia für Supercomputing einen Meilenstein abgeliefert. Hier steigt die Leistung wirklich um den Faktor 8 und außerdem um enorm wichtige Elemente wie C++ und ECC. Da liegt sicher der Grund für die überschwängliche Werbung in diesem Bereich.

Wir Gamer wären ja alle mehr als zufrieden, wenn wir dx11 und +100% bekommen. Das wäre aber im Gamingbereich nichts außergewöhnliches und kein Grund groß die Werbetrommel zu rühren. Daher sag ich mal abwarten und Tee trinken (eigentlich mag ich kein Tee ;) ).

Edit: Ich stimme dir auch zu, dass PhysX im Grunde ein Abfallprodukt ist. Hier sieht man allerdings die große stärke von NV und daher meiner Meinung nach auch die technische Überlegenheit der All-in-one-Karte. Wer weiß, was für Vorteile NV GPUs in Zukunft durch C++ und Supercomputing noch erhalten. Schließlich sind Mp3's ja auch nur ein Abfallprodukt.
 
Zuletzt bearbeitet:
Mit dem Fermi hat Nvidia für Supercomputing einen Meilenstein abgeliefert.

Naja noch hat NV nichts fertiges abgeliefert. Und wie erfolgreich der Fermi wird steht auch noch in den sternen. Klar hört sich das alles Super an aber Gewissheit hat man immer erst am Ende. Ich meine es gab sicher genug "Super"-Neuerungen von einigen Herstellern die sich toll angehört haben am Ende aber doch nicht soo viel gerissen haben wie erwartet. Damit will ich allerdings nicht sagen das der Fermi schlecht wird.
 
...Klar hört sich das alles Super an aber Gewissheit hat man immer erst am Ende...

Prima angeschnitten... Das gilt aber für beide Seiten der Fronten die hier diskutieren oder? Ist ja ok das hier viele AMD'ler nicht der selben zuversicht sind wie pro NV'ler. Aber in anbetracht dessen das sich hier noch niemand mit Gewissheit darüber äußern kann wie es um dessen Leistung schlußendlich steht, frag ich mich weshalb hier so oft versucht wird Pessimismus zu verbreiten. :hmm:
 
Lass dich bitte nicht von meinem Avatar verleiten zu schlussfolgern dass ich pro AMD/ATI bin wie du vllt aus dem F@H Thread und meinem System entnehmen konntest habe ich atm eine Nvidia Karte im System. Ich bin weder Pro AMD noch pro Nvidia ^^ . Und ja selbst verständlich gilt mein obiger Post für alle Hersteller habe es ja auch bewusst etwas neutraler geschrieben.
Soll jetzt natürlich auch kein Vorwurf dir gegenüber sein das du mich direkt als ATti'ler abstempelst. Deine Aussage hat jedoch nur kurz den Eindruck erweckt.
 
Zuletzt bearbeitet:
Sorry war nicht auf dich bezogen hätte die trennlinie ziehen sollen dazwischen :d

>>Quelle<<
Nvidia Fermi-Grafikkarten kommen in Q1/2010


Das Warten auf Nvidias nächste Grafikkartengeneration mag in diesen Tagen langwierig erscheinen. AMD hat bereits Ende September seinen ersten DirectX 11-Chip präsentiert und ergänzt nun nach und nach sein Portfolio um Chips auf Basis seiner neuen Grafikkartenarchitektur.
Die Wirklichkeit sieht aber so aus, dass Nvidia allenfalls ein Quartal hinter seinem schon 2008 auf internen Roadmaps skizzierten Zeitplan für Fermi liegt.

Die Chancen, dass Nvidia Fermi, wie lange Zeit geplant, in Q4/2009 vorstellen wird, gehen zwar inzwischen gegen Null, aber schon die Anfang Januar startende Consumer Electronics Show in Las Vegas könnte zum Launchevent werden. Eine gute Verfügbarkeit, so sind sich Experten einig, wird aber erst im Laufe des ersten Quartals 2010 erreicht werden können.

Die Gerüchteseite Fudzilla legt den aktuellen Status, der sich auch mit unseren Informationen deckt, dabei gut dar: So berichtet man, dass Nvidia ab Januar vereinzelt Fermi-Chips haben wird und somit theoretisch einen Launch anleiern könnte, Verfügbarkeit aber erst gegen März realistisch scheint.
An dieser Stelle lässt sich auch gut auf den Nvidia-Mann Michael Hara verweisen, der im Rahmen eines Videos zur Fall Investor Conference betont, dass es im ersten Quartal 2010 eine Rekordanzahl von Fermi-basierten Grafikkarten geben werde.

Was bis hierhin also festgehalten werden kann: Nvidias neue Grafikkartenarchitektur, Fermi, wird mit großer Wahrscheinlichkeit noch im Laufe des nächsten Quartals zu erwerben sein. Wann Nvidia den (Soft)-Launch zelebriert, wird zurzeit wahrscheinlich in den Führungsebenen ausdiskutiert, sobald es finales Silizium des Chips gibt.
Ebenfalls muss man klarstellen, dass Nvidias Next-Generation-Chip damit lediglich ein bis drei Monate seiner Zeit hinterherläuft, nachdem in Foren bereits Vergleiche mit Spätzündern wie Geforce FX und Radeon HD 2000 angestellt wurden. AMD konnte seine neue Grafikkartengeneration dagegen pünktlich in Q3/2009 zur Marktreife bringen, ringt aber bis heute mit mäßiger Verfügbarkeit, so dass man die hohe Nachfrage nicht ansatzweise decken kann und der vermeintliche Zeitvorsprung vor Nvidia kaum nutzbar ist.
:banana::banana::banana::banana::banana:
 
Nvidia hat viel Absatz mit dem GT200 gemacht, aber fast keinen Gewinn wegen AMDs Preispolitik, also was hat Nvidia von einem GT300 wenn Sie nichts verdienen?

errinert ihr euch noch als Nvidia nach der Preissenkung von 65nm auf 55nm wechselte und schlechte Qualität (Fiepen, schlechte Kondensatoren & billige Bauteille) hatte, Nvidia ist Peinlich geworden!

Wenn Nvidia die neuen Karten vermarktet gibt es wieder schwierigkeiten weil AMD die Preise drastisch reduziert, dann ist Nvidia gezwungen die Preise ebenfalls bis zu 50% zu Reduzieren oder die Produktion komplett einzustellen, Nvidia wird durch AMD viele Verluste in Zukunft hinnehmen müssen und das weis auch dieser nvidia dummi Fake Chef

Nvidia verdient nur Geld mit dem G92 & OEM schrott.
 
Zuletzt bearbeitet:
Nvidia hat viel Absatz mit dem GT200 gemacht, aber fast keinen Gewinn wegen AMDs Preispolitik, also was hat Nvidia von einem GT300 wenn Sie nichts verdienen?

Wenn Nvidia die neuen Karten vermarktet gibt es wieder schwierigkeiten weil AMD die Preise drastisch reduziert, dann ist Nvidia gezwungen die Preise ebenfalls bis zu 50% zu Reduzieren oder die Produktion komplett einzustellen, Nvidia wird durch AMD viele Verluste in Zukunft hinnehmen müssen und das weis auch dieser nvidia dummi Fake Chef

Nvidia verdient nur Geld mit dem G92 & OEM schrott.
Nvidia wird devinitiv keine Verluste mit dem Fermi einfahren,wenn die GPGPU Sparte richtig anläuft.

Lefrog hat es doch schon gesagt,wofür die Dinger primär gebaut sind u wenn da der Gamingbereich nicht soviel abwirft was solls,wenn man im Supercomputerbereich dafür 200% Gewinn macht:shot:

Was sol denn diese Stimmungsmache hier schon wieder, u der "Dummi Fake Chef" ist keine Diskussionsgrundlage:wall:
 
Zuletzt bearbeitet:
Nvidia hat viel Absatz mit dem GT200 gemacht, aber fast keinen Gewinn wegen AMDs Preispolitik, also was hat Nvidia von einem GT300 wenn Sie nichts verdienen?

errinert ihr euch noch als Nvidia nach der Preissenkung von 65nm auf 55nm wechselte und schlechte Qualität, Fiepen, schlechte Kondensatoren & billige Bauteille, Nvidia ist Peinlich geworden!

Wenn Nvidia die neuen Karten vermarktet gibt es wieder schwierigkeiten weil AMD die Preise drastisch reduziert, dann ist Nvidia gezwungen die Preise ebenfalls bis zu 50% zu Reduzieren oder die Produktion komplett einzustellen, Nvidia wird durch AMD viele Verluste in Zukunft hinnehmen müssen und das weis auch dieser nvidia dummi Fake Chef

Nvidia verdient nur Geld mit dem G92 & OEM schrott.


tjo ist doch Nvidia selber schuld, ist doch ihr problem wenn sie ihre teuren PCBs, grösseren Chips und riesen 512 Bit Si für teuer protuzieren und für weniger verkaufen müssen :shot:
 
tjo ist doch Nvidia selber schuld, ist doch ihr problem wenn sie ihre teuren PCBs, grösseren Chips und riesen 512 Bit Si für teuer protuzieren und für weniger verkaufen müssen :shot:

ich sag ja es macht keinen Sinn Karten ohne Gewinn zu verkaufen, es ist auch egal was Nvidia mit Profikarten vor hat, Fakt ist wenn Nvidia 500 Tausend GT300 Karten verkauft und fast keinen Gewinn macht, es sich nicht lohnt, AMD braucht nur in einem momenr die Preise zu senken, danach wird Nvidia stark unter Druck ausgesetzt, AMD wird in Zukunft immer gegen Nvidia perfekt aufgestellt sein ;) AMD hat viel Erfahrung mit Intel gesammelt, Nvida muss also vorsichtig sein, AMD kann machen was Sie wollen, ein RV870 kostet nichtmal 1/3 in der Produktion als ein Nvidia High End Chip...
 
Zuletzt bearbeitet:
@1337BiTbUrGeR
Aktien interessieren erstmal nicht, vor kurzem waren die AMD Aktien noch sehr unten, aber seit kurzem steigen die sehr schnell hoch, AMD wird sich stark verbessern und die tedenz der Aktien soll später über 10 liegen
 
Zuletzt bearbeitet:
ich sag ja es macht keinen Sinn Karten ohne Gewinn zu verkaufen, es ist auch egal was Nvidia mit Profikarten vor hat, Fakt ist wenn Nvidia 500 Tausend GT300 Karten verkauft und fast keinen Gewinn macht, es sich nicht lohnt, AMD braucht nur in einem momenr die Preise zu senken, danach wird Nvidia stark unter Druck ausgesetzt, AMD wird in Zukunft immer gegen Nvidia perfekt aufgestellt sein ;) AMD hat viel Erfahrung mit Intel gesammelt, Nvida muss also vorsichtig sein, AMD kann machen was Sie wollen, ein RV870 kostet nichtmal 1/3 in der Produktion als ein Nvidia High End Chip...

Das mit dem Druck haben sie beim G80 schon gemacht,das haben sie beim G200 gemacht,das werden sie u müssen sie auch beim Fermi machen u trotzdem wird Nvidia davon nicht untergehen;)

Komisch das immer wieder der Untergang proffezeiht wird und dieses nur niemals eintrifft.

Ist geradezu wie bei ner Sekte:fresse:
 
Untergehen werden sie natürlich nicht, aber der sinn +/- 0 zu machen liegt bestimmt nicht im sinne von Nvidia.

ganz genau

@scully1234
Ich spreche von keinem Untergang von Nvidia, nur befindet sich Nvidia in einer schlechten Zeit zwischen Intel & AMD, keine Chipsatz Lizenzen mehr, Preiskrieg mit AMD sind erstmal nur Anfänge, bei dem G80 war ATI noch nicht direkt konkurrenzfähig, damals zum R600 hatte ATI die Architektur ohne AMD entwickelt...
 
Untergehen werden sie natürlich nicht, aber der sinn +/- 0 zu machen liegt bestimmt nicht im sinne von Nvidia.

Doch wenn man sich dadurch Marktanteile sichert,ist auch ein +/- Null Geschäft ein Geschäft

Ich möchte nicht nochmal wiederholen wollen wo das Geld verdient wird;)

Und mit diesem Geld kann man sich auch einen agressiven Preiskampf im Gamermarkt leisten,selbst wenn man dort wenig bis gar nix mehr verdient dran.

Das Standbein von Nvidia ist nicht mehr der Gamer Markt;)
 
Zuletzt bearbeitet:
Q3 2009 bei AMD

Man beachte vor allem den Gewinn der Grafiksparte...

Und wer google benutzen kann darf auch mal nach NV und deren Q3 2009 zahlen suchen ;)

Nur weil hier ja soviele der meinung sind NV hätte mit dem GT200 kein geld verdient
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh