Stehen NVIDIA schlechte Zeiten bevor? (Update)

die mr sind nicht übertrieben pcghw hat dazu auch ein Video gemacht wie genial es auf der hd 4870x2 geruckelt hat,das ist auf der gtx 295 auch vorhanden nur das nvidia das ganze besser im griff hat.eine Single gpu ist einfach besser da kann man sagen was man will.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wieder einmal hast du den Satz "Das ist hier aber nicht das Thema, es geht um OEMs!" nicht verstanden. Mit deiner Mikrorucklerproblematik bist du hier an der falschen Adresse.


:btt:

_____
Bin gespannt wie's bei NV mit der Preispolitik bzw. dem Segment weiterläuft. Mit der neuen Kartengeneration kommt auch wieder eine neue Mid-End karte. Vielleicht kann NV dann in dem Bereich wieder aufholen und für OEM's attraktiver werden.
 
gut, das ist ja dann geklärt, können wir das thema jetzt bitte wieder aufs eigentliche richten??

oem's haben einfach ganz andere massstäbe, wo bekomme ich mein geld das meiste geboten. das muss dann auch nicht immer die reine leistung sein, sondern kann sich auch auf konditionen, einkaufspreise oder sonstwas beziehen.
 
Nvidia wird schon noch genug verkaufen. Nvidia ist einfach das non plus Ultra wenn es um Grafikkarten geht.ati hat zwar wieder anschluss gefunden aber für die meisten Kunden ist nvidia immer noch beliebter und bekannter,als das nurnoch als Name existierende ati.ist wie bei den cpu da kaufen die Leute auch lieber Intel als amd.der g300 wird wieder alles richten für die hi end user und auch für die oem.
 
Zuletzt bearbeitet:
kennzeichne das bitte als deine persönliche meinung!
 
Nvidia ist einfach das non plus Ultra wenn es um Grafikkarten geht.
Nicht wirklich. Was ist denn das Non plus ultra? Absatz? Da liegt immer noch Intel vorne. Effizienz? Da kann man AMD maximal das Wasser reichen. P/L? Geht ebenfalls an AMD. Maximale Performance? Nun ja, HD 4870 X2 und GTX 295 schenken sich praktisch nichts. Wirtschaftlichkeit? Darüber brauchen wir wohl nicht diskutieren. Feature Set? Mit GPGPU und Physik gehen AMD und nVidia ähnliche Wege. Unterm Strich bleibt das fehlende DX10.1 bei nVidia. Fehlt noch was? Ach ja, das tolle 3D Vision und die perfekten Treiber. :rolleyes:
Nimm es mir nicht übel, aber wer wirklich versucht, objektiv zu bleiben, kann keines deiner Argumente nachvollziehen. Das sind einfach nur subjektive Wahrnehmungen oder Plattitüden ohne Substanz.

der g300 wird wieder alles richten für die hi end user und auch für die oem.
Wenn man gnadenloser Optimist ist, eventuell. Nach dem, was man bisher aber so hört und liest, und etwas realistischer bleibt, glaube ich da weniger dran. Wenn nVidia wieder so einen Monster Chip bringt, mit denen sie vielleicht die 2% des Marktes an Enthusiasten zufrieden stellen können, was ist dann mit dem Rest? G92 re-re-reloaded? Oder bringt nVidia ausnahmsweise auch noch kleinere Designs der neuen Generation? Und wie lange soll das dauern? AMD scheint ja relativ schnell (6 Monate?) auf 28 nm wechseln zu wollen. Gerade angesichts der Probleme der schlechten Yields bei TSMC könnte das für nVidia richtig problematisch werden.
Der Thread fragt schon zurecht. nVidia hat alles andere als einfache Monate vor sich.
 
Wirtschaftlichkeit?
das einzige argument dem man zustimmen kann.

P/L? Geht ebenfalls an AMD.
geht ganz klar für gamer an die 260 GTX und ebenfalls nicht zu vergessen ist die bessere bildqualität bei Nvidia ab dem G80.

es wird wie mit dem G80, Nvidia legt vor und ATI bringt in 2 jahre später grakas die auch so schnell sind. :d
schlecht für mich, denn dann wird der GT300 erstmal sauteuer.
 
dann hau ich noch mal was in die runde.

nv hatte massive probleme mit ihren gfxchips. betroffen waren meist notebooks. dell hatte davon einige bekommen.
irgendwie waren die verunreinigt wodurch ein vorzeitiger defekt nicht auszuschließe war. nv wollte sich nichts davon annehmen weshalb dell eine garantieverlängerung diverser notebooks rausgehauen hatte. und zwar auf eigene kosten um ihre kunden nicht zu vergraulen!

ich glaube solche aktion machen die runde und als oemler würde ich mir 3mal überlegen ob ich noch mit solch einem unternehmen verträge schließe.

dazu kommen noch die treiber probleme und alles was ich so auf den letzten seiten geschrieben habe.

ich glaub als oemler würd es mich wurmen wenn mein produkt ansich super ist nur durch einen fremdhersteller zu massiven reklamationen und nem dahinterstehendem riesen aufwand zur nichte gemacht wird.

und wenn man dann noch nicht mal unterstützung erwarten kann dann war das mal ein vertragspartner...
so seh ich das zumindest.
das sind von mir allerdings nur vermutungen obs wirklich so ist und die oemler sich langsam von nv wegen solchen aktionen abwenden ist schwer zu sagen.

jedenfalls steckt da ne menge geld hinter. zudem kommt intel mit ihren onboardlösungen ja auch sehr stark dazu.
also nicht nur ati macht nv das leben schwerer sondern andere hersteller wie intel oder elsa(soll ja jetzt auch wieder dabei sein oder kommen)

und killermurmel. ich kann dem überhaupt nicht gerecht werden was du hier so alles schreibst.
ist ok ist halt deine meinung aber teilen kann ich sie überhaupt nicht.

nv als nonplusultra zu nennen und ati als nur noch existierender name. oh mann

naja passt schon...

---------- Beitrag hinzugefügt um 04:02 ---------- Vorheriger Beitrag war um 03:55 ----------

geht ganz klar für gamer an die 260 GTX und ebenfalls nicht zu vergessen ist die bessere bildqualität bei Nvidia ab dem G80.

also das ab dem g80 die bildqualität besser geworden ist mag sein. aber die bildqualität reicht einfach nicht an ati ran.

hier hat jemand einen fullhd vergleich mit ner ati und ner nv gemacht und fleissig darüber diskutiert und auch verschiedene sachen eingestellt.
und das ergebnis ist für mich klar.
vor ca 2monaten wurde ich hier im forum in meinem thread blöd angemacht und beleidigt weil ich meinte das das bild von meinem htpc mit nv gfx total matschig und unscharf und farblos aussah. mein nicht eingestellter pc machte an meinem samsung 40zoll direkt ein klares und tolles bild.
nach tagelangem rumprobieren kam ich zum ergebnis das man etwas an der farbwiedergabe verbessern kann aber das bild des atirechners war einfach besser. und der thread von dem anderen user bestätigte meine meinung...

für mich ist das kein dummes nachgeplapper oder sonst was. für mich sind das fakten.
am besten sind ja die leute die behaupten nv hat das beste bild usw aber noch nie ne ati oder sonst was gehabt... wenn man keinen vergleich hat ist natürlich das was man selbst hat immer das beste :hail::d
 
für mich ist das kein dummes nachgeplapper oder sonst was. für mich sind das fakten.
am besten sind ja die leute die behaupten nv hat das beste bild usw aber noch nie ne ati oder sonst was gehabt... wenn man keinen vergleich hat ist natürlich das was man selbst hat immer das beste :hail::d

Na wie doch schon gesagt wurde, der Tellerrand ist bei manchen eben so hoch, das sie da nicht drücker sehen können oder wollen.

Wer mit seinem PC ausschließlich spielt, der wird bei NV wohl wenig Probleme haben. Wenn aber noch bisschen andere Sachen zählen, dann kann AMD bei vielen Sachen nicht nur mithalten, sondern auch vorbei ziehen.

Mal ganz davon ab, beruhen die Meinungen vieler Leute mit Roter/Grüner Brille teils ausschließlich auf horn alten Erfahrungen bzw. auf horensagen anderer.
Letzteres trifft zum Beispiel über die Argumente oben zum R600 zu, AA Problem usw. Wer selbst ne 2900XT/Pro hatte, weis das es kein AA Problem gar, sondern AF das Problem war. ;) Das Gerücht hällt sich aber nach wie vor hartnäckig, weils eben mal irgendwann jemand rausgehauen hat.
Aber gut lassen wir es dabei...
 
also das ab dem g80 die bildqualität besser geworden ist mag sein. aber die bildqualität reicht einfach nicht an ati ran.
hier hat jemand einen fullhd vergleich mit ner ati und ner nv gemacht und fleissig darüber diskutiert und auch verschiedene sachen eingestellt.
ja ok, bei dem full HD vergleich liefert ATI wirklich ein besseres bild.

allerdings ist mir das persönlich egal, ich nutze meinen PC nicht zum filme schauen, dafür gibts große fernseher und entsprechende player. :d

mich interessiert das bild beim zocken und das ist einfach flimmerfreier und besser.
 
Zuletzt bearbeitet:
also wie schon genannt, die Treiber bei NVIDIA sind meist besser gewesen (meine Erfahrung)!

Nun aber ich habe das Problem, dass meine Karte seit dem letzten Treiber nichtmehr im 2D fahren will, wenn ich den Rechenknecht an den FullHD meines Vaters anschliesse (DVI-HDMI).
Dabei gilt nur dass ein Fernseher angeschlossen ist, bei 800x600 @ HD Fernseher ist die auch im 3d, und verursacht so wärme die nicht sein muss!

Ich hoffe der nächste Treiber ist besser!
 
ja ok, bei dem full HD vergleich liefert ATI wirklich ein besseres bild.

allerdings ist mir das persönlich egal, ich nutze meinen PC nicht zum filme schauen, dafür gibts große fernseher und entsprechende player. :d

mich interessiert das bild beim zocken und das ist einfach flimmerfreier und besser.

naja genau darum geht es ja.
nicht nur bei filmen ist das bild so.
bei meinem wechsel nach massig probs mit meinem nv system musste ich nicht nur feststellen das mit dem wechsel nicht nur meine probleme verschwunden sind sondern auch zb. bei grid (das ist bei jedem spiel so) alles aufeinmal schärfer wiedergegeben wurde. hatte mich erst gewundert warum das alles so toll aussieht. allerdings nachdem ich cod4 angemacht habe bestätigte sich meine vermutung. das bild sah einfach schärfer und farbenfroher aus.
bei crysis war der effekt nicht so stark aber bei bf2 usw dann wieder deutlich sichtbar...

ich möchte natürlich nicht verschweigen das auch ati hier und da probleme hat. ganz einfaches beispiel ist das problem mit der dünnen weißen umrandung bei pfützen im game cod5. oder die blendgranate bei cod4 verursacht ein komplett anderes bild als bei nv.
aber alles in allem sieht das bild einfach schärfer und farbenfroher aus.

da kann ich noch ein gutes beispiel geben. wenn man zb. bei cod4/5 als scharfschütze auf eine la landschaft mit vielen bäumen oder gegenständen guckt erkennt man dank der schärferen konturen leichter gegner.
und das ist wirklich keine einbildung.

glaubt es mir oder lasst es. im endeffekt ist mir das auch latte. für mich sind das mit eigenen augen gesehene fakten.

allerdings ist mein letzter kenntnisstand bei der gtx280...
wie es mit den neueren aussieht kann ich nicht beurteilen... aber der unterschied zwischen 88ergtx und gtx280 lag nur in der leistung die bildqualität war gleich...

---------- Beitrag hinzugefügt um 11:29 ---------- Vorheriger Beitrag war um 11:24 ----------

Ich hoffe der nächste Treiber ist besser!

hehe und genau das habe ich jahrelang zu zeiten von nv auch immer gehofft.

und auch jetzt noch hoffe ich das in meinem htpc noch bessere treiber für die nv lösung kommen damit cuda auch immer vernünftig funktioniert und das bild besser wird usw... die hoffnung stirbt zuletzt
 
Die reine und nackige Bild/Farbdarstellung soll bei AMD auch besser sein... Ließt man hier und da und auch Reviews bestätigten diese Tatsache schon mehrfach.
Den Fakt würde ich aber nicht zu sehr gewichten, weil eben der Unterschied nur im direkten Vergleich sichtbar ist. Liegen hingegen ein paar Tage zwischen den Tests/dem Umstieg auf die Konkurenz, wird man keinen nennenswerten Unterschied sehen können.

Fehlende Bildschärfe könnte aber von bestimmten AA Modi kommen.
An den Farben ansich kann man aber noch in den Einstellungen ein wenig rumprobieren, da bekommt man sicher für sich ein brauchbares Ergebniss hin ;)
 
Zuletzt bearbeitet:
Schaut mal selber nach:
1.) Ein Selbstversuch bei Dell zeigt, dass da bis auf 2-3 Spitzenmodelle alle PC's und Books mit einer Intelonboard- oder ATI - Lösung ausgestattet ist.

2.) Laut dem EGH-Urteil zur INTEL-AMD Problematik weiß man, dass in Europa die Satur-Media-Holding (Saturn und Media-Markt) einen Marktanteil an Rechnern von über 40% hat. Dort finde ich aber inzwischen auch mehrheitlich Intel-AMD Lösungen als Intel-Nvidia.

Und für einen Hersteller sind die 1,5% der Enthusiasten in ihren Büchern egal. Das ist nur gut für das Image.
 
das bild sah einfach schärfer und farbenfroher aus.

Ich bin von einer 8800GTS640 auf eine 4870 gewechselt und halte das Argument für Augenwischerei. Wenn du bei beiden Grafikkarten die Treibereinstellungen standardisiert belässt, kann man da bestenfalls auf Ebene der Einbildung argumentieren, aber in Spielen kannst du da keinen tatsächlichen Vorteil für irgendwen herbaizaubern. Wenn überhaupt, dann ist das AF auf der GeForce besser. Was den Rest angeht, sind beide ähnlich (schlecht). Gut, jetzt magst du hingehen und sagen "Na, auf Standard lassen ist ja auch blöde! Mach CFAA an!". Dann gibts bei nVidia allerdings immer noch die Hybridmodi. Und die können auch so einiges. Sogar so viel, dass ich persönlich sie weit besser finde als jede noch so gigantische CFAA-Variante, weil Texturaliasing auch bekämpft wird. Und was das AF angeht, kann man ebenso in beide Richtungen argumentieren - ATis AF-Blume hat die bessere trilineare Komponente, die von nVidia steht bei schlechten Winkeln besser da.

Alles Grütze also? Möglicherweise. Wie man sieht, stehen die Hersteller, was die Fakten angeht, beide ziemlich ähnlich da. Bleibt noch die Farbdarstellung. Und ihr wollt nicht wirklich auf Grundlage von etwas argumentieren, was man a) unglaublich nachjustieren kann, was b) längst nicht nur von der Grafikkarte, sondern insbesondere auch vom Monitor abhängig ist und was - vor allem - c) hochgradig subjektiv ist?

Die BQ-Diskussion über beide Hersteller kommt schon seit 2003 immer wieder auf. Damals war sie noch gerechtfertigt, heute ist sie es nur noch bedingt.

So, und jetzt noch was anderes - ich hoffe, es war nicht schon da: http://www.gamestar.de/hardware/news/prozessoren/1956502/will_nvidia_amd_kaufen.html

Grüße

Tante Edith sagt:

darkpope schrieb:
Und für einen Hersteller sind die 1,5% der Enthusiasten in ihren Büchern egal. Das ist nur gut für das Image.

Rüschtüsch. Aber: Das Image wiederum beeinflusst den Verkauf in der gewinnrelevanten Schicht, dem Mainstream. Insofern ist das eine Milchmädchenrechnung, die man so nicht stehen lassen kann, weil sie unvollständig ist.
 
Zuletzt bearbeitet:
natürlich liegt es auch an den einstellungen, z.b. Supersamling macht das bild sehr schwammig und unscharf.

o_O Was, bitte, machst du für Supersampling? Malst du die Pixel mit dem Filzstift auf den Monitor?
Entweder bist du einer, der generell sagt, dass Antialiasing das Bild "unscharf" macht, dann ist das aber nicht nur bei SSAA so, oder du stellst es so dar, wie es ist, nämlich dass mehr Information ins Bild einfließt, was mehr oder weniger das Gegenstück von Unschärfe ist. Auch das passiert bei allen AA-Varianten.
 
Rüschtüsch. Aber: Das Image wiederum beeinflusst den Verkauf in der gewinnrelevanten Schicht, dem Mainstream. Insofern ist das eine Milchmädchenrechnung, die man so nicht stehen lassen kann, weil sie unvollständig ist.

Wobei ich immer noch glaube, das dem Otto-Normal-Pc-Käufer es wirklich schnuppe ist, was für ein Grafikchip drinnen ist. Sagt der Verkäufer: "Superschnell, kannste alles mit machen!" kauft der Kunde das. Mit dem Mainstream-Karten im Retailmarkt kann das zwar anders aussehen, da gibt es aber mündigere Kunden, die sich vorher informieren (div. Zeitungen oder Foren). Aber prozentual am Gesamtumsatz sind die doch gering. Ausserdem greifen die nicht zu einer HD4350, HD4370 oder 8400, 9400. Die greifen lieber zu höherwertigen Modellen. Wenn jedoch die Brot und Butterchips nicht mehr verkauft werden, macht sich das in den Umsatzzahlen stärker bemerkbar, als wenn im oberen Mainstream 10% Umsatzeinbußen aufgrund von irgendwas sind.
 
man muss nur mal half live2 sehen das Bild scheint auf der ati zwar etwas schärfer zu sein aber dafür flimmert das ganze deutlich,bei nvidia ist das Bild supper ruhig.das das hd Bild bei ati besser ist kann ich auch nicht bestätigen,habe King Kong auf ner hd 4890 und auf ner gtx 285 gesehen auf nen 42 Zoll panasonic Plasma und das Bild war bei nvidia einen Tick ausgeglichener.ja die 2900 xt/pro Serie hatte massive einbrüche bei zuschaltung von aa darüber berichten alle Tests,diese Schrottkarte zu verteidigen ist ja wohl ein Witz.ati hat erstwieder mit der hd4850/70 Land gegen nvidia gesehen.warum waren die 8800 Karten auch so lange preistabiel?
 
das sind nur meine erfahrungswerte.
spiel mal anno 1701 mit SS und MS, beim ersteren ist das bild unscharf, beim zweiteren ist es scharf und es sieht gut aus.

wenn ich mich recht erinnere, liegt das an einem bug...

edit:
nichtsdestotrotz würde ich bei der wahl zwischen zwei P/L-technisch gleich guten grakas immer zur nvidia greifen, weil sie mir mehr bietet.

Sie bieten dir nicht mehr, du bist einfach ein Fanboy? Man kann alles so drehen wie man will....wenn ATI vorne ist, dann interessierts dich net und wenn Nvidia vorne ist, sei es noch so ein großer Schwachsinn, ist es natürlich ein "Plus"!

Solche Diskussionen in einem Forum wo 12-16 jährige ihr Unwesen treiben sind total den Kaktus, wobei das nicht auf die zitierte Person bezogen ist.
 
Zuletzt bearbeitet:
Wobei ich immer noch glaube, das dem Otto-Normal-Pc-Käufer es wirklich schnuppe ist, was für ein Grafikchip drinnen ist. Sagt der Verkäufer: "Superschnell, kannste alles mit machen!" kauft der Kunde das.

Jup, eben. Und wir kennen ja vermutlich alle die Verkäufer in (vielen) Standard-Saturn-Filialen: Wenn die gehört haben, dass nVidia/ATi gerade die übelste ub0r-monstarr-Karte auf den Markt gebracht hat, trübt das gern mal die Wahrnehmung. Deren Empfehlungen basieren doch viel eher auf solchen "Erkenntnissen" als fundiertem Wissen.

darkpope schrieb:
Brot und Butterchips

Darauf hätte ich jetzt auch Bock. Besonders in der Vorlesung, das cruncht immer so schön :d

Tante Edith:

MarkW schrieb:
Solche Diskussionen in einem Forum wo 12-16 jährige ihr Unwesen treiben sind total den Kaktus

Diese scheinheiligen Unterstellungen über das Alter von irgendwem finde ich jetzt nicht besonders "reif" und die bringen die Diskussion mit Sicherheit auch nicht voran. ;) Was, wie so oft, für mich zeigt, dass das Alter eine an vielen Stellen maßlos überschätzte Größe ist. Damit überzeugst du hier niemanden, das ist bloße Provokation.
 
Zuletzt bearbeitet:
Jup, eben. Und wir kennen ja vermutlich alle die Verkäufer in (vielen) Standard-Saturn-Filialen: Wenn die gehört haben, dass nVidia/ATi gerade die übelste ub0r-monstarr-Karte auf den Markt gebracht hat, trübt das gern mal die Wahrnehmung. Deren Empfehlungen basieren doch viel eher auf solchen "Erkenntnissen" als fundiertem Wissen.
.

Saturn was ist das? Ich dachte das wäre ein planet:confused::fresse:

Aber ein bisschen bedauern tuh ich die armen menschen schon,die sich von "ich bin doch nicht blöd" u co. auf die schippe nehmen lassen:d
 
Zuletzt bearbeitet:
man muss nur mal half live2 sehen das Bild scheint auf der ati zwar etwas schärfer zu sein aber dafür flimmert das ganze deutlich,bei nvidia ist das Bild supper ruhig.das das hd Bild bei ati besser ist kann ich auch nicht bestätigen,habe King Kong auf ner hd 4890 und auf ner gtx 285 gesehen auf nen 42 Zoll panasonic Plasma und das Bild war bei nvidia einen Tick ausgeglichener.ja die 2900 xt/pro Serie hatte massive einbrüche bei zuschaltung von aa darüber berichten alle Tests,diese Schrottkarte zu verteidigen ist ja wohl ein Witz.ati hat erstwieder mit der hd4850/70 Land gegen nvidia gesehen.warum waren die 8800 Karten auch so lange preistabiel?


Du erzählst hier was von Objektivität, lässt aber selbiges total vermissen. :rolleyes:

Die 2900xt war sicher eine alles andere als optimale Karte, jedoch war sie aus P/L-Sicht nicht schlecht (8800gts 640 Niveau).


Dann blendest du Nvidia Fehltritte, dies es sehr wohl gegeben hat, völlig aus.

Hier mal ein kurzer Auszug eines aktuellen PCGH Berichtes:


"DirectX 9 sah auf der Hardwareseite aber auch die bis dato größte Fehlleistung Nvidias, welche mit der Geforce FX nicht nur wesentlich später als Ati mit der Radeon 9700 antraten, sondern performanceseitig auch so stark hinterher hinkten, dass in DX9-Titeln sogar das Mittelklasse-Modell der Radeon, die 9600 XT, oft schneller als Nvidias schnellste Lösung jener Zeit war. Die FX 5800 Ultra erlangte wegen ihrer übertrieben hohen Taktfrequenzen und der daraus resultierenden, hohen Leistungsaufnahme auch den traurigen Beinamen "Der Fön" in Anlehnung an das Geräusch ihres Radiallüfters."


Wie du siehst haben beide Seiten mal schwächere Serien gebracht (was auch völlig normal ist).


Deswegen kann ich deine unsägliche Argumentation einfach nicht nachvollziehen.

Aktuell würde ich jedoch sagen ATI geht wohl den sinnvolleren Weg (sieht man auch am aktuellen Produkt-Portfolio).
 
Diese scheinheiligen Unterstellungen über das Alter von irgendwem finde ich jetzt nicht besonders "reif" und die bringen die Diskussion mit Sicherheit auch nicht voran. ;) Was, wie so oft, für mich zeigt, dass das Alter eine an vielen Stellen maßlos überschätzte Größe ist. Damit überzeugst du hier niemanden, das ist bloße Provokation.

In deinen Augen vielleicht ja, komischerweise sind es immer die gleichen Leute die einfach total unsinnige Argumente schreiben, ohne feste Fakten oder sonstge Belegungen.
Ich will mich hier auch nicht mit dir streiten und ich glaube kaum dass das eine Unterstellung ist für viele User, stell dir vor, es gibt einige die nicht Volljährig sind.....

@killermurmel

Es heißt Half-Life....
 
Zuletzt bearbeitet:
In deinen Augen vielleicht ja, komischerweise sind es immer die gleichen Leute die einfach total unsinnige Argumente schreiben, ohne feste Fakten oder sonstge Belegungen.

Interessanterweise sind diese immer gleichen Leute eben nicht alle minderjährig. Wir hatten genug Fälle, wo auch "erwachsene" Leute sich über ihr Alter dafür rechtfertigen wollten, unglaublichen Schwachsinn zu erzählen.

obsidian_one schrieb:
Die 2900xt war sicher eine alles andere als optimale Karte, jedoch war sie aus P/L-Sicht nicht schlecht (8800gts 640 Niveau).

Das ist so weit richtig, aber man darf nicht vergessen, dass sie eigentlich nicht als P/L-Karte gedacht war und folglich das Investitionsvolumen sowohl in R/D als auch bei der Produktion (seitens ATi) viel zu hoch war. Den End-User hats freilich gefreut, zumindest, wenn er Ohrenschützer vorrätig hatte und kein AF gebraucht hat. ;)
 
Jup, eben. Und wir kennen ja vermutlich alle die Verkäufer in (vielen) Standard-Saturn-Filialen: Wenn die gehört haben, dass nVidia/ATi gerade die übelste ub0r-monstarr-Karte auf den Markt gebracht hat, trübt das gern mal die Wahrnehmung. Deren Empfehlungen basieren doch viel eher auf solchen "Erkenntnissen" als fundiertem Wissen.

Naja, so wie ich Verkäufer einschätze, (hab 2 in der Familie, einer davon soger im Autohandel ...) wird nicht nach "ATI/NVidia ist vorne" beraten, sondern ich hab ncoh 50 ATI-Intel (oder auch NVidia-Intel) Kisten auf Lager, die müssen weg. Wenn der Kunde auf ein Produkt ein Auge geworfen hat, wird primär erstmal ein preislich höherliegendes Produkt angepriesen, danach die Großbestände erklärt und zum Schluss "vielleicht" das ins Auge gefasste Produkt erläutert. Da kommen die auch nicht raus. Deshalb ist es dem MM-Saturn-Mitarbeiter egal, was für ein Chip verbaut wurde.

P.S: Mach mal den Selbstversuch und frag die mal nach einem ATI/AMD -Notebook .. und beharre darauf :haha: ."

So und nu mal wieder zurück zum Topic


killermurmel schrieb:
man muss nur mal half live2 sehen das Bild scheint auf der ati zwar etwas schärfer zu sein aber dafür flimmert das ganze deutlich,bei nvidia ist das Bild supper ruhig.das das hd Bild bei ati besser ist kann ich auch nicht bestätigen,habe King Kong auf ner hd 4890 und auf ner gtx 285 gesehen auf nen 42 Zoll panasonic Plasma und das Bild war bei nvidia einen Tick ausgeglichener.ja die 2900 xt/pro Serie hatte massive einbrüche bei zuschaltung von aa darüber berichten alle Tests,diese Schrottkarte zu verteidigen ist ja wohl ein Witz.ati hat erstwieder mit der hd4850/70 Land gegen nvidia gesehen.warum waren die 8800 Karten auch so lange preistabiel?

Was hat das damit zu tun, das Nvidia mit Sicherheit um die 20% an Umsatz wegbrechen, weil Dell keine NVidia - Produkte vermarktet? Kannst Du mir bitte das mal erklären?:confused:
 
weil Dell keine NVidia - Produkte vermarktet

Das ist so aber nicht richtig,hier war die stellungnahme von dell dazu;)

To ensure we deliver the best value to our customers, Dell offers a wide choice of products and features. Dell regularly uses both nVidia and ATi graphic cards in its systems, and will select components based on delivering the best value and productivity to customers. nVidia graphics can be found on a variety of Dell systems including the XPS and Alienware gaming desktops and laptops, Studio XPS 13 laptop, Studio desktop, and our all-in-one PCs.
 
Zuletzt bearbeitet:
ja die 2900 xt/pro Serie hatte massive einbrüche bei zuschaltung von aa darüber berichten alle Tests,diese Schrottkarte zu verteidigen ist ja wohl ein Witz.ati hat erstwieder mit der hd4850/70 Land gegen nvidia gesehen.warum waren die 8800 Karten auch so lange preistabiel?

Das erste halbe Jahr der Preisstabilität beim G80 resultierte aus der massiven Verspätung der R600 GPU.
Seit R600 Release purzelten die Preise kontinuierlich und AMD hat eingesehen, das P/L sehr gute Karten deutlich besser verkaufbar sind, als Karten, welche auf Teufel komm raus die Performancekrone holen wollen (und dementsprechend auch Strom brauchen/Laut/Teuer in der Herstellung sind)

Und nein, du unterliegst auch nach wie vor einem Trugschluss bzw. erzählst nur Sachen nach, welche irgendjemand mal in die Welt gesetzt hat. Mal ne ernst gemeinte Frage, glaubst du auch daran, das die R600 XT 225W Strom verbraucht, weil 225W TDP auf der Packung steht!?
Die R600 GPUs haben kein AA Problem, sondern die Filterleistung ist "grottenschlecht".
Da AA idR mit AF Zusammen als Qualitätsfeature getestet wird, stinkt die Karte natürlich ab...
Schlimmer noch, wenn du 8xAA only testest, ist ne Std. R600 oft vor ner 8800GTX...

Das ist so weit richtig, aber man darf nicht vergessen, dass sie eigentlich nicht als P/L-Karte gedacht war und folglich das Investitionsvolumen sowohl in R/D als auch bei der Produktion (seitens ATi) viel zu hoch war. Den End-User hats freilich gefreut, zumindest, wenn er Ohrenschützer vorrätig hatte und kein AF gebraucht hat. ;)

Genau so schauts aus...
Über wirtschaftlichkeit brauch man glaub net reden, da war der R600 recht mies. Dennoch bildet er den Grundstein für aktuelle und kommende AMD GPUs... Aller Anfang ist halt schwer ;)
 
Zuletzt bearbeitet:
....wenn ATI vorne ist, dann interessierts dich net und wenn Nvidia vorne ist, sei es noch so ein großer Schwachsinn, ist es natürlich ein "Plus"!
warum soll mich das interessieren wenn ich HD nicht brauche?
kaufst du dir einen server wenn du zocken willst? nein? schau, na also...

AMD hat eingesehen, das P/L sehr gute Karten deutlich besser verkaufbar sind, als Karten, welche auf Teufel komm raus die Performancekrone holen wollen (und dementsprechend auch Strom brauchen/Laut/Teuer in der Herstellung sind)
bei den vielen schulden müssen sie auch irgendwie geld machen. :d
 
Zuletzt bearbeitet:
ich hatte gleichzeitig zwei systeme mit einer 8800 GT und einer 4870 laufen lassen, ich kann das definitiv nicht bestätigen.
das AMD bild ist zwar dunkler und hat deswegen mehr buntheit, aber es flimmert eben stark.

natürlich liegt es auch an den einstellungen, z.b. Supersamling macht das bild sehr schwammig und unscharf.

ich möchte da nicht nochmal drauf eingehen weil ich alles dazu gesagt habe ich bin einmal von dem standpunkt aus gegangen treiber installieren und dann gucken. ati besser. dann nv treiber rumprobieren ati lassen und ati immer noch besser.

von dem besagten flackern von dem hier zwei leute sprechen höre ich zum ersten mal und habe es noch nicht wargenommen. bin grad völlig überfragt. was für ein flackern?!? bei mir flackert nichts und bei 10kollegen mit ati flackert auch nichts.
wo soll denn was flackern?!? im spiel bei filmen auf dem desktop? also bei mir flackert weder bei meinem htpc noch bei meinem hauptpc oder laptop was.
und das weder auf dem 15zoll laptoplcd noch auf dem 24zoll samsung 245b plus noch bei meinem 40zoll samsung a659a.

wenn da was flackern würde hätte ich das sicherlich schon bemerkt und auch hier was zu geschrieben.
wie gesagt hab ich kein problem über fehler seitens nv oder ati zu sprechen...
 
Er meint Texturflimmern das tritt in Games mal mehr mal weniger und Nvidia ist davon genau so betroffen kommt immer auf die gewählten Einstellungen an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh