Betrugsvorwürfe gegen NVIDIA

ja und dann gibbet so sommer spezial ausführungen mit sonnenkollektoren ^.^ *träum*
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
tbonekot schrieb:
Da sieht man ma wieder wer ne Nvidia Karte hat und wer ne ATI hat!aber muss mal zürück schauen wo die 9800Pro/XT und die 5900Ultra rauskamen!da war ja erst ATI vorne dann hat aber Nvidia ihr sch*** Treibercheating angefangen und schon waren sie ne bissel schneller!so wirds doch auch sicher!laut einigen hochrechnungen und spekulationen!
man ich hab ne 9800pro du typ ey
und jetzt hör auf mit deinem dämlichen gesülze ey das is doch nich mehr normal was da bei dir rauskommt
 
silverbullet schrieb:
Was mir mehr sorgen macht sind die 120Watt Leistung der Karte. Wenn DBode & Co mit einem Antec 550W probleme mit einem am gleichen Strang arbeitende HDD hatten was macht da der Overclocker wenn er Übertacktet und eine CPU hat der ungefähr 100Watt und mehr verbräht ? Das sind schon über 200Watt das die WaKü abführen muss und da reicht ein 240er Radi schon nicht mehr aus, also größerer Case, stäkerer Netzteile und grössere Radis oder einfach mehr mehr mehr. Was sone shyce Karte alles Ankurbelt. Im grunde genommen bieten beide nichts Innovatives und sind in meine Augen beide Schrott aber für irgendein werdet ihr euch wohl Entscheiden müssen. Ich schätze mal wenn ATI kein AS im Ärmel hat das NVidia sie mal wegrockt allein schon wegen der anzahl der Transistoren denn diesmal war Nvidia von anfang bei der Gestaltung von DirectX9 dabei und somit erfüllen sie die von Microsoft gegebene DirectX Spezifikationen und haben nicht....ach shyce auf die Story.

in sämtlichen tests lief die 6800 ultra mit nem 300 watt nt problemlos :rolleyes:
macht euch da nich so den kopf
nen 420 sollte problemlos reichen
 
tbonekot schrieb:
Da sieht man ma wieder wer ne Nvidia Karte hat und wer ne ATI hat!aber muss mal zürück schauen wo die 9800Pro/XT und die 5900Ultra rauskamen!da war ja erst ATI vorne dann hat aber Nvidia ihr sch*** Treibercheating angefangen und schon waren sie ne bissel schneller!so wirds doch auch sicher!laut einigen hochrechnungen und spekulationen!


informiere dich besser bevor du so etwas sagst! Erst denken dann schreiben denn das ist ja so nun wirklich nicht richtig :wall:
 
Dr Casemod schrieb:
hey RicO, nettes bild, wo hast du das nur her? ;)

Frag mich nicht, keine Ahnung mehr ehrlich gesagt. :fresse: (von dir???)

Fand es jedenfalls einfallsreich, sonst hätte ich es ned auffer platte.
 
jupp, war wohl ich, der das pic hier gepostet hat.

aber lass dir nen tip geben.
wenn du das schon verwenden musst, dann bitte so, dass es auch passt.
wenn du nen ellenlangen text davor tipperst, passt eher der normale wayne, das komm essen sollte ohne text gepostet werden ;)
 
So wie du meinst, dann hab ich jetzt ja ne Bedienungsanleitung. :d ;)
 
Pl4n!cH schrieb:
in sämtlichen tests lief die 6800 ultra mit nem 300 watt nt problemlos :rolleyes:
macht euch da nich so den kopf
nen 420 sollte problemlos reichen
mit 250 watt hab ich da ja mal wieder die arschkarte gezogen:wall:
 
hab ein bequiet colorline 420 Watt mit topwerten bin also mal ganz gespannt ^.^
 
Mr.RiGO schrieb:
mit 250 watt hab ich da ja mal wieder die arschkarte gezogen:wall:
also 250 werden ja bei ner 9800 pro schon arg knapp, je nach restlichen komponenten :fresse:
da wirds wohl langsam mal zeit für nen vernünftiges
also GUTE 420er gibts ab ~50€
 
ist mir alles egal, ich warte bis zum Winter, bis dahin ist alles getestet, der neue Nvidia und ATI, dann werde ich wissen welche Karte besser(preis/leistung) ist.
 
winter???
da is wahrscheinlich schon die next generation draußen :lol:
naja ich werd auch noch ne weile mit meiner 9800pro auskommen...
 
Zuletzt bearbeitet:
also die news ist fürn arsch ..... is mal wieder klar das da sowas kommen mus .... kaum hat man ne neue karte aufm markt wird erstmal dum gelabert ... war bei amd a64 auch nicht anders ... hm 64bit brauch ich nicht zu teuer ... jetzt will jeder so ein teil bzw hat es ... kann sein das nvidia cheatet ati tuts auch .... hm also ich sehe keine unterschiede, beim zocken ... wenn ist es minimal ... dazu mus man aber wiederum beide karten haben ... und noch ein standbild machen ... also wenn intresiert die kacke ..... ich sag nur abwarten tee trinken, nichts entschieden nichts bewiesen ....

aber mal im ernst ATI stinkt auch :) *duck*
 
Och Leute, wenn NVidia mal wieder besch*ssen haben sollte, dann ist das mehr als nur schlechter Stil. Es wäre schlicht Verbraucherver*rsche und zudem unlauterer Wettbewerb. Es kann sich heute keine Firma mehr erlauben, Unwahrheiten zu verbreiten und wenn es hier so sein sollte, dann würde ich das mal als PR-Supergau bezeichnen. Wenn ich einmal die Kunden belüge - schlimm - aber mache ich das dann gleich noch einmal... also wenn das wahr ist, kaufe ich nie wieder NVidia. Und zu sagen "Ist doch egal ob die lügen, hauptsache die Karte ist billig" - das ist ja wohl sowas von schlecht. :stupid: Ich kann es nicht glauben, das hier zu lesen....

Grafikkarten sind HighTech-Bauteile und schweineteuer. Da verlange ich bezüglich dessen was sie können nicht belogen zu werden.

Also abwarten, ob an dem Gerücht etwas dran ist.

marxx
 
Zuletzt bearbeitet:
marxx schrieb:
Och Leute, wenn NVidia mal wieder besch*ssen haben sollte, dann ist das mehr als nur schlechter Stil. Es wäre schlicht Verbraucherver*rsche und zudem unlauterer Wettbewerb. Es kann sich heute keine Firma mehr erlauben, Unwahrheiten zu verbreiten und wenn es hier so sein sollte, dann würde ich das mal als PR-Supergau bezeichnen. Wenn ich einmal die Kunden belüge - schlimm - aber mache ich das dann gleich noch einmal... also wenn das wahr ist, kaufe ich nie wieder NVidia. Und zu sagen "Ist doch egal ob die lügen, hauptsache die Karte ist billig" - das ist ja wohl sowas von schlecht. :stupid: Ich kann es nicht glauben, das hier zu lesen....

Grafikkarten sind HighTech-Bauteile und schweineteuer. Da verlange ich bezüglich dessen was sie können nicht belogen zu werden.

Also abwarten, ob an dem Gerücht etwas dran ist.

marxx


um es nochmal zu wiederholen: was deiner meinung nach machen denn die soooo tollen leute von ati :wall:
 
Revoltec748 schrieb:
um es nochmal zu wiederholen: was deiner meinung nach machen denn die soooo tollen leute von ati :wall:

Ich habe doch garnicht geschrieben, dass die Leute von ATI soooo toll sind. Was habt Ihr eigentlich für'n Problem?

Wenn ATI bescheisst, ist das genauso schlimm. Aber hier steht schon wieder NVidia zum Gespräch und die haben beim letzen Mal schon unglaublich grob die Leute ver*rscht, die die Karten kaufen. Wenn sie es jetzt schon wieder machen, dann muss man sich fragen, welche Zustände dieses Wettrennen angenommen hat.

Ich würde eh nie ne gerade neue Karte kaufen - wenn die Dinger ein paar Monate durchgetestet sind, kommt eh auf den Tisch, was sie wirklich leisten. Und die neue NVidia würde ich mir im derzeitigen Design nicht mal für 50 Euro zulegen. Wenn ich was lautes haben will, gehe ich in den Garten und mähe Rasen. Mehr als 3 Sone :stupid: - die haben doch'n Ei am wandern. :lol:
 
Tja alle Jahre wieder sag ich da nur. Mit der FX 5800 wars doch auch so. Erst scheisse laut und sehr heiss, dazu noch zu langsam. Dann paar Treiber cheats. Und alles war wieder in Ordnung. Und nun das gleiche schon wieder. Nur legen se dieses mal mit dem Stromverbrauch noch eines oben drauf. Nvidia suckt doch einfach nur noch. Und die Far Cry Benches der neuen 6800 Ultra waren doch ein Witz. Wenn sogar noch ne 9800 XT mithalten kann, dann wird se der R420 erst recht platt machen. Mal schauen was sich Nvidia dann wieder für nen Treibercheat einfallen lässt.
Und der Support für PS und VS 3.0 ist doch eh nur alles Marketinggelaber. Die Karte ist für sowas einfach immer noch zu langsam um das vernünftig darstellen zu können. Das wird erst die nächste Generation mit ausreichend Performance richten. Deshalb verzichtet ATI ja auch komplett auf PS und VS 3.0 und verbessert lieber das vorhandene. Sinnvoll ist PS und VS 3.0 eh erst mit Direct X Next.

Nächste Woche wissen wir dann mehr, da bringt ATI die neue Karte aufn Markt dann werden wir sehen wie das Duell ausgeht. Wobei ich eher auf das Duell X800XT vs 6800 Ultra gespannt bin als auf X800Pro vs 6800 Ultra.
 
@Locutus

Deine Aversion gegenüber NVIDIA macht Dich scheinbar etwas blind für die Realität

Die Power des NV40 ist wirklich großartig und die Überarbeitung der Architektur insbesondere der Shader Nachteil durch Implementierung eines neuen Shader Cores hat enorm positive Effekte gezeigt die PS3.0 Integration wird seitens NVIDIA zwar etwas etwas überbewertet aber nichts desto trotz sind sich ein Großteil der Programmierer darin einig das PS3.0 auch zur Beschleunigung von PS 2.0 herangezogen werden kann Virtual Displacement MApping und längere Instruktionspfade resp. Register schaffen hier neuen Raum für Flexibilität.
 
@ locutus außerdem darfst du das so mit dem far cry bench nicht veralögemeinerndie 6800 ultra scheitert dort an der fehlenden prozessorstärke erst bei größeren auflösungen und mehr AA bzw. AF spielt sie ihre volle leistung aus weil dann die graka mehr gefordert wird!
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh