Playstation 3 oder XBox 360 kaufen ???

Zu welcher Konsole würdet Ihr greifen ???


  • Anzahl der Umfrageteilnehmer
    411
Naja ich hab ne Xbox 360 und ich bin begeistert. Also würd ich halt wieder ne 360 kaufen ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mit der ps3 ist es wie mit dem release jeder anderen konsole:

anfangs überteuert und zu wenige interessante titel. da ich mir die ps2 direkt am releasetag geholt habe und maßlos enttäuscht war, werde ich diesmal abwarten, bis für mich wirklich interessante spiele draussen sind.
600€ sind einfach nicht angemessen, um ein paar durchschnittliche ports zu zocken. die ps3 würde wahrscheinlich erstmal ein jahr bei mir verstauben und ich würde mich jedes mal ärgern wenn ich sehe, wie sich ihr wert drastisch verringert ohne davon einen nutzen zu haben.
 
Soviel berauschend besser werden die Games der PS3 auch nicht!
Es wird nichts neues gezeigt mit der PS3,was die 360 nicht auch könnte!

Und BlueRay wird mindestens noch ein Jahr brauchen bis das mal ins rollen kommt!Wer rennt schon gross los und holt sich einen BlueRayFilm für 30€ oder mehr!?!Bis das alles so läuft wie mit einer normalen DVD,das man in die Videothek geht und sich einen Film ausleiht,wirds wohl noch etwas dauern!Die Auswahl wird wohl nicht so gross sein am Anfang!
Aber das wird wohl mit der HD-DVD auch nicht besser aussehen!
Aber ich kann mir gut vorstellen das die PS3 dem BlueRay einen guten Einstieg ermöglichen wird,wie damals mit der PS2 und der DVD!
Wir werden es ja sehen,die DVD wird noch lange nicht zum alten Eisen gehören!;)

Ach ja und ich habe mir vor kurzem wieder günstig eine 360 geschossen,weil ich momentan noch auf PS3 verzichten kann bei dem mageren Softwareangebot und dem Verkaufspreis für die PS3!
Die 360 wird 2007 jetzt richtig durchstarten!
 
gibt es eigentlich schon verleih HD-DVDs oder Blu Rays? würd mich mal interessieren ob schon irgendne videothek die führt.

was ich mich auch frage ist, die scheiben sollen doch wesentlich kratz anfälliger sein, als normale dvds durch ihre höhere datendichte. hat da schon irgendwer erfahrungen mit? würd mich tierisch ankotzen, wenn es wirklich VIEL (nicht nur nen bisel wie der unterschied dvd/cd) ist. hoffe ihr könnt mir folgen :)
 
Naja gleiche zum Release würde ich mir die PS3 auch nicht holen, da 599 euronen halt erst verdient werden müssen!

erstmal im Auge behalten denke ich !

aber die 360 wird nochmal überarbeitet mit HDMI usw. ?
 
gibt es eigentlich schon verleih HD-DVDs oder Blu Rays? würd mich mal interessieren ob schon irgendne videothek die führt.

Japs, bei mir um die Ecke gibts eine Videothek, die seit längerem HD-DVD's führt. War aber länger nicht mehr da, müsst mal nach Bluray luschern ;)
 
Naja ich hab ne Xbox 360 und ich bin begeistert. Also würd ich halt wieder ne 360 kaufen ^^

so gehts mir auch!^^
Hinzugefügter Post:
Blu-Ray ist kurz davor, sich durchzusetzen, auch wegen der PS3.



Beide haben Potential, das ist richtig. Die PS3 hat für die Zukunft allerdings mehr Potential (wegen Blu-Ray, wegen der leicht besseren CPU, wegen der leicht leistungsfähigeren GPU), das sind Fakten und hat nichts mit Fanboy Geblubber zu tun, mein lieber Freund ;)



Kennst du die Vergangenheitsform? Der Wii setzt wie die Xbox 360 auf DVD. Das ist richtig, für den Wii werden auch die DVDs reichen, für die Xbox 360 eben nicht, weil sie auch grafisch eine NexGen Konsole ist. Hideo Kojima, der Macher von MGS4, hat gesagt, selbst Blu-Ray ist zu klein für das Spiel. DVD reicht eben nicht mehr für die Zukunft, zukünftige Games werden alle deutlich mehr als 10GB brauchen.

Ich finde die Xbox 360 nicht schlecht, ich hatte selbst schon Eine. Für mich ist die PS3 jedenfalls die bessere Wahl, so einfach ist das. Außerdem sollte jeder selbst entscheiden, was für ihn persönlich die bessere Wahl ist.

Wir sind doch alles nur Spieler, nich wahr? Ich habe Spaß am Spielen und du sicherlich auch. Von daher akzeptiert auch andere Meinungen, die auf der Wahrheit beruhen ;)

Hideo Kojima, der Macher von MGS4, hat auch gesagt
das ihm HD-Gaming absolut egal ist und er keinen wert darauf legt.
 
Zuletzt bearbeitet:
@thade

Die Box hat die leistungsfähigere GPU (leicht) und die PS3 die leicht stärkere CPU, nicht die tatsachen verdrehen.
 
@thade

Die Box hat die leistungsfähigere GPU (leicht) und die PS3 die leicht stärkere CPU, nicht die tatsachen verdrehen.

Falsch, der RSX hat mehr Füllrate als der C1/Xenos. Er hat zwar nur ein 128Bit Interface, kann aber das Speicherinterface des CELL mitbenutzen.

Der C1/Xenos hat mehr Features, kann HDRr+AA, beherscht einige D3D10 Effekte, ist aber kein echter D3D10 Chip.

Meine Aussage stimmt zu 100%, C1 ist der fortschrittlichere Chip, das stimmt, aber er ist nicht leistungsfähiger. Lest euch mal im 3DCenter ein, da werdet ihr das Selbe hören.
 
Der X1 kann auch mehr Shaderoperationen und darauf bestehst du doch so ;)

Box360
- 338 Millionen Transistoren
- 48 Unified Shader-Architektur (jede Pipeline kann Pixel und Vertex Shader ausführen)
- Der Grafikchip kann 160 Shader-Vorgänge pro Taktzyklus darstellen
- Fungiert auch als Northbridge
- Vollständig DirectX 9.0c kompatibel plus weiterer Funktionalitäten (ähnlich wie DirectX 10) u.a. Shader Modell 4.0 und Memexport

PS3
-Basierend auf NVIDIAs GeForce-7-Reihe (G7x)
-136 Shader-Operationen pro Takt
-Keine Unifed-Shader-Einheiten
-128 bit Pixel-Precision (32 Bit pro
-Keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets (meist verwendet für HDRR) möglich, nur jeweils eines von beiden
-300,2 Millionen Transistoren (in 90 nm gefertigt)
-256 MiB GDDR3-VRAM mit 600 MHz

Die Graka der PS3 ist unterlegen
 
Du legst es so wie du es gerade für richtig hälst, Oblivion ist auch eine Portierung und isse schlecht? Nein. Vielleicht ist ja einfach mit der PS3 auch einfach nicht mehr möglich, du sagst ja selber Futurmässig kann die Xbox360 mehr ;).

Zitat"
Der RSX hat noch mehr kleine Schwachstellen. Falls ein AF-Modus aktiviert ist, wird die ganze Pipeline blockiert.(das wären bei 2xAF 4 Takte, bei 16xAF sogar shcon 32 Takte)
Das stört aber nur wenn es keine Limitierungen gibt.
Weiterhin wird die Pixelshaderleistung halbiert, da nur der Shader nach der TMU fürs Shading genutzt wird. Da bleiben "nur" 24 ALUs für das Pixelshading übrig. Die anderen beiden gehen für die Texturadressierung und Texturkoordinatenberechnung drauf.(und das schluckt Takte, da die ganze Pipeline blockiert wird.)

Imho kommt der RSX nicht mal auf die halbe Pixelshaderleistung des Xenos.
[Der Xenos hat 48 USCs(Vec4+Scalar), also 48 x 10 Flops(8 für Vec4 und 2 für Scalar)x 0,5 (Takt) = 240 Gflops.]
Davon geht einiges für die Geometryberechnung drauf.
Der RSX hat nicht so hohe Shaderleistung:
48 x 8 Flops x 0,5 = 192 Gflops.
Da geht noch was für die Texturkoordinatenberechnung drauf...

Der RSX ist imho langsamer in den Shader, hat aber dafür 24 TMUs. Der Xenos weißt nur 16 auf. Beide haben die gleiche ROP-Zahl, der Xenos hat aber besserere.

Ach ja.




Es gibt allerdings ein paar sehr interessante Einzelheiten bezüglich des Xenos der die Papierform des RSX schnell zu nichte macht und eventuell sogar einen erheblichen Vorteil bei der Programmierung des Xenos mit sich bringt.

Der Xenos besteht aus zwei Teilen. Einer stellt den eigentlichen „Shader-Core“ dar, während der Andere größtenteils ein 10 MB großer eDRAM-Speicher mit eigenständig intelligenter Einheit ist. Der Shader-Core verfügt über eine so genannte Unified-Shader-Architektur und unterscheidet dadurch nicht mehr zwischen Pixel- und Vertex-Shader, wodurch jede Shader-Einheit Pixel- sowie Vertex-Operationen verarbeiten kann. Jede einzelne ALU kann eine Vektor und Skalar-Berechnung zur selben Zeit durchführen. Weiterhin verfügt der Xenos über insgesamt 16 Texture-Mapping-Units, die pro Takt einen bilinear gefilterten Pixel berechnen können.

Der zweite Teil des Xenos beinhaltet den Speichercontroller und den eDRAM. Die zusätzlichen 10 MB eDRAM dieser Einheit (nicht in den 512MB RAM der Konsole mit eingerechnet) arbeiten mit den vollen 500 MHz, wodurch eine extrem schnelle Speicheranbindung an die ROPs (Raster-Operationseinheiten) gewährleistet ist. Auf satte 256 GB/s kann der Speicher bei der Kommunikation mit den Raster-Operationseinheiten zurückgreifen, was in diesem Bereich des Chips einen extrem schnellen Datenaustausch darstellt. Profitieren sollen durch die hohe Speicherbandbreite die Z- sowie Stencil-Berechnungen, aber auch die gesamten Anti-Aliasing-Berechnungen, die allesamt auf dem eDRAM durchgeführt werden.
 
Zuletzt bearbeitet:
@ Deathcrush

vergiss es...
wir haben schon vor monaten mit mehreren usern versucht ihm zu erklären was allgemein bekannt ist, nämlich dass der xenos dem rsx überlegen ist (meiner meinung nicht nur leicht, sondern sogar recht deutlich)...
kannst dir ja die alten threads nochmal angucken.
mit thade zu diskutieren ist aber leider wie mit einer wand zu reden.
er ignoriert die tatsachen/fakten leider vollkommen...

an seiner stelle (als ps3-fan) würde ich mich bei der ständigen verteidigung der ps3 wenigstens auf die stärkere cpu beziehen, aber über den cell verliert er komischwerweise nie ein wort, sondern schießt sich immer wieder auf das gpu-duell ein, das er nun mal einfach nicht gewinnen kann... :)
 
Bin ja noch nicht fertig mit ihm

Zitat:
Der Xenos kann weiterhin Shader-Programme mit mehr als 500.000 Anweisungen (eine herkömmliche Oberklassengrafikkarte schafft etwas über 65.000 Anweisungen) bearbeiten, wobei man hier nicht mehr strikt zwischen Pixel- und Vertex-Programmen unterscheidet. Darüber hinaus besitzt der Xenos ein Feature namens „Memexport“, durch das die GPU Vektor-Daten direkt in den Arbeitsspeicher schreiben und von diesem lesen kann. Der Xenos beherrscht weiterhin bis zu 4-fach Anti-Aliasing, wobei der Entwickler aber noch auf 2xAA oder gar 1xAA reduzieren kann. Allerdings ist das Samplemuster nicht frei programmierbar, womit diese nicht mehr nachträglich verändert werden können. Da die Kantenglättung des Xenos aufgrund der extremen Speicherbandbreite im eDRAM (256 GB/s) ausgeführt wird, soll 4-faches Anti-Aliasing in der Auflösung 1280x720 gegenüber 2-fachem AA angeblich nur einen Leistungsverlust von fünf Prozent haben.

Diese Tricks hat der Xenos dem RSX von Nvidia vorraus und macht daher Einiges zunichte was die GPU der PS3 auf dem Papier besser darstehen läßt. Zudem können die Ressourcen der 512MB RAM zwischen CPU und GPU verteilt werden, während der GPU der PS3 fest zugeteilte 256MB Ram zur Verfügung stehen. Bei trickreicher Programmierung kann der Xenos also auch über mehr als 256MB RAM verfügen.
-------------------------------------------------------------------------------

Der letzte absatz ist wichtig für CoD3 und warum es auf der PS3 schlechter aussieht ;). RAM ENDE FÜR DIE GRAKA :d

Ich sag ja nicht mal das die PS3 schlecht ist, Preis-Leistung stimmt einfach nciht, wenn man kein BR Laufwerk haben will.
 
Zuletzt bearbeitet:
Du legst es so wie du es gerade für richtig hälst, Oblivion ist auch eine Portierung und isse schlecht? Nein. Vielleicht ist ja einfach mit der PS3 auch einfach nicht mehr möglich, du sagst ja selber Futurmässig kann die Xbox360 mehr ;).

Ja sicher die PS3 kann ein COD3 nicht besser darstellen, nein sie kann ein Need for Speed Carbon nicht so gut darstellen wie eine 360, weil ihr die Features dafür fehlen :-[

Nein es ist eben nicht als allgemein bekannt, meine Ansichten sind nicht nur einfach erdacht, sondern basieren auf Fakten. Der C1 hat nicht mehr Leistung als der RSX. Wenn es um reine Rohleistung geht, so ist der RSX leicht vorne. Wenn es um Features geht, so ist der C1 vorne. So einfach ist das. Außerdem kommt es immer darauf an, was man überhaupt proggt...

Lest euch im 3DCenter ein, die 3D Gurus dort behaupten das Selbe. Aus dem 3DC beziehe ich auch mein Wissen. Ich war anfangs auch der Meinung, der C1 wäre dem RSX leistungstechnisch überlegen, was er aber nur in den Features ist. Ich wurde eines besseren belehrt. Was andere User hier ständig behaupten, oder was als allgemein bekannt ist, das ist leider großer Unfug, aber zu diesen Leuten sage ich besser nix, sie können ja nix dafür, dass sie keine Ahnung haben..

Und Deathcrush lasse es einfach, les dich im 3DC ein und bilde dir selbst ein Urteil...

€dit:

Achja Deathcrush=ignore!
 
Zuletzt bearbeitet:
was an seinen posts ist denn bitte unfug?

was verstehst du unter rohleistung? weil so wie du es darstellst hört es sich an, als wenn der rsx (jetzt mal wirklich drastisch dargestellt nicht übel nehmen :p ) in der leistung super schnell ist, aber die effekt einfach nicht bringen kann die der xenos bringt...
also möchtest du lieber nen bißchen mehr leistung und verzichtest dafür auf bunti bunti.
schnelles auto aber ohne komfort?

ich finds auf jedenfall gut, dass du wieder mitmischt beim ps3 und xbox gerede, war fast langweilig hier und immerhin postest du auch mal was positives über die ps3. bringt abwechslung rein hier :)

wenn death da nur unfug postet, kannst du ihn mit deinem wissen ja garantiert wiederlegen?
 
Ich behaupte nicht ich sei allwissend, nein das bin ich bei weitem nicht. Ich bin auch kein richtiger 3D Experte, ich kann nur wiedergeben, was ich im 3DCenter gelesen habe.

Es geht hier um die Rohleistung und da hat eben der RSX die Nase vorne. Es kommt immer noch darauf an, was geproggt wird. Ja der C1 hat mehr Features, ja er hat in shaderlastigen Spielen Vorteile. Der RSX hat dagegen mehr Füllrate und Füllrate ist immer wichtig, vor allem beim Einsatz von AF.

Das ist ein Geben und Nehmen. Ich bin allerdings nicht so dreist und behaupte, der C1 sei dem RSX leistungstechnisch derart überlegen, das ist nicht korrekt.

Ich wollte mich eigentlich nie mehr auf solche Diskussionen einlassen, weil sie nur zu Flamewars führen, soweit ist es ja Gott sei Dank noch nicht. Deswegen nehme ich jetzt wieder meinen Hut und poste nur noch im PS3 Thread. Auf solche Diskussionen habe ich keine Lust mehr!

P.S.: Es gibt auch Leute die halten den Xenon Trilling für leistungsfähiger als den CELL. Ja das hat ein 3D Guru im 3DC behauptet. Ich glaube, so kommt man nie auf einen grünen Zweig, wenn sich auch die wahren Experten nicht 100% sicher sind, was wollen wir Amateure da groß rumreden...
 
Zuletzt bearbeitet:
Selbst im 3Dcenter sind die sich nicht schlüssig. Hab mal ein bisl nach geforscht und meine Zitate stammen nicht aus Foren :P sondern von div. Fachseiten die sich wirklich damit auskennen unter anderem auch PS3 FAN Seiten.

EDIT: Zitat von dir
Ja sicher die PS3 kann ein COD3 nicht besser darstellen, nein sie kann ein Need for Speed Carbon nicht so gut darstellen wie eine 360, weil ihr die Features dafür fehlen

Mein Gegenargument:
Nein nicht wegen fehlender Features sondern wegen fehlendem VRAM ;). Du liest nur das was du lesen willst, kann das sein? Von dir kommt immer nur Rohleistung und sonnstiger Kauderwelsch, aber belegen tust du nix. Nur auf einem auffahrenden Zug aufspringen, davon hast du Ahnung.

Vorteil Xbox360. 512MB RAM fürs gesammte System, daher kann auch mehr als 256 MB Ram für die Graka da sein, z.B 320MB.

Bachteil PS3: 256MB für Graka und 256MB für "CPU"

Du solltest dir mal Post 44 und 46 genau durch lesen. Was die Entwickler nun davon machen, das kann keiner von uns sagen, nicht mal du ;)
 
Zuletzt bearbeitet:
diverse fachseiten soso... die sich damit auskennen aha...

Also ich weiss ja mal nicht ob wir überhaupt über sowas urteilen können, irgendein Zeug von irgendwelchen seiten kopieren und so tun als wär man experte.

Ich mein ist hier jemand Spiele_programmierer? hat überhaupt jemand eine Ahnung wie das ganze läuft? Hat von euch überhaupt schon jemand jemals eine Programmier"sprache" gelernt? Wohl keine Sau, und wenn dann nur Grundwissen. Aber man vergleicht ein paar daten und das eine sieht "besser" aus, und schon wissen die experten hier was besser ist?? Da kann man wirklich nur lachen.

Geht man mal in die PC ecke, dann kann man zumindest sehen das die geforce 6, 7 und 8 volle erfolge waren denen ATi kaum was entgegenzusetzen hatte.(Im midrange bereich sogar garnix) Und bei der Konsole, die auch noch früher erschien als die PS3 soll das anders gewesen sein? Kann ich nicht glauben.
 
Also ATI hatte nix entgegen zu setzen nur weil du das FAN und Propagandergelaber Seitens NVIDIA glaubst? Was war denn mit der 9800er, X800er und der 1800/1900er Reihe. Ah ich vergas, die 7800er Reihe wa ja nur so schnell, weil das Texturefiltering so geil wah :d *Vorsicht ironie*. Aber wer auf flimmertexturen bei AF steht, nur zu. Die 1800er wa der 7800er um WELTEN überlegen. Alleine schon von der Bildquali konnte NV nicht mithalten. Erst mit der 8800er konnten sie wieder einiges gutmachen. Rein technisch wa die 7800er für mich pers. eine Katastrophe, die Bildquali unter aller sau.

P.S Hab selber eine 7800er gehabt, das Textureflimmern wa unter anderem ein Grund auf eine 1800er zu wechseln, und die 512MB RAM für GRAW ^^. Die Bildquali und der Leistungszuwachs waren schon nicht schlecht. Und die X800 hat der 6800er ordentlich eingeheizt.
Es gab halt immer wieder Spiele die mal auf der ATI oder aber auf der NV besser rannten. Bei ATI isses z.B die Source Engine und bei NV die Doom3 engine.
 
Zuletzt bearbeitet:
Und bei der Konsole, die auch noch früher erschien als die PS3 soll das anders gewesen sein? Kann ich nicht glauben.

bin wohl zu müde um genau zu verstehen was du sagen willst, aber dir ist schon bewusst, dass die ps3 noch auf dem stand ist, auf mit dem sie eigentlich vor einem jahr hätte released werden sollen? die hardware die da drin ist hätte eigentlich zur selben zeit oder früher als die xbox released werden sollen.

ich bin im bett, melde mich nochmal von der arbeit morgen :angel: schön weiter posten
 
vor allem beim Einsatz von AF.
Genau da liegt doch das Problem, der sehr G71 ähnliche RSX hat doch nur die Leistung einer 7900GT ;) Das NVidias "älteren" Chips gerade unter AA u. AF deutlich einbrechen, weiß doch jeder hier ;)
Rohleistung interessiert keinen, oder zockst Du ohne AA u. AF????
Am Ende sind es zwei gute Konsolen, wo bei ich denke das Sony einfach zu langsam war.....

Warum kommen immer wieder solche Threads....kauft euch doch einfach die Konsole , die Ihr haben wollt.
 
Die meissten leben nach dem Prinzip, das was sich am meissten Verkauft, das ist auch das beste :d. Die würden wahrscheinlich auch wie die Lemminge sich in das Meer stürzen weil die mehrheit das auch macht. Fakt ist, gerade die X800 und 1800/1900er Reihe, verdammt gute Karten waren, wo NV mit der geboten Bildqualität nicht mithalten konnte. Wenn man die 7800gt z.B auf sehr hohe Bildquali einstellte, knickte die Leistung sofort ein. Bei CSS hatte ich im direkten vergleich zur ATI 28 FPS weniger im Video stress test bei 4AA und 16AF. (X1800XT / 7800GT)
 
Zuletzt bearbeitet:
Also ATI hatte nix entgegen zu setzen nur weil du das FAN und Propagandergelaber Seitens NVIDIA glaubst? Was war denn mit der 9800er, X800er und der 1800/1900er Reihe. Ah ich vergas, die 7800er Reihe wa ja nur so schnell, weil das Texturefiltering so geil wah :d *Vorsicht ironie*. Aber wer auf flimmertexturen bei AF steht, nur zu. Die 1800er wa der 7800er um WELTEN überlegen. Alleine schon von der Bildquali konnte NV nicht mithalten. Erst mit der 8800er konnten sie wieder einiges gutmachen. Rein technisch wa die 7800er für mich pers. eine Katastrophe, die Bildquali unter aller sau.

P.S Hab selber eine 7800er gehabt, das Textureflimmern wa unter anderem ein Grund auf eine 1800er zu wechseln, und die 512MB RAM für GRAW ^^. Die Bildquali und der Leistungszuwachs waren schon nicht schlecht. Und die X800 hat der 6800er ordentlich eingeheizt.
Es gab halt immer wieder Spiele die mal auf der ATI oder aber auf der NV besser rannten. Bei ATI isses z.B die Source Engine und bei NV die Doom3 engine.


1. also mit der 9800er brauchst du garnicht anfangen die ist uralt, und JA, zu dem zeitpunkt war ATI echt Top, da konnte die geforce 4 und 5 einpacken. Aber das tut nichts zur sachen, eben weil die schon mega alt ist.

2. Ich sag nur 6600GT 7600GT 8800GTS da konnte ATi nichts entgegen setzten, wer was anderes behauptet spinnt. Die karten haben teilweise noch höheren ATI modellen eingeheizt.

3. Konnte mich noch NIE bei meinen geforce karten über schlecht bildqualität beschweren, auch wenn ich mit nem Kumpel der meistens ATI verbaute verglich. 7800 war bekannt für probleme? ich weiss es nicht mehr genau, jedenfalls kannst du aufgrund deiner einen erfahrung mit der 7800er nicht alle geforce karten über einen kamm scheren von wegen schlecht bildquali.
 
ich hatte die gf3, gf4, 6800nu, 6800gt und 7800gt. Aber der 6800er wude die Bildquali schlechter. An ATI´s hatte ich die 9800er und die 1800XT. Das sollte wohl reichen um eine objektive Meinung zu haben und vor allem was den Speed angeht. Bei vergleichbare Bildquali waren die ATIS in 80% der fälle schneller.

http://www.tweakers4u.de/news/16,08,2005,,17,04,15,,567.htm

Apropos Qualitäten und nVidia: Das immer wieder heiß diskutierte Thema der Bildqualität wird dieser Tage vom 3DCenter erneut ins Rollen gebracht. Demnach hätten die wählbaren Qualitätsmodi der 7800-Modelle ihren Namen mit Nichten verdient. Die Rede ist von starken Texturflimmern bei gesetzten "quality" oder "high quality" Einstellungen, sobald man den Anisotropen Filter aktiviert. Die gewählten Filtermodi (16x, 8x..) würden ohnehin nur in einem sehr geringen Bildteil als solche dargestellt, häufig werde nur mit 4x oder gar 2x AF-Filter gearbeitet, sodass im Finalen die Aussage resultiert, mit der 7800 / 6800 läge die Bildqualität trotz der jeweils höchsten Gütewahl in den Treibern unter der GeForce 2 / 3 / 4 Serie (und natürlich auch unter allen Radeon-Vertretern):

Aber du scheinst wohl durch eine Rosa NV Brille zu schaun :d

Benchmarks, viele

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/13/
 
Zuletzt bearbeitet:
;)
Rohleistung interessiert keinen, oder zockst Du ohne AA u. AF????
Am Ende sind es zwei gute Konsolen, wo bei ich denke das Sony einfach zu langsam war.....

Ja erraten ich zock immer ohne aa und af, framerate ist mir wichtiger. Und du musst bedenken, beide konsolen sollen eine Grafikpracht mit einer für Konsolen völlig neuen hohen auflösung darstellen, und das auch flüssig. Soviel Power werden die nicht haben, das sie x mal aa und x mal af einsetzen werden. Nicht umsonst gibts doch so wenige games die es nutzen. Darüber hinaus macht die Auflösung an sich schon ein gutes Bild.

War beim PC doch auch so, hat man die auflösung hoch gedreht, war aa nicht mehr so nötig bzw. sichtbar wie bei niedrigen auflösungen.
 
Wenn du die Karten nicht ausgelastet hast, wieso behauptest du dann das NV besser als ATI sei. Erst unter HQ einstelllungen zeigt sich doch wer mehr dampf hat und vor allem was besser aussieht!!


EDIT: UI schon halb 2, morgen weckt mich mein sohn wieder um 5:30, also gute NACHT :d
 
Das muss noch gesagt werden, tut mir leid :d

Geht man mal in die PC ecke, dann kann man zumindest sehen das die geforce 6, 7 und 8 volle erfolge waren denen ATi kaum was entgegenzusetzen hatte.(Im midrange bereich sogar garnix) Und bei der Konsole, die auch noch früher erschien als die PS3 soll das anders gewesen sein? Kann ich nicht glauben.

Falsch, ein R420 alias X800XT/PE wischte mitdem NV40 alias 6800GT/U den Boden auf. Der R420 ist derart viel schneller,vor allem bei Einsatz von AA/AF bis zu 50% bei hohen Auflösungen.

Die 6800er Reihe konnte der X800er Reihe nichts entgegen setzen. Weiter geht mit G70 vs R520. ATi hat sich verspätet wegen des 90nm Fertigungsprozess, da gabs Probleme. Die Karte kam spät, aber sie war schneller und bot erstmals seit NV38 alias FX5950U fast winkelunabhängiges AF. Die G7X sind bekannt (gewesen) für ihr Flimmerprob!

Was 7900GTX vs X1900XTX angeht, so war der G71 nur in aktuellen Spielen schneller, da mehr Füllrate. Der R580 ist dafür bei shaderlastigen Spielen schneller. G71 vs R580 ging imho eindeutig an ATi.

Ich persönlich halte ATi für die bessere Chipschmiede, weil sie NVidia jedesmal erneut zeigen, wo der Hase lang läuft. Sie haben im Moment wieder Probleme mit dem R600, aber der kommt und wird NV erwartungsgemäß das Fürchten lehren.

Außerdem sollte man das nicht mit Konsolen vergleichen. Das sind 2 verschiedenen Welten, auch wenn RSX ein G71 Verwandter ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh