Umfrage zu PS 3.0

würdet ihr noch eine Graka ohne PS 3.0 kaufen ?

  • ja

    Stimmen: 120 44,4%
  • nein

    Stimmen: 150 55,6%

  • Anzahl der Umfrageteilnehmer
    270
du sagst es, die leute sagen mit den abstimmungen sie brauchen kein shader 3.0 also wollen sie wohl ewig auf 3.0 verzichten oder wieso stimmen die so ab :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

also zu Crossfire, irgendwie hab ich oder einige ander das nicht richtig verstanden !

Ich habe gelesen, das bei Crossfire eine Karte eine Vollwertige Garikkarte ist, die auch einzelln arbeiten kann, und eine ist eine reine Coprokarte, soll heissen, sie ist ein " Dummer " Rechenknecht!
Es ist zwar richtig, das es egal ist, ob die Hauptkarte eine X800XE/LE oder oder ist, weil der Copro immer nur der Copro ist, und stur seine aufgaben abrechnet, aber wie kommt ihr drauf, das eine X800.. mit einer X900.. zusammen läuft ?
Und wieso ist es besser sich eine zweite Karte zu kaufen, mit der ich ohne Crosfire MB und Hauptkarte nix anfangen kann ?
Da ist NVidia glaub ich zumindestens besser, weil ich kann beide Karten einzellnt nutzen !
Also einen Kartenverbund Lösen und die Karten einzell Betreiben !
Und ich hab auch gelesen, das es bald die möglichkeit geben soll, zwei Karte mit jeweils zwei GPU´s im SLI zu betreiben, was dann 4 GPU´s macht !
 
das wäre dann die asus dual 6800ultra die SLI fähig wird
 
oder die Gigabyte 6600GT Dual.


und zu den PS3.0 ablehnern, wetten das ändert sich sobalt ATI das hat !
Nur dann kommt das so als wenn ATI das erfunden hat, und das von ATI ist sowiso besser ! :lol:
 
thade2001 schrieb:
biste zufrieden mit der BBA X800?? Ist die von Alternate für 299??

Ja, bin auf auf jeden Fall sehr zufrieden mit der BBA X800XT von Alternate. :love:

Hier gibt es noch einen Thread dazu.


irietical schrieb:
omg wer voted hier bitte mit "Nein"??

Welche Nachteile hat Shader 3.0? Keine, wer's nicht haben will kann's außerdem ausstellen.
Welche Vorteile hat Shader 3.0? Mehrere Operation in einem Durchlauf (mehr FPS), neue Effekte. Randnotiz: Splinter Cell 3 sieht auffallend besser aus mit PS 3.0!

Für mich ist das mal wieder ein klarer Fall von Fanboyshittalk und Engstirnigkeit, fasst euch mal selber an den Kopf!

Bleib mal locker. Es gibt auch Leute, die auf SM3 im Moment noch verzichten können.
 
Zuletzt bearbeitet:
Night<eye> schrieb:
das wäre dann die asus dual 6800ultra die SLI fähig wird

Ich dachte die kommt nicht mehr? Naja das PCB war mal im 1:1 Maßstab auf ner DINA4 Seite der PCGH abgebildet, im SLI Verbund kaum vorstellbar. Und dann wären wohl auch zwei Netzteile im SLI Verbund von Nöten :haha:
 
nein momentan brauch man echt kein Shader 3.0 und die meisten ATI user sagen das die 6800er serie eh zu lahm dafür sein wird.
dem stimme ich zu aber die 7800GTX wird sicher shader 3.0 ausnutzen können.
ich meine damals wurde doom 3 für die fx5800 entwickelt es sollte das spiel werden was die grafik karte optimal ausnutzt.
und genau das ist es geworden. fx5800 leuft perfect bei doom 3 nicht übertrieben viele fps aber schön flüssig bei high details und hoher auflösung.
bei Unreal 3 schrieben die entwickler eine 6800GT wör optimal,
ich denke auch das eine 6800Ultra bei Untral 3 ohne HDR AA oder AF genau an ihre grenzen kommen wird.
und da die 7800GTX so schnell ist wie ein 6800Ultra gespann bei richitigem processor denke ich wird die 7800GTX die erste karte sein die shader 3.0 optimal ausnutzen kann.
der neue Mid range chip von Nvidia soll in etwa den speed einer 6800GT haben sagte Nvidia bereits, nur das er besser übertaktbar sein wird wegen der geringeren anzahl an kondensatoren.
das heist die 6800GT/Ultra karten sind sowas wie Nvidias kommende Mid range generation und Mid range karten.
also wird sich schon alles einfedeln zum entgültigen shader 3.0 umstieg anfang 2006
 
Verstehe auch nicht warum einige hier mit "nein" antworten.
Wenn jetzt ne neue Karte ohne PS 3.0 oder höher rauskommt, ist sie technisch gesehen eh veraltet. Von daher ist diese ATI vs. Nvidia Diskussion eh umsonst.

Ich würde mir auch keine 32bit CPU mehr kaufen, obwohl ich derzeit nur WinXP 32bit nutze. Totzdem wird keine Firma (AMD & Intel) mehr nen 32bit rausbringen und den als High-end darstellen. Wenn dann nur als "billige Alternative"...

Warum sollte man sich jetzt noch etwas holen, was etwas nicht hat, aber der Andere schon? Bei den "Alten" (x800 & 6800) war es eigentlich nie ne Kaufentscheidende Sache. Was ich habe, habe ich, und wer weiß vielleicht kann ich es ja in der Zunkunft nutzen... :drool:

P.S. man muss ja hier erwähnen, dass ich bis jetzt 3x ATI und 2x Nvidia hatte, bevor irgendwas kommt... :rolleyes:
 
Warum net?? Ein P-M rockt die Hütte schon gewaltig.

Aber 32Bit mit Shader 3 kannste eh net vergleichen.
 
Piefke schrieb:
Hi,

@Shader
also zur zeit der TNT Karten hab ich schonmal gelesen, was soll mann mit T&L, und dann zur zeit der GF2 karten wurde gesagt, Shader werden sich nie durchsetzen !
Ich hoffe du weisst nun was für nen Blödsinn du da geschrieben hast !

Was soll daran Blödsinn sein?
Wenn du auf Shader 4.0 anspielst dann muss ich dir sagen das WGF eine Tatsache ist und wenn Longhorn kommt und dazu die WGF 2.0 fähigen Grafikkarten (vielleicht G80 bzw. R600) dann wird auch über Shader 3.0 hergezogen.

Früher oder später hat auch Shader 3.0 keine Zukunft, genau so wie es Shader 2.0 nicht hat.
 
Zuletzt bearbeitet:
Hallo,

also meine 6600GT bleibt wie gesagt bis Weihnachten drinn, mal schauen was dann am Markt ist ( Spiele und Hardware ! ), und mein A64 3200+ wird wohl noch mindestens bis ende 2006 reichen !
dann schau ich ob ich auf PCIe muss, oder ob AGP Pro kommt !
aber erstmal ist es mir wichtiger ( bei den Ladezeiten von BF2 ! ) meine beiden Corsair VS PC 400 512MB Module gegen zwei 1GB Corsair VS auszutauschen !
dann gehen meine beiden jetziegen 512er weg !
mein MB hat leider nur zwei sockel ! S754 !
aber ein MB mit 4 s DDR gibts ja nicht für S754 !?
oder gibts eines mit 3 Sockeln welches mit 2x 512 und 1x 1GB Corsair VS gut mitspielt, und nicht so teuer ist ( gebraucht ? ) !

das sollte dann reichen !

und @ Shader,

Du hast doch gesagt Shader 3.0 braucht kein Mensch !!!!!<< aber die zeit wird dich lehren !
und was ist wenn NVidia den PS4.0 zu erst einbaut, ist er dann auch murks ?
 
Zuletzt bearbeitet:
Wenn die Umsetzung gelungen ist?
Warum sollte es dann murks sein? ;)

Ich hab nicht gesagt Shader 3.0 brauch kein Mensch, ich hab nur gesagt das Shader 3.0 nie bis an den Grenzen ausgenutzt wird.
 
Shader schrieb:
Früher oder später hat auch Shader 3.0 keine Zukunft, genau so wie es Shader 2.0 nicht hat.

Shader schrieb:
Ich hab nicht gesagt Shader 3.0 brauch kein Mensch, ich hab nur gesagt das Shader 3.0 nie bis an den Grenzen ausgenutzt wird.

Shader schrieb:
3. Shader 3.0 wird nie richtig benötigt genau so wie Shader 2.0

Shader schrieb:
Half Life 2 ist ein Shader 2.0 basierendes Spiel und ermöglicht 768 Instruktionen. Shader 3.0 ermöglicht unglaubliche 65536 Instruktionen und mal ehrlich? Brauch man das wirklich?


Das verstehe ich jetzt nicht? Irgendwie widersprichst Du dich doch oder? Warum gibt es die dann?
Frage mich so oder so, warum du dich hier so "aufregst", da du noch nie vor dieser Frage standest, auf jeden Fall nicht beim Kauf Deiner 9800 pro?


@ thade 2001
Zugegebnen mit dem Pentium M hast Du Recht, der Vergleich hinkt. :drool: Obwohl man ja auch sagen muss, dass diese Weiterentwicklung auch sehr ungewöhnlich und eigentlich bisher einzigartig ist.
 
Zuletzt bearbeitet:
Ok meine Formulierungsweise war bei

Früher oder später hat auch Shader 3.0 keine Zukunft, genau so wie es Shader 2.0 nicht hat.

völlig daneben, ich wollte natürlich sagen das Shader 3.0 nie richtig ausgeschöpft wird. Denn ich glaube nicht das es jemals ein Spiel gibt was die 65536 möglichen Instruktionen voll ausschöpft, wenn man bedenkt das Half Life 2 auch nur gerade 90 nutzt. ;)
 
Magnat84 schrieb:
Das verstehe ich jetzt nicht? Irgendwie widersprichst Du dich doch oder? Warum gibt es die dann?
Frage mich so oder so, warum du dich hier so "aufregst", da du noch nie vor dieser Frage standest, auf jeden Fall nicht beim Kauf Deiner 9800 pro?
Also irgendwie seh ich da keinen Widerspruch. er sagt doch mehr oder weniger nur aus, dass bevor ein SM ausgereizt ist, das nächste schon ch verstanden?
 
Mensch nochmal... :rolleyes:
1.
Shader 2.0 wird nicht benötigt. Halflife 2 aber wird mit 2.0 gezockt.
2.
Shader 2.0 hat auch keine Zukunft, liefert aber gleichzeitig ein Beispiel.
3.
Ich hab nicht gesagt Shader 3.0 brauch kein Mensch <-> Shader 3.0 ermöglicht unglaubliche 65536 Instruktionen und mal ehrlich? Brauch man das wirklich?
Hier ist 2.0 aber volkommen ausreichend, obwohl es ja nie benötigt wird wie 3.0

Und meine persönliche Meinung: Nein natürlich wird (eventuell) kein Spiel mit xxx Instruktionen rauskommen, aber mit mehr als 768. Wenns möglich ist, warum denn nicht intergrieren?
 
Night<eye> schrieb:
jo glaub ich dir alles aufs wort.
bei BF2 haben geforce karten iergentwie vorteile wie zb bei doom 3 das merkt man schon das die hersteller eng mit Nvida zusammen gearbeitet haben.

Ich will ja nichts sagen und keine Verschwörungstheorien in den Raum werfen, aber ich denke wenn Ati mehr Kohle auf den Tisch gelegt hätte könnte es sein das BF2 oder Doom3 heute auf Ati Karten besser laufen würde...
 
wenn das so wäre wär ich ati kunde denn es geht nichts über ID games :bigok:
aber ich glaube nicht das ATI mehr oder halt so viel mehr geld hätte um Nvidia die kunden weg zu kafuen.
 
Night<eye> schrieb:
wenn das so wäre wär ich ati kunde denn es geht nichts über ID games :bigok:
aber ich glaube nicht das ATI mehr oder halt so viel mehr geld hätte um Nvidia die kunden weg zu kafuen.

Naja ist ja kein Geheimnis mehr das hinter verschlossenen Türen Exklusiv Deals zwischen Soft uind Hardware Hersteller laufen!
Wie oft passiert es das Spiel XY auf eine NVIDIA oder Ati KArte weitaus besser läuft obwohl beide Karten des Herstellers fast selbe Leistung haben!
Und sollte Doom3 nicht mal ein Ati Wiunder werden ? ;) Aber nach der geleakten Alpha (welches glaub ich Atis Schuld war) ID so sauer war das sie sich entschieden doch für Nvidia zu optimieren !? (und vielleicht noch ein wenig Geld seitens Nvidia floss ;) )
 
Zuletzt bearbeitet:
Also der Shader 3.0 ist ja schön anzusehen ab nicht Pflicht um aktuelle und kommende Games in einer sehr guten Optik zu zocken! Das sage ich nicht weil ich ATI-fan bin, sondern weil es eben Fakt ist. Es ist natürlich nicht abzustreiten das es mit Sh.3.0 besser aussieht aber ein Muss ist es auch nicht. Die Games sehn ohne auch sehr geil aus!

P.S. Hatte Nivida und ATI Karten und gehe immer nach dem besten Preis-Leistungsverhältnis. Da ist mit der Shader 3.0 ziemlich Wurst!
 
Hi,
also ich habe vor kurzem gelesen, das die Programmer von Stalker sich am Anfang an ATI und NVidia gewand haben, und nur NVidia sich gemeldet hat, und von ATI haben die bis heute nichts gehört !( zu Arogant ? )

Und NVidia gibt denen kein Geld, sondern unterstützt bei der Entwicklung mit Hard uns Software Support !< daran ist nicht verwerfliches, den gerade Gameprogrammer sollten immer schon die Hard und Software der zukunft zum Testen da haben, damits auch klappt wenn die Games kommen!
 
kaiser schrieb:
muss mich jetzt echt net blöd anmachen...
1. Ich habe die 6800GT mit der x850xt unübertaktet verglichen...
2. Nicht jede GT schafft Ultra takt... sieht man daran, dass jetzt sehr viele verkauft werden und einige sehr schlecht übertaktbar sind...
3. Die X850XT kann man überhauptnet @PE übertakten... man braucht halt wie bei der gt glück...
4. Die X850XT ist etwas flotter unterwegs als die 6800Ultra und hat besser Bildqualität...

.... hat denn schon i r g e n d w e r eine x850xt für 299 ,- bekommen ? :p
 
Riverna schrieb:
Schon geil was einige Leute hier für einen schrott vom Stapel lassen. Und JA ich würde noch eine Karte ohne PS3 kaufen...
hätteste jetzt auswahl zwischen x850xt pe oder 7800gt fürs selbe geld was würdeste dann nehmen ?
 
Piefke schrieb:
(...)gibts eines mit 3 Sockeln welches mit 2x 512 und 1x 1GB Corsair VS gut mitspielt, und nicht so teuer ist(...)

ka ob das mit deinem corsairspeicher klar kommt, aber ich hab n gigabyte ga-k8ns. da sind drei module möglich. max 3gb.
falls du das noch irgendwo bekommst wirds auch bestimmt günstig sein.
 
Night<eye> schrieb:
hätteste jetzt auswahl zwischen x850xt pe oder 7800gt fürs selbe geld was würdeste dann nehmen ?

x850xt PE gibs aber nicht für das selbe Geld. Fakt ist, zur GT gibs noch nicht viel zu berichten. Benchmarks wären interessant. ICh denke, dass die X850XT die schnellere ist. Bei gleichen Preis wird die schnellere genommen.
 
Piefke schrieb:
Hi,
also ich habe vor kurzem gelesen, das die Programmer von Stalker sich am Anfang an ATI und NVidia gewand haben, und nur NVidia sich gemeldet hat, und von ATI haben die bis heute nichts gehört !( zu Arogant ? )

Und NVidia gibt denen kein Geld, sondern unterstützt bei der Entwicklung mit Hard uns Software Support !< daran ist nicht verwerfliches, den gerade Gameprogrammer sollten immer schon die Hard und Software der zukunft zum Testen da haben, damits auch klappt wenn die Games kommen!

Das selbe hatte ich auch gelesen aber nicht kürzlich sondern vor dutzenden Monaten, als von Stalker groß die Rede war.
Und ob ATI bis heute sich nicht gemeldet hat weiß man auch nicht, oder gibt es darüber "frische" Meldungen?

Zum Support:
Jop für die Entwickler ist es wichtig von den Chip Herstellern ordentlichen Support zu bekommen, damit das Spiel auf vielerlei Grafikkarten bestens funktioniert. In diesen Dingen war NVIDIA immer sehr gut - aber seit den R300 hat sich auch ATI deutlich gebessert zum Vergleich zur grausigen Zeit der Radeon 8500.
 
Aber ein 6800Gt ist halt billiger und viel Hardware wird nach leistung/Preis gekauft-wenn zwischen X850Xt und 7800GTx für 550 Euro-ist wohl klar die 7800GTX!-

Aber ist egal wenn Ati oder Nvidia-ich kaufe immer nach Preis/Leistung und nicht welche Firma-ich hätte ATI und Nvidia karten aber bei mein 6800Gt die PS 3.0 war schon auch ein kaufargument-siehe vor 2 Jahre SM 2.0 -es setzt sich jetzt durch und die leute mit 9700/9800 Radeon kann die meisten aktuellen Spiele immer noch in ein vernuftiger qualität (wenn meistens nur 1078/768 Auflösung bei die neuesten Spiele) aber dass geht nicht so gut mit die Nvidia 5xxx serie wegen die schlecht SM 2.0 leistung-wenn SM 3.0 spiele kommen denn es ist anderes gedreht (X8xx Karten ohne SM3.0 kucken denn in die Röhre) als die letzte Generation.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh