NVIDA zieht ATI AUF UND DAVON !!! DANK 2 GPUS auf einer Karte im SLI 4 GPU PoweR !!!

mustrum schrieb:
Nvidia hat damit gar nichts zu tun. Das ist eine Entwicklung von Asus und so ziemlich das Sinnloseste was man kaufen kann.
Man hatt danach 4x 6600 GT GPU's mit nur 128 mb RAM und der geradezu lächerlichen 128 bit Speicheranbindung.

Sobald man da AA und AF anmacht geht das ganze in die Knie. Da könnte man 10 GPU's zusammen schalten und das würde daran nichts ändern.

Is ne "Erfindung" von Gigabyte
:p
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
finde ich nicht besonders gut, 4 gpu's die es zu kühlen gibt, der erhöhte stromverbrauch. sli ist ansich für manche leute eine super sache, hardcoregamer oder leute die viel rendern, aber für den normalgamer reicht sicherlich auch eine karte aus dem gehobenen mittelfeld.
 
powergamer schrieb:
nvidia kann nur ati davon ziehen wenn auch das preis-/leistungsverhältnis stimmt. also wenn ich mit 200€ nvdia-karte noch schneller unterwegs bin als mit 200€ ati-karte. wie mein vorredner das sarkastisch shcon ausdrückte: erstens zu teuer, zweitens zu laut, drittens was für ein nt braucht man dafür ?


Du musst noch die Gratisprobleme mit SLO einberechenen und dazu die maximale Lebensdauer der aktuellen 660Gts von einer Woche, so viel Aktion gibts nirgendswoanders für den Preis.

Ne mal im Ernst, hatten nicht alle nach der 9700pro gesagt, dass ATI allen davon zieht?

Der markt geht auf und ab, somal ein Gerücht kursiert, das ATI die X800er und X850er nur als Lückenfüller benutzt.
 
Bei der Überschrift hätte ich ja auf Skynet als Threadersteller getippt. :haha: :haha:

Und die Erfinder solcher Dual Core, Chip und Karten Lösungen sollten nicht in im 21 Jahrhundert gesucht werden. Das ham glaube ich alle ausser Nvidia schon gemacht :p
 
Dual GPU ist für ATI kein Fremdwort, sie hatten schon mal einen, und zwar den "ATI Rage Fury Maxx"...naja der war auch nicht sehr gut,deswegen vergisst man den gern :d
 
Also ich will ja nicht schon wieder mosern, aber ich finde es arm, zwei Chips zu benötigen :d

Wenn AMD DC einführt, is das okay, weil die sowieso am oberen Limit sind, aber NV? Die haben mehr zu verbessern ;)
 
In dem Artikel steht bezüglich der ASUS, dass jede GPU nur noch mit PCIe-4x angesprochen werden könne. Das verstehe ich nicht ganz. In der CT stand mal ein Artikel zu PCIe und dort wurden die verschiedenen Varianten gennant: 1x, 4x, 8x, 16x. Bei den SLI-Boards sind aber definitiv zwei 16x-Slots vorhanden - Oder drosselt der Chipsatz den Port auf 8x, sobald beide belegt sind? In dem Artikel, den ich gelesen habe, ging es afaik um Serverboards, bei denen das natürlich nicht vorkommen sollte.
 
also ich weiss nich ob das mit 2* dualgpu grakas in nem sli system sinn hätte.
die bandbreite des pcie slots is ja dann nur mal4, da der nforce4 nur 20 pcie lanes zur verfügung stellt.
ich will erstmal echte benches sehen...
 
ali schrieb:
also ich weiss nich ob das mit 2* dualgpu grakas in nem sli system sinn hätte.
die bandbreite des pcie slots is ja dann nur mal4, da der nforce4 nur 20 pcie lanes zur verfügung stellt.
ich will erstmal echte benches sehen...
Das weitaus größere Problem ist, daß man 4 GPUs hat aber trotzdem sie Speicehrgröße UND Bandbreite einer einzelnen 6600GT.
 
Kabelsalat schrieb:
In dem Artikel steht bezüglich der ASUS, dass jede GPU nur noch mit PCIe-4x angesprochen werden könne. Das verstehe ich nicht ganz. In der CT stand mal ein Artikel zu PCIe und dort wurden die verschiedenen Varianten gennant: 1x, 4x, 8x, 16x. Bei den SLI-Boards sind aber definitiv zwei 16x-Slots vorhanden - Oder drosselt der Chipsatz den Port auf 8x, sobald beide belegt sind? In dem Artikel, den ich gelesen habe, ging es afaik um Serverboards, bei denen das natürlich nicht vorkommen sollte.

wie schon gesagt der nforce 4 stellt nur 20 PCIe Lanes zur verfügung, wenn man 2 gpus im sys hat drosselt der chipsatz beide *16 ports auf 8* wenn man 4 hat auf 4* und so weiter.
 
Sepheta schrieb:
Dual GPU ist für ATI kein Fremdwort, sie hatten schon mal einen, und zwar den "ATI Rage Fury Maxx"...naja der war auch nicht sehr gut,deswegen vergisst man den gern :d


Dann noch rein experimentell eine Radeon 9800 Pro Fury Maxx und wohl das größte Ass die simFusion6500 von Evans&Sutherland.
 
was i so eben gehört habe bringt nvidia in 4 bis 5 wochen schon die nächste generation von grakas raus! also wenn das stimmt! zahlt sich ein kraka kauf im momment sowieso nicht aus! würd ich mal sagen! hr hr :hail:
 
AngeL schrieb:
he ich weiß ja net was daran schlecht sein soll ... asus und gigabyte machen sich gedanken wie man die sli technologie ordentlich ausschlachten kann ...

man sollte doch mal ganz nebenbei an die kunden denken die leistung brauchen ... für die ist ein segen, also die ganzen server die tage und nächste lang speziell effects rendern werden davon stark provitieren

Und die werden sich dann ne 6600GT zum rendern kaufen:rolleyes:
 
Mh, SLI an sich kann schon chancen auf erfolg haben, und was die dual GPU Karten angeht, ich kenn genug Leute die nach dem Motto "Money ain't an thing" leben, wer kein Kleidungsteil unter 200€ trägt kann auch nen bisschen mehr für seinen PC ausgeben =)
 
mustrum schrieb:
Das weitaus größere Problem ist, daß man 4 GPUs hat aber trotzdem sie Speicehrgröße UND Bandbreite einer einzelnen 6600GT.

ja, aber jede GPU muss theoretisch nur noch 1/4 des Bildes rendern, dh. während zb. eine 6800Ultra ein Bild in 1600x1200 rendert, muss eine 6600GT GPU bei 4x SLI nur noch 1/4 davon rendern, also ~ 400x300 (das stimmt so nicht ganz, ist aber die theorie) und bei dieser Auflösung spielt 128Bit Speicher keine Rolle, da solche Auflösungen schon vor 3-4 Jahren flüssig mit AA und AF liefen ;)

und speichergröße ist auch kein Problem, denn jede GPU hat ihre 128MB und jetzt frag ich mal, ob man dann für solch geringe Auflösungen so viel RAM braucht

das einzige wo ich mir noch unsicher bin ist, was die Karten denn bei 512MB Texturen leisten können, denn die Texturgröße teilt sich nicht, es muss nur 1/4 der gesamten Texturen dargestellt werden, aber die sind immer noch 512MB groß :asthanos:
 
Zuletzt bearbeitet:
Fru3cht3t33 schrieb:
was i so eben gehört habe bringt nvidia in 4 bis 5 wochen schon die nächste generation von grakas raus! also wenn das stimmt! zahlt sich ein kraka kauf im momment sowieso nicht aus! würd ich mal sagen! hr hr :hail:
Link?
 
Zaphod schrieb:
Mh, SLI an sich kann schon chancen auf erfolg haben, und was die dual GPU Karten angeht, ich kenn genug Leute die nach dem Motto "Money ain't an thing" leben, wer kein Kleidungsteil unter 200€ trägt kann auch nen bisschen mehr für seinen PC ausgeben =)

Ich erinnere an ein aktuelles Topic im OC Forum
Ich hab ne Vapochill,hab aber keine Ahnung wie ich das Bios resete...:lol:
 
myild schrieb:
Leute,
ich glaube viele hatten recht ,
Gigabyte und ASUS Karten mit Dual GPUs auf einer Karte kann man
wirklich im SLI betreiben d-h
wenn das spiel es unterstützt 4 fache 6600 GT Power !!!!

Dies ist nicht der hammer aber
es steht auch das dies mit anderne Karten möglich ist
sprich 6800 gt und ultras :fresse: :banana:


ich will garnicht wissen wie die power von 4 6800 gts
abgehen !!!!
GESCHWEIGE 6800 ULTRAS 4 mal :love: :love:


HIER DER LINK
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/januar/nvidia_sli_4x_6600_gt/


Was meint ihr wie wird ATI kontern etwa schon morgen
den ersten DUAL CORE GPU der Presse vorstellen ``? :fresse:


du schreist hier rum als ob des was besonderes wäre....

wenn ein motor nicht genug leistung bringt, bau ich halt nen zweiten ins boot, usw usw....

schon allein dein Stil des Threads find ich widerlich... das hat so Bildzeitungsniveau...


und ihr kleinen sensationsgeilen Hardware-Häschen freut über jede neue Möglichkeit sauer verdientes Geld zum Fenster rauszuschmeissen... und wofür? Nicht sichtbare und nicht spürbare pseudo-leistungssteigerung... ihr werdet gemolken und merkts nicht...


ich kenns doch von mir selber... wofür hab ich mir die x800 gekauft? braucht mans denn? nein... aber es muss halt sein.. deswegen geht das genauso an mich wie an euch...


man sollte eigentlich mal aufhören der industrie das geld weiter so in den rachen zu schmeissen... weil eigentlich reicht ne 9800pro zum zocken immer noch bestens aus...
 
Ich würde eher sagen das Ati Nvidia in den nächsten Monaten fortzieht.
Wenn man sich die News mal anschaut:

- Die x800 gegen die 6600gt. Gleiches Preissegment, aber die ati ist besser. Die 6800 nimmt die x800 auch gleich mit.

- Dann x800 xl gegen 6800gt. Ca gleiche Leistung, aber die Ati ist 100(!) € günstiger! Da entscheiden dann nicht 1-2 fps sondern schlicht der gute Preis.

- 6800 Ultra, naja da gibt es die X850 xt pe, die sind aber eh beide zu teuer.

Das sind die Gamer-Bereiche, da ist Ati besser aufgestellt. Und zu SLI: Ich denke das wird floppen, denn wirkliche Leisung gibt es erst ab 2 6800Gts , das sind dann ca 800€. Das für ne Graka ausgeben ist krank. Dann lieber 2 400€ Grakas im Lauf von 1-2 Jahren, da hat man mehr von.

In anderen Bereichen sind Ati und Nvida fast gleich: x700 - 6600.
Für Lowcost halt dann noch x300/x600 - 6200 (wobei hier der Turbocache von Nvidia nicht so der Hit ist)
 
Wird ja dann auch Zeit das ATI reagiert. Das mittlere Preissegment gehört NVidia ja im Moment unangefochten (6600GT). Alles ungelegte Eier.
Mir als Verbraucher/Nutzer solls außerdem recht sein. Konkurenz belebt das Geschäft.
Wieso ist das krank 800€ für 2 Grakas auszugeben ? Belebt die Wirtschaft...
 
Wieso nich gleich 16 GPUs, jede mit ner Anbindung von PCI-E 1x :fresse: ne schon ned...

Naja also so schlecht find ich das garned, sie müssen nun nur noch nen Board mit 4 PCI-E Slots raus bringen bei welchem man jeden Slot bei bedarf auf PCI-E 4x schalten kann. Dann kauft man sich also son board + ne 6600GT, in nem Jahr wenn sie nicht mehr reicht kauft man sich billig ne 2., ein Jahr später (wenn man sich ne 3. 4. kauft :fresse: ) werfen einem die Hersteller die 6600GT Karten nach.

Aber andererseits...klar sich ein 4 x 6600GT system auf einen Schlag zu basteln hat keinen Sinn aber jetzt mal zu sehen das sowas möglich ist find ich interessant, das muss ja nicht gleich jeder kaufen...

4x 6800GT ist allerdings einfach nur lachhaft WEIL
1. Der Prozessor schon bei 2x 6800GT ausbremst (ausser man schnappt sich ne High End Kühllösung und übertaktet den prozzi derbe:fresse:)
2. Es (im Moment) noch garkeine Anwendungen gibt die das wirklich sooo sehr benötigen. Eine 9800pro reicht wirklich immernoch für das meiste schätze ich..

Ausser man ist einer dieser Bechmarkfreaks die alles machen um ein tolles ergebnis zu haben, das is natürlich genial für die Graka Hersteller. Nehmen wir mal an so einer kauft sich nen 4x 6800Ultra system für...1800 Euro? Nen halbes Jahr später gleich nochmal 4x 6900 (oder einfach die nächste Graka Generation) für Nochmehr Geld? Das wäre dann Krank, ich kauf mir da lieber Ein Haus ;)
 
Zuletzt bearbeitet:
Jlagreen schrieb:
ja, aber jede GPU muss theoretisch nur noch 1/4 des Bildes rendern, dh. während zb. eine 6800Ultra ein Bild in 1600x1200 rendert, muss eine 6600GT GPU bei 4x SLI nur noch 1/4 davon rendern, also ~ 400x300 (das stimmt so nicht ganz, ist aber die theorie) ...

Nein, das stimmt nicht "nicht so ganz", sondern schlicht überhaupt nicht.
Jede GPU müsste 800x600 rendern. Und jetzt überleg ma, wozu das gut sein soll.

In einem SLI-System mit zwei GraKas mit je zwei GPUs (müssen 6600GT oder 6800LE sein) hat jede GPU ein 128Bit breites Speicherinterface zu ihren 128MB RAm. Punkt.
l
Weiterhin ist es völlig egal, ob ne PCIe-GraKa in nem PEG-Slot mit x16 oder x4 sitzt, x4 ist immer noch deutlich oberhalb von AGP, vergesst das nicht! Das sind ímmense Texturen, die da in den Arbeitsspeicher ausgelagert werden müssten, völlig unrealistisch.

bodo666, interessant- und jetzt überleg mal, was passiert wenn die X800XL rauskommt, die mal eben die 6800GT zerreißt und gleichzeitig ~80€ günstiger ist :d
 
Bist du dir sicher, dass PCIe 4x schneller ist als AGP8x? AGP8x kann zwar Daten nur unglaublich langsam von der Graka zum Prozessor/Arbeitspeicher transportieren, aber verdammt schnell hin zur Graka. Bei PCIe ist die Lese- und Schreibgeschwindigkeit synchron, also ist das transportieren von Daten von Graka zur CPU/Arbeitspeicher selbst bei x4 noch schneller als bei AGP, aber in die andere Richtung?
 
kann leider keinen link nennen! habs von meinem bruder! der arbeitet bei nvidia german consult ltd. und es soll die preise derb runter drücken!
in etwa 4 bis 5 wochen...
bin mal gespannt...
 
vosmic schrieb:
Versteh die Aufregung nicht. Ist doch ein logischer Schritt.
Es wird ja auch keiner gezwungen die Sachen zu kaufen.
Einige wettern hier rum als wenn sie persönlich beleidigt wurden.
Sportwagen braucht auch kein Mensch, haben möchten sie trotzdem viele.

MFG

Mein reden!!! :coolblue:

Was wäre denn, wenn es diese Entwicklungen nicht schon immer gegeben hätte und auch immer geben wird?
Wir würden draussen spielen, und dieses ganze Board mit diesen immergleichen Diskussionen würde es gar nicht geben!!! :maul:

In diesem Sinne, kein Mensch wird hier zu irgend einem Kauf genötigt, aber der, der sich das gerne antut, sollte auf diese immer gleichen "Neid-der-Besitzlosen & Wer-brauch-das-schon" Kommentare einfach Sch...!!!! :banana: :banana: :banana:
 
Fru3cht3t33 schrieb:
kann leider keinen link nennen! habs von meinem bruder! der arbeitet bei nvidia german consult ltd. und es soll die preise derb runter drücken!
in etwa 4 bis 5 wochen...
bin mal gespannt...

Ja, die Hinhaltetaktik hat NV inzwischen wohl perfektioniert...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh