heute 15uhr nvidia wichtige ankündigung? (jetzt is et raus)

eher spekulativ. denke eigentlich sollte machbar sein da ja bis auf den takt sonst schonma keine veränderungen vorgenommen wurden aber dunno :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich weiss nicht ob das die Lösung ist mit der SLI Version von NVidia.Ich hatte auch einmal diese Voodoo Karten.Var ja schon höllisch.1XAGP Graffe+2XVoodoo2 PCI.Also gingen 3Plätze drauf(1AGP+2PCI)Nur die Karten wurden ja auch nicht so warm wie die von heute.
Also können oder vielmehr werden Schwierichkeiten auftreten was die Wärmeausstrahlung angeht.Und Krach wird es machen von den Duesenjetkuehlern.Wasserkuehlung,auch keine Lösung- wie soll das funktionieren???
Wird wohl spannend die ganze Entwicklungshysterie mitzuerleben,sag ich nur.
So long...
 
Naja mal sehen was ATI dagegen hält? Vielleicht ja ne Radeon x800 XT MAXX (2 Chips auf einer Platine) mit 512MB Speicher :love: :fresse: :banana: :haha:

:d
 
HW-Freak schrieb:
Naja mal sehen was ATI dagegen hält? Vielleicht ja ne Radeon x800 XT MAXX (2 Chips auf einer Platine) mit 512MB Speicher :love: :fresse: :banana: :haha:

:d

Das problem is dann :

1. Die erste Maxx war wirklich mies, Treiberunterstützung unter aller sau

2. Statt zwei günstige karten zu kaufen bzw. ne zweite wenn du möchtest musste direkt ne fett teure kaufen ...
 
Anarchy schrieb:
Das problem is dann :

1. Die erste Maxx war wirklich mies, Treiberunterstützung unter aller sau

2. Statt zwei günstige karten zu kaufen bzw. ne zweite wenn du möchtest musste direkt ne fett teure kaufen ...
Das war auch eher scherzhaft gemeint - und um auf Punkt 1. einzugehen. Damals waren die ATI Karten auch scheisse, wir leben aber jetzt, ich glaube 5 Jahre später, mit einer anderen Situation ;)

Und ob man nun 2x 500€ oder 1x 1000€ oder so ist dann in der Situation egal, außerdem verliert man dann keine 4 Steckplätze, braucht weniger Strom usw :d
 
Anarchy schrieb:
Das problem is dann :

1. Die erste Maxx war wirklich mies, Treiberunterstützung unter aller sau

2. Statt zwei günstige karten zu kaufen bzw. ne zweite wenn du möchtest musste direkt ne fett teure kaufen ...

1. jupp

2. jupp

irgendwie ist diese situation seit jahren mal wieder richtig spannend, denn ich kann mir nicht vorstellen mit was ati dagegen halten will/wird.
ich hoff natürlich das da was kommt.
die müssten jetzt schon was echt ähnlich interessantes aus dem hut zaubern. ansonsten ist das für nvidia aus marketing technischer sicht ein recht großer erfolg, denn man kann sich mit der "absoluten" speedkrone schmücken und das evtl. sogar mit zwei normalen 6800non ultra karten. wir haben ja noch keine benches, aber 24pipes hören sich eben schon sehr verlockend an und das für ca.600€
im vergleich mit der highend karte von ati X800XT PE 16pipes 550€, naja :(

ich bin echt gespannt.
 
HW-Freak schrieb:
Und ob man nun 2x 500€ oder 1x 1000€ oder so ist dann in der Situation egal, außerdem verliert man dann keine 4 Steckplätze, braucht weniger Strom usw :d

Wer macht denn sowas ? Einer der 2*Ultra nimmt hat wohl einfach zuviel geld ...

Wenn dann kauf ich die erste karte für ~300€ (GT@Ultra) und die zweite 2-3 monate später und das dann noch billiger ... hab dann für 500-600€ die gleiche leistung wie deine "hau ich direkt 1k€ raus" version ...

Und in meinem Zock rechner ist die EINZIGE karte die GraKa ... sonst ist alles on-Board :rolleyes:, Strom inrerressiert nicht wirklich denn die karten ausgen nur im 3D Modus viel im 2D kannste die auf minimalst taktraten runterschrauben ... hitze könnt ein echtes problem sein aber wenn man solch Gr4afikleistung will muss man eben was mehr für tun ... wobei nen 120er der von der seite reinpustet direkt auf die Karten reichen sollte ...

@ Someday -

Die 6800nU kann leider kein SLI ... die baut auf einer anderen Platine auf und hat keinen Stecker für die brückenverbindung, also braucht man ne GT oder Ultra ...
 
Zuletzt bearbeitet:
hmm, hab ich nicht gewusst.
so ein schmarn! das wäre doch eigentlich die beste lösung, vorausgesetzt diese wäre auch schneller als die single ultra.
 
Someday schrieb:
hmm, hab ich nicht gewusst.
so ein schmarn! das wäre doch eigentlich die beste lösung, vorausgesetzt diese wäre auch schneller als die single ultra.

Vielleicht bastelt ja nen hersteller nen 6800nU Chip auf eine GT Platine ... aber das würd natürlich nur gehen wenn die 6800nU GPUs auch nen funktionierenden SLI Part im Core haben :hmm:
 
ich bin der meinung das ganze wird irgentwie immer schlimmer!
mehr leistung, mehr verlustleistung, mehr wärme ...
das ganze wird immer mehr gesteigert

WO SOLL DAS HINFÜHREN??

man sollte mal nicht nur an der max leistung drehen sondern mal karten bringen die bei wenig wärme LEISTUNG zeigen..
aber da kommt dann das prob: wenn nun einer anfängt nicht mehr soviel high-end zu entwerfen und eher mal sowas wie ich beschrieben habe entwickelt, wird dieser hersteller sofort gemieden und ist bald raus!


dooki
 
scheinbar ist es eben leichter, an der taktschraube zu drehen, als in sachen energieverbrauch effiziente karten bzw. chips zu entwerfen :rolleyes:

bei CPUs dasselbe bild, sowohl amd als auch intel haben die abwärme stetig gesteigert.... früher hat noch irgendein pseudokühler gereicht, heute behilft man sich eben mit großen kupferblöcken ;)

es wirbt sich eben immer noch besser mit leistung als mit "geringem stromverbrauch", darüber hab ich mir bis jetzt noch keine gedanken gemacht....

immerhin lässt der dothan-desktopableger bei den cpus etwas hoffen und bei amd ist's ja auch nicht so schlimm, obwohl man mit nem übertakteten A64 schnell mal an der 100W-marke kratzt :d

bei grafikkarten ist es meiner ansicht nach nicht so schlimm, die kühler sind zwar auch etwas angewachsen, und seit dem fx5800-"debakel" legt man ja auch wert auf leisere kühllösungen und die 2d-modus-drosselung... wenn ich mir von meinem 5.1-system rakteten um die ohren jagen lasse, macht mir ein dezentes säuseln aus dem case auch nix.... so, over and out :)
 
dooki schrieb:
i

man sollte mal nicht nur an der max leistung drehen sondern mal karten bringen die bei wenig wärme LEISTUNG zeigen..
aber da kommt dann das prob: wenn nun einer anfängt nicht mehr soviel high-end zu entwerfen und eher mal sowas wie ich beschrieben habe entwickelt, wird dieser hersteller sofort gemieden und ist bald raus!


dooki

stimmt. von daher sollten sich nvidia und ati vllt. doch nochmal zusammen setzen und einen kleinen waffenstillstand beschwatzen ;)
 
ja aber das werden die erst machen wenn die verlustleistung bei 500 w liegt und eine wakü so selbstverständlich ist wie heute ein cpu kühler!

so wirds sein oder meint ihr das ein normaler kühler noch reicht wenn das alles so weitergeht?

immerhin... früher brauchte man auch keinen passivkühler
der kam dann .. dann brauchte man einen aktivkühler

so gehts weiter richtung wakü

und wenn gar nix mehr geht irgentwann standart einen 2 meter tower mit stickstoffkühlung ... naja übertrieben ...
 
Ich versteh das Problem nich.

Ihr beschwert euch über die geile Performance?
Also mir persönlich is es furzegal wieviel Strom die Hardware frisst. Im schlimmsten Fall vllt. 300-400W. Na toll, da brauch ja meine Stehlampe mehr. Klar wirds warm, aber die Hersteller werden schon dafür sorgen, daß das Zeug funktioniert. Und für die Silent- und OC Freaks gibts WaKü..
Was bringts mir, wenn die Entwickler in 2 Jahren anstatt ne neue Generation mit mehr Leistung eine mit der selben Leistung präsentieren, die halt 20% weniger Energie verbraucht.. Sinnlos!
Wenn du ne fette Karre auf der Autobahn voll aufdrehst brauchste auch nen Haufen Sprit :d Irgendwo muss die Leistung ja herkommen!

Platz im Gehäuse is eh genug (fast alles onboard).

Mit der SLI Lösung is ne extrem geile Upgrade-Möglichkeit gegeben, einfach ne 2. rein und fast doppelte Leistung, ohne den restlichen PC verändern zu müssen.

Tja, mein Beileid an ATI (nich daß ich die Firma jemals gemocht hätte ;))
 
ich glaub wenn ati ausstirbt gibet echt ein prob:

wir sind dann mehr oder weniger alle an nvidia gebunden

und die können so machen was sie wollen (preise usw!)
 
dooki schrieb:
ich glaub wenn ati ausstirbt gibet echt ein prob:

wir sind dann mehr oder weniger alle an nvidia gebunden

und die können so machen was sie wollen (preise usw!)

jup dann wäre es wieder wie zu Zeiten der GF2 wo man gut und ungerne mal 1300 und mehr DM ausgeben konnte. Ok das geht heute ja auch noch aber ist nicht die Regel ;)

Außerdem hat Ati mit dem R420 doch den Stromverbrauch verringert. Wenn die Angaben bei 3dcenter stimmen verbraucht die x800 xt nicht mehr als 9800XT. Und das will schon was heißen.
 
Zuletzt bearbeitet:
beileid an ati? :confused:

ich denke kaum, dass die sli-geforces eine große bedrohung darstellen... eine massenverbreitung wirds meiner ansicht nach nicht geben, obwohl das ganze ein netter "trick" ist ;)
 
DoNuT schrieb:
ich denke kaum, dass die sli-geforces eine große bedrohung darstellen... eine massenverbreitung wirds meiner ansicht nach nicht geben, obwohl das ganze ein netter "trick" ist

aber die leute die high end wollen koste es was es wolle die werden fast NUR NOCH bei nvidia kaufen - wenn ati sich nix einfallen lässt!
 
DoNuT schrieb:
beileid an ati? :confused:

ich denke kaum, dass die sli-geforces eine große bedrohung darstellen... eine massenverbreitung wirds meiner ansicht nach nicht geben, obwohl das ganze ein netter "trick" ist ;)

nForce4 :coolblue:
 
Highlander schrieb:
Ich Tippe auf 200€ ,was noch zu verschmerzen wäre.
jepp, wenn man was "brandneues" will, zahlt man eben etwas mehr - so ein dual-fx6800u/a64-system würde schon sehr rocken :d

ich hätte gern mal ein paar benches von diversen spielen/synthetischen benchmarks von einem nvidia-sli-gespannt, 87% hört sich nett an, aber ich nehme an, dass ist der idealfall..... :confused:
 
nur wie man in aktuellen benchmarks sieht sind viele spiele (z.B. FarCry) mittlerweile cpu limitiert. aber da kann man bestimmt später (ende nächsten jahres) ne richtig leistungsfähige dualcore cpu reinpacken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh