Neurosphere
Enthusiast
- Mitglied seit
- 06.11.2008
- Beiträge
- 4.324
Jup, nun schau nach wieviel Transistoren die CPU hat...
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich poste hier wenn ich interessante Informationen finde über die es sich zu schreiben lohnt.
Allerdings wirds in letzter Zeit immer häufiger das man mit anderen diskutieren muss die nur ungern höhren das der "Neue" von NV vor ihrer heißgeliebten Neuanschaffung von ATI liegen könnte oder Leute die ihre Spekulationen Kund tun müssen ohne sich vorher etwas mit diesem Thread hier beschäftigt zu haben.
Naja, sowas von wegen 3-mal so schnell wie rv870, da muss ich mir schon ddie augen reiben, onst find ich es eigentlich net so schlimm, is vllt. ein bissel falsch rüber gekommen.
Nein, es sind auf noch 768 kibyte cache auf dem fermi-chip. der kostet schon ordentlich transistoren, aber der g300 wird den ja nicht haben und andere dinge auch nicht, somit denke ich shon, das man beim g300 deutlich unter 3 miliarden transistoren bleiben wird.
Ja, aber mehr als 20% über 5870 kann es fasst net werden, ich denke der g300 ist ein ähnlicher fortschritt wie der rv 870, gpgpu jetzt außen vor. im gamingbereich dx11 integration und halt normale verdoppelung (512 zu 240 shadern ist etwas mehr als verdoppelung, ich weiß) und verbessrung von rops shadern usw. ich denke es wird so aussehen wie bei der jetzigen generation, zumindest leistungstechnisch.
Du gehörst also zum Entwicklungsteam der Treiber? Interessant. Erzähl uns mehr ...auch mit finalen Treiber wird sich daran nichts ändern.
Wer es nutzt, war nicht das Thema. Die Technologie ist vorhanden, fertig. Da kann man genauso gut fragen "wer zum Henker nutzt bitteschön 3D Vision?". Und ja, gerade in produktiven Arbeitsumgebungen gibt es einige Szenarien für Multimonitoring.wer zum Henker nutzt bitteschön eyefinity?
Nein, sie ist eine Performance Karte. Mid-Range ist eher 56xx bzw 57xx. Und ich kann fdsonne nur zustimmen, gerade bei den günstigeren Modellen macht Multimonitoring ebenfalls Sinn.Die 5870 ist doch eigendlich eine Midrangekarte
was meint ihr wann mit neuen Nvidia karten zu rechnen ist? wollte eigentlich bis anfang 2010 gucken ob dieses mal
Nv oder Ati das rennen macht und dann zuschlagen...
Das immer geil wenn leute sagen , die schnellste single GPU karte sei eine mid range karte, was ist dann der 280? lowend zum teuren preis
Du gehörst also zum Entwicklungsteam der Treiber? Interessant. Erzähl uns mehr ...
Wer es nutzt, war nicht das Thema. Die Technologie ist vorhanden, fertig. Da kann man genauso gut fragen "wer zum Henker nutzt bitteschön 3D Vision?". Und ja, gerade in produktiven Arbeitsumgebungen gibt es einige Szenarien für Multimonitoring.
Das war vielleicht mal so. Who knows. Mittlerweile sind sie dank der Ausgliederung der Fabs und Investoren wie ATIC aber wieder solide positioniert. Womöglich kommen auch noch einige Milliarden durch die Zivilklage gegen Intel hinzu. Das ist allerdings ebenfalls ein Thema für einen anderen Thread.AMD/ATI gehts finanziell wirklich sehr schlecht
Nun ja, deine scheinbar unumstössliche, auf Fakten basierende Aussage hörte sich aber so an.nein, und das habe ich auch nicht behauptet
Dann ist dir hoffentlich spätestens jetzt klar, dass GPUs nicht nur für Spiele entwickelt werden. Wobei sicherlich der eine oder andere Enthusiast auch dafür Eyefinity nutzen wird.Das war lediglich auf uns Spieler geeicht...
Nun ja, deine scheinbar unumstössliche, auf Fakten basierende Aussage hörte sich aber so an.
Dann ist dir hoffentlich spätestens jetzt klar, dass GPUs nicht nur für Spiele entwickelt werden. Wobei sicherlich der eine oder andere Enthusiast auch dafür Eyefinity nutzen wird.
zu2)
achsoo, das hättest du ja gleich sagen können *G*
ich denke natürlich nur daran, dass sich hier ausschließlich Firmeninhaber und -interessierte treffen.rolleyes:)
Selbstverständlich rede ich von einem Heimgebrauch. Was interessiert mich wer was in Firmen macht ?! Selbst Enthusiasten tun sich schwer damit sich mal eben drei TFTs einer Sorte zu gönnen
(als doof hingestellt zu werden stört mich dann aber doch )
....jetzt lass uns den Quatsch mal bitte beenden.
Ich könnte mir aber auch vorstellen, NV geht den selben Schritt zurück wie AMD damals, sprich man baut Performancekarten und deckt den HighEnd Gamingmarkt mit Dual GPU Lösungen ab...
ja, wie oben von mir schon erwähnt.
Das würde den Markt seitens nVidia aber auch nicht unbedingt fördern, da ATI nun mittlerweile schon nen recht großen Vorsprung hat und im Begriff ist mit der 5890 zu winken. Sollte dem wirklich so sein wirds langweilig (Leistung) und es gibt lediglich Preis- anstatt Leistungskronen die verteilt werden können. Interessant zu wissen wäre, ob durch den Cudabeschnitt die Karte dementsprechend günstiger in der Produktion wird als die dann evtl ebenbürtigen 5870er Karten.