Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Und bezog sich auf die (meiner Meinung) nicht ganz nachvollziebare Logik deinerseits und wie du sicherlich auch zugeben musst, hast du dann mit deinen Ausdrücken über die Strenge geschlagen. Aber lassen wir es gut sein, betrachten wir das als erledigt, ok!?

Das ändert aber nichts daran, dass ich der Meinung bin, dass eine Kennzeichnung mit + (oder was auch immer) falsche Tatsachen vortäuscht, denn ein Leistungsplus erhält man ja nicht. Vielleicht gibts auch einfach nur einen einen nette Sticker auf der Packung "55nm inside" oder so.

Man darf weiterhin gespannt sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das war ne rhetorische Frage... Da braucht man nicht mehr drauf antworten... Was hier unlogisch ist, das sei mal dahingestellt. Eine weitere Diskussion hat sich für mich erübrigt. Also lass es einfach. Ansonsten hab ich nen neuen Kandidaten für die Ignore...
 
Ich dachte, ich hätte einen Funken Anstand vorhin gelesen, war wohl auch nur Spekulation. Naja, wenn du dich bei Vulkanier beleidigt fühlst bitte, aber was ist denn dann mit "Vollspacko"? Geh mal wieder zurück in den Kindergarten und werd erst mal erwachsen. :shake:
 
Zuletzt bearbeitet:
:lol: Da bin ich schon lange raus. Und Du sollst nicht denken, Du sollst richtig lesen. Dann brauchste nicht spekulieren.
 
Eben, deswegen habe ich auch nicht mehr geantwortet.

Und, fängt der Tag heute nicht mit einer neue Speku-News an, XPTweaker? Wir brauchen input! ;)
 
Scheinbar sind hier alle klüger und jetzt schreibt keiner mehr was! Hat es sich ausspekuliert?
 
lol... auch überlesen... Andererseits wäre 800 fürn speicher auch zu wenig. Ich meine irgendwo gelesen zu haben, dass der 900mhz takten soll und gpu 650mhz
 
Zuletzt bearbeitet:
Die 800 MHz sind in der Tat sehr wenig, aber selbst die 900 MHz sind noch weniger als die GTX280 jetzt hat, oder meinst du das als Takt für die Quadro?
 
Man redet doch gerade von der Quadro. daher meine ich auch die. der geringe Speichertakt kommt daher, dass die Karte 4GB Speicher hat.
 
Naja, 4GB für eine Gaming-Karte wären im Moment ja absoluter totaler Overkill, dann doch lieber weniger Speicher und höheren Speichertakt. Wobei mich mal interessieren würde, ob eine GTX280 mit 2 GB noch deutlich zu legen könnte.
 
Neja also wenn man sich anguckt was HisN in seinem Thread für aktuelle Games an Speicherverbrauch ermittelt, bei utopischen Auflösungen, dann wird man feststellen, das selbst die verschwenderischen NV Karten nicht das eine GB derzeit vollbekommen... Heist soviel wie, die Karte wird mit mehr Speicher gar nix zulegen können, weil einfach keine Daten mehr da sind, welche dort rein könnten...

Wie es in Zukunft aussieht, weis aber keiner, wird sicher irgendwann so kommen, das mehr Speicher belegt werden kann als 1GB, ob die Karte dann auch noch nutzen daraus zieht, sprich ob mehr FPS anliegen, steht dabei aber auf nem anderen Blatt.
 
In FC2 habe ich letztens den Speicher mal beobachtet und da wurde der Speicher meiner GTX260 mit knapp 800 MB ausgelastet. Auflösung war 1680x1050 mit 4x AA und 16x AF.

Naja, es wird aber bestimmt nächstes Jahr die ersten Karten mit 2 GB Speicher geben.
 
Neja da sind aber bei ner 1GB Karte noch 200MB Luft nach oben, oder besser gesagt, es sind noch 20% des Speichers frei.
Bei der GTX260 ist das natürlich ein wenig anders, die ist ja Architekturbedingt auf 14 Speicherchips beschränkt, weil ein 64Bit Controller im Gegensatz zur GTX280 weg rationalisiert wurde...

Und ob es sobald Karten mit 2GB Speicher geben wird, bleibt abzuwarten, im Moment reichen ja die 512MB eigentlich noch gut aus, kann zumindest keine störenden Nachladeruckler groß feststellen bei mir, von daher.

Könnte mir aber vorstellen, das NV mit der nächsten Generation Karten wieder auf 384Bit mit aber mit GDDR5 setzt, so wäre man dann in der Lage 1,5GB Speicher zu verbauen, was ja wiederum für die HighEnd Karten schon mal nicht schlecht wäre ;)
 
Zuletzt bearbeitet:
Hallo,

die Quadro hat imho hauptsächlich wegen der CUDA-Geschichte soviel RAM.
Die Gflop-Leistung von einer aktuellen Graka ist ja wie wir alle wissen um einiges höher als bei einer CPU. In der Strömungssimulationssoftware Powerflow von EXA braucht man aber neben einer hohen Rechenleistung auch eine Menge RAM. Da fängt man mit einem einfacheren Rechnercluster (8xCore2Duo) mit 8 GB pro Rechner gerade erst an.
Da kommt man dann ja mit 4 GB auf der Graka schon deutlicher hin.
Ich bin jedenfalls sehr gespannt, wie schnell bei den Profiprogrammen (im Bereich FEM, Strömungssimulation) auf Grafikkarten gewechselt wird.

ciao Tom
 
Zuletzt bearbeitet:
wird denke ich noch ne ganze Weile dauern, bis sich das wirklich durchsetzen wird...

Ich denke mal einfach aus dem Grund, das es quasi in nahezu keinem Server derzeit Platz für ne 180W PCIe 16x Karte gibt.
Die meisten Server wo sowas berechnet wird, bauen sich doch aus recht simplen Teilen zusammen, sprich, Mobo, CPUs, Speicher und ne HDD bzw. ein Raid...
Das Zentrale Storage liegt wo anders, sprich die Server sind idR 1HE oder 2HE groß, vllt in seltenen Fällen 3HE.

Und wer schon mal ein 1HE-2HE Server von innen gesehen hat, der weis, das dort drin kein Platz für ne 16x PCIe Karte ist ;) für ne 2 Dualslot Version schon gar nicht...

Des weiteren werden für solche Vorhaben mit Sicherheit auch Bladecenter und dessen Server eingesetzt und dort ist noch weniger Platz drin ;)

Aber ich glaube auch nicht, das die 4GB RAM auf dem Teil für sowas verbaut wurden, sondern die wurden eher wegen CAD und anderen 3D Berechnungen verbaut... Die R600 FireGL beispielsweise gibts auch mit 2 und 4GB Speicher, und da war noch nicht die Rede von GPGPU ;)
 
[...]
Könnte mir aber vorstellen, das NV mit der nächsten Generation Karten wieder auf 384Bit mit aber mit GDDR5 setzt, so wäre man dann in der Lage 1,5GB Speicher zu verbauen, was ja wiederum für die HighEnd Karten schon mal nicht schlecht wäre ;)

Das wäre natürlich auch ein Ansatz, und gleichbedeutend mit fast 200.000 MB/s an Speicherbandbreite (bei 1000 MHz für den Speicher) und die abgespeckte Variante hätte dann 1280 MB Speicher. Man darf wie immer gespannt sein.
 
jo so schauts aus... Die Frage ist natürlich, ob NV mit der nächsten Generation die Architektur weitestgehend beibehält. Im CPU Forum in dem einen Thread wurde schon disktutiert, das die Architektur von NV wohl am Ende sei, einfach aus effizienztechnischer Sicht und es wurde vermutet, das NV wohl auch auf Vectoreinheiten bauen würde... Obs ähnlich AMD Vec5 oder vllt wie bei Intels vllt irgendwann kommenden HighEnd GPUs Vec16 weis noch keiner...
Die Frage ist nur, ob dann noch die Möglichkeit besteht, so ein modulares Design wie derzeit zu bauen...
Lassen wir uns überraschen.

Weis eigentlich schon jemand, wann nun genau die 55nm GPUs kommen? Wirds noch was bis Weihnachten oder net. Vllt hätte ich interesse an ner neuen 280GTX ;)
 
Ich denke der Ansatz in der Zukunft dürfte dem von CPUs ähneln, dass mehre GPUs auf einem Die vereint werden. Das wird aber nur dann funktionieren, wenn der Chip dann tatsächlich auch als einzelner Chip angesehen wird, sonst hätten wir ja wieder die bekannten SLI Probleme.
 
Zuletzt bearbeitet:
Das wäre aber eigentlich total Sinnfrei, da die GPU derzeit schon aus mehreren gleichen Teilen besteht, sprich die Design ist schon parallel ausgelegt. Ein parallelisieren einer parallelisierten Architektur wäre demzufolge total Sinnfrei.

Man bräuchte eigentlich nur die einzellnen Einheiten der GPU Verdoppeln und schon wäre das wieder effizient und ohne Probleme als Single GPU erkennbar, die Frage ist, kann man so ein riesiges "logic" Monster mit derzeitigen Herstellungsprozessen und Techniken überhaupt bauen? Und ich glaube, daran scheiterts ein wenig...

Kann ehrlich gesagt nicht verstehen, warum immer wieder Leute denken, das es ein Fortschritt in die richtige Richtung wäre, GPUs Multicore mäßig zu bauen!?
 
Zuletzt bearbeitet:
Hallo,

das NV Effizienzprobleme haben soll oder bekommen wird, hab ich auch schon gelesen. Das kann ich aber nicht ganz nachvollziehen.
Bei ATI sinds derzeit 160 Vektoreinheiten (5D). Man könnte auch sagen es sind insgesamt 5x160 = 800 skalare Einheiten (1D).
Ein G200 in der GTX 280 hat 240 skalare Einheiten.
Jetzt leistet die Nvidia-Karte mit "nur" 240 Einheiten etwas mehr als die ATI-Karte mit 800 Einheiten. Von daher leidet meiner Meinung nach letztere an Effizienzproblemen.
Eventuell ändert sich das ja mit zunehmender Anzahl der Einheiten noch. Anhand der aktuellen Graka-Generation ist das aber imho überhaupt nicht erkennbar.

Außer man macht die Effizienz am Flächenverbrauch fest. Da scheinen die Vektoreinheiten von ATI im Vorteil zu sein.

ciao Tom
 
Zuletzt bearbeitet:
Das wäre aber eigentlich total Sinnfrei, da die GPU derzeit schon aus mehreren gleichen Teilen besteht, sprich die Design ist schon parallel ausgelegt. Ein parallelisieren einer parallelisierten Architektur wäre demzufolge total Sinnfrei.

Man bräuchte eigentlich nur die einzellnen Einheiten der GPU Verdoppeln und schon wäre das wieder effizient und ohne Probleme als Single GPU erkennbar, die Frage ist, kann man so ein riesiges "logic" Monster mit derzeitigen Herstellungsprozessen und Techniken überhaupt bauen? Und ich glaube, daran scheiterts ein wenig...

Kann ehrlich gesagt nicht verstehen, warum immer wieder Leute denken, das es ein Fortschritt in die richtige Richtung wäre, GPUs Multicore mäßig zu bauen!?

Von Parallelisierung war doch nicht die Rede, sondern von Ver-n-fachung. Und warum gibt es dann SLI, wenn es sinnfrei wäre? Die großen Probleme hierbei wären aber die Verlustleistung und wie gesagt, die typischen SLI Probleme. Von daher: x-GPUs auf einem Die die am Betriebssystem aber wie eine GPU ankommen. Keine Ahnung, ob das machbar, aber scheinbar doch. ATI arbeite doch schon dran.

[...]

das NV Effizienzprobleme haben soll oder bekommen wird, hab ich auch schon gelesen. Das kann ich aber nicht ganz nachvollziehen.
Bei ATI sinds derzeit 160 Vektoreinheiten (5D). Man könnte auch sagen es sind insgesamt 5x160 = 800 skalare Einheiten (1D).
Ein G200 in der GTX 280 hat 240 skalare Einheiten.
Jetzt leistet die Nvidia-Karte mit "nur" 240 Einheiten etwas mehr als die ATI-Karte mit 800 Einheiten. Von daher leidet meiner Meinung nach letztere an Effizienzproblemen.[... ]

Du darfst aber auch nicht vergessen, dass die ALUs bei nvidia deutlich höher getaktet sind, als die bei ATI.
 
Zuletzt bearbeitet:
Du darfst aber auch nicht vergessen, dass die ALUs bei nvidia deutlich höher getaktet sind, als die bei ATI.
Danke für den Hinweis. Hab ich nicht dran gedacht.
aber:
G200: 1296 MHz
RV770: 750 MHz
macht einen Faktor von 1,728

800/240 = 3,33

Da fehlt also noch was

ciao Tom
 
Aber irgendwie habe ich das Gefühl, dass man hier Birnen mit Äpfel vergleich, die technologischen Ansätze sind halt verschieden, da kann man beides nicht 1:1 vergleichen. Außerdem besteht eine Grafikkarte ja auch nicht nur aus ALUs.
 
wie das jetzt 100% genau zusammenhängt, kann ich jetzt so gleich mal gar nicht, sagen, aber die Vec5 Einheiten von AMD lassen sich bedeutend schwerer auslasten, weil man dort nicht einfach 160x5 rechnen kann.

Denn es können nur 5 Dinge gleichzeitig berechnet werden, wenn diese vom gleichen Objekt (nennt man das so?) kommen, quasi eine Berechnung von unabhängigen Dingen wie bei NV ist das nicht. Sprich Höhe, Breite, Tiefe, den Z Wert und noch was anderes.

Das heist AMD hat im schlimmsten Fall nur 160 Shader mit 750MHz, wohingegen NV immer 240 Shader mit 1xxx MHz hat.
Im besten Fall wäre natürlich die AMD GPU deutlich der 280GTX überlegen, was aber idR nie eintritt, zumindest nicht in Sachen 3D Games ;)

Und die Sache mit der Effizienz, gilt in erster Linie wohl dem Platzverbrauch auf dem Wafer, angeblich soll mit steigender Anzahl der 1D Shader der Platzverbrauch überproportional zunehmen.
Des weiteren ist in Sachen Stromverbrauch die G200 Reihe auch unterlegen (zumindest im Lastzustand) mal sehen ob sich da was mit den 55nm ändert.

@TopAce888
ne du verstehst das nicht wie ich das meine...
Eine CPU ist eine CPU, dort ist nix parallelisiert drin, zumindestens nicht wirklich, heist soviel wie, es kann nur eine Rechenaufgabe gleichzeitig ausgeführt werden. Soll eine zweite Aufgabe berechnet werden, muss die erste Aufgabe pausiert werden bzw. gewartet werden bis diese fertig ist. Heist wenn zwei Rechenaufgaben beendet werden müssen, brauch man auch die doppelte Zeit, mit nem Dualcore, also 2 CPUs würde man beide Rechenaufgaben gleichzeitig abarbeiten können.

Eine GPU besteht im Beispiel von NVs 280GTX zum Beispiel aus 240 Shadern, die können 240 Dinge gleichzeitig und unabhängig voneinander ausführen. Heist soviel wie, man brauch keinen zweiten kompletten Core, ein Multi Chip Design ist überflüssig, weil dadurch auch andere Dinge mehrfach vorhanden sein müssten. So zum Beispiel der Speicher, die Stromversorgung usw...
Besser wäre es eigentlich, wenn man nur die einzellnen Einheiten in der GPU verdoppelt. So in etwa hat ja NV den G200 gebracht, welcher ja zum großteil das Doppelte des G92 ist... Nur leider ist wohl das Problem, solche x Mrd Transistorfassenden Monster zu fertigen. In CPUs ist der Großteil der Transistoren der Cache, in der GPU ist eigentlich 95% logic drin, wenn da was schief geht bei der Herstellung, kann die GPU wegfliegen...

Solche riesen Chips sind also ineffizient, was Herstellung/Ausbeute betrifft dafür aber deutlich effizienter was Stromverbrauch, Gesamtkosten, Auslastbarkeit im Betrieb usw. betrifft.

Um das Problem zu umgehen werden einfach zwei kleine Chips auf einem PCB zusammen verbaut (oder auf 2 PCBs) was sich dann SLI oder CF schimpft. Aber das bringt entscheidende Nachteile, erstens MR wobei das mit Software wohl lösbar wäre, zweitens viele Bauteile müssen doppelt vorhanden sein was Strom kostet, es besteht keine Funktion auf den Speicher der anderen GPU zuzugreifen (zumindest gibts keine schnelle Verbindung) usw.

Wenn man das ganze nicht aus dem sturen Luxxer, der nur mehr Leistung haben will, betrachtet, wird man feststellen, das es Sinnlos ist, die GPU Anzahl zu erhöhen, weil es eine Parallelisierung einer Parallelisierung ist.
Es wäre viel besser, einfach mehr Shadereinheiten auf einem DIE zusammen zu pressen, die Anzahl der TMUs und ROPs usw. zu erhöhen und das ganze als SingleChip Karte zu vermarkten als auf solchen Schmarn mit Multi GPU zu setzen.

EDIT:
puhh, ist das viel Text gewurden...
Aber eins noch. Man müsste so in der Art wie die Nahalem CPUs schaffen, sprich mindestens 2 Bereiche, wobei man den Bereich der die Recheneinheiten beinhaltet beliebig erweitern könnte, das Problem könnte nur die interne Verbindung zum Speicher werden, sprich wie schnell ist die Verbindung zwischen Core und Uncore Bereich in so einem Fall, glaube kaum, das dort Bandbreiten von 1xx GB/sec erreicht werden könnten...
 
Zuletzt bearbeitet:
@fdsonne

schöne Erklärung :bigok: schiebt doch das mal in den Technik Thread , da wären diese Sachen viel besser aufgehoben :wink:
 
@fdsonne:

Du hast da sicherlich vollkomen Recht. Aber man kann da sicherlich genauso drüber diskutieren wie ob ATI oder nvidia die besseren Karten bauen! ;)

Deswegen meinte ich aber auch, dass die SLI (und auch CF-) Beschränkungen wegfallen müssten. Wenn ATI oder nvidia es mal tatsächlich schaffen sollten, die ganzen Multi-GPU Nachteile in den Griff zu bekommen, dann hat das bestimmt eine Zukunft, aber wer weiß, ob das überhaupt machbar ist.

Aber letzten Endes ist vollkommen egal, woher die Leistung kommt, Hauptsache sie ist da. Aber in einem Punkt müssen sich beide Hersteller Gedanken machen und das ist der Stromverbrauch.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh