nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Es wäre nett, wenn hier wieder zur alten Gesprächskultur zurückgefunden wird.
Hat doch bisher auch ganz gut geklappt!?

Die Seite 1 darf auch ruhig gelesen werden! ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@all

Ist hier bald mal Schluß mit dem Fanboy Gelaber? Warum schaut hier nicht ab und an mal ein Mod rein?

Ist doch völlig egal wie aktuelle Architekturen arbeiten oder nicht arbeiten, der GT300 baut zumindest nicht auf dem GT200 soweit ich informiert bin, die Entwicklung an ihm hat schon begonnen bevor der GT200 überhaupt released war.


Na wenigstens mal jemand der sich in die materie eingelesen hat:)
 
Zuletzt bearbeitet:
@all

Ist hier bald mal Schluß mit dem Fanboy Gelaber? Warum schaut hier nicht ab und an mal ein Mod rein?

Ist doch völlig egal wie aktuelle Architekturen arbeiten oder nicht arbeiten, der GT300 baut zumindest nicht auf dem GT200 soweit ich informiert bin, die Entwicklung an ihm hat schon begonnen bevor der GT200 überhaupt released war.

Hab ich beides gesagt, die herren meinen aber der Gt 300 sei ne weiternentwicklung, das der GT 200 nur nen G80 brute force war is klar und dasma megachips länger entwickelt
 
Es geht nicht darum, ob der GT300 auf dem GT200 aufbaut oder nicht. Die Frage ist, was genau denn anders sein soll - und solange hier keiner intelligente Vorschläge hat, was denn jetzt ein "Megachip" genau können soll und warum er plötzlich so viel besser sein wird, ist die Diskussion völlig unfruchtbar, weil die Leute, die Ahnung von GPU-Architekturen haben, an denen vorbeireden, die nur Ahnung vom GPUs kaufen haben. Und umgedreht. Geschwindigkeitsgewinne kommen nicht aus dem Nichts, Ansäze gibt es genug. Es ist nur blauäugig, zu glauben, dass zwei GPUs vom selben Entwickler völlig getrennte Wege gehen, die würden sich ja selbst verarschen, wenn sie ihr Wissen nicht nutzen.

Im übrigen darf ich mal an den Anfang dieser Diskussion erinnern: Ich habe lediglich darauf hingewiesen, dass es Stuss ist, sich feuchte Träume zu bescheren, weil man von drei- oder viermal schnelleren GPUs schwärmt, solange man überhaupt keine Anhaltspunkte dafür hat.
 
Zuletzt bearbeitet:
Es geht nicht darum, ob der GT300 auf dem GT200 aufbaut oder nicht. Die Frage ist, was genau denn anders sein soll - und solange hier keiner intelligente Vorschläge hat, was denn jetzt ein "Megachip" genau können soll und warum er plötzlich so viel besser sein wird, ist die Diskussion völlig unfruchtbar, weil die Leute, die Ahnung von GPU-Architekturen haben, an denen vorbeireden, die nur Ahnung vom GPUs kaufen haben. Und umgedreht.

TSMC hat doch schon bestätigt das sie mit der 40nm entwicklung gut voran kommen auch speziell auf den GT300 bezogen.Also müssen die probleme mit dem chip ja nicht in dem masse vorhanden sein wie es hier dargelegt wird.

Und wenn nvidia ankündigt das der 300er auf einer anderen chiparchitektur aufbaut wie sein vorgänger wird es wohl auch so sein.

Ansonsten würden sie sich beim relase selbiger ja vollkommen lächerlich machen,oder meints du es würde niemand mitbekommen,wenn der chip auf g200 strukturen aufbauen würde:)
 
Zuletzt bearbeitet:
Ich zitiere mal aus nem Artikel der Linksammlung von Seite 1 :

[...] "G300, so verriet man uns abschließend, ist der "wahre" Nachfolger des G80, während der GT200 im weitesten Sinne nichts weiter als ein breiterer G80 mit verbesserten GPGPU-Computing-Eigenschaften sei.
Man darf also gespannt sein, was Nvidias erster DirectX-11-Chip" [...]
 
Zuletzt bearbeitet:
Der Punkt ist, dass wir hier wieder mit einer USA zu rechnen haben und insofern wird die selbstverständlich Ähnlichkeiten mit anderen Architekturen in dem Stil haben, genauso, wie auch der GT200 natürlich strukturelle Ähnlichkeiten mit dem RV770 hat. Die Frage ist, ich wiederhole mich eben, was jetzt anders ist. Wenn einer sagen könnte, dass nVidia jetzt Vec-ALUs benutzt, wäre das zum Beispiel ein Anfang. Oder die Anisotropie in die Shader auslagert (völliger Schwachsinn). Oder oder oder. Aber ohne Basis träumt man nicht von Leistungssteigerungen, das ist Selbstbetrug.

Was TSMC angeht: Ein funktionierender 40nm-Prozess ändert nichts daran, dass große Chips schlechte Yields erzeugen.
 
Was TSMC angeht: Ein funktionierender 40nm-Prozess ändert nichts daran, dass große Chips schlechte Yields erzeugen.

Und wär sagt dir das der 40nm gt300 ein grosser chip wird?

Die Frage ist, ich wiederhole mich eben, was jetzt anders ist. Wenn einer sagen könnte, dass nVidia jetzt Vec-ALUs benutzt, wäre das zum Beispiel ein Anfang. Oder die Anisotropie in die Shader auslagert (völliger Schwachsinn). Oder oder oder. Aber ohne Basis träumt man nicht von Leistungssteigerungen, das ist Selbstbetrug.
.
Auch darauf wurde zum teil schon eingegangen (siehe post1)von nvidia,das sie jetzt noch keine genauen details über den aufbau bekannt geben können ist doch vollkommen normal:)

Der mitbewerber hört u liesst ja schliesslich auch mit
 
Zuletzt bearbeitet:
Der Punkt ist, dass wir hier wieder mit einer USA zu rechnen haben und insofern wird die selbstverständlich Ähnlichkeiten mit anderen Architekturen in dem Stil haben, genauso, wie auch der GT200 natürlich strukturelle Ähnlichkeiten mit dem RV770 hat. Die Frage ist, ich wiederhole mich eben, was jetzt anders ist. Wenn einer sagen könnte, dass nVidia jetzt Vec-ALUs benutzt, wäre das zum Beispiel ein Anfang. Oder die Anisotropie in die Shader auslagert (völliger Schwachsinn). Oder oder oder. Aber ohne Basis träumt man nicht von Leistungssteigerungen, das ist Selbstbetrug.

Was TSMC angeht: Ein funktionierender 40nm-Prozess ändert nichts daran, dass große Chips schlechte Yields erzeugen.


Auch ohne basis kann man von starken Steigerungen träumen, alles andere wäre schlciht ein desaster und ist bisher nicht passiert ;)
 
Und wär sagt dir das der 40nm gt300 ein grosser chip wird?

Wär?

Niemand natürlich, das war ja auch gar nicht das Problem. Ich will nur verdeutlichen, dass man im Dilemma steckt, einen Ansatz finden zu müssen, der wahrscheinlich nicht völlig anders sein wird, aber trotzdem bedeutend kleiner sein muss. Genau da steckt ja der Teufel.

@GA-Thrawn: Starke Steigerungen? Naja. Das ist bis jetzt längst nicht immer passiert, genau das hab ich ja vor einer Weile hier schonmal geschrieben - es ist eben NICHT so, dass eine neue Generation immer doppelt so schnell war. Und erst recht nicht drei oder vier Mal so schnell.

Aber jetzt dreht ihr euch im Kreis.
 
Wär?

Niemand natürlich, das war ja auch gar nicht das Problem. Ich will nur verdeutlichen, dass man im Dilemma steckt, einen Ansatz finden zu müssen, der wahrscheinlich nicht völlig anders sein wird, aber trotzdem bedeutend kleiner sein muss. Genau da steckt ja der Teufel.

@GA-Thrawn: Starke Steigerungen? Naja. Das ist bis jetzt längst nicht immer passiert, genau das hab ich ja vor einer Weile hier schonmal geschrieben - es ist eben NICHT so, dass eine neue Generation immer doppelt so schnell war. Und erst recht nicht drei oder vier Mal so schnell.

Aber jetzt dreht ihr euch im Kreis.

Starkie Steigerungen sind schon 50% hab nix von doppelt und 3 m so schnell gesagt, aber ich denke hier geht keiner von aus das der GT300 nicht min 80% schneller als der GT200B wird
 
Es bringt schonwas, wie du siehst kufen genug ne GTX 280 eben weilse dei schnelslte single gpu ist ;)
Was sind für dich denn "genug Leute"? Die Anzahl der Leute, die eine GTX 280 kaufen bzw gekauft haben, ist verschwindend gering im Vergleich zum gesamten Markt. Und diesen möchte man möglichst umfangreich bedienen und richtet seine Entwicklung dementsprechend aus.

Wie kommst du bitte auf den abwegigen gedanken das die GTX 37% mehr leistung zieht als die 4870
Mathematik Grundstufe. 178 / 130 ergibt nun mal ~1,37. :rolleyes: Quelle findest du weiter vorne.
Und jetzt lass langsam gut sein. Deine Behauptung, die GTX 280 würde weniger Strom brauchen, war schon absurd genug. Wie wäre es, wenn du die Diskussion beendest und wieder zum eigentlichen Thema des Thread zurückkommst?

Und was soll dann diese aussage bedeuten
Ein widerspruch in sich
Nein. Nicht im geringsten.

Und wenn nvidia ankündigt das der 300er auf einer anderen chiparchitektur aufbaut wie sein vorgänger wird es wohl auch so sein.
Dann bringe doch endlich mal Quellen bzw offizielle Aussagen nVidias für diese Behauptungen. Bisher wird doch nur ins Blaue spekuliert. Grundsätzlich ist es erstmal realistisch davon ausgehen, dass der G300 eine Weiterentwicklung wird, keine völlig neue Architektur. Ich kann mir zB nicht vorstellen, dass man einfach so die Shader Architektur über den Haufen wirft. Dafür ist der Entwicklungszyklus imo zu kurz.
 
Dann bringe doch endlich mal Quellen bzw offizielle Aussagen nVidias für diese Behauptungen..
Wenn man nicht nur rumspamen würde und aufmerksam den thread verfolgt ,hätte man die quelle gefunden:rolleyes:



http://www.hardware-infos.com/news.php?news=2663


Mathematik Grundstufe. 178 / 130 ergibt nun mal ~1,37. :rolleyes: Quelle .
Phänomenale zahlen wo hast du die ausgegraben:lol:

Hier nochmal die leistungsaufnahme der karten zwischen 280,285 u 4870



u das dazugehörige Performancerating zum errechnen der effizienz

Welche karten bieten also nun mehr performance pro watt,sind also somit effizienter?

Zu allem anderen sag ich nix mehr,sollen sich die anderen ihre meinung bilden über deine "kompetenten aussagen":p
 
Zuletzt bearbeitet:
Wenn man nicht nur rumspamen würde und aufmerksam den thread verfolgt ,hätte man die quelle gefunden:rolleyes:



http://www.hardware-infos.com/news.php?news=2663
Und wo soll da die offizielle Quelle von nVidia sein? Ich kann immer noch nichts erkennen. :rolleyes: Und nein, nur weil Hardware-Infos irgendwas schreibt, wird es noch lange nicht richtig oder gar offiziell. Das kann jeder andere nämlich genauso.
Du wirst dich wohl oder übel damit abfinden müssen. Bis zum Release bleibt alles nur Spekulatius.

Hier nochmal die leistungsaufnahme der karten zwischen 280,285 u 4870

Toll. Nur ist dir wohl entgangen, dass es sich hier um Messungen des gesamten Systems handelt, nicht um die Grafikkarten selbst. Eine Messung nur zur Grafikkarte hatte ich schon mal gepostet. Da du anscheinend nicht in der Lage bist, diese rauszusuchen, gebe ich dir den Link aber gerne nochmal.

Und jetzt lass langsam gut sein. Deine Behauptung war so oder so absurd und falsch. Und das Thema ist auch ein ganz anderes. Also bitte :btt:
 
Und wo soll da die offizielle Quelle von nVidia sein? Ich kann immer noch nichts erkennen. :rolleyes:
Lesen bildet oder soll ich dir das auch noch rot markieren damit du es auch siehst:wall:

Toll. Nur ist dir wohl entgangen, dass es sich hier um Messungen des gesamten Systems handelt, nicht um die Grafikkarten selbst. :
Wo ist da bitte der unterschied wenn ich ein identisches system habe u nur die grafikkarten zum testen wechsel u vor allem was entspricht mehr der realität:stupid:

Das wird jetzt aber kindisch man man man
 
Zuletzt bearbeitet:
Wo ist da bitte der unterschied wenn ich ein identisches system habe u nur die grafikkarten zum testen wechsel u vor allem was entspricht mehr der realität:stupid:

Das wird jetzt aber kindisch man man man

Der Unterschied ist natürlich, dass der prozentuale Anteil völlig verwischt wird und mit der eigentlichen Diskussion - welcher Chip effizienter ist - gar nichts mehr zu tun hat. Denn das Restsystem interessiert hierbei wirklich niemanden. Was mehr der Realität entspricht, sollte klar sein: Die Messungen, die mr.dude gepostet hat. Denn wie gesagt: Es war nach Leistung pro Watt für die Grafikkarten gefragt und da kann man mit einer Messung des Gesamtsystems einfach garnichts anfangen.
 
Was mehr der Realität entspricht, sollte klar sein: Die Messungen, die mr.dude gepostet hat. Denn wie gesagt: Es war nach Leistung pro Watt für die Grafikkarten gefragt und da kann man mit einer Messung des Gesamtsystems einfach garnichts anfangen.


Jepp alle anderen testseiten wie cb,pcgames,anandtech u tomshardware u.u.u messen verkehrt weil sie das gesamtsystem messen an dem sich in der config nix verändert ausser der grafikkarte,mr.dude hat recht u ich hab meine ruhe:banana::banana::banana:

Wie gesagt das ist mir zu kindisch die diskusion.
 
Zuletzt bearbeitet:
Ich habs auch nicht begriffen, aber macht ja nichts. Ich hab wenigstens versucht, sachlich zu sein, aber auf sowas da muss ich dann auch nicht mehr eingehen.
 
Lesen bildet oder soll ich dir das auch noch rot markieren
Ja, bitte mach das. Wäre schon mal ein guter Anfang.

Zum Rest sage ich nichts mehr. Lord hat es ja schon auf den Punkt gebracht. Durch die Messung des gesamten Systems verwischst du den prozentualen Unterschied. Und das ist ja nicht Sinn der Sache, wenn du die Grafikchips vergleichen willst. Wenn du in einer ruhigen Minute mal etwas sachlicher darüber nachdenkst, wirst du das vielleicht auch einsehen.

Und jetzt bitte wieder zurück zum Thema. Hier geht es schliesslich um den G300.
 
Zuletzt bearbeitet:
Joa. Hoffen wir auf so einen Sprung wie beim G80 :)

Das Atipendant kommt angeblich schon in Q3 - bis September.

Deshalb erhoffe ich mir auch einen früheren Start des G300.

Wäre taktisch definitv besser für Nvidia.

Vielleicht ist dann die Zeit für Nvidia zu knapp wegen dem 40nm Prozess.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh