GF100: Sind endlich die finalen Spezifikationen durchgesickert?

MUL und MADD ist für mich wie Bahnhof und bömische Dörfer... Ich denke ihr wisst schon ne menge über GPU's hoffe aber das ihr nicht mehr Ahnung habt als Nvidia und diese ganzen negativ Prognosen weniger zutreffen als die Positiven... Naja schönen abend noch ich witme mich jetzt was dem Fernsehprogramm :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie stark die Anwendung/das Game davon gebrauch macht, lässt sich nicht sagen, weil es stark auf die Anwendung ankommt.

Wäre mal interessant zu wissen wieviele Spiele überhaupt in einem Maße betroffen wären das es ins Gewicht fällt;)

Ob das shaderlastige Crysis so ein Fall wäre?
 
Zuletzt bearbeitet:
Crysis ist sehr Shaderlastig , das sollte gut profitieren können.
 
es muss ja einen Grund gegeben haben, warums nVidia gestrichen hat.
Sollte es in Shaderlastigen Spielen tatsächlich von Vorteil gewesen sein und nVidia hats weg gelassen, weil es in Sachen GPGPU-Anwendungen weniger relevant ist, dann hätte der ein oder andere Recht: nVidia nimmt den Gamer-Markt nur noch nebenbei mit.
Sollte aber Crysis das MUL genutzt haben, dann hätte der G200 in Crysis stärker zulegen müssen, als er es rechnerisch (Vergleich der theoretischen Shaderleistung) hätte dürfen. Das hat er aber afaik nicht.
So lange wir aber keine tatsächlichen Informationenen darüber haben, wie gut welche Einheiten der GPUs wie stark ausgelastet sind, fischen wir im Trüben.
 
Zuletzt bearbeitet:
Aber testen u vergleichen kann man doch sobald die Verfügbarkeit gegeben ist;)

Daraus kann man dann ja gegebenenfalls selber Rückschlüsse ziehen

Schon, nur brauch es um da überhaupt was brauchbares nachweisen zu können erstmal ne Fermi Karte, die annähernd so schnell wie ne G200er Karte ist. Oder aber ner Fermi Karte, die exakt so viele Shader hat wie der G200 ;)


Wie gesagt, mehr Shader + weniger Takt ist idR langsamer wie weniger Shader + mehr Takt bei eigentlich theoretisch gleicher Leistung Shaderleistung ;)
 
Wie gesagt, mehr Shader + weniger Takt ist idR langsamer wie weniger Shader + mehr Takt bei eigentlich theoretisch gleicher Leistung Shaderleistung ;)
Ja stimmt da hast du wohl recht noch dazu unterscheiden sie sich ja recht stark;)
Aber man könnte den G200 ja "theoretisch" hochrechnen vom Ergebniss indem man in praktisch "virtuell nicht vorhandene" Shader verpasst u zumindestens den Takt auf selbes Niveau bringen

Will heissen Fermi eventuell untertakten auf G200 Niveau
 
Zuletzt bearbeitet:
Bulk, also GPUs oder Nicht-SOI-basierte CPUs. Die Massenproduktion soll Mitte 2010 anlaufen, Produkte irgendwann 2H 2010 verfügbar.

Geplant...fest ist da noch garnichts. Überleg welche Probleme 40nm macht und bei TSMC arbeiten kein Anfänger.


Dem ist aber so. Das hat Dirk Meyer letztens auch erst nochmal bekräftigt.

Die Aussage könnte auch dazu gut sein etwas Druck auf TSMC zu geben. Bevor ein Wechsel nicht unter Dach und Fach ist würde ich erstmal locker mit der Sache umgehen.
 
Da muss ich Neurosphere recht geben, ich glaube auch nicht das bei GF sofort das gelingen soll was beim größten Auftragsfertiger der Welt nicht auf Anhieb gelungen ist.

Ich glaub aber nicht das AMD TSMC bewusst unter Druck setzen will. Das sie umlagern wollen zu GF ist beschlossene Sache. Ich denke eher das GF dadurch etwas unter druck steht, denn sie wollen schließlich ihre Werke vernünftig auslasten. Und aufträge werden sie nur mehr kriegen wenn sie mindestens das gleiche Technologische level erreichen wie TSMC...

Aber genug vom Thema abgewichen ^^
 
Das wird allgemein angenommen bzw von GF so propagiert,in anbetracht der "Unerfahrenheit"bzw Neueinstieg in diesen Prozess (der komplexen GPU Fertigung)ist es aber abzusehen,das GF auf diesem Gebiet keine Wunder vollbringen kann,wenn es selbst dem grössten Auftragsfertiger nur mit grösster Mühe gelingt zum jetzigen Zeitpunkt funktionstüchtige Chips in 40nm herzustellen
Mach dir da mal keine Sorgen. Die Jungs und Mädels haben genug Erfahrung mit Bulk. Es ist ja nicht so, dass man Mitte nächsten Jahres das erste mal damit in Berührung kommt. GloFo ist so ziemlich der modernste Komplex der Welt, was Chipfertigung betrifft. Da kann auch TSMC nicht mithalten. Und mit Chartered holt man sich ja noch weiteres Know-How ins Boot.

Geplant...fest ist da noch garnichts.
Ich bin nicht davon ausgegangen, dass man das bei allen zukünftigen Fahrplänen dazu schreiben muss. Fermi ist auch für 2010 geplant, theoretisch kann es aber auch erst 2020 werden. ;)

Die Aussage könnte auch dazu gut sein etwas Druck auf TSMC zu geben.
Das hat mit Druck nichts zu tun. AMD ist davon überzeugt, dass GloFo langfristig schneller und bessere Technologien auf den Markt bringen kann. Es wäre also ziemlich dumm, eigene Produkte dort nicht fertigen zu lassen. Zumal dort AMD als "Premium Kunde" sicherlich Vorteile hat und GloFo auf AMD erstmal angewiesen ist, um eine hohe Auslastung zu erreichen.
 
Ich bin nicht davon ausgegangen, dass man das bei allen zukünftigen Fahrplänen dazu schreiben muss. Fermi ist auch für 2010 geplant, theoretisch kann es aber auch erst 2020 werden. ;)

Sicherlich. Jedoch weißt du welche Probleme es bei den ganzen Shrinks in letzter Zeit gibt. Bei TSMC ist es jetzt natürlich erst wirklich offensichtlich geworden und aus den Intel-Fabs wird man wohl weniger negatives hören (nicht weil kein Probleme da sind, sondern weil kaum jemand auf Intel angewiesen ist. Wenn die Produkte da sind, sind sie da, wenn nicht dann nicht).

Ich wollte nur mal die Möglichkeit in den Raum werfen das sich auch bei GF alles durch Probleme verzögern kann, nicht muss, aber die Wahrscheinlichkeit ist doch sehr hoch. Und wie schon gesagt, auch bei TSMC arbeiten keine Anfänger.

Das hat mit Druck nichts zu tun. AMD ist davon überzeugt, dass GloFo langfristig schneller und bessere Technologien auf den Markt bringen kann. Es wäre also ziemlich dumm, eigene Produkte dort nicht fertigen zu lassen. Zumal dort AMD als "Premium Kunde" sicherlich Vorteile hat und GloFo auf AMD erstmal angewiesen ist, um eine hohe Auslastung zu erreichen.

Man wird das ganz gewiss testen, aber ob schon in näherer Zeit ein Wechsel stattfindet ist trotzdem ungewiss.
 
Indirekt ja, GloFo ist halt der neue eigner der ausgegliederten Fertigung von AMD. AMD hängt aber mit kA wieviel % noch mit drin... Durch den mist hatte AMD aber stress mit Intel bezüglich der Lizenzen... usw...

naja spätestens ab 22nm wirds richtig interessant... Intel hat selbst bereits davon gesprochen künftig ggf. mit den anderen fertigern in kooperation treten zu müssen um künftige technische Hürden überwinden zu können.

AMD hatte auch nicht ohne grund zuletzt ein Joint Venture mit IBM für das SOI verfahren.

Bleibt dann halt abzuwarten wie sich nvidia hierzu verhält
 
Bleibt dann halt abzuwarten wie sich nvidia hierzu verhält

Wenn es von Vorteil ist für beide Seiten schliessen auch Kampfhähne wie Intel u Nvidia wieder Frieden;)

Aber erstmal hat Nvidia keine Wahl ausser TSMC

---------- Beitrag hinzugefügt um 01:23 ---------- Vorheriger Beitrag war um 00:31 ----------

Hier auf Techarp sind schon einige Specs vom Dual Chip GTX 395 gelistet

380 Watt TDP na das wird ja lustig unter Luftkühlung,wenns wirklich so kommen sollte:stupid::fresse:

2x8 Pin Stromversorgung:stupid:

http://www.techarp.com/article/Desktop_GPU_Comparison/nvidia_4_big.png
 
Zuletzt bearbeitet:
Wieso das denn? Wenn man 2 285GTX nimmt kommt ja knappp 366watt heraus.Versteh jetzt nicht was du meinst.Diese Herren koennen die Zukunft vorraus sehen :) ?
 
Zuletzt bearbeitet:
Wieso das denn? Wenn man 2 285GTX nimmt kommt ja knappp 366watt heraus.Versteh jetzt nicht was du meinst.Diese Herren koennen die Zukunft vorraus sehen :) ?

Dualkarte zwei Chips auf einem PCB mit 380watt Verlustleistung u das Luftgekühlt,könnte ne "heiße" Geschichte werden,machts jetzt klick;)
 
Zuletzt bearbeitet:
Dualkarte zwei Chips auf einem PCB mit 380watt Verlustleistung u das Luftgekühlt machts jetzt klick;)

Ups :shot: Der Groschen fällt etwas spät.Muss bestimmt an der Zeit liegen :lol:
Diese Seite oder bzw Die Ergebnisse kammern nit als Fake bezeichnen ?
Es muss immer heiß werden sowie die 88 Reihe ^^

---------- Beitrag hinzugefügt um 01:57 ---------- Vorheriger Beitrag war um 01:42 ----------

Freu mich schon sowas auf die Fermi.Fast wie damals, als ich noch nen 7900 SLI hatte nachher die 88 rauskam WoooW .War ya doppelt so schnell wie SLI.
 
Zuletzt bearbeitet:
Für die GTX395 gibts ja Wasserkühlung ;)
Wen interessiert da der Stromverbrauch. Hauptsache das Netzteil hat genug Power. :xmas:
 
wobei sich deren Angaben zum Speicherinterface (512 bzw, 448 bit) bei GTX 380 und 360 nicht mit den letzten Infos (384 bzw. 320 bit) decken.

Aber sie führen eine GTS 350 und 340, die so viel haben sollen.
Die Shadertaktraten dieser beiden Modelle würden zu den Werten passen, die zuletzt für GTX 380 und 360 genannt wurden.
Es bleibt also spannend oder die Infos stimmen nicht ganz.

ciao Tom
 
Zuletzt bearbeitet:
Die Liste ist doch ein WItz, eine kleine 340er mit 3 Mrd. Transistoren.
Da hätte der Autor zumindest unknown reinschreiben sollen. Wie teuer soll die denn dann werden? 200 Euro???
 
Nicht nur die Daten die Bilder der 2 Fermi karten anscheinend auch. Hoffentlich wird der Fermi irgendwann 2010 was echtes nach den ganzen Fakes von NV selbst und anderen grössen.:lol:
 
Zuletzt bearbeitet:
Für die GTX395 gibts ja Wasserkühlung ;)
Wen interessiert da der Stromverbrauch. Hauptsache das Netzteil hat genug Power. :xmas:

Nicht jeder schafft sich das an und will sich den Spaß der Wartung antun.
 
1280mb ist doch sehr ungewöhnlich für die ausstatung des rams ... aber neue gpu generation und schon muss man sich umgewöhnen ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh