AMD HD6000/7000 Southern Islands & Northern Islands Spekulation Thread

Status
Für weitere Antworten geschlossen.
Nein, wird er definitiv nicht. Die Architektur wird entweder auf der bisherigen aufsetzen oder etwas völlig neues werden.

Gut, formuliere ich es anders. ATI wird sehr wahrscheinlich mehr Taktdomänen bereitstellen und die Raster-Engine verbessern/vervielfachen. Mit den Shadern wird wohl nicht allzuviel passieren, höchstens eine bessere/vereinfachte Ansprechbarkeit. Aber:

Welchen Weg willst du gehen mit völlig neu? Man könnte sich höchstens von den TMUs verabschieden und sie irgendwie in die Shader integrieren. Bei den Shadern an sich würde wohl nicht mehr allzuviel passieren, außer das man sie mit mehr Quellsprachen/Zielsprachen füttern kann und sie halt um einige Funktionen (TMUs) erweitert. Fallen dir spontan noch andere Möglichkeiten ein?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gut, formuliere ich es anders. ATI wird sehr wahrscheinlich mehr Taktdomänen bereitstellen und die Raster-Engine verbessern/vervielfachen.
Und was hat das jetzt konkret mit Fermi oder gar GPGPU zu tun? Erstmal gar nichts. Unterschiedliche Taktdomänen gibt es bei nVidia nicht erst seit Fermi. Und an der Raster-Engine wird sowieso permanent geschraubt. Das muss nicht explizit erwähnt werden.
Ausserdem sehe ich unterschiedliche Taktdomänen alles andere als "sehr wahrscheinlich". Es ist eine Option, mehr aber auch nicht. Wahrscheinlicher ist, dass ATI weiterhin auf Superskalarität setzt und diese noch weiter ausbaut. Und hohe Taktraten sind dann sowieso nicht drin, wofür eine unterschiedliche Taktdomäne von Nutzen wäre. Darüber hinaus gibt es auch andere Wege. Schon in alten AMD Patenten werden unterschiedliche Takte für Execution Units beschrieben, wie zB über einen Halbtakt. Ähnliches scheint ja in Fermi zu exisitieren und wird auch für Bulldozer spekuliert. Unterschiedliche Taktdomänen bringen zudem Probleme mit sich, die auch erstmal gelöst werden müssen, wie Asynchronitäten.
Wie auch immer, was ATI machen wird, hat nichts damit zu tun, was nVidia macht. Konzeptionell sind es einfach zu unterschiedliche Architekturen. Dass es Gemeinsamkeiten geben kann und wird, ist wiederum eine andere Geschichte. Aber wie gesagt, hier hat bisher eher nVidia nachgezogen und nicht umgekehrt.

Mit den Shadern wird wohl nicht allzuviel passieren
Falls es eine grundlegend neue Architektur werden sollte, dann wird auch mit den Shadern sehr viel passieren.

Welchen Weg willst du gehen mit völlig neu? Man könnte sich höchstens von den TMUs verabschieden und sie irgendwie in die Shader integrieren. Bei den Shadern an sich würde wohl nicht mehr allzuviel passieren, außer das man sie mit mehr Quellsprachen/Zielsprachen füttern kann und sie halt um einige Funktionen (TMUs) erweitert.
Du hängst dich an Details auf, die für das grundlegende Konzept einer Architektur sekundär sind. Denkbar wäre, dass, wie bereits gesagt, die Architektur weitaus superskalarer wird. Also 8-fach oder wie Intel bei Larrabee sogar 16-fach. Mittlerweile dürfte man auch genug Erfahrung haben, wie man so etwas vernünftig ausgelastet bekommt. Die dadurch gewonnene Chipeffizienz sieht man ja schon heute. Auch die Shaderprozessoren könnten in diesem Zusammenhang anders strukturiert werden, zB dass diese grundsätzlich 64-bit Rechenwerke haben. Die x86 Prozessoren haben das ja schon lange. Sollte also kein Problem sein. Ansätze gibt es jedenfalls etliche.
Mehr "Quellsprachen/Zielsprachen" werden es jedenfalls nicht. Immer schön zwischen High-Level Sprache und Maschinensprache unterscheiden. ;) Die bisherige ISA wird maximal erweitert. Wie auch schon bei allen Generationen davor.
 
Und was hat das jetzt konkret mit Fermi oder gar GPGPU zu tun? Erstmal gar nichts.

Richtig, GPGPU war ja auch nur ein Beispiel.

Unterschiedliche Taktdomänen gibt es bei nVidia nicht erst seit Fermi.

Hab ich geschrieben...

Und an der Raster-Engine wird sowieso permanent geschraubt. Das muss nicht explizit erwähnt werden.

Und ob. Kein Grafikchip in der bisherigen Geschichte für Privatanwender hatte mehr als eine Rasterengine.

Ausserdem sehe ich unterschiedliche Taktdomänen alles andere als "sehr wahrscheinlich". Es ist eine Option, mehr aber auch nicht. Wahrscheinlicher ist, dass ATI weiterhin auf Superskalarität setzt und diese noch weiter ausbaut. Und hohe Taktraten sind dann sowieso nicht drin, wofür eine unterschiedliche Taktdomäne von Nutzen wäre. Darüber hinaus gibt es auch andere Wege. Schon in alten AMD Patenten werden unterschiedliche Takte für Execution Units beschrieben, wie zB über einen Halbtakt. Ähnliches scheint ja in Fermi zu exisitieren und wird auch für Bulldozer spekuliert. Unterschiedliche Taktdomänen bringen zudem Probleme mit sich, die auch erstmal gelöst werden müssen, wie Asynchronitäten.

Es ist schwer harauszufinden was AMDs Vec5 Einheiten vom Takt her in den bisherigen Chips schaffen würden. Man weiß ja nicht was bei OC versuchen zuerst schlap macht. Ich denke aber schon das da möglichkeiten bestehen, bleibt uns wohl nur abwarten.


Wie auch immer, was ATI machen wird, hat nichts damit zu tun, was nVidia macht. Konzeptionell sind es einfach zu unterschiedliche Architekturen. Dass es Gemeinsamkeiten geben kann und wird, ist wiederum eine andere Geschichte. Aber wie gesagt, hier hat bisher eher nVidia nachgezogen und nicht umgekehrt.

dude, es ist doch egal wer wem nachzieht. Es gibt immer Fälle in denen der eine und mal der andere etwas entwickelt was sich nachzuahmen lohnt. Ich verstehe auch nicht warum NV die Shader nicht überarbeitet hat bei Fermi.

Falls es eine grundlegend neue Architektur werden sollte, dann wird auch mit den Shadern sehr viel passieren.


Du hängst dich an Details auf, die für das grundlegende Konzept einer Architektur sekundär sind. Denkbar wäre, dass, wie bereits gesagt, die Architektur weitaus superskalarer wird. Also 8-fach oder wie Intel bei Larrabee sogar 16-fach. Mittlerweile dürfte man auch genug Erfahrung haben, wie man so etwas vernünftig ausgelastet bekommt. Die dadurch gewonnene Chipeffizienz sieht man ja schon heute. Auch die Shaderprozessoren könnten in diesem Zusammenhang anders strukturiert werden, zB dass diese grundsätzlich 64-bit Rechenwerke haben. Die x86 Prozessoren haben das ja schon lange. Sollte also kein Problem sein. Ansätze gibt es jedenfalls etliche.
Mehr "Quellsprachen/Zielsprachen" werden es jedenfalls nicht. Immer schön zwischen High-Level Sprache und Maschinensprache unterscheiden. ;) Die bisherige ISA wird maximal erweitert. Wie auch schon bei allen Generationen davor.

Hmm, dort denke ich das zwar mehr 5 Instruktionen pro Takt sind ja an sich nicht schlecht. Die Frage ist aber ob die einzelne ALU nicht mehr Leistung braucht um in Regionen von LRB vorzustoßen.

Mit Sprachen meinte ich das die Shader auch direkt mit C/C++/C# angesprochen werden können.
 
Zuletzt bearbeitet:
Und ob. Kein Grafikchip in der bisherigen Geschichte für Privatanwender hatte mehr als eine Rasterengine.
Dann definiere Raster-Engine.

Es ist schwer harauszufinden was AMDs Vec5 Einheiten vom Takt her in den bisherigen Chips schaffen würden.
Aber nur aus deiner Sicht. Die ATI Ingenieure werden das sehr wohl wissen. Und wenn eine zusätzliche Taktdomäne für die eigene Architektur Sinn macht, zB aufgrund von besseren Fertigungsprozessen und höheren Taktkapazitäten, dann wird man das auch in Betracht ziehen. Aber nur wegen nVidia wird man das mit Sicherheit nicht machen.

dude, es ist doch egal wer wem nachzieht.
Ach, auf einmal? Mir war das schon von Anfang an egal. Ich war aber auch nicht derjenige, der die Behauptung aufgestellt hat "Fakt ist nunmal das ATI in die Richtung nachziehen wird in der NV jetzt mit dem Fermi schlägt.". ;)

Hmm, dort denke ich das zwar mehr 5 Instruktionen pro Takt sind ja an sich nicht schlecht. Die Frage ist aber ob die einzelne ALU nicht mehr Leistung braucht um in Regionen von LRB vorzustoßen.
Andersrum wird ein Schuh daraus. Larrabee muss es erstmal schaffen, in die Regionen der aktuellen ATI Architektur vorzustossen. Grundsätzlich ist das Larrabee Konzept nicht schlecht. Nur ist seine x86 Kompatibilität ein arges Problem. Dadurch sind die einzelnen Rechenwerke zu aufgebläht und bringen nur unnützen Ballast mit sich.

Mit Sprachen meinte ich das die Shader auch direkt mit C/C++/C# angesprochen werden können.
Keine mir bekannte Hardware kann direkt mit C/C++/C# angesprochen werden. Das kenne ich maximal von Java, wo von der Hardware direkt Java Bytecode verarbeitet werden kann. Nicht so viel nVidia PR lesen. ;) Für Hochsprachen wie C und Konsorten brauchst du immer mindestens eine weitere Softwareschicht zur Hardware. Sei es der Compiler, die Runtime oder eine virtuelle Maschine. Sprachen wie C sind hardwareunabhängig, keine Hardware kennt also C Spezifikationen. Eine Hardware kann maximal die von C definierten Voraussetzungen erfüllen, wie zB unterschiedliche Speicher-Domänen (automatischer Speicher, Freispeicher, etc).
 
Zuletzt bearbeitet:
Dann definiere Raster-Engine.

Zuständig für das Triangle Setup und die rasterisierung.


Aber nur aus deiner Sicht. Die ATI Ingenieure werden das sehr wohl wissen. Und wenn eine zusätzliche Taktdomäne für die eigene Architektur Sinn macht, zB aufgrund von besseren Fertigungsprozessen und höheren Taktkapazitäten, dann wird man das auch in Betracht ziehen. Aber nur wegen nVidia wird man das mit Sicherheit nicht machen.

Ich hab auch nie geschrieben das sie das wegen NV tun und natürlich wird es nur kommen wenn es sinn macht. Aber auch wenn man den restlichen Chip schneller als die Shader takten könnte macht es sinn. Außerdem bezweifel ich das man sowas einfach so ohne das ganze Design umzukrempeln einfügen kann.

Ach, auf einmal? Mir war das schon von Anfang an egal. Ich war aber auch nicht derjenige, der die Behauptung aufgestellt hat "Fakt ist nunmal das ATI in die Richtung nachziehen wird in der NV jetzt mit dem Fermi schlägt.". ;)

Ja, und die Behauptung ist noch immer nicht antastbar. Fermi hat einige Sachen eingeführt die ATI noch nicht hat und dort werden sie wohl nachziehen. Da NV Fermi fertig hat gibt es wohl jetzt nichts mehr wo man so schnell nachziehen kann.


Andersrum wird ein Schuh daraus. Larrabee muss es erstmal schaffen, in die Regionen der aktuellen ATI Architektur vorzustossen. Grundsätzlich ist das Larrabee Konzept nicht schlecht. Nur ist seine x86 Kompatibilität ein arges Problem. Dadurch sind die einzelnen Rechenwerke zu aufgebläht und bringen nur unnützen Ballast mit sich.

Intel hat mit LRB ja mehr vor, x86 werden sie wohl nicht rauswerfen. Allerdings denke ich doch das eine Einheit des LRB Leistungsfähiger ist als eine ALU.



Keine mir bekannte Hardware kann direkt mit C/C++/C# angesprochen werden. Das kenne ich maximal von Java, wo von der Hardware direkt Java Bytecode verarbeitet werden kann. Nicht so viel nVidia PR lesen. ;) Für Hochsprachen wie C und Konsorten brauchst du immer mindestens eine weitere Softwareschicht zur Hardware. Sei es der Compiler, die Runtime oder eine virtuelle Maschine. Sprachen wie C sind hardwareunabhängig, keine Hardware kennt also C Spezifikationen. Eine Hardware kann maximal die von C definierten Voraussetzungen erfüllen, wie zB unterschiedliche Speicher-Domänen (automatischer Speicher, Freispeicher, etc).

Bisher war meines Wissens nach eigentlich nur Assembler für die ALUs brauchbar, allerdings ist der Stand schon alt.
 
Zuständig für das Triangle Setup und die rasterisierung.
Und welche Architektur soll dann mehr als eine Raster-Engine haben und welchen Sinn soll das haben? Oder was sollte deine Aussage bedeuten?

Ja, und die Behauptung ist noch immer nicht antastbar.
Die muss auch gar nicht angetastet werden. Die ist kompletter Unfug.

Fermi hat einige Sachen eingeführt die ATI noch nicht hat und dort werden sie wohl nachziehen.
Also bisher sehe ich noch rein gar nichts von Fermi. Dass man damit einige Sachen "eingeführt hat", ist somit grundsätzlich erstmal falsch. Und darüber hinaus, welche Sachen sollen das denn sein? Bis auf ECC Support sehe ich nichts. Und der ist selbst für professionelle Bereiche eher zweitrangig.

Bisher war meines Wissens nach eigentlich nur Assembler für die ALUs brauchbar
Nicht mal das. Mikrochips verstehen nur ihre jeweilige Maschinensprache (-> ISA). Assembler kommt dem lediglich am nächsten, da meist direkt von Assembler in Maschinencode übersetzt werden kann. Bei Hochsprachen werden typischerweise mehr Schritte durchgeführt. Bei C wäre das zB Präprozessor -> Hochsprachencode in Assembler -> Assembler in Maschinencode.
 
Und welche Architektur soll dann mehr als eine Raster-Engine haben und welchen Sinn soll das haben? Oder was sollte deine Aussage bedeuten?

Der GF100 hat 4, eine pro GPC. Ich weiß nicht wieviele Pixel der RV870 schafft, aber der GF100/Fermi liegt dann bei 8x4 Pixel pro Takt.

Die muss auch gar nicht angetastet werden. Die ist kompletter Unfug.

Du hörst es nur nicht gerne und machst daraus gleich ein extrem und einen privaten Kreuzzug.

Also bisher sehe ich noch rein gar nichts von Fermi. Dass man damit einige Sachen "eingeführt hat", ist somit grundsätzlich erstmal falsch. Und darüber hinaus, welche Sachen sollen das denn sein? Bis auf ECC Support sehe ich nichts. Und der ist selbst für professionelle Bereiche eher zweitrangig.

Das Whitepaper ist da und Daten zur Technik sind auch frei verfügbar, oder meinst du NV baut dann nichts von dem was sie bringen wollen ein?
Zu ECC, du hast, der Einsatz ist begrenzt. Dort wo Tesla aber eingesetzt werden soll, also zur hochgenauen Berechnung, ist es quasi pflicht.

Nicht mal das. Mikrochips verstehen nur ihre jeweilige Maschinensprache (-> ISA). Assembler kommt dem lediglich am nächsten, da meist direkt von Assembler in Maschinencode übersetzt werden kann. Bei Hochsprachen werden typischerweise mehr Schritte durchgeführt. Bei C wäre das zB Präprozessor -> Hochsprachencode in Assembler -> Assembler in Maschinencode.

Ja, mein Wissenstand ist da halt alt. Ich hatte damals zur Geforce 3 nen Artikel gelesen in dem stand das die Vertex und Pixelshader mit Assambler programmiert werden müssten. Ist ja im Prinzip auch richtig nur kannte ich den Schritt in Maschinencode nicht.
 
Also bisher sehe ich noch rein gar nichts von Fermi. Dass man damit einige Sachen "eingeführt hat", ist somit grundsätzlich erstmal falsch. Und darüber hinaus, welche Sachen sollen das denn sein? Bis auf ECC Support sehe ich nichts. Und der ist selbst für professionelle Bereiche eher zweitrangig.

Die Kompabilität zu C und C++ wollen wir mal Unterschlagen wat???
Mr.dude ich komme um den gedanken nicht rum, dass es dir nur um provokation geht..........

---------- Beitrag hinzugefügt um 09:05 ---------- Vorheriger Beitrag war um 09:04 ----------

Oh Tante Edit:

Sorry jetzt sehen ich es erst: Bis auf ECC Support sehe ich nichts. Da liegt das Problem, du siehst nichts, erspar uns die Zeit und mach die Augen auf...
 
Nvidia Fermi speks gehören hier nicht rein

und warum soll AMD nachziehen wenn Sie schneller als Nvidia sind?

Der RV870 ist seit über 1 Jahr fertig abgeschlossen, seit dieser Zeit wird am nächsten Chip gearbeitet ;)
 
Zuletzt bearbeitet:
Nvidia Fermi speks gehören hier nicht rein

und warum soll AMD nachziehen wenn Sie schneller als Nvidia sind?

Zum einen hätte ich garnichts weiter dazu geschrieben wenn dude es nicht auf ne Diskussion angelegt hätte. Und zum anderen schaffst du es gerade in einem Satz jene Diskusion zu kritisieren und sie wieder auzustacheln.

Der RV870 ist seit über 1 Jahr fertig abgeschlossen, seit dieser Zeit wird am nächsten Chip gearbeitet ;)

Länger....
 
Mich fürde nur Interessieren ob der die Nächste Generation von ATI R900 heißen wird, oder einen neuen Namen bekommt.
ZB RX xxx wobei X wieder für die Römisch 10 Stehen könnte.
Weil ich irgendwie glaube, dass der R900 eine Art Refresh wird des RV870; Heisst der so?
 
Zuletzt bearbeitet:
Gehts auch deutsch?
Etwas mehr Satzbau wäre wirklich großartig. :wink:
 
Zuletzt bearbeitet:
gibt es neuigkeiten bezüglich des Erscheinungsdatums?
hab nämlich heute meine hd5770 bekommen -.-

wollte eigentlich bis sommer warten aber hab meine 7800gt nicht mehr ertragen...
 
Ich meine deinen letzten Satz im vorigen Post, hast du dir den mal angeguckt?!
Da stehen mir die Nacken-Haare zu berge, wenn ich sowas lesen muss. :wink:

Und wenn du es auch noch lustig findest, kann ich nur mein Beileid aussprechen.
 
Zuletzt bearbeitet:
Eigentlich bin ich ja kein Paragraphenreiter, aber sowas regt einfach nur auf, weil es unnötig ist.
Danke für die "Kooperation". :wink:

Ps. "..., dass der R900 eine Art Refresh des RV870 wird;..."

Unterrichtsstunde beendet.
 
Zuletzt bearbeitet:
Beide Grammatiken sind möglich, uns wird leider nur beigebracht der einfachheit halber 1 zu verwenden, stimmen tuhen aber beide;) so genug OT

Hoffentlich artet dieser Thread nicht so aus wie der GF100 Thread ;)
 
Beide Grammatiken sind möglich, uns wird leider nur beigebracht der einfachheit halber 1 zu verwenden, stimmen tuhen aber beide;) so genug OT

Hoffentlich artet dieser Thread nicht so aus wie der GF100 Thread ;)

Wenn hier zugemacht wird, dann wegen dir.
Erst beleidigst du jemanden, der Grammatikalisch nicht der stärkste ist und dann schreibst du selbst auch noch tun mit h.
 
super durch euer gramtik rumgeflame gehn hier einige replys unter...

ihr seid echt ALLE :stupid::wall:
 
OK nur zur info ich habe niemande Beleidigt.
Und TUHEN kommt vom salzburger Dialekt, also bitte rede nicht mit wo du dich nicht auskennst.
Das war das letzt OT zu diesem Thema hier.

Mich würde vielmehr interessieren, wo ATI bei veränderungen ansetzen will.
 
Naja die Qualität des AA/AF könnten sie noch verbessern.
Der Vergleich Leistungsaufnahme zur gebotenen Leistung is ja so weit in Ordnung, die Karten haben einen gute Stromsparfunktion unter 2D, welche aber weiter verbessert werden kann.
Ebenfalls muss man sich langsam ne Platte machen, denn vor ein paar Jahren war wir noch bei 130nm, aktuell bei 40nm...in 3-4 Jahren müssen alle umdenken, oder die Probleme beim Multigpu beseitigen, son is nix mehr zum Shrinken da.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh