AMD Radeon HD 7000: Neue Gerüchte und Preisangaben kommen ans Tageslicht

also 30% oc habe ich zum beispiel mit meiner 480 ;). 700Mhz orginal und max oc 930 ;).

Das können so einige karten :).


Also die 40% wird die 7970 auf jeden fall schneller sein wie eine 5850,dafür lege ich meine hand ins feuer! Das wird bestimmt ne richtig gute Karte :d. Was mich nur sehr sehr sehr stört das der Januar wieder teuer für mich wird ;) :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich habe nix unter wasser ;). Und das hatte ich schon öfters und alles unter luft ;)
 
Meine HD6950 wird ab Ende Dezember verkauft.
Habe zwar nur einen Q9550 @3,45 Ghz, MSI Neo 3-FR, 4GB DDR2
aber die HD7950 3GB wirds schon wieder richten :-)

Auflösung 1920x1200 auf dem LG 260HP-BF Monitor.:banana:
 
Das macht unterm Strich bei "1D" Skalareinheiten wie sie NV einsätzt eher keinen Sinn. .

sondern auch ein aufwendigerer 1D-Shaderaufbau

Nix mit 16D "back to basics"

Damit bleibt es vorerst bei der Aussage

Und damit ist es Blödsinn sie als 16D oder 16 Vectoren Unit zu bezeichnen

Man hat sie heruntergestuft von Anfangs 5 auf 4 und nun 1D Einheiten

Ob diese nun in Clustern zu 16 an der Zahl organisiert sind(Nvidia fast diese ebenso zusammen),spielt dabei keine Rolle. Fakt ist eine Unit bekommt exakt eine Aufgabe pro Zyklus zugewießen und nicht 16 an der Zahl Punkt!
 
Zuletzt bearbeitet:
sondern auch ein aufwendigerer 1D-Shaderaufbau

Nix mit 16D "back to basics"

Damit bleibt es vorerst bei der Aussage

Scully, schau doch auf die Folien... Man spricht dediziert von Vector und Skalar Unit.
Ein klassischer Aufbau mit 2048 1D ALUs wie es NV tätigt, wäre nicht in ~380mm² zu schaffen.
Auch passen diese 32CUs, welche quasi spekuliert werden so gar nicht ins Bild mit den 1D Einheiten. Das wären 128 1D ALUs pro CU. Was immernoch gegen das 16 fach SIMD spricht und sich so recht noch nicht mit dem 40er SMT in Einklang bringen lassen würde. ;)
 
Was ist denn wahrscheinlicher das man ein Transisormonster kreiert was so schon rein technisch mindestens bedenklich wenn nicht gar unmöglich ist bei der Anzahl der Units

Oder auf eine ebenbürtige 1D Shaderarchitektur wechselt mit der man selbst bestehende Cuda Anwendungen problemlos bedienen kann u damit neue Kunden gewinnt,dafür aber mit weit weniger monströßen Ausmaßen

Tut mir leid für mich macht letzteres mehr Sinn
 
Du vermischst hier ein paar Dinge, die nicht zu vermischen sind...
CUDA Anwendungen laufen nie auf AMD Karten, weil CUDA eben CUDA ist.

Wie es mit anderen Sachen ala OpenCL ausschaut, ist eine ganz andere Baustelle. NV implementiert OpenCL über CUDA (soweit mein letzter Stand)

Auch halte ich das, was du hier als Bedenklich hälst für eher uninteressant. Wenn sich das bewahrheitet, was spekuliert wird, bekommt Tahiti ~380mm² und wäre somit immernoch kleiner als NV mit dem GF1x0. Was bedeutet, das rein von der Größe her da kein Problem bestehen wird.
Ein NV Chip nach herkömmlicher Skalierung in Sachen Größe und Transistoren wird somit mindestens ähnlich groß, wenn nicht gar größer (inkl. mehr Transistoren)

Auch gebe ich gern zu bedenken, das der Schritt in Sachen Transistorerhöhung weit weniger ist, als es noch bei vergangen Generationen war.
RV770 -> RV870 -> RV970 ~1Mrd -> 2,15Mrd -> 2,64Mrd...
Wenn ja jetzt grobe 4Mrd vorn stehen, wäre der Schritt deutlich kleiner als von RV770 -> RV870. Da braucht man sich denke ich die wenigsten Sorgen machen.
Interessanter wird, wie gut TSMC/GloFo den Spaß im Griff haben werden. Ich könnte mir vorstellen, man wird hier wieder Probleme bekommen...
 
Hey ich kanns nachvollziehen. Will meine HD6950 raushauen :d
 
Du vermischst hier ein paar Dinge, die nicht zu vermischen sind...


Wie es mit anderen Sachen ala OpenCL ausschaut, ist eine ganz andere Baustelle. NV implementiert OpenCL über CUDA (soweit mein le...

Ich bringe gar nix durcheinander:) Wenn die Architektur vom Aufbau her 1D Einheiten bereitstellt dann gilt das selbe was Nvidia für OpenCL realisiert hat auch im Umkehrschluss für portierte Cuda Programme

Die Basis dazu kann AMD ebenso schaffen,falls es keine lizenzrechtlichen Schwierigkeiten gebe.Und selbst wenn nicht macht es der Aufbau den Softwareentwicklern ebenso konfortabel möglich effiziente Anwendungen für diese zu entwickeln dann eben über Open Source

Und das ist meiner Meinung nach auch der Gedanke hinter dem Umbau

Wenn man sich hier zu weit von Nvidia in der Architektur distanziert steht man am Ende wieder da und wartet auf die Akzeptanz bei den Programmierern

CUDA Anwendungen laufen nie auf AMD Karten, weil CUDA eben CUDA ist.

Wenns mit Vector 5 schon ging dann erst recht mit 1D Architektur

klick
 
Zuletzt bearbeitet:
Die 6950 is doch gar nich sooo übel.. Kauf lieber 'ne 2. dazu. ;p
Oder mach Unlock auf 6970.
 
Zuletzt bearbeitet:
Ich bringe gar nix durcheinander:) Wenn die Architektur vom Aufbau her 1D Einheiten bereitstellt dann gilt das selbe was Nvidia für OpenCL realisiert hat auch im Umkehrschluss für portierte Cuda Programme

Die Basis dazu kann AMD ebenso schaffen,falls es keine lizenzrechtlichen Schwierigkeiten gebe.Und selbst wenn nicht macht es der Aufbau den Softwareentwicklern ebenso konfortabel möglich effiziente Anwendungen für diese zu entwickeln dann eben über Open Source

Und das ist meiner Meinung nach auch der Gedanke hinter dem Umbau

Wenn man sich hier zu weit von Nvidia in der Architektur distanziert steht man am Ende wieder da und wartet auf die Akzeptanz bei den Programmierern



Wenns mit Vector 5 schon ging dann erst recht mit 1D Architektur

klick

Cuda hat aber trotzdem überhaupt keinen Zusammenhang mit 1D Shadern. ;)
 
Ich bringe gar nix durcheinander:) Wenn die Architektur vom Aufbau her 1D Einheiten bereitstellt dann gilt das selbe was Nvidia für OpenCL realisiert hat auch im Umkehrschluss für portierte Cuda Programme

Die Basis dazu kann AMD ebenso schaffen,falls es keine lizenzrechtlichen Schwierigkeiten gebe.Und selbst wenn nicht macht es der Aufbau den Softwareentwicklern ebenso konfortabel möglich effiziente Anwendungen für diese zu entwickeln dann eben über Open Source

Wieso vermischst du eine Softwareschnitstelle ala CUDA und OpenCL mit dem Hardware Architekturansatz?
Das macht überhaupt keinen Sinn das gleichzusetzen... Ich habe so das Gefühl, du weist nicht, was die Begriffe überhaupt zu sagen haben.

Und wie Effizient zum Beispiel AMD Karten sind, kann man sich nur mal als eine Möglichkeit an diversen Password/Verschlüsslungs usw. Tools anschauen, welche auf OpenCL/Stream laufen. Oder sowas wie BitCoin.

Wenn man sich hier zu weit von Nvidia in der Architektur distanziert steht man am Ende wieder da und wartet auf die Akzeptanz bei den Programmierern



Wenns mit Vector 5 schon ging dann erst recht mit 1D Architektur

klick

Zum ersten, also das ist doch Quark, dafür gibt es universelle Schnittstellen, der Programmierer nutzt die Schnittstelle und die Hardware/Treiber ist dafür verantwortlich das möglichst Effizient auszuführen.
Gerade bei komplexen Sachen setzt sich niemand hin und programmiert Hardwarenah mit Assembler als Beispiel, oder direkt in Maschinencode... Auch wenn man damit noch ein paar Prozente Leistung rauskitzeln kann werden selbst einfachste Rechenaufgaben zu extrem unübersichtlichen und komplexen Programmcodeschnippseln -> hier fehlt dir wohl die Programmiererfahrung ;)

Zum anderen, also bekanntermaßen lief nie eine PhysX Version nur im Ansatz auf AMD Karten ;) Der Artikel ist von 2008 (auch bei uns gabs damals nen Thread) vergebens...
 
Wieso vermischst du eine Softwareschnitstelle ala CUDA und OpenCL mit dem Hardware Architekturansatz?
Das macht überhaupt keinen Sinn das gleichzusetzen... Ich habe so das Gefühl, du weist nicht, was die Begriffe überhaupt zu sagen haben.

..

Ich vermische gar nix ich habe dir lediglich zu verstehen gegeben das Cuda u OpenCL gar nicht so verschieden sind und das eine Portierung von Cudasoftware ebenso auf 1D Radeon Karten laufen würde.

Von lizenrechtlichen Problemen jetzt mal abgesehen

Was soll das also "was die Begriffe überhaupt zu sagen haben"

---------- Beitrag hinzugefügt um 17:58 ---------- Vorheriger Beitrag war um 17:53 ----------

Zum ersten, also das ist doch Quark, dafür gibt es universelle Schnittstellen, der Programmierer nutzt die Schnittstelle und die Hardware/Treiber ist dafür verantwortlich das möglichst Effizient auszuführen.
...

Das ist kein Quark wenn ein Entwickler vor der Aufgabe steht ein Programm zu schreiben ist das für ihn leichter dies nur für eine annähernd identische Architektur tun zu müssen,als sich nen Hockauf zu machen jedesmal an unterschiedliche Shadermodelle zu denken

---------- Beitrag hinzugefügt um 18:04 ---------- Vorheriger Beitrag war um 17:53 ----------

Und wie Effizient zum Beispiel AMD Karten sind, kann man sich nur mal als eine Möglichkeit an diversen Password/Verschlüsslungs usw. Tools anschauen, welche auf OpenCL/Stream laufen. Oder sowas wie BitCoin.
...

Das ist Rosinenpickerei das Vorzeigeprogramm wo man es endlich mal geschafft hat die Aufgaben effizient auf alle 5Vectoren zu verteilen

Wo sind die anderen manigfaltigen Softwarelösungen wo das ebenso gut gelingt?

Meinst du nicht das es einen Grund gab der genau dort liegt warum man sich von dieser Herangehensweiße verabschiedet hat
 
Zuletzt bearbeitet:
Ich vermische gar nix ich habe dir lediglich zu verstehen gegeben das Cuda u OpenCL gar nicht so verschieden sind und das eine Portierung von Cudasoftware ebenso auf 1D Radeon Karten laufen würde.
Dennoch hat CUDA oder OpenCL nichts mit der Shaderarchitektur zu tun, welche drunter tuckert.
Dem Programmierer ist es schnurz egal... Er Programmiert entweder für Cuda oder für OpenCL als Beispiel. Ob da 1D oder 5D oder 150tausend D drunter tuckern, ist dem Programmierer vollkommen schnurz.
Das wird erst dann interessant wenn es darum geht, Programmcode so zu verändern, das womöglich eingebaute Schwachstellen in Sachen Auslastung vermieden werden. Beispielsweise elend aufwändige Zähl-Schleifen... Oder IF Abfragen. Wo eine Sprungvorhersage quasi unmöglich wäre.

Was soll das also "was die Begriffe überhaupt zu sagen haben"
Versteh mich nicht falsch, es macht den Eindruck als hast du mit Programmieren nix am Hut ;) Es ist dir also nicht zu verübeln, das du davon die Zusammenhänge nicht im Detail kennst...

Das ist kein Quark wenn ein Entwickler vor der Aufgabe steht ein Programm zu schreiben ist das für ihn leichter dies nur für eine annähernd identische Architektur tun zu müssen,als sich nen Hockauf zu machen jedesmal an unterschiedliche Shadermodelle zu denken
Denk dir den Weg mal auf normale CPU Programme ;)
Es gibt ne Programmiersprache, darin wird der Code erstellt. Dann gibts nen Compiler, der den Spaß in eine Maschinensprache und somit für die CPU übersetzt. Der Programmierer selbst greift dort nur bedingt ein. Man könnte sogar soweit gehen und sagen, ich nutze nun nen C++ Aufsatz für CUDA/Stream/OpenCL und compiliere ein einfaches Programm einfach für ne Grafikkarte... -> das läuft ohne Mucken und das obwohl nichtmal mehr x86 ;)


Das ist Rosinenpickerei das Vorzeigeprogramm wo man es endlich mal geschafft hat die Aufgaben effizient auf alle 5Vectoren zu verteilen

Wo sind die anderen manigfaltigen Softwarelösungen wo das ebenso gut gelingt?

Meinst du nicht das es einen Grund gab der genau dort liegt warum man sich von dieser Herangehensweiße verabschiedet hat

In die andere Richtung ists auch rosinenpickerei ;)
Es gibt schlicht nichts, was aktuell dediziert GPUs vorraussetzt und was "überlebenswichtig" wäre. Dafür ist GPGPU im Moment zu uninteressant. Fakt ist, manches läuft gut, anderes läuft weniger. Generelles kann man davon aber nicht ableiten...
 
Ja aber ich halts selber nur noch schwer aus (nicht ganz ernst nehmen^^).

Ich will einfach meine 470 raushauen, ... kein bock mehr und reichten tut die für FullHD auch net mehr. Normal reicht das ding dicke für kleinere Auflösungen, ...

Sorry aber da muss ich doch noch einmal nach hacken, in welchem Spiel reicht deine GTX470 nicht für FullHD? Mit welchen Taktraten lässt du die Karte laufen?
 
Ich vermische gar nix ich habe dir lediglich zu verstehen gegeben das Cuda u OpenCL gar nicht so verschieden sind und das eine Portierung von Cudasoftware ebenso auf 1D Radeon Karten laufen würde.

...

Ich glaube dass du versuchst fdsonne zu verstehen zu geben, dass 1d nicht gleich 1D ist und die Software von nVidias 1D(auf die sie ja speziell zugeschnitten ist) erst auch auf AMDs 1D angepasst werden muss.

Habe ich da recht?

BTW: fdsonne: Ageia Physix gab es bereits auf der HD 4870 zu bewundern.
Gab im Treiberordner einen netten Physix Ordner wo man mit 3 Modellen herumspielen konnte: Einstürzende Pyramide, Tuch auf dass ein ball geworfen wird[mit ageia Logo] und Bälle die geworfen wurden und je nach flugrichtung und höhe nach dem ersten aufprall einen anderen Weg einschlugen [unebener Boden])
 
Vergeßt doch das ganze blaaaaa...im mom fällt noch nicht mal so viel vom Band das sie in der Lage sind die "end MHZ" zu bestimmen.
 
Ich glaube dass du versuchst fdsonne zu verstehen zu geben, dass 1d nicht gleich 1D ist und die Software von nVidias 1D(auf die sie ja speziell zugeschnitten ist) erst auch auf AMDs 1D angepasst werden muss.

Das Problem ist, das eine ist Software, das andere ist Hardware. Der Schnittpunkt in der Mitte entscheidet über laufen oder nicht. Aber in keinem Fall die Hardware oder Software allein.

Der Punkt, an dem man eben nicht vermischen sollte ist die Tatsache, das CUDA, Stream, OpenCL sowie auch das DirectCompute Schnittstellen sind. (vereinfacht gesagt)
Welche Hardware drunter tuckert, ist vollkommen egal. NV bietet CUDA als ich glaube ClosedSource Software dediziert nur für NV ab G80 Karten, AMD bietet Stream auch nur für R600 und neuer. Wärend OpenCL Hardwareunabhängig agiert. CUDA sowie Stream könnten technisch absolut schmerzfrei auch auf den Konkurenzkarten laufen, wenn das gewollt wäre. Und das ist der Punkt. CUDA hat einfach nix mit der GPU Architektur bzw. dem Aufbau der ALUs zu tun.

NV handelt es halt in dem Fall sehr clever, denn man implementiert OpenCL via CUDA, was rein logisch schon Leistungsverlust für ein und das selbe Endergebnis beinhaltet. Für sehr komplexe Aufgaben kann das durchaus nicht nur Messbar weniger Leistung für OpenCL sein. Hat man also dediziert die Möglichkeit (Gerade im Wissenschaftlichen Bereich), macht es mehr Sinn auf CUDA zu setzen als auf OpenCL, es sei denn, man will Hardwareunabhängig programmieren.

Ein weiter Faktor ist die Tatsache, das der Programmierer sich nicht hinsetzt und Maschinencode dediziert für Skalar Einheiten (NV) oder VLIW4/5 Einheiten (AMD) schreibt. Sondern er nutzt eine Hochsprache. Für alle Ansätze gibt es C/C++ Aufsätze, was dem Programmierer das Umdenken erleichtert. Wie gut der Compiler hinten arbeitet ist einzig und allein das Bier der Hersteller (nicht des Programmierers!)


Übrigens, zum Thema PhysX... Dort ging es ja dediziert um PhysX selbst. Es haben sich findige Programmierer gefunden, welche die NV PhysX Implementation auf CUDA Basis "gehakt" hatten... Wie ich das lese schien NV anfangs durchaus nicht abgeneigt zu sein, aber hat dann die Sache dennoch beendet.
Mit CUDA Code selbst (um das gings ja ursprünglich hier) hat das aber wenig zu tun, weil nicht ganz klar ist, was die Jungs dort damals überhaupt angestellt hatte. Theoretisch wäre es Möglich mit gewissem Aufwand eine Art Emulator zu basteln, welcher PhysX auf Stream portiert. Effizienztechnisch entscheiden dann aber schon zwei Sachen über den Speed. Und für diese halbherzige Implementierung (dazu noch zu Anfängen von Stream) waren die Ergebnise doch schon ganz ordentlich... HD3850 ca. 2/3 Leistung von 8800GT...
Im Vergleich zum Speed von CPUs (i7 Hexacore + SMT) bei vollem Multicoresupport ist der Speed von NV GPUs dediziert mit ihrer Implementierung äußerst schlecht -> kann jeder selbst Testen mit beispielsweise Fluidmark.
NV macht es sich hier sehr einfach indem man einfach die Threadanzahl für CPU PhysX deutlich einschränkt bis hin zu nur einem einzigen -> Batman zum Beispiel um hier selbst nicht unterzugehen.
Das könnte aber auch daran liegen, das die eigentliche PhysX Entwicklung damals seitens Ageia für ihre dedizierte CPU war und NV hier nur nen CUDA Aufsatz gebastelt hat anstatt das ganze selbst dediziert umzubauen.
 
Ich glaube dass du versuchst fdsonne zu verstehen zu geben, dass 1d nicht gleich 1D ist und die Software von nVidias 1D(auf die sie ja speziell zugeschnitten ist) erst auch auf AMDs 1D angepasst werden muss.

Habe ich da recht?

Ich weiß zwar nicht wo du das rausließt aber gut:confused:

Ich sagte eigentlich genau das Gegenteil

Wenn die Architekturen identisch sind 1D u 1D dann wird es für die Programmierer einfacher eine Portierung der Software für beide Hersteller zu bringen

Wenn ich aber einmal an Vector 5 denken muss und bei Hersteller B dafür wieder an Singleinstuction dann macht es das zum Alptraum

Zudem kommt noch die einfachere Auslastung der 1D Shader und der dadurch weit verbreiteten Akzeptanz

Also ist es nur konsequent auf das zu setzen was sich besser durchsetzt und das ist nunmal z.Zt nicht Stream/OpenCL auf Vector 5/4 Einheiten

---------- Beitrag hinzugefügt um 22:29 ---------- Vorheriger Beitrag war um 22:27 ----------

Versteh mich nicht falsch, es macht den Eindruck als hast du mit Programmieren nix am Hut ;) Es ist dir also nicht zu verübeln, das du davon die Zusammenhänge nicht im Detail kennst...

.

Versteh mich nicht falsch aber ich kann schon noch unterscheiden zwischen Architektur und Platform für GPGPU
 
Also ist es nur konsequent auf das zu setzen was sich besser durchsetzt und das ist nunmal z.Zt nicht Stream/OpenCL auf Vector 5/4 Einheiten

Du mischst ja schon wieder ;)
Warum Stream und OpenCL aktuell eher weniger gut implementiert sind, liegt wohl offensichtlich daran, da NV damals mit CUDA deutlich zeitlich vorran war. Was wiederum mit dem Umstand gekoppelt war, das sie als einzige auf dem Markt die Möglichkeit einer GPGPU Platform boten. Wer zuerst kommt, malt zuerst...

Und nochmal, ob du nun in C/C++ deinen Code schreibst, was schlussendlich auf CUDA, Stream oder OpenCL aufsetzt, ist dir als Programmierer vollkommen wurscht. Unterm Strich entscheidet an der Stelle wohl der bessere Support sowie die Möglichkeit der Programbiblioteken. Mit letzterem hat OpenCL als OpenSource Version wohl den deutlich besten Standpunkt für die Zukunft...
Und immernoch ist aber der Architekturansatz der ALUs vollkommen wurscht da es damit nix gemein hat.
Mal ganz davon ab, das es nach wie vor Skalar + Vector Unit heist. Von reinem "1D" wie du es so gerne beschreibst, ist nach wie vor nicht die Rede. Und unklar bleibt weiterhin das Verhältnis der Einheiten pro CU.
 
Dennoch hat CUDA oder OpenCL nichts mit der Shaderarchitektur zu tun, welche drunter tuckert.
Dem Programmierer ist es schnurz egal... Er Programmiert entweder für Cuda oder für OpenCL als Beispiel. Ob da 1D oder 5D oder 150tausend D drunter tuckern, ist dem Programmierer vollkommen schnurz.
Das wird erst dann interessant wenn es darum geht, Programmcode so zu verändern, das womöglich eingebaute Schwachstellen in Sachen Auslastung vermieden werden. Beispielsweise elend aufwändige Zähl-Schleifen... Oder IF Abfragen. Wo eine Sprungvorhersage quasi unmöglich wäre.


...

Und wer muss sich damit auseinander setzen?

Bestimmt nicht der Enduser für das fertige Produkt basierend auf Cuda/OpenCL/Stream

Also ist es für die Programmierung nicht egal denn sonst bräuchte man nicht eine Abkehr von den 5D Einheiten

---------- Beitrag hinzugefügt um 22:40 ---------- Vorheriger Beitrag war um 22:35 ----------

Du mischst ja schon wieder ;)
Warum Stream und OpenCL aktuell eher weniger gut implementiert sind, liegt wohl offensichtlich daran, da NV damals mit CUDA deutlich zeitlich vorran war. Was wiederum mit dem Umstand gekoppelt war, das sie als einzige auf dem Markt die Möglichkeit einer GPGPU Platform boten. Wer zuerst kommt, malt zuerst...

.

Cuda hat sich durchgesetzt weil die Architektur dafür auch ideal war und nicht nur "wer zuerst kommt malt zu erst"

Wenn ich es den Entwicklern vereinfache Programme für etwas zu schreiben architekturbedingt oder durch eine Platform wie Cuda,dann wird dieser auch eher darauf zu greifen

Stream gibt es mitunter auch schon eine halbe Ewigkeit für AMDs 5D Architektur
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh