AMD Radeon HD 7000: Neue Gerüchte und Preisangaben kommen ans Tageslicht

Stand was mit Telefon Referenz gegen 16 Uhr
und ein weiterer in einem Forum hat geschrieben dass AMD die Katze vor Ende 2012 aus dem Sack lassen will,- bzw. man kann bereits vorordern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Versteh mich nicht falsch aber ich kann schon noch unterscheiden zwischen Architektur und Platform für GPGPU

Scheinbar nicht... ;)
Denn dann wüstest du, das OpenCL, CUDA oder auch Stream absolut nichts mit dem Ansatz der GPU Architektur zu tun haben, sondern eben die "Schnittstelle" für die Programme sind.

Und wer muss sich damit auseinander setzen?

Bestimmt nicht der Enduser für das fertige Produkt basierend auf Cuda/OpenCL/Stream

Also ist es für die Programmierung nicht egal denn sonst bräuchte man nicht eine Abkehr von den 5D Einheiten

Wieso gibts bei dir eigentlich nur Schwarz und Weis?
In erster Linie ist der Programmierer für ordentlichen Programcode zuständig, soweit richtig, nur kann der Programierer nicht Schwächen in Sachen Compiler wegprogramieren, bestenfalls kann er diese umgeben und andere Lösungsansätze schaffen, welche dem Compiler besser schmecken.
Schau dich um im CPU Bereich... Intel Compiler, MS Compiler, diverse OpenSource Produkte. Für Intel geht freilich Intels Eigenkreaktion am besten, bei AMD wirds schon schwerer. Mal ist Intel vorn, mal ein OpenSource Produkt usw. Unterschiede teils drastisch bei und und dem selben Sourcecode...
Wie du siehst ist eher diese Stelle entscheidend. Der Programmierer selbst wird alle Hände voll zu tun haben überhaupt erstmal was lauffähiges zustande zu bekommen. Da sind teilweise Millionen Zeilen von Code. Setzt du 10 Programmierer ran, für Komlexe Aufgabe X, werden 10 verschiedene Ansätze rauskommen. Und ich gebe dir Brief und Siegel. Unabhängig der Hardware werden sich die Ergebnise auf anderer Hardware anders mischen (was den Speed angeht)
 
Scheinbar nicht... ;)
Denn dann wüstest du, das OpenCL, CUDA oder auch Stream absolut nichts mit dem Ansatz der GPU Architektur zu tun haben, sondern eben die "Schnittstelle" für die Programme sind.

Hab ich irgendwo was anderes behauptet?!!

Nur steht es bei dieser ganzen Diskussion im Zusammenhang da nunmal Nvidia für Cuda ausschließlich!!! 1D Architektur nutzt
 
Hab ich irgendwo was anderes behauptet?!!

Nur steht es bei dieser ganzen Diskussion im Zusammenhang da nunmal Nvidia für Cuda ausschließlich!!! 1D Architektur nutzt

Neja du schreibst alle Nase lang, das 1D "wichtig" wäre bzw. Vorteile bringt, hebst hervor, das AMD "zurück baut" und mischst das mit der CUDA Schnittstelle, was aber zwei paar Schuhe sind.
CUDA ist und bleibt eine Schnittstelle für einen Programmierer mit Programmcode X und eine Hardware mit der Architektur Y. Irgendwie muss X mit Y reden. Um so besser die Schnittstelle, desto besser wird das laufen.

Auch gebe ich noch zu bedenken, das CUDA allein für den Endkundenmarkt, welchen wir beide auch nutzen eher unwichtig ist. Da läuft es idR eher Hardwareunabhängig. Ala Flashvideos -> OpenCL, Browser -> OpenCL usw.
 
Neja du schreibst alle Nase lang, das 1D "wichtig" wäre bzw. Vorteile bringt, hebst hervor, das AMD "zurück baut" und mischst das mit der CUDA Schnittstelle, was aber zwei paar Schuhe sind.
CUDA ist und bleibt eine Schnittstelle für einen Programmierer mit Programmcode X und eine Hardware mit der Architektur Y. Irgendwie muss X mit Y reden. Um so besser die Schnittstelle, desto besser wird das laufen.
.

Bringt es ja auch nicht für den Endanwender selbst aber eben für denjenigen der eine Software dafür basteln muss/soll und eine möglichst hohe/effiziente Auslastung haben möchte bei geringstem Programmieraufwand

Und da ist Cuda/OpenCL gepaart mit 1D nunmal der bessere Ansatz weil einfacher umzusetzen wie bei 5D
 
Zuletzt bearbeitet:
Und da ist Cuda/OpenCL gepaart mit 1D nunmal der bessere Ansatz weil einfacher umzusetzen wie bei 5D

An welcher Stelle kannst du das persönlich beurteilen? Wie gesagt, es macht nicht den Eindruck als würdest du dich mit Programmierung beschäftigen...
Es kommt schlussendlich auf den Content an, der berechnet werden soll. Das es diverse Verschiedene Ansätze gibt, sieht man doch auf dem Markt. Verschlüsslungsgedöns läuft sehr fix auf non Skalareinheiten im Vergleich zu diesen.

Für pauschale Aussagen wie "1D" ist besser als "5D" fehlt unterm Strich die Software für den Vergleich... Und rein auf die Programmierung bezogen kann ich dir aus Erfahrung sagen, das es vollkommen wurscht ist, ob du C++ für Stream nutzt, ob du C++ für OpenCL nutzt, ob du C++ für CUDA nutzt der C++ auf Intel/AMD CPUs nutzt. Persönliche Vorlieben kommen mit vorhandenen und somit nutzbaren Programbibliotheken, damit man selbst nicht das Rad mit jedem Stückchen Code neu erfinden muss. -> hier hat OpenCL (GPU) als breiter verfügbare Version die besten Chancen auf längere Sicht. Ob da nun Skalar oder VLIW Einheiten drunter tuckern tut der Sache aber immernoch keinen Abbruch solange der Compiler ordentlich arbeitet.


EDIT:
übrigens, zum ersten Satz, also ich halte es für leicht blauäugig hier das "gute" des Programmierers zu suchen. In der heutigen Zeit gibt es CPUs mit vier oder acht Threads und Anwendungen kommen oft nichtmal mit zwei Threads gleichzeitig ordentlich zurecht. Was man also davon halten kann, was der Programmierer in Sachen Effizienz erreichen möchte liegt klar auf der Hand. Nur mit GPGPU wird man nicht heilig und optimiert den Code aufs äußerste um das letzte bisschen Effizienz rauszukitzeln sondern baut oft nur so, das es einfach läuft. Wie gut -> eher nebensächlich, gerade bei Bezahlmichsoftware abseits der Community oder Massensoftware ala Officesysteme oder ähnlichem.
 
Zuletzt bearbeitet:
An welcher Stelle kannst du das persönlich beurteilen? Wie gesagt, es macht nicht den Eindruck als würdest du dich mit Programmierung beschäftigen...
.

Können wir das jetzt bitte endlich mal lassen?!

Um das beurteilen zu können braucht man glaub ich nicht selber Programmcode schreiben können für GPGPU

Einfaches Einlesen in Cuda/Stream und GPGPU ist da letzen Endes völlig ausreichend um zu erkennen das die Profis dort vornämlich und lieber für 1D Code erstellen,wie es umständlich und nicht immer mit Erfolg auf die 5 Vectoren der Radeons anzupassen pro Taktzyklus

Ist ja nicht so das das AMD nicht auch erkannt hat gelle:)

Dieser ständige Noob Unterton ist mal absolut daneben
 
Zuletzt bearbeitet:
Wo ist das Problem?
Du versuchst einen Umstand von einer Sache fast bis aufs Messer zu verteidigen obwohl du selbst in der Materie nicht drin steckst. Da ist absolut kein Unterton drin und soll auch dort nicht rein. Ich versuche dir nur zu erklären, das du scheinbar leicht auf dem flaschen Weg mit der Meinung fährst.

Und mit der Aussage, man programmiert lieber auf 1D oder ähnlichem klingt das schon ganz anders wie oben, wo es noch nach klaren Fakten klang -> so ists ne persönliche Vorliebe und die darf jeder selbst haben.

Ich nutze auch lieber C/C++ oder auch mal VisualBasic anstatt Programme in Assembler zu schreiben, obwohl letzteres im Endergebnis durchaus effizienter und schneller wäre -> was man wohl so pauschal stehen lassen kann...

EDIT: und wie ich schon sagte im Moment fehlt mir für einen fundierten Vergleich in Sachen Lösbarkeit von Programmaufgaben einfach die Software um pauschal sagen zu können, das der NV Architektur Ansatz der bessere wäre...

EDIT2:
was hat denn AMD selbst erkannt!?
AMD hat erkannt, das VLIW5 eigentlich zu viel des guten sind. Einfach weil idR RGBA berechnet wird in Sachen Grafikberechnung. Die SFU (als fünfter Teil) also oft brach liegt. Mit VLIW4 geht man dem entgegen -> und das zurecht.
Bei GCN wird es Skalar UND Vector Units in einer CU geben. Aber das schrieb ich nun schon gefühlt zum zwanzigsten mal. Keine Ahnung was man daran nicht verstehen kann.
 
Zuletzt bearbeitet:
Wo ist das Problem?
Du versuchst einen Umstand von einer Sache fast bis aufs Messer zu verteidigen obwohl du selbst in der Materie nicht drin steckst. Da ist absolut kein Unterton drin und soll auch dort nicht rein. Ich versuche dir nur zu erklären, das du scheinbar leicht auf dem flaschen Weg mit der Meinung fährst.
...

Wer sagt dir das denn bitte?

Nur weil ich nicht irgendwelchen Code schreibe kann man sich nicht informieren oder wie?

Und ja ich verteidige das aufs Messer weil ich mich eingelesen habe und weil es dafür genügend Beispiele ín Cuda/GPGPU Foren gibt von Leuten die an der Basis arbeiten die (wer hätte das gedacht) ihre Erfahrungen 1D/5D offen dalegen

Und der Tenor ist dort überall der selbe!

AMD hat erkannt, das VLIW5 eigentlich zu viel des guten sind. Einfach weil idR RGBA berechnet wird in Sachen Grafikberechnung. Die SFU (als fünfter Teil) also oft brach liegt. Mit VLIW4 geht man dem entgegen -> und das zurecht

Siehst du du weißt es doch ebenso und trotzdem driftest du erstmal ins andere Lager ab warum?
 
Zuletzt bearbeitet:
Neja vllt läufts ja in meinem Hirn anders, aber wenn ich eine Aufgabe nicht in Programmcode bekomme, such ich den Fehler nicht am SDK oder am Compiler, sondern eher an meiner dann wohl in dem Moment mangelnden Logik...

Ich denke man kann zweifelsfrei zugeben, das die 1D Geschichte quasi immer gleich agiert. Egal was du da machst. Bei VLIW4/5 wirds ne Ecke spezieller. Aber gerade das ist in meinen Augen gerade der Ansporn. Warum soll ich mich mit möglichen ~1,5GFlops/s zufrieden geben (GF110) wenn ich das doppelte haben kann!? Und wie ich ebenso schon sagte, GCN wird Skalareinheit(en) und Vectoreinheit(en) pro CU haben. Wie gut oder schlecht das ganze dann wird, bleibt abzuwarten. Pauschalisieren ist da einfach im Vorfeld nicht...

Wobei ich Aussage im "CUDA Forum" nun nicht unbedingt für subjektiv halte. Meinst du nicht, das die Jungs dort eher in Richtung pro CUDA Argumentieren? Ich gehe jede Wette ein, das ganze findet sich andersrum auch... ;)
 
Zuletzt bearbeitet:
"AMD hat erkannt, das VLIW5 eigentlich zu viel des guten sind. Einfach weil idR RGBA berechnet wird in Sachen Grafikberechnung. Die SFU (als fünfter Teil) also oft brach liegt. Mit VLIW4 geht man dem entgegen -> und das zurecht"

Das ist aber nicht subjektiv sondern ne Tatsache.

Im übrigen kommt ihr mir gerade wie 2 kleine Kinder vor die auf deiwel komm raus ihren Standpunkt verteidigen müssen, wollen was auch immer :d,
geht ne runde poppen das macht den Kopp frei :d
 
Bei VLIW4/5 wirds ne Ecke spezieller. Aber gerade das ist in meinen Augen gerade der Ansporn. Warum soll ich mich mit möglichen ~1,5GFlops/s zufrieden geben (GF110) wenn ich das doppelte haben kann!?

Privat mag dieser Anspruch für dich persönlich vielleicht gelten aber sicher nicht für Unternehmen die damit ihr Geld verdienen müssen

Dort muss in erster Linie ein Programm funktionieren mit möglichst wenig zeitlichen Aufwand richtig?

Die Umsetzung auf 1D vereinfacht das ganze eben auch wenn VLIW4/5 potenter wäre bei korrekter Umsetzung
 
Zuletzt bearbeitet:
@mayer offenbar ist das ne Tatsache und hat AMD auch vor Monaten schon offen zugegeben, daraufhin ja VLIW4 mit der im Vergleich dazu besseren Auslastung... ;)

@scully, wohin drift ich denn?
Ist doch kein Geheimnis was AMD da gemacht hat.
Deine Aussagen von weiter oben (wo du noch mischtest) macht es deswegen nicht sinniger, worauf ich hingewiesen habe ;)

Privat mag dieser Anspruch für dich persönlich vielleicht gelten aber sicher nicht für Unternehmen die damit ihr Geld verdienen müssen

Dort muss in erster Linie ein Programm funktionieren mit möglichst wenig zeitlichen Aufwand richtig?

Die Umsetzung auf 1D vereinfacht das ganze eben auch wenn VLIW4/5 potenter wäre bei korrekter Umsetzung

Neja, theoretisch schon... Die Frage ist eher, kann man hier die Messlate in der Art anlegen?
Wenn der Aufwand zu viel ist, den Code wenigstens logisch soweit vorzubereiten, das es der Compiler schaft die VLIW Einheiten auszufahren, dann ist es der Umstand Skalar vs. Vectorspeed bei fehlender Optimierung genau so unwichtig ;) Denn offensichtlich legt der Programmierer (ob nun gewollt, gezwungen oder was weis ich sei mal dahingestellt) nicht den Wert auf den schlussendlichen Speed -> was aber nicht nur bei GPGPU Anwendungen zu sehen ist. Sondern auch bei Games -> Konsolenumsetzungen oder diversen CPU Programmen -> fehlender würdiger Multithreading Support.

Die Jungs sind keine Heiligen, die das beste für den Endkunden wollen. Da muss es einfach gehen. Und ob da nun jemand C++ für OpenCL auf Skalareinheiten oder C++ für OpenCL auf VLIW4/5 oder GCN nutzt, dürfte unterm Strich vollkommen egal bleiben.
 
Zuletzt bearbeitet:
Nur weil jemand genauso Sachen wie du schreibt, werden daraus keine Tatsachen. Wo ist denn die Quelle dafür? Gibt's da etwas nachvollziehbares oder wurde das einfach so in den Raum geworfen? Die einzigen Fakten, die ich sehe, sind die Folien von AMD. Und die sprechen eindeutig von Vektor-ALUs (16-fach), also in Relation zur aktuellen Architektur "16D" Shader. Wie du die Shader nennst, ist im Endeffekt aber völlig egal. Wichtig ist nur, dass du begreifst, dass der Aufbau ein anderer als bei Nvidia ist.

Was ist denn wahrscheinlicher das man ein Transisormonster kreiert was so schon rein technisch mindestens bedenklich wenn nicht gar unmöglich ist bei der Anzahl der Units

Oder auf eine ebenbürtige 1D Shaderarchitektur wechselt mit der man selbst bestehende Cuda Anwendungen problemlos bedienen kann u damit neue Kunden gewinnt,dafür aber mit weit weniger monströßen Ausmaßen

Tut mir leid für mich macht letzteres mehr Sinn
Das letztere ergibt exakt Null Sinn. AMD könnte auch mit ihrer aktuellen Architektur CUDA Anwendungen problemlos bedienen. Es braucht dafür keine neue Hardware, sondern schlichtweg Softwaresupport.

Wenn die Architekturen identisch sind 1D u 1D dann wird es für die Programmierer einfacher eine Portierung der Software für beide Hersteller zu bringen
Und schon wieder, Null Sinn. Mit plattformunabhängigen Lösungen wie OpenCL sollten gar keine Portierungen notwendig sein. Das ist ja der Sinn und Zweck solcher Lösungen. Einmal geschrieben, sollte eine Anwendung auf jeder beliebigen Hardware laufen, die entsprechende Treiber/Runtimes mitbringt. Ansonsten könnten wir gleich wieder mit Assembler anfangen.

Um das beurteilen zu können braucht man glaub ich nicht selber Programmcode schreiben können für GPGPU
Das nicht. Man sollte sich aber schon mit Programmierung auskennen, um die Zusammenhänge verstehen zu können. "Einfaches Einlesen in Cuda/Stream und GPGPU" reicht da eben nicht.


Dennoch hat CUDA oder OpenCL nichts mit der Shaderarchitektur zu tun, welche drunter tuckert.
Exakt so ist das.

Ein klassischer Aufbau mit 2048 1D ALUs wie es NV tätigt, wäre nicht in ~380mm² zu schaffen.
Ich weiss nicht, ob man das so pauschal sagen. IIRC hatte Gipsel bei P3D mal gesagt, dass die Grösse bei NVidia vor allem durch eine längere Pipeline als bei AMD zustande kommt. Kann aber gut sein, dass eine längere Pipeline die Konsequenz des "1D" Designs bei Nvidia ist.

Grundsätzlich ist das aber natürlich richtig, Vektor ALUs lassen sich kompakter implementieren als skalare ALUs. Und 380 mm² wäre in der Tat weniger als angenommen. Bei den Infos und Spekulationen im Vorfeld hätte ich eher auf 400-450 mm² getippt. Allerdings sollte man auch bedenken, dass die Shaderanzahl diesmal nicht gross steigt. 2048 wäre nur ein Drittel mehr, im Gegensatz zu den bisherigen 100% bei einem Full-Node Shrink. Aber gut, bei einer neuen Architektur lässt sich das schlecht einordnen. Eine CU ist vom Aufbau her anders als eine bisherige SIMD Engine und scheint auch um einiges aufwändiger zu sein.
 
Leute wartet doch noch einfach nen Monat,man will hier gucken was es neues gibt und man muss sich erstmal durch tausend sachen durch lesen. Ist doch egal wer recht hat,das sieht man eh am Launchtag.

Interessanter wärs wenn ihr euch an nen Tisch setzt und diskutiert. Die Webcam aber nicht vergessen das muss ich mir dann doch anschaun :d.


Also ich sag das der unterschied von 6970 zu 7970 so gross ausfallen wird wie von 4870 zu 5850.
 
Das letztere ergibt exakt Null Sinn. AMD könnte auch mit ihrer aktuellen Architektur CUDA Anwendungen problemlos bedienen. Es braucht dafür keine neue Hardware, sondern schlichtweg am Softwaresupport

Lesen ist nicht so deine Stärke oder?

Ich verweiße dich mal auf Post 164 wo ich ausgerechnet mal mit dir konform gehe
Zum anderen habe ich auch auf die lizenzrechtlichen Hürden hingewießen die einem Vorhaben als einziges im Wege stehen


Also erzähl es bitte den Personen die sowas in die Welt gesetzt haben und betreib hier keine Kaffesatzleserei aus Absätzen heraus um Leuten etwas in den Mund zu legen was sie so niemals veröffentlicht haben
 
Die Fachwelt spricht seit einiger Zeit von 1D Shadern wer weiß vielleicht ist es so wie beim Bulli wo von einem 8Kerner gesprochen wurde der nicht wirklich einer ist wo bei das wieder Marketing war ist.
So lange werden wir abwarten müssen ich denke für jeden wird ein Stückchen Wahrheit dabei sein.
Am Ende steht die Leistung und Qualität im Vordergrund.
 
Zuletzt bearbeitet:
Ist ja nicht so das das AMD nicht auch erkannt hat gelle

AMD hat sich bisher nicht verstärkt auf GPGPU konzentriert und hat damit Nvidia mit Cuda vorläufig etwas des Feld überlassen, das mag schon sein.
Trotzdem lässt sich davon nicht ableiten, dass 5 Vektor Alu´s prinizpiell nicht dafür geeignet wäre per Compiler Cuda Tasks auszuführen, es fehlte halt einfach bisher die Software und die wird was die Lizenzen angeht, sowieso nicht kommen.
Was für mich bedeutet, dass Cuda früher oder später aussterben wird.

brasilion schrieb:
Ist doch egal wer recht hat,das sieht man eh am Launchtag.

Ich bin mal gespannt, ob es AMD schafft mit GCN stärker ins GPGPU Geschäft einzusteigen, sowas dauert aber.
Da wird man nicht gleich am Launchtag sehen, wer recht hat, sondern jetzt schon, denn pauschale Aussagen sind meistens eh nichts wert.
 
Mhh ich weiß nicht....die 7970 wird wohl 500€ kosten, aber nur 5-30% schneller als ne 580 GTX sein. Dazu übernatürliche 3gb ^^

Das ist doch für Leute mit ner 6970 oder ner 580GTX absolut nicht interessant, oder? Die 1,5gb Speicher sind doch nur bei BF3 mit maximalen Details, FullHD und 4AA etwas knapp bemessen, ansonsten doch absolut ausreichend. Nun sinds also 3gb....noja! Sicher nicht schlecht, aber 2gb würden locker reichen, dazu lieber mehr Rohleistung.
 
Kannst du mir mal sagen wann die Nachfolge-Generation, für jemanden mit einer Top-GPU der aktuellen Generation, leistungstechnich ein Pflichtkauf war? ;)
 
Irgendwie sind die Preise wirklich sehr krass hoch angesetzt im Vergleich zur Leistung die man bisher erwartet...

Ich persönlich finde die 3D Entwicklung auch für total überbewertet...einfach unnötig das ganze...
 
Kannst du mir mal sagen wann die Nachfolge-Generation, für jemanden mit einer Top-GPU der aktuellen Generation, leistungstechnich ein Pflichtkauf war? ;)

Je nach Leistungsbedarf eigentlich jede neue Generation mit neuem Fullnode Fertigungsprozess.
Rückwirkend waren das 9700Pro, X800XT PE, X1800 XT PE, HD2900XT, HD4870 (X2) und HD5870 (HD5970)

;)


Durchaus interessant, vllt sieht NV die Fälle für CUDA fortschwimmen und will dem gegensteuern!?
 
Nvidia gibt die Technik ja nicht an AMd weiter, sondern macht Cuda scheinbar öffentlich, sozusagen für jedermann.
Wenn man dies tut, wird Cuda vielleicht doch noch länger genutzt.
 
Je nach Leistungsbedarf eigentlich jede neue Generation mit neuem Fullnode Fertigungsprozess.
Rückwirkend waren das 9700Pro, X800XT PE, X1800 XT PE, HD2900XT, HD4870 (X2) und HD5870 (HD5970)

;)

Wer immer da Optimum braucht für den ist das natürlich Pflicht, aber wie gesagt die Welt bricht auch nicht zusammen wenn man nicht jedes Topmodel kauft. Ist ja nicht so, dass sich jede Generation um min 50% überboten hätte bisher. ;) Meine HD 5850 schreit auch nur jetzt nach der Rente weil sie in FullHD an ihre Grenzen stößt und ich kauf mir bestimmt nicht ihr zu liebe einen kleineren Monitor... :d
 
Lesen ist nicht so deine Stärke oder?

Ich verweiße dich mal auf Post 164 wo ich ausgerechnet mal mit dir konform gehe
Zum anderen habe ich auch auf die lizenzrechtlichen Hürden hingewießen die einem Vorhaben als einziges im Wege stehen
Die persönlichen Anfeindungen spare ich mir jetzt mal. Das solltest du auch tun. Gerade du. Ich wüsste auch nicht, wo deine Aussagen konform zu meinen sein sollen. Du kolportierst hier doch zwei Dinge:

1. mit einem Nvidia-ähnlichen Aufbau ("1D") der AMD Architektur könnten Entwickler einfacher portieren

2. es erfordert einen "1D" Aufbau, um bestehende CUDA Anwendungen bedienen zu können

Und da lass dir gesagt sein, dass beides Quatsch ist.

Zu 1., Entwickler programmieren nicht spezifisch für Architekturen. Ansonsten könnten wir uns OpenCL & Co auch gleich sparen. Deren Sinn ist ja, die Softwareschnittstelle von der darunter liegenden Hardware zu abstrahieren. Entwickler nutzen die Datenstrukturen, die für ihr Problem geeignet sind, zB 3D/4D Arrays bei Farb- oder Koordinatentransformationen. Es ist dann die Aufgabe der Runtime/Treiber, diese Daten optimal auf die Shader zu verteilen. Damit hat der Entwickler nichts mehr zu tun.

Zu 2., siehe 1. Wenn die Softwareschnittstelle sauber von der Hardware abstrahiert ist, dann ist dem Hochsprachencode völlig egal, wie die darunter liegende Prozessorarchitektur ausschaut.

Und zu deiner Aussage zum Transistormonster, warten wir doch erstmal Kepler ab. Dann können wir immer noch schauen, was das Transistormonster und technisch bedenklich ist. ;) Ich denke nicht, dass ein aufgebohrter 28 nm RV970 dies toppen würde.
Tatsache ist, dass AMD die Architektur schrittweise ändert, um sie für Fusion anzupassen. Mit Nvidia hat das wenig zu tun. Zumal eben die Implementierung eine ganz andere ist.


Die Fachwelt spricht seit einiger Zeit von 1D Shadern
Ja, bei Nvidia. AMD spricht bisher jedenfalls unmissverständlich von 16-fach Vektor ALUs. Wie die genau ausschauen und funktionieren, bleibt abzuwarten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh