AMD Radeon HD 7000: Neue Gerüchte und Preisangaben kommen ans Tageslicht

Also meine HD6950 2GB stellte ich gerade in den MP.
In ca. 1 Monat sollte es soweit sein, zudem wird AMD wohl vorsehen die kleine Schwester, sprich HD7950 mind. auf GTX 580 (wenn nicht gar +5-10% darüber) zu posizionieren.

Der Preis denke ich wird auch gerechtfertigt sein...
Mal abwarten was diese Tage noch so kommt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die "alte" 6970 kommt schon sehr nahe an die GTX 580 ran und das bei nur einem Bruchteil des Stromverbrauches. (nette Analyse auf Toms Hardware)
Wenn man die Performance/Watt in Betracht zieht, ist AMD dem grünen Team um Meilen voraus. Da die Leistung durch den Stromverbrauch limitiert wird, der ein gewisses Maximum hat lt. ATX-Norm wird vor allem im High-End Bereich das P/W-Verhältnis zählen. Und dort musste NV schon mit der jetzigen Generation schummeln (Drosslung, Veränderung der Definition des TDP). Vergleicht man hier das rote Team direkt mit dem grünen und stellt dann fest, dass so eine Radeon 6970 auf rund 90 - 95% der Leistung einer GTX 580 kommt, ist die Sachlage für die nächste Generation recht klar.
Des Weiteren gibt es die Grüchte, dass die GTX 680 erst gegen Ende 2012 auf den Markt kommen soll, während die 7970 am Anfang 2012 auf den Markt kommt. An dem Tag, wo die GTX 680 da ist, hat AMD schon die zweite Generation auf den Markt gebracht und dann sind die theoretischen Vergleiche eh alle hinfällig. Einzig bei den Treiber ist NV noch etwas besser. Trotzdem: Abwarten und Benchmarks abwarten ist wohl auch hier das Mittel der Wahl. Ich erwarte jedoch kein Desaster wie beim Bulldozer.

definier mal sehr nah. die 90-95% stimmen auch nicht. in seltenen fällen... ja, aber im durchschnitt sind es eher so um die 80% der leistung der GTX580.
die 6970 spielt in der selben klasse wie die gtx570, sicher nicht drüber.

Man sollte Trolle nicht füttern, hast ja Recht Chezzard. Was die Treiber angeht, so werden diese über die Zeit immer stabiler. AMD hat zwar noch einiges aufzuholen, von der Rohleistung sind sie NV aber dicht auf den Fersen. Dafür hat AMD imho die bessere Technik auf den Chips. Es gibt zwar kein CUDA oder PhysX, bei den kommenden Applikationen in der Softwareentwicklung wird aber auf Masse geguckt und dort fällt einem recht schnell OpenCL auf, welches auch auf der int. Grafik der Intel-Prozzis ausführen lässt. Demnach kann man durchaus davon ausgehen, dass die Technologie von OpenCL über kurz oder lang PhysX und CUDA überholen wird. (Natürlich wird das für die nächste und übernächste Generation noch keine so große Rolle spielen, ich kenne noch keine Spiele-Engine, die ihre Physik komplett in OpenCL umsetzt)

Der technologische Vorsprung wird sich jedoch schon auf die nächsten Generationen übertragen. So wie AMD Intel bei den Prozessoren hinterhergaukelt, gaukelt NV den AMD-GPUs hinterher. Bisher konnte es NV durch eine größere Die-Fläche und einem damit verbundenem höheren Stromverbrauch ausgleichen. Sollte AMD aber mal die Eier haben, einen genauso großen Die wie NV für ihre High-End Karten rauszubringen, so wird NV kaum etwas dagegen zu setzen haben. Dabei hoffe ich natürlich auf ein ausgeglichenen Wettstreit, weil Konkurrenz das Geschäft belebt. Ergo: NV soll mal n bischl Gas geben und aufholen.

du sagst, die AMD GPU´s sind den NV´s welten voraus in der technik, danach kommen aber nur beispiele, die NV stärker machen :fresse:
außerdem, wenn AMD das könnte, mit dem größeren DIE --> mehr leistung, dann hätten die das gemacht. aber gut, du hast sicher mehr ahnung von marktwirtschaft und GPU technik, als die hochausgebildeten ing´s und wissenschaftler bei AMD :fresse:


edit: zum stromverbrauch sehe ich gerade, dass zb in bc2 die gtx570 sogar ein wenig weniger verbaucht als die 6970.
die gtx580 verbraucht ca 10% mehr, ist dabei aber 20% schneller als die 6970.
 
Zuletzt bearbeitet:
definier mal sehr nah. die 90-95% stimmen auch nicht. in seltenen fällen... ja, aber im durchschnitt sind es eher so um die 80% der leistung der GTX580.
die 6970 spielt in der selben klasse wie die gtx570, sicher nicht drüber.
Mal schnell geguckt bei: 580 vs 6970

Mafia 2:
71 vs. 68 fps
Metro 2033:
36.5 vs 36 fps
Call of Pripyat
53.5 vs. 53

... was deine Behauptung ad absurdum führt. Ich frage mal anders: Zeig mir DEINE Quelle. Meine ist hier:

Benchmarks 2011 Gaming Grafikkarten-Charts

Sagst du das nur um was zu sagen, oder was ist deine Intention? Erklärs mir bitte. Ich würde echt gerne erfahren, woher du deine Behauptungen nimmst.

du sagst, die AMD GPU´s sind den NV´s welten voraus in der technik, danach kommen aber nur beispiele, die NV stärker machen :fresse:
außerdem, wenn AMD das könnte, mit dem größeren DIE --> mehr leistung, dann hätten die das gemacht.

Wer lesen kann ist klar im Vorteil. AMD hat das bessere Leistungs/Watt-Verhältnis (Hardwaretechnik), während CUDA und PhysX proprietäre Implementierungen sind, die bald aussterben werden, wenn die Entwicklung so weiter geht.

Wer der Logik mächtig ist wird feststellen: WENN CUDA und PhysiX von OpenCL überrant werden (wie ich bereits schrieb, in frühestens 3 Generationen), hat NV GAR KEINEN Vorteil mehr gegenüber AMD. Deswegen sollten sie JETZT damit anfangen, ihre Architektur zu verbessern, anstatt auf weitere proprietäre Formate zu setzen (siehe: Nvidia’s OpenACC Standard | SemiAccurate )
Ja, diese quelle kommt von Charlie und sollte deswegen mit Vorsicht genossen werden, aber im Grunde hat er recht: So wird das nix.

Außerdem stellt ein größerer Die ein größeres Risiko dar. Es gilt dabei, ein gesundes Verhältnis aus yield und Leistung zu bekommen. Du kannst auch einen doppelt so großen Die basteln, wenn deine yields dann aber unter 1% liegen, nützt dir das GAR NIX. Ansonsten: Klär mich auf, wenn du es besser weißt (mit Quelle - Danke)

aber gut, du hast sicher mehr ahnung von marktwirtschaft und GPU technik, als die hochausgebildeten ing´s und wissenschaftler bei AMD :fresse:
1) Hab ich nie behauptet.
2) noch so ein Troll.
 
1) Hab ich nie behauptet.

Sollte AMD aber mal die Eier haben, einen genauso großen Die wie NV für ihre High-End Karten rauszubringen, so wird NV kaum etwas dagegen zu setzen haben.

hast du also nicht :hmm:
das sieht für mich aber danach aus.

zum thema 20% und stromverbauch verweise ich dich gerne auf den cb test : Test: Nvidia GeForce GTX 560 Ti 448 Core - ComputerBase

aber auch hardwareluxx hatte das geschrieben mein kleiner ;)
 
Nvidia ist nicht so effizient im Gamerbereich, das stimmt. Dafür haben sie schon vor Jahren den Fokus auf HPC und Workstations gelegt und sind hier sehr sehr erfolgreich, können locker auch größere Dies querfinanzieren. AMD muss hier noch aufschließen, verdienen sie doch in der Grafiksparte kaum etwas (am Umsatz in diesem Bereich gemessen).

Es ist müßig, hier mit 10% Differenzen bei Benchmarks um sich zu werfen. Anderer Parcour, andere Ergebnisse. Fakt ist, die 580 ist etwas schneller als die 6970. Ob das jetzt 5 oder 15% sind, interessiert doch keine Sau und deshalb muss man auch nicht streiten. Bei AMD würde ich mir für die neue Generation deutlich mehr Freiraum wünschen, so dass der Nutzer analog zu Nvidias AA-Bits, SLI-Bits, SGSSAA usw. mehr aus seiner Hardware herausholen kann. Wen interessieren 10%, wenn man oft dermaßen eingeschränkt ist?
 
Zeig mir mal deine Brückenverbindung von:

Sollte AMD aber mal die Eier haben, einen genauso großen Die wie NV für ihre High-End Karten rauszubringen, so wird NV kaum etwas dagegen zu setzen haben.

zu

aber gut, du hast sicher mehr ahnung von marktwirtschaft und GPU technik, als die hochausgebildeten ing´s und wissenschaftler bei AMD

wenn die P/Watt-Verhältnis bei AMD besser ist. Na? NV könnte einen NOCH größeren Die produzieren mit yields von rund 0%. Tolle Lösung! Sauber!

Zum Stomverbrauch:
In deiner Quelle steht, dass das Gesamtsystem von 580 zu 6970 genau 60 Watt mehr verbraucht. (In Battlefield 2)
Die 6970 hat in allen 3D-Anwendungen rund 20% weniger Leistung.

Jetzt setzen wir mal nach Adam Riese 60 Watt zu 20% weniger Leistung und wir erhalten, wenn wir davon ausgehen, dass die 6970 rund 250 Watt verbrät (mal über den Daumen gepeilt) und die GTX 580 somit 310 (delta P), dieser Unterschied 124% beträgt. Die Mehrleistung der GTX 580 liegt aber bei 120%.

Und das IST bereits über alles gemittelt. Jetzt könnte man natürlich ranlaufen und auch den Stromverbrauch ohne Gesamtsystem testen (wer ne verlässliche Quelle findet bitte posten) damit meine oben genannten über-den-Daumen-Werte mit echten Daten verifiziert oder widerlegt werden können (zumindest bin ich fähig zu lernen)

Am Schluss steht dann aber noch eine weitere Kleinigkeit: Der Preis. Wenn ich diesen jetzt auch noch mit einberechnen würde... na ja, den Rest kannst du wir hoffentlich denken ;oD
 
Es ist müßig, hier mit 10% Differenzen bei Benchmarks um sich zu werfen. Anderer Parcour, andere Ergebnisse. Fakt ist, die 580 ist etwas schneller als die 6970. Ob das jetzt 5 oder 15% sind, interessiert doch keine Sau und deshalb muss man auch nicht streiten. Bei AMD würde ich mir für die neue Generation deutlich mehr Freiraum wünschen, so dass der Nutzer analog zu Nvidias AA-Bits, SLI-Bits, SGSSAA usw. mehr aus seiner Hardware herausholen kann. Wen interessieren 10%, wenn man oft dermaßen eingeschränkt ist?

Naja, das interessiert in diesem Jahr vielleicht kaum eine Sau wieviel kleine Prozentpünktchen eine Graka schneller wird, aber spätestens in 18 Monaten sieht das anders aus.

Die Großen Konsolen werden draußen sein und 2560x1440p Auflösungen werden vermutlich schon sehr erschwinglich sein. Wer weiß vielleicht kriegt sogar 3D nochmal die Kurve. Dann werden wir alle Power brauchen um die Inhalte allgemein erstmal überhaupt auf den Screen zu bekommen. Dieses ganze SGSSAA schieß mich tot ist ganz nett zu haben wenn man nicht weiß wohin mit seiner Leistung, aber auch nur dann. Da sich die Anforderungen in nächster Zeit drastisch ändern, wird sich NV und AMD bestimmt nicht lange hinstellen und groß "special Nerdporn" produzieren um eine kleine Gruppe ein Jährchen glücklich zu machen. Da wird ein billig AA eingepflegt, ein Limiter implementiert, was schon hätte vor Jahren passiert sein können und dann wars das mit Verbesserung. Vielleicht kriegen die AMD'ler noch ein anständiges AF.
 
astra schrieb:
zum thema 20% und stromverbauch verweise ich dich gerne auf den cb test

CB testet gerne mit alten Treibern und mit einem aktuell nvidialastigen Spielepracours.
HT4U/Hardwareluxx/PCGH haben da andere Leistungswerte raus, dort liegt die GTX 560 ti 448 10% hinter der HD 6970.
 
Zuletzt bearbeitet:
Zeig mir mal deine Brückenverbindung von:

Sollte AMD aber mal die Eier haben, einen genauso großen Die wie NV für ihre High-End Karten rauszubringen, so wird NV kaum etwas dagegen zu setzen haben.

zu

aber gut, du hast sicher mehr ahnung von marktwirtschaft und GPU technik, als die hochausgebildeten ing´s und wissenschaftler bei AMD

du glaubst fest daran, dass AMD nur die eier dazu fehlen. ich sage aber, dass da mehr fehlen muss als nur eier, sonst hätten die das gemacht

Zum Stomverbrauch:
In deiner Quelle steht, dass das Gesamtsystem von 580 zu 6970 genau 60 Watt mehr verbraucht. (In Battlefield 2)
Die 6970 hat in allen 3D-Anwendungen rund 20% weniger Leistung.

Jetzt setzen wir mal nach Adam Riese 60 Watt zu 20% weniger Leistung und wir erhalten, wenn wir davon ausgehen, dass die 6970 rund 250 Watt verbrät (mal über den Daumen gepeilt) und die GTX 580 somit 310 (delta P), dieser Unterschied 124% beträgt. Die Mehrleistung der GTX 580 liegt aber bei 120%.

Und das IST bereits über alles gemittelt. Jetzt könnte man natürlich ranlaufen und auch den Stromverbrauch ohne Gesamtsystem testen (wer ne verlässliche Quelle findet bitte posten) damit meine oben genannten über-den-Daumen-Werte mit echten Daten verifiziert oder widerlegt werden können (zumindest bin ich fähig zu lernen)

du hattest was von:
Die "alte" 6970 kommt schon sehr nahe an die GTX 580 ran und das bei nur einem Bruchteil des Stromverbrauches. (nette Analyse auf Toms Hardware)
Wenn man die Performance/Watt in Betracht zieht, ist AMD dem grünen Team um Meilen voraus.
geschrieben.

Am Schluss steht dann aber noch eine weitere Kleinigkeit: Der Preis. Wenn ich diesen jetzt auch noch mit einberechnen würde... na ja, den Rest kannst du wir hoffentlich denken ;oD

finde ich nicht. vor ca 9 monaten war das attraktiver. da hatte ich meine nagelneue 6970 für 220€ verkauft. jetzt kriegste die gebraucht kaum für unter 250€. ne gtx580 steht bei ~330€ gebraucht, ne gtx570 bei 220€ und ist dabei laut einigen tests gleichauf mit der 6970 bei gleichem stromverbauch, jedoch mit mehr freiheiten a la AA modi und physx/ cuda
für mich war die 6950 unlocked die perfekte karte. aber die hatte ich sofort verkauft, als die ersten berichte über abrauchende GPU´s kamen (die sich dann aber als einzelfälle herausstellten)

(zumindest bin ich fähig zu lernen)

dann solltest du dich auch so verhalten, ohne mit beleidigungen um dich zu werfen, wenn sachen kommen, die dir scheinbar nicht schmecken.
 
Zuletzt bearbeitet:
Naja, das interessiert in diesem Jahr vielleicht kaum eine Sau wieviel kleine Prozentpünktchen eine Graka schneller wird, aber spätestens in 18 Monaten sieht das anders aus.

Die Großen Konsolen werden draußen sein und 2560x1440p Auflösungen werden vermutlich schon sehr erschwinglich sein. Wer weiß vielleicht kriegt sogar 3D nochmal die Kurve. Dann werden wir alle Power brauchen um die Inhalte allgemein erstmal überhaupt auf den Screen zu bekommen. Dieses ganze SGSSAA schieß mich tot ist ganz nett zu haben wenn man nicht weiß wohin mit seiner Leistung, aber auch nur dann. Da sich die Anforderungen in nächster Zeit drastisch ändern, wird sich NV und AMD bestimmt nicht lange hinstellen und groß "special Nerdporn" produzieren um eine kleine Gruppe ein Jährchen glücklich zu machen. Da wird ein billig AA eingepflegt, ein Limiter implementiert, was schon hätte vor Jahren passiert sein können und dann wars das mit Verbesserung. Vielleicht kriegen die AMD'ler noch ein anständiges AF.

Egal auf welchem Level, 10% machen nicht den Unterschied von spielbar zu nicht spielbar aus. Die neuen Konsolen lassen sicher noch auf sich warten, und ich bezweifle, dass damit so ein großer Sprung drin sein wird, Stichwort Kosten und SoC. Die neuen Karten kommen jetzt, da ist sicher öfters ein bisschen mehr drin als gammliges FXAA und Konsorten. Warum werden Features immer so kleingeredet? Versteh ich nicht. Die Leistung steigt kontinuierlich und damit auch die Benutzbarkeit dieser Features.
 
Wieso nicht schmecken? Mir ist es Latte ob AMD oder NV die bessere Karte hat. Wenn NV die bessere Karte hat, dann halt NV, wenn AMD die bessere Karte hat, dann AMD. Um festzustellen, wer von beiden nun den besseren Chip prouziert, holt man sich ein paar Quellen, liest diese durch und macht ne Schlussfolgerung. So "einfach" ist das.

Zum Thema Beleidigung:
>>> aber gut, du hast sicher mehr ahnung von marktwirtschaft und GPU technik, als die hochausgebildeten ing´s und wissenschaftler bei AMD <<<
+
>>> denn die haben mitsicherheit bessere analysten etc als dich, oder meist du nicht? <<<

Das ist infantil. Wenn du mir was sagen willst, geht das auch ohne Unterstellungen. Was ich hier sage, ist ne Meinung unterlegt mit Quellen. Wenn du ne andere Meinung mit anderen Quellen hast - schön. Dann kann man das diskutieren. Aber nicht SO! Über konstruktive Kritik bin ich dankbar, da lern ich was bei. Von Unterstellungen hab ich nix.

Und nun zurück zum Thema:

du glaubst fest daran, dass AMD nur die eier dazu fehlen. ich sage aber, dass da mehr fehlen muss als nur eier, sonst hätten die das gemacht
Geht das konkreter? Das ist ne reine These ohne Argument.

Was jetzt das exakte Leistung-zu-Watt-Verhältnis angeht finde ich widersprüchliche Quellen. Deswegen auch mein Aufruf zu verlässlichen Daten. In der Tendenz zeigt sich aber, dass wenn man die Treiberabhängigkeit herausnimmt, die AMD-Chips etwas effizienter sind. Das "um Meilen" voraus mag da zwar etwas übertrieben anmuten, aber wenn es um die reine Architektur geht und die Grundtechnologie ansonsten fast identisch ist, liegt dort praktisch gesehen der einzige Unterschied. Ergo: Die Architektur von AMD scheint besser zu rennen als die von NV, wenn man Leistung-zu-Watt betrachtet. Die Treiber verändern das ganze natürlich wieder, aber dort holt AMD auf (mal ganz neutral beliebäugelt).

Und die nächste GEN hat sowas wie GCN. Da fehlen zwar noch Benchmarks, aber GCN ist stark auf Computing ausgelegt. WENN OpenCL also was wird (und GCN läuft damit Hand-in-Hand, erschafft Angebot und somit mögliche Applikationen --> Wird weiter verbreitet) muss NV seine Architektur verbessern, um mithalten zu können. Und ne Architekturverbesserung braucht Zeit, Geld und know-how. Ich bin kein Entwicklungstyp bei AMD oder NV, aber dass so eine Architektur nicht mal eben in 5 Minuten zusammengeschraubt ist, sollte allen hier bewusst sein.
 
Obwohl wir am Ende der Konsolenära sind, haben gerade eben wieder Titel wie Skyrim, Anno, SS3, Batman, BF3 usw... den aktuellen Grakas mächtig in die Leisten gekickt. Und das @ schnödem FullHD.

Wenn ich mich recht entsinne, BL, dann zockst du mit 2 GTX 580 @ Mini Schirm, kein Wunder das du Features willst, aber das kann man doch schlecht verallgemeinern.

Die Tendenz geht Richtung Pixeltapete ;)
 
Immer wieder fein zu lesen ^^

Benchmarks sind nid alles, Spiele sind teilweise an Treiber bzw. Hersteller optimiert bzw. Treiber direkt an Bensches oder Spiele - nen echten neutralen vergleich in dem Sinne gibt es eigentlich nicht, außer man testet alles durch und selbst dann, wird einem das nicht viel bringen.

PS: Wer 300€ oder mehr für ne Grafikkarte zahlt, der sollte wegen den paar Watt im Jahr nicht meckern! Das ja als ob man verlangt, dass nen 3.0L V8 nicht so viel frisst wie ne Fiat 500 TwinTurbo Drehorgel ;-)
 
Mal schnell geguckt bei: 580 vs 6970

Mafia 2:
71 vs. 68 fps
Metro 2033:
36.5 vs 36 fps
Call of Pripyat
53.5 vs. 53

nimm doch mal 3 Spiele die nicht am vram hängen....Leutchen wie dich liebe ich...

Was will den AMD mit ner großen DI bei ihrer Technik weist du überhaupt von was du sprichst?

---------- Beitrag hinzugefügt um 22:30 ---------- Vorheriger Beitrag war um 22:24 ----------

Immer wieder fein zu lesen ^^

Benchmarks sind nid alles, Spiele sind teilweise an Treiber bzw. Hersteller optimiert bzw. Treiber direkt an Bensches oder Spiele - nen echten neutralen vergleich in dem Sinne gibt es eigentlich nicht, außer man testet alles durch und selbst dann, wird einem das nicht viel bringen.

PS: Wer 300€ oder mehr für ne Grafikkarte zahlt, der sollte wegen den paar Watt im Jahr nicht meckern! Das ja als ob man verlangt, dass nen 3.0L V8 nicht so viel frisst wie ne Fiat 500 TwinTurbo Drehorgel ;-)

Leistung kost Geld <>verbrauch +, daran wird sich auch nix ändern...oder was glaubste warum die sich beide zieren keine Karten mit 80% mehr auf den Markt zu werfen...könnten würden die das...mit 3 oder 4 8pol Steckerchen...

---------- Beitrag hinzugefügt um 22:34 ---------- Vorheriger Beitrag war um 22:24 ----------

Obwohl wir am Ende der Konsolenära sind, haben gerade eben wieder Titel wie Skyrim, Anno, SS3, Batman, BF3 usw... den aktuellen Grakas mächtig in die Leisten gekickt. Und das @ schnödem FullHD.

Wenn ich mich recht entsinne, BL, dann zockst du mit 2 GTX 580 @ Mini Schirm, kein Wunder das du Features willst, aber das kann man doch schlecht verallgemeinern.

Die Tendenz geht Richtung Pixeltapete ;)

das decken die Spielhersteller mit Blur doch wieder zu... :d ändern würde sich das event.im PC Gaming mit neuen Konsolen..vorher tut sich da gar nix. das ganze DX 11 11.5 oder 12 ist doch nur Marketing....sehen wirste davon nix da es zuviel kostet.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Schön das mal wieder etwas passiert auf dem Grafikkartenmarkt.
Mir persönlich ist es egal ob eine Nvidia oder AMD im Rechner steckt, wichtig ist das sie mich glücklich macht, sprich meine Spiele vernünftig laufen. Gekauft wird das was erhältlich ist und meinen Ansprüchen genügt.
 
@ terrier: klar, jeder hat seine ansprüche, das ist auch gut so.
sonst bräuchte man (gerade in den USA dank tempolimit) kein stärkeres auto als den schwächsten polo.
ich muss ein spiel flüssig spielen können, so wie im video geht garnicht. das verdirbt mir absolut den spielspaß.
wenn ich aber zurückdenke, wie ich einst deus ex 1 und turok gezockt hatte :fresse:
das war auch alles andere als flüssig. dennoch, meine ansprüche sind stark gestiegen. ich setze sogar anno 2070, crysis 2, bf3 und mw3 erstmal aus, weil meine gtx460 für max details und flüssiges spielerlebnis nicht ausreicht.
eine neue kommt erstmal nicht in frage, weil ne indienreise finanziert werden soll :fresse:
 
war ganz interessant eure diskussionen zu verfolgen - ganz nach dem motto: wer hat mehr ahnung bzw die größeren eier :d

ist doch einerlei... wenn man guten input hat, so her damit. man kann auch fehler machen bzw. nicht alles wissen was ja kein weltuntergang ist (der kommt erst nächstes jahr ;))

also schluss mit dem gestreite und zurück zu einer sinnvollen diskussion...

btw: kommt euch bloß nicht in die haare wegen 10-15% unterschied in der leistung... fürs spiele vollkommen unerheblich ob ich mit 60 oder 65 fps unterwegs bin. ganz anders schauts mit physx aus weil da gibts bilder wo man richtig schön sieht wieviel mehr man aus der grafik rausholen kann. hab sogar eine quelle :P
Hardware: PhysX-Spiele im Überblick - Physik-Berechnung auf Geforce-Grafikkarten bei GameStar.de
 
Wer der Logik mächtig ist wird feststellen: WENN CUDA und PhysiX von OpenCL überrant werden (wie ich bereits schrieb, in frühestens 3 Generationen), hat NV GAR KEINEN Vorteil mehr gegenüber AMD. Deswegen sollten sie JETZT damit anfangen, ihre Architektur zu verbessern, anstatt auf weitere proprietäre Formate zu setzen (siehe: Nvidia’s OpenACC Standard | SemiAccurate )

Deine Logic erschließt sich mir nicht ganz...
PhysX ist eine Physikengine, auch welche Technik diese aufsetzt, spielt für die Software selbst absolut keine Rolle. Für NV wäre es ein leichtes, den Spaß auch auf andere Standards auszuweiten. Auf CPUs läuft es ja auch in vollem Featureumfang, obwohl man dort idR künstlich die Threads beschneidet, damit die CPUs nicht ähnliche Leistungen wie GPUs erreichen.
CUDA selbst ist für NV ein Aushängeschild. Man bietet was, was die Konkurenz nicht hat und wer sich darauf einlässt, der nutzt eben ein NV only Feature. Des weiteren kommt hinzu, das NV GPUs ebenso OpenCL können.

Heist unterm Strich, OpenCL wird in keinster Weise irgendwie auch nur im Ansatz PhysX und/oder CUDA "überrennen" können, weil es mit beiden nichts gemein hat...

Aber eine Sache noch, was hat das mit den HD7000er Karten zu tun!?
:btt:
 
war ganz interessant eure diskussionen zu verfolgen - ganz nach dem motto: wer hat mehr ahnung bzw die größeren eier :d

ist doch einerlei... wenn man guten input hat, so her damit. man kann auch fehler machen bzw. nicht alles wissen was ja kein weltuntergang ist (der kommt erst nächstes jahr ;))

also schluss mit dem gestreite und zurück zu einer sinnvollen diskussion...

btw: kommt euch bloß nicht in die haare wegen 10-15% unterschied in der leistung... fürs spiele vollkommen unerheblich ob ich mit 60 oder 65 fps unterwegs bin. ganz anders schauts mit physx aus weil da gibts bilder wo man richtig schön sieht wieviel mehr man aus der grafik rausholen kann. hab sogar eine quelle :P
Hardware: PhysX-Spiele im Überblick - Physik-Berechnung auf Geforce-Grafikkarten bei GameStar.de

das ist mit der Bullet engine genauso möglich und die läuft auf allen gpus
 
mayer2 schrieb:
nimm doch mal 3 Spiele die nicht am vram hängen....Leutchen wie dich liebe ich...

Du solltest vorher die Dinge überprüfen. Da hängt nichts am V-ram.
Nvidia hat einfach eine schlechtere Skalierung, wenn man fette Auflösungen fährt und ist in manchen Shader und Füllratelastigen Spielen eben langsamer, dafür eben in anderen schneller.


scully1234 schrieb:
er hat denn seine ganze Vector 5 Architektur umgekrämpelt weil man eingesehen hat das damit kein Blumtopf zu gewinnen ist?

So trivial ist das nun auch nicht.
DAs Leistungsniveau ist im Grafiksektor sehr eng beeinander.
Dass AMD aber seit ende 2009 effizientere Karten baut, stimmt allerdings.
 
Zuletzt bearbeitet:
Und was SIMD bei AMD bringt kannst du zum jetzigen Zeitpunkt gar nicht beurteilen

Nvidia setzt schon Jahre auf SIMD also wer rennt hier wem hinterher?

Wenn man keine Ahnung hat....

Weist du was SIMD bedeutet?
Nur mal zur Info, AMD baute auch schon den R600 mit vier SIMD "Einheiten"... Mit also jeweils 16 VLIW5 ALUs wenn man so will.
Unabhängig davon ist der Ansatz aber ein komplett anderer und dies wird auch bei den HD7000ern so bleiben ;)
 
So trivial ist das nun auch nicht.
DAs Leistungsniveau ist im Grafiksektor sehr eng beeinander.
Dass AMD aber seit ende 2009 effizientere Karten baut, stimmt allerdings.

Was hat das mit seiner Aussage zu tun?

Er sagte das Nvidia technologisch ATI/AMD seit Jahren hinterher rennt

Und das ist nunmal gequirlte Kacke hoch drei

Ihm war ja nichtmal bewusst das AMD bei der 7er Reihe "zurückbaut" auf annähernd den selben Shaderaufbau der Nvidia Karten

Aber um deinen Einwand aufzugreifen schonmal versucht ne 6970 auf das Leistungsniveau einer GtX 580 zu pushen mit selber Geometrie/Tesselation auf Augenhöhe?

By by "Effizienzvorteil" denn der wird dir auf ein Minimum zusammenschrumpfen

Außerdem würde ich erstmal abwarten wie sich das jetzt mit SIMD Einheiten darstellt mit der Energiebilanz
 
Zuletzt bearbeitet:
scully, was wird denn nun zurück gebaut?
Ein permanentes wiederholen der Aussage macht sie nicht richtiger ;)

Mal ganz davon ab, cherry picked Leistungsvergleiche (Tesselation only) machen keinen Sinn. AMD bringt im Moment mit sehr hoher Auflösung (downsampling, Surround Gaming) das bessere Produkt, was man in extrem Settings durchaus nachvollziehen kann. Noch dazu gibts Anwendungsbereiche jenseits von Games (die die gleichen GPUs verwenden), wo AMD Leistungstechnisch deutlich vorbei ziehen kann...

Und der letzte Satz, ich kann mich nur wiederholen. SIMD gibts bei AMD nicht erst mit den HD7000ern...
 
Unabhängig davon ist der Ansatz aber ein komplett anderer und dies wird auch bei den HD7000ern so bleiben ;)

Das zurückbauen soll in meinen Augen genau den selben Effekt bewirken wie bei den Grünen das bessere Auslasten der Architektur/Shader ganz gleich ob nun mit Cuda oder anderen Plattformen

Die Softwareentwickler haben sich nicht grundloß auf die Singelinstruktion eingeschossen das ist AMD zum Glück nicht entgangen

---------- Beitrag hinzugefügt um 15:54 ---------- Vorheriger Beitrag war um 15:47 ----------

scully, was wird denn nun zurück gebaut?
Ein permanentes wiederholen der Aussage macht sie nicht richtiger ;)
..

Die Vector 5D Shader/Alus werden auf Singleinstruktion zurückgebaut was ist denn daran nicht korrekt?

Dadurch wird sich sicherlich auch bei der Diegröße/Packungsdichte was ändern also würde ich mit Aussagen über die zu erwartende Energiebilanz erst mal Vorsichtig sein
 
Zuletzt bearbeitet:
Du solltest vorher die Dinge überprüfen. Da hängt nichts am V-ram.
Nvidia hat einfach eine schlechtere Skalierung, wenn man fette Auflösungen fährt und ist in manchen Shader und Füllratelastigen Spielen eben langsamer, dafür eben in anderen schneller.


Genau die 3 rausgepickten Spiele hängen am vram, Ende.
 
Die Frage ist doch eher, was wird es am Ende wirklich...
Im Moment kursieren ja 2048 Einheiten in der Gerüchteküche. Wäre man damit als Bald am Start, wären das mal glatt das vier fache von den NV Karte...
Irgendwie klingt das leicht unlogisch ;) Das ganze wird denke ich viel eher in einer anderen Organisation der Einheiten enden. Auch wenn AMD mit dem R600 keine Skalaren Einheiten präsentierte, bat man zumindest eingeschränkt Möglichkeiten die Einheiten aufzusplitten bei Code unabhängig voneinander. Es wäre für mich sehr verwunderlich, das AMD vier mal so viele Einheiten verbaut wie NV auf ne ählich große Fläche. Selbst wenn die möglichen Spekulationen stimmen und NV 1024 ALUs bringt, sinds immernoch 100% mehr.
 
Heist unterm Strich, OpenCL wird in keinster Weise irgendwie auch nur im Ansatz PhysX und/oder CUDA "überrennen" können, weil es mit beiden nichts gemein hat...
OpenCL ist doch das gleiche wie CUDA. Nur auf einem höheren Level abstrahiert. PhysX ist sicherlich ein anderes Thema. Aber dafür gibt's auch Alternativen.


Wer hat denn seine ganze Vector 5 Architektur umgekrämpelt weil man eingesehen hat das damit kein Blumtopf zu gewinnen ist?
Lustig, bis heute gewinnt man damit noch eine ganze Menge Blumentöpfe. Man krempelt die Architektur um, um sie noch effizienter zu machen, für Fusion gerüstet zu sein und seinen Vorsprung bei Energie- und Flächeneffizienz gegenüber der Konkurrenz beizubehalten. VLIW4 war da lediglich ein Zwischenschritt.

Und was SIMD bei AMD bringt kannst du zum jetzigen Zeitpunkt gar nicht beurteilen

Nvidia setzt schon Jahre auf SIMD also wer rennt hier wem hinterher?

Wenn man keine Ahnung hat....
Ja genau, wenn man keine Ahnung hat. :fresse: SIMD gibt's schon lange, auch bei AMD. VLIW ist dafür kein Ersatz. Das sind zwei verschiedene Konzepte. Bei VLIW geht es um Befehlskodierung, bei SIMD um Datenvektorisierung. Die aktuelle Architektur ist VLIW SIMD, GCN ist Non-VLIW SIMD. SIMD ist also beides. Genau genommen ist es sogar MIMD, da es MUL+ADD (jetzt FMA) auch schon ewig bei GPUs gibt. Kleine Preisfrage, wer war nochmal von 2*MUL+ADD beim G80 auf MUL+ADD umgeswitcht und hat damit die Konkurrenz nachgemacht? Kleiner Tipp, es war Nvidia.

Er sagte das Nvidia technologisch ATI/AMD seit Jahren hinterher rennt
Wenn man Flächen- und Energieeffizienz betrachtet, ist das auch nicht so ganz falsch.

Ihm war ja nichtmal bewusst das AMD bei der 7er Reihe "zurückbaut" auf annähernd den selben Shaderaufbau der Nvidia Karten
Es ist auch nicht verwunderlich, dass ihm das nicht bewusst war. Denn das stimmt ja auch nicht. Der Shaderaufbau bei GCN ist ein völlig anderer. Man baut auch nichts zurück. Im Gegenteil, man geht noch einen Schritt weiter im Vergleich zur aktuellen Architektur. Aus den "4D/5D" Shadern werden nun "16D" Shader.
 
OpenCL ist doch das gleiche wie CUDA. Nur auf einem höheren Level abstrahiert. PhysX ist sicherlich ein anderes Thema. Aber dafür gibt's auch Alternativen.

War es nicht so, das NV über CUDA OpenCL implementiert hat!?
Ich meine da mal was gelesen zu haben... -> wenn mich nicht alles täuscht, wird also trotzdem nix von OpenCL überrannt.
 
scully, was wird denn nun zurück gebaut?
Ein permanentes wiederholen der Aussage macht sie nicht richtiger ;)

Mal ganz davon ab, cherry picked Leistungsvergleiche (Tesselation only) machen keinen Sinn. AMD bringt im Moment mit sehr hoher Auflösung (downsampling, Surround Gaming) das bessere Produkt, was man in extrem Settings durchaus nachvollziehen kann. Noch dazu gibts Anwendungsbereiche jenseits von Games (die die gleichen GPUs verwenden), wo AMD Leistungstechnisch deutlich vorbei ziehen kann...

Und der letzte Satz, ich kann mich nur wiederholen. SIMD gibts bei AMD nicht erst mit den HD7000ern...

In extrem Bereichen ist etwas überzogen...bestes Beispiel ist wie immer Metro mit DX11 und die 2 Einstellungen "on" <>vram und das ab 1920x1200.

DS> genau so ab 1920x1200 und nur ab da....wobei es eigendlich auch wurscht ist ob ich dann 80 oder 70 FPS habe, deswegen sind die ganzen Balkenabgugger :d auch etwas falsch eingestellt :fresse:

""wo AMD Leistungstechnisch deutlich vorbei ziehen kann""

das könnten sie heute schon....aber sie bekommen es ja nicht umgesetzt...warum mußte die AMD Ingeniörs fragen...denn irgendwas machen sie kräftig falsch.

Mr mr.dude als anerkannter AMD Ingeniör kann das bestimmt beantworten, warum die Dinger deshalb unterm Strich "Gurken" sind..und was sie bestimmt mit der neuen Generation ausmerzen werden.

Wenn allerdings die BQ weiterhin so zulegt wie die 6er, sollten sie am besten wieder die 5870 auflegen....

Ach ja hier noch..
Grundlagen : OpenCL- CUDA- Stream -Welche GPU fürs Editing?:
OpenCL für NVIDIA
ist nicht so schwer zu lesen :d da nicht soviel...

Und benutzt bitte nicht so Wörter wie "trivial" wenn ich dann den Rest lese bekomm ich Kopfschmerzen....
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh