[Sammelthread] Grafikkarten - Technikdiskussion

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es gibt keinen allgemeinen GPU Laberthread. Einfach aus dem Grund, weil man sich bei dem Thema AMD vs. NV sowieso nicht beherschen kann... Das klappt ja nichtmal in auf ein Lager bezogenen Themen.

Wer sowas aufmachen will, kann es gern versuchen. Ich gehe aber jede Wette ein, nach ein paar Tagen artet das sowas von aus, das der Thread dicht gemacht wird ;)
 
siehe hier
http://www.hardwareluxx.de/communit...i-fragen-die-erste-seite-lesen-860456-33.html
eine einfache Antwort mit einem Lächeln und was kommt dabei rum..ich habs mit Absicht mal in die Länge gezogen ehe ich ausgestiegen bin,,,.dann kommt dumm und fantasterei und immer wieder die selben...

dann du hier zb.
http://www.hardwareluxx.de/communit...-7xx-speku-news-diskussionsthread-828035.html

du schreibst alles in Grund und Boden wenn es nicht nach deiner Meinung geht und drückst andere in die Ecke immer wieder bis zum geht nicht mehr dann kommt der Mod und beendet es....mal an die eigene Nase fassen wäre nicht schlecht.

Hier könnt meine Namen hier streichen ich hab keine Lust mehr auf diese einseitige Kacke und selbstbeweiräucherung

Adios!
 
Ja wenn das "erlaubt" währe würde ich gerne einen passenden thread aufmachen... man müsste halt im Startpost bzw. dem Titel passende Regeln festhalten, wie z.B.: "Keine Herstellerspezifischen Diskussionen" oderso...

also ein Thread, in den alle allgemeinen (kurzen) Fragen zu Grakas reinkommen wie die, die hier immer fälschlich landen!

also keinen allgemeinen Laberthread, sondern einer für kurze einbautechnische oder kompatibilitätstechnische fragen
 
ob es irgendwie realisierbar seien könnte den crossfire vram zu splitten?

so das aus nem crossfire mit einer 1gb und einer 2gb karte ein 1,5gb vram gespann wird?
 
Zuletzt bearbeitet:
Das Thema mit dem Vram splitting hatten wir schonmal.

Abgesehen von einem Immensen Lokig und damit Silicium verbrauch hätten wir das Problem, dass die Connection über PCI-e oder cf bridge einfach zu langsam dafür wäre.
da geht es um Latenzen und bei längeren strecken ist das ziemlich kniffelig.

Mit PCI-e 3.0 könnte es unter umständen nicht inbedingt an der bandbreite scheitern. aber das ist ein so kleiner nieschenmarkt dass es einfach keinen Sinn machen würde dahin zu entwickeln.
 
Ist der unterschied zwischen Gainward NVidia GeForce GTX560 Phantom mit 1024 Mb und 2048 ein deutlicher unterschied bei Spielen?

Würde mir nämlich dann zulegen.
 
@ fyoO:
Die Spiele werden nicht schneller laufen, aber geschmeidiger. Ich habe es jetzt bei BF3 am eigenen Leib erfahren müssen. Dank SLI kann ich zwar hohe fps mit AA/AF erreichen, aber wenn der Speicher voll war und ich mich in eine andere Richtung gedreht habe, dann hat man das Nachladen der Texturen an einem Framedrop von 90 auf 30fps mitbekommen.
Dieses Phänomen lässt sich durch mehr Grafikspeicher einschränken und/oder beseitigen
 
@dudu
mit was zockst du jetzt? und Rammenge?
 
Alles klar danke :d

---------- Post added at 12:03 ---------- Previous post was at 12:02 ----------

Sollte ich vielleicht noch warten bis die neuen 7850 draußen sind und da ne custom kaufen?

Oder lieber die gtx 560 ti..

So vom Preis/leistung her.
 
Das sollte mal hier rein passen, mal vorweg, ich sage 3DMark 11 ist für die Grafikkarte der reinste Witz. :hmm:

Zuerst mal auf 1000/2000/2200 getestet, mit 1075mV, ging sogar 3 mal in Extreme, dann Unigine Heaven und was passiert, nicht mal 5 Sekunden bekommst ein Bild.

Also mal 3dmark beiseite gelassen.

Beim Performance Mode in 3dmurks überlebte der auch keine 3 Minuten, dabei sollte ja der Performance leichter als der Extreme zu absolvieren sein, aber eben auch mehr Bilder ...

Mit gerade einmal 1050mV und 980/1960/2200 rennt 3DMark 11 im Loop-Modus, und das ganze 20 Minuten lang.

Und Heaven, keine Chance, im Bench test nach 10 sek freeze, bzw. Treiber-reset.

Dann mal auf 900/1800/2100 gegangen und probiert, da gings dann, bei 1000mV, bei 975mV gab es Bildfehler wie Pech und Schwefel.

Also wer sagt seine Kiste ist 3DMark stabil, der sollte mal nen run in Unigine Heaven machen, da ist dann Schluss mit lustig.

Nicht mal 950/1900/2200 laufen mit 1000mV stabil in Heaven, in 3DMark würde das die ganze Nacht durchlaufen können.

Habe mal 980/1960/2200 mit 1100mV in Heaven probiert, es ging zwar durch, aber am Ende gab es einen Treiberreset.

Bin froh das ich 950/1900/2200 mit 1025mV schaffe, steht auch noch schön im Leistungs/Verbrauchsverhältnis.
 
Zuletzt bearbeitet:
Call of Duty lief mit 950/1900/2200 ohne Mucken, und das über Stunden, aber Heaven Bench hats nicht überlebt, ohne Spannungserhöhung, also ist von Stabilität keine Rede.

Wobei man auch sagen muss, eine CPU muss man schonmal ein langes und großes Video, mit 23mbit rendern lassen, um sehen zu können, ob der RAM auch stabil ist, wenn man den Ram mit verschiedenen Texturen vollballern will.

Ist einfach der beste Praxistest einer jeden CPU, Mobo und RAM, ein Video nehmen, und render lassen, verständlich sollten alle Kerne unterstützt werden.
 
Zuletzt bearbeitet:
Ja, falsches Topic :wall:
 
Leute hab grad den Accelero Twin Turbo Pro auf meine Gpu geschraubt und wollte mal fragen, ob die idle Temps so gehen



Wo sind denn da die Ram und Spannungswandlertemps? :confused:.
 
sry falscher Thread... -.-
 
Zuletzt bearbeitet:
DaBoon, hast du das Thema dieses! Threads gelesen und auch verstanden!?
 
kommt es nur mir so vor oder werden die leistungsschub intervalle jedes jahr kleiner im vergleich zu 2000-2010 ?
sieht schon fast so aus als kommen wir langsam an unsere physikalischen grenzen.
ich vermute in 3 jahren wird der speed einer generation sehr lange ein standard bleiben. ganz anders als es noch im jahre 2004 zb der fall war.
 
Das täuscht etwas. Nimm als Beispiel die NV GPUs GK104. Diese erreicht ca. 30% Mehrleistung zum Vorgänger GK110, spart dabei aber 20-25% Strom. Wohingegen beispielsweise GF100 zur G200(b) zwar 60-65% mehr Leistung generierte, dafür aber auch in Sachen Leistungsaufnahme mit ~+35% mehr zuschlägt.

Das Problem ist, wie ich damals zu Fermizeiten schon vorrausgesagt hatte die absolute Leistungsaufnahme. Viel mehr als Fermi in Form der GK100/110 lässt sich nicht anständig mit nem DualSlot Kühler kühlen. Ergo musste an der Effizienz gearbeitet werden. Und genau das macht GK104 aktuell. Das gleiche gilt für die AMD Karten, diese legen ebenso ordentlich in Sachen Effizienz zu. Wobei dort der Leistungssprung auch größer ausfällt, da die HD6970 als Vorgänger dort nicht ganz so hoch ansetzte, wie seinerzeit die Fermi GPUs.
 
ja das habe ich schon gewusst. dennoch denke ich das dies auch nicht mehr so stark möglich sein wird, und wir mit den jetzigen gens wirklich einen großen schritt in einen langsamen prozess machen. ich vermute die nächsten 3 jahre werden nicht so gewaltig sein wie dieses. und danach wird es noch weniger.

Edit:
ich beziehe mich bei meinen beobachtungen auch meist nicht nur auf die High end Chips. sondern eher auf die mittelklasse wie HD7770. wie viel effizienter ist dieser als eine gleichschnelle gpu der vorgänger generation zb ? da sieht es dann nicht genau so gut aus soweit ich weiß.
 
Zuletzt bearbeitet:
Es gibt mehrere Faktoren zur Effizienzsteigerung.
Und im Grunde sind eigentlich alle GPUs davon betroffen... Der Knackpunkt bei den gleichen GPUs ist aber, manche werden einfach nur umgelabelt. Der nächste Punkt ist, in den Bereichen braucht es oft auch nicht die deutliche Mehrleistung. Dazu kommt die Preisentwicklung, welche bei gleichem Preis teilweise über mehrere Kartengenerationen hinweg keine Leistungssteigerung möglich macht.

Man kann das ganze eigentlich objektiv nur am HighEnd festhalten, alles andere ist ziemlich schwammig und wird von vielen vielen anderen Fakten beeinflusst.

Und im Moment, sagen wir über die nächsten 5 Jahre sehe ich da aktuell kein Ende in Sicht bei der Entwicklung. 22nm für Intel CPUs ist aktuell ja schon am Markt. 20nm für GPUs werden wohl ca. 2014 folgen. ggf. setzt ja einer der beiden wieder auf 22nm und shrinkt dann auf 20nm.
14nm ist zumindest seitens Intel auch schon auf dem Schirm... Da ist erstmal für die absehbare Zukunft vorgesorgt. Das größere Problem sehe ich dann erst in Bereichen unter 14nm. So arg viel Luft nach aktuellem Technikstand ist da dann nicht mehr. Die Frage ist also, was kommt dann?

Aber solange man in der Richtung irgendwie weiter kommt, wird es so oder so immer machbar sein, mehr Recheneinheiten auf die GPUs zu packen. Und somit auch die Leistung wird steigen. Ggf. nimmt die Geschwindigkeit erstmal etwas ab. Das kann man aber zweifelsfrei wohl heute schon beobachten. Ordentliche Sprünge gibts mittlerweile wohl ca. im Zweijahrestakt.
Wobei man aber auch sagen muss, läuft es so, wie aktuell bei NV, dann teilt man geschickter Weise die Palette von vorn herrein in zwei Sparten. Somit bleibt für den Zwei Jahres Zyklus Spielraum für mehr Leistung als alles in einem Rutsch zu bringen und dann lange dursten zu müssen.
 
Und im Moment, sagen wir über die nächsten 5 Jahre sehe ich da aktuell kein Ende in Sicht bei der Entwicklung. 22nm für Intel CPUs ist aktuell ja schon am Markt. 20nm für GPUs werden wohl ca. 2014 folgen. ggf. setzt ja einer der beiden wieder auf 22nm und shrinkt dann auf 20nm.
14nm ist zumindest seitens Intel auch schon auf dem Schirm... Da ist erstmal für die absehbare Zukunft vorgesorgt.

in 2 jahren 20nm.
wenn es problemlos klappen sollte wovon ich einfach mal ausgehe haben wir in 4 jahren dann wohl 14nm für gpu,s.
würde ja meiner vermutung entsprechen das wir ab 2015 kaum noch so starke fortschritte haben. okay sagen wir eher ab 2016 und mit pech ab 2017. aber so viel ist das ja garnicht.
wenn ich so zurück denke an die Geforce FX im jahre 2003. so lange ist die garnicht her vom gefühl. ich denke wer im jahr 2017 aufrüstet hat wohl echt eines der zeitlosesten systeme im vergleich.
 
Der Eindruck täuscht.

Früher wurden Leistungsschübe mit größerem Chip und höherer Leistungsaufnahme erkauft. Da man da an die Grenzen der Fertigung und der Kaufbereitschaft der Nutzer gestoßen ist gibt es diese Möglichkeit nicht mehr.

Was bleibt ist die reine Architekturverbesserung und neue Fertigungstechnologien. Sieht man also nicht die reine Leistung sondern vergleicht die Leistung pro Watt oder im Verhältnis zur Chipfläche/Transistoren geht es stätig weiter.

Q3/Q4 2013 will TSMC mit der 20nm Produktion starten. Intel forscht schon bis Strukturbreiten von 5nm, was damit wohl auch für TSMC im Berreich des möglichen liegt. Außerdem darf man Techniken außerhalb der reinen Verkleinerung wie Intel Tri-Gate-Transistoren nicht vergessen. Auch sowas senkt die Leistungsaufnahme und steigert nochmals die Perf./Watt.



Intel plant 10nm für 2015, danach sind noch 7 und 5nm geplant. Tsmc wird wohl andere Schritte wählen und ein Jahr länger brauchen, aber Luft ist da noch die nächsten Jahre.
 
natürlich scheint die Entwicklung zur Zeit immer langsamer zu gehen, das liegt mmn einfach an den Grenzen der Technik.
Allerdings kann es immer wieder einen Techniksprung geben, z.B. Mehrkernige Prozessoren, der Umstieg von Floppy auf HDD, oder was neurosphere ja schon gesagt hat Intel Tri-Gate-Transistoren.

da kann man nur warten und auf das Können/Glück unserer Forscher hoffen :d
 
Q3/Q4 2013 will TSMC mit der 20nm Produktion starten. Intel forscht schon bis Strukturbreiten von 5nm, was damit wohl auch für TSMC im Berreich des möglichen liegt. Außerdem darf man Techniken außerhalb der reinen Verkleinerung wie Intel Tri-Gate-Transistoren nicht vergessen. Auch sowas senkt die Leistungsaufnahme und steigert nochmals die Perf./Watt.

Intel plant 10nm für 2015, danach sind noch 7 und 5nm geplant. Tsmc wird wohl andere Schritte wählen und ein Jahr länger brauchen, aber Luft ist da noch die nächsten Jahre.

Ende 2013 halte ich aber für ziemlich optimistisch :fresse:
Übrigens, Intel selbst sieht sich soweit ich das mitbekommen habe nach aktuellem Technikstand zumindest 4 Jahre vor GloFo. Und GloFo ist nicht schneller als TSMC wie es mir scheint aktuell. Da gabs zumindest mal Folien dazu auf CB, ist noch gar nicht so lange her :fresse:

natürlich scheint die Entwicklung zur Zeit immer langsamer zu gehen, das liegt mmn einfach an den Grenzen der Technik.

Im Moment sehe ich keine Grenzen der Technik. Wie gesagt, Intel liefert aktuel schon 22nm, wärend der Rest noch auf 32/28nm rumdümpelt, machbar ist da also definitiv noch was. Das eigentliche Problem ist, wie ich schon sagte, die Hersteller haben mittlerweile erkannt, das man in Sachen Leistungsaufnahme nicht weiter rauf kann. Blickt man mal zurück, die Karten seit G80/R600 haben sich nahezu alle in Sachen reiner Leistungsaufnahme gegenüber dem direkten Vorgänger verschlechtert. Auch wenn die Effizienz immer weiter gestiegen ist. Nun sind wir aber an dem Punkt wo es nicht weiter rauf geht. Ein Sprung wie von G200(b) zu GF100 in Sachen Leistungsaufnahme wäre bei Kepler mit weit über 300W verbunden. Nicht umsonst kamen Meldungen auf, das NV wohl die PCIe Spezifikation dahingehend erhöhen will. Zum Glück wurde dies nicht gemacht aktuell. Gezwungenermaßen musste NV also an ihrer Politik was drehen -> mit Erfolg.
 
Ende 2013 halte ich aber für ziemlich optimistisch :fresse:

Ich auch, aber so sieht zumindest die Roadmap von TSMC aus... auch wenn wir alle wissen wie das laufen wird :fresse:

Übrigens, Intel selbst sieht sich soweit ich das mitbekommen habe nach aktuellem Technikstand zumindest 4 Jahre vor GloFo. Und GloFo ist nicht schneller als TSMC wie es mir scheint aktuell. Da gabs zumindest mal Folien dazu auf CB, ist noch gar nicht so lange her :fresse:

Naja, dürfte aber auch etwas übertrieben sein. Was einem halt direkt ins Auge springt ist das Intel andere Fertigungsschritte als der Rest nutzt. Intel nimmt nurnoch Full-Nodes, TSMC macht nurnoch Half-Nodes mit um jeweils die Entwicklungskosten gering zu halten. Die Frage ist natürlich ob es dadurch eine längere Durststrecke gibt oder ob es insgesammt zu einer Entwicklungsbeschleunigung kommt.

Im Moment sehe ich keine Grenzen der Technik. Wie gesagt, Intel liefert aktuel schon 22nm, wärend der Rest noch auf 32/28nm rumdümpelt, machbar ist da also definitiv noch was. Das eigentliche Problem ist, wie ich schon sagte, die Hersteller haben mittlerweile erkannt, das man in Sachen Leistungsaufnahme nicht weiter rauf kann. Blickt man mal zurück, die Karten seit G80/R600 haben sich nahezu alle in Sachen reiner Leistungsaufnahme gegenüber dem direkten Vorgänger verschlechtert. Auch wenn die Effizienz immer weiter gestiegen ist. Nun sind wir aber an dem Punkt wo es nicht weiter rauf geht. Ein Sprung wie von G200(b) zu GF100 in Sachen Leistungsaufnahme wäre bei Kepler mit weit über 300W verbunden. Nicht umsonst kamen Meldungen auf, das NV wohl die PCIe Spezifikation dahingehend erhöhen will. Zum Glück wurde dies nicht gemacht aktuell. Gezwungenermaßen musste NV also an ihrer Politik was drehen -> mit Erfolg.

Naja, dafür kaufen sich die Leute heute ihre Karten als OC-Version bei den Herstellern die weit außerhalb der PCIe-Specs laufen. Man denke da an die ersten Karten mit 3x 8 Pin Stromversorgung :fresse:.

Man hat also nichts weiter gemacht als die Kunden regelrecht zu verarschen:d.

Die Lesen den Test und freuen sich wie wenig Strom der Chip doch verbraucht und bekommen gleichzeitig unter die Nase gerieben das der Chip ein OC-Wunder ist und man die Messlatte deswegen auch höher bei der Bewertung legen sollte. Die meisten Chips landen dann aber jenseits der ursprünglichen Verbrauchswerte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh