R1000 Spekulationsthread

Also mich überzeugt die HD 7970 von AMD voll und ganz => Done right *great*

Die GTX460 wird, sobald die HD7970 kaufbar ist, definitiv abgelößt.
 
Die Immersion kann man mit Projektoren dennoch deutlich erhöhen.

P.S.: Die Umsetzung in dem Video ist relativ schlecht. Normal darf man keinerlei Übergänge sehen.
 
bei CB wurden die hauseigenen Videos für den AF-Vergleich nun hochgeladen und sind über die entsprechende Seite im Test abrufbar.

Als Info für alle Interessierten. :)
 
Danke, yasu
Hier mal der link: *click*
Puristen sollten sich schon die unkomprimierten Videos herunterladen.
In dem Skyrim Clip mal auf die Schatten der Charaktere und den Bereich um den Tisch achten...
 
Das sieht alles sehr viel versprechend aus, obgleich ich den Daten in den Bildern nicht so ganz traue.

Jedenfalls hat AMD wohl nicht zufällig die Lage der Performance-Balken gewählt, wie sie nun mal im Diagramm eingetragen sind:

http://ht4u.net/news/24900_komplettiert_amd_die_radeon-hd-7000-serie_in_Q1_2012/

amd_radeon_hd_7000_serie_roadmap_dez_2011.jpg


Schön finde ich, dass meine Vermutung VOLL UND GANZ zutrifft, dass alle Southern Islands PCI-Express 3.0 haben werden. Ein wenig offen ist noch wie viele Compute Units die 7800 und 7700 Modelle haben werden.

Leider geben die derzeitigen Bilder nicht wirklich darüber Auskunft:

amd_radeon_hd_7000_serie_chips_codenamen_dez_2011.jpg


Der Pitcairn und Verde ist im Bild lediglich "symbolisch" geshrinkt. Aber die Bilder lassen die Hoffnung zur Spekulation offen, dass die neuen Spitzenmodelle an der unteren Grenzen der alten Karten der nächst höheren Klassenstufe anschließen werden. Also die 7770 an die alte 6850 rankommt, die 7870 in Wurfweite der 6950 liegt und die 7970 fast die 6990 nass macht.
Oder anders formuliert: Die neuen Karten setzen sich leistungsmäßig deutlich ab von den bisherigen Marktsegmenten der 6000-Familie.

Wenn das so kommt, dann haben die Vorgänger aber immer noch ihre Berechtigung, weil manche vor allem Frames/sec, anstatt Ausstattungsfeatures und/oder Bildqualität bevorzugen.
Und für die neuen ist ja noch eine gewisse Leistungssteigerung bei den Treibern drin.

MFG Bobo(2011)
 
Ich finde die wahre Stärke erkennt man erst wenn man sich GPGPU Benchmarks ansieht.

OpenCL%20Luxmark.png


Selbst mit Code aus nVidia's SDK hat die GTX 580 deutlich das nachsehen:
OpenCL%20GPU%20Caps%20Viewer%20PostFX.png


Man verzeihe mir die Quelle, aber ich fand das Ergebnis sehr beeindruckend
 
Zuletzt bearbeitet:
Ich finde die wahre Stärke erkennt man erst wenn man sich GPGPU Benchmarks ansieht.

OpenCL%20Luxmark.png


Selbst mit Code aus nVidia's SDK hat die GTX 580 deutlich das nachsehen:
OpenCL%20GPU%20Caps%20Viewer%20PostFX.png


Man verzeihe mir die Quelle, aber ich fand das Ergebnis sehr beeindruckend

Die Frage ist wie lange das Ergebnis so ist. Sie haben ordentlich zugelegt - keine Frage. Jetzt kommt es darauf an wie es bei Nvidia mit Kepler aussieht und vor allem wie es in Punkto Software sich entwickelt. Dort sieht es für AMD aktuell ziemlich Mau aus.
Anandtech hat das ganz gut zusammengefasst.

"
With that said, we’re going to open up this section with a rather straightforward statement: the current selection of compute applications for AMD GPUs is extremely poor. This is especially true for anything that would be suitable as a benchmark. Perhaps this is because developers ignored Evergreen and Northern Islands due to their low compute performance, or perhaps this is because developers still haven’t warmed up to OpenCL, but here at the tail end of 2011 there just aren’t very many applications that can make meaningful use of the pure compute capabilities of AMD’s GPUs.
"
 
1. Ob Kepler der absolute Überflieger wird oder nicht ist zur Zeit vollkommen unklar.
Ich rechne sowieso nicht vor 2H12 damit. Bis dahin hat AMD noch einiges an Zeit Boden gut zu machen.

2. Es geht nicht nur um die reine Rechenleistung. Bei Applikationen die im "eigenen Saft" laufen, sehen die bisherigen Implementierungen gut aus. Code und Daten werden einmal ins VRAM geladen und dort abgearbeitet. Dazu zählen Brute-Force-Anwendungen zum knacken von Keys oder die typische nBody Simulation.
Aber bei Anwendungen die einen konstanten Datenstrom haben, sieht das schon nicht mehr so prall aus. Permanent müssen die Daten ins VRAM kopiert, verarbeitet und wieder zurückgeschrieben werden. Videobearbeitung ist ein Beispiel dafür. Oder Daten, die auf Grund der Größe nicht ins VRAM passen. Durch das ständige hin- und her kopieren wird die Berechnung per GPU unattraktiv. Viele Anwendungen eignen sich zur Zeit einfach nicht dafür.
Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
Zusammen mit besseren Tool's und Frameworks kann man auch in den nächsten Monaten eine breitere Unterstützung der Software erwarten.
 
Zuletzt bearbeitet:
1. Es wird immer ein schnellerer Chip kommen.
2. Wann Kepler denn nun wirklich kommt, weiß keiner genau.
3. Was er leisten wird, weiß keiner genau.
4. Kepler ist noch nicht da, und warten kann man immer, siehe Punkt 1.

Kurz, "jetzt" ist die 7970 das Ultimum in allen Bereiche, wo es vorher die GTX 580 war. Das sich dies im laufe des kommenden Jahres sicher wieder ändern wird, sollte eigentlich außer Frage stehen. Und im darauf folgendem Jahr wird sicherlich wieder etwas schnelleres folgen. So war es schon immer, warum soll sich das ändern?
Das sich auch die Software weiter entwickelt ist ja auch keine Überraschung.
 
Wenn GK104 10% schneller als GF110 wird und die Karten nur um die 250-300 € kosten wird AMD aber sehr schnell viele Kunden verlieren und die Preise drastisch korrigieren müssen.
 
Zuletzt bearbeitet:
Muahaha, wie soll Nvidia das denn machen?*lol**lol**lol**lol**lol**lol*

Immer diese BWL-Studenten hier.:]


edit:

Btw. Wenn/Falls Kepler bzw. GK104 dann irgendwann mal im nächsten Jahr herauskommt, es wird ja schon vom 2H gemunkelt, dann senkt AMD einfach die Preise und schiebt nen Refresh nach... oder auch nicht.

Meine 8800 GT samt Rechner möchte ausgetauscht werden, bis jetzt sieht es sehr gut für die HD 7000er Serie aus... ZeroCore finde ich schon mal richtig schick.
 
Zuletzt bearbeitet:
Demnächst gibts als erstes von Charlie positive News & dann werden wir sehen wer zuletzt lacht.
 
Anandtech hat das ganz gut zusammengefasst.
Perhaps this is because developers ignored Evergreen and Northern Islands due to their low compute performance,
Na da erzählen sie Käse, die Chips waren schnell, nur hat sich keiner außer Gipsel die Mühe gemacht dafür zu programmieren. Weils eben nicht so einfach war, wie bei nV. Das ist / war(?) der springende Punkt. Größte Neuerung auf dem Gebiet ist Microsofts C++ Erweiterung, die wird sich wahrscheinlich schneller durchsetzen als OpenCL "oops" sagen kann *buck*
Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
Kepler hat doch ARM Kernchen an Bord. kA, ob die auch auf den Consumer Karten/Chips freigeschalten oder verbaut werden, aber mal schauen. Eventuell gabs auch schon irgendwo ne Erklärung dazu, beobachte Kepler nicht so toll.
 
@Duplex

Und warum sollte von Charlie positive News kommen, ich habe nichts dergleichen von ihm gelesen. Aber du kannst uns ja gerne aufklären, kryptische Nachrichten kommen generell nicht so gut an.
 
1. Ob Kepler der absolute Überflieger wird oder nicht ist zur Zeit vollkommen unklar.
Ich rechne sowieso nicht vor 2H12 damit. Bis dahin hat AMD noch einiges an Zeit Boden gut zu machen.

Bei dem was AMD vorgelegt hat im Spielebereich muss er nun nicht wirklich kein Überflieger werden. Da reicht ja bereits ein Fermi Shrink ohne Architekturveränderungen. Im GPGPU wird Nvidia nochmal ordentlich zulegen. Davon würde ich mal ausgehen, da sie dort ja bereits seit Jahren investieren und das als einen Zukunftsbereich sehen. AMD hat erst jetzt angefangen dort zu investieren.

2. Es geht nicht nur um die reine Rechenleistung. Bei Applikationen die im "eigenen Saft" laufen, sehen die bisherigen Implementierungen gut aus. Code und Daten werden einmal ins VRAM geladen und dort abgearbeitet. Dazu zählen Brute-Force-Anwendungen zum knacken von Keys oder die typische nBody Simulation.
Aber bei Anwendungen die einen konstanten Datenstrom haben, sieht das schon nicht mehr so prall aus. Permanent müssen die Daten ins VRAM kopiert, verarbeitet und wieder zurückgeschrieben werden. Videobearbeitung ist ein Beispiel dafür. Oder Daten, die auf Grund der Größe nicht ins VRAM passen. Durch das ständige hin- und her kopieren wird die Berechnung per GPU unattraktiv. Viele Anwendungen eignen sich zur Zeit einfach nicht dafür.
Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
Zusammen mit besseren Tool's und Frameworks kann man auch in den nächsten Monaten eine breitere Unterstützung der Software erwarten.

Doch haben Sie. Project Denver wird genau das sein oder meinst Du die entwickeln die CPU Kerne so aus Spass? Project Denver ist kein Tegra - nicht vergessen. Und in Punkto Softwarebasis, Developer Tools und ähnliches hat Nvidia mehrere Jahre Vorsprung. Das holt AMD nie und nimmer in wenigen Monaten ein.

Wie gesagt die Hardware ist aktuell sehr gut dafür. Bei der Software siehts mau aus. Und wie immer im professionellen Bereich kommt zuerst die Software und dann die Hardware. Es nützt mir nix, wenn ich eine schnelle Hardware habe, dafür dann aber ewig rumfrickeln muss. Bis zum heutigen Tag hat AMD genau in diesem Bereich jegliche Professionalität missen lassen. Gute Hardware hatten sie schon des öfteren.
.
EDIT :
.

Muahaha, wie soll Nvidia das denn machen?*lol**lol**lol**lol**lol**lol*

Immer diese BWL-Studenten hier.:]


edit:

Btw. Wenn/Falls Kepler bzw. GK104 dann irgendwann mal im nächsten Jahr herauskommt, es wird ja schon vom 2H gemunkelt, dann senkt AMD einfach die Preise und schiebt nen Refresh nach... oder auch nicht.

Über wen wird denn 2. Halbjahr gemunkelt - GK104 oder GK100? Die Chips unterscheiden sich erheblich würde ich sagen :)
In Punkto Refresh nachschieben gab es die gleichen Aussagen zur HD5870 zum Launch damals. Dort hatte AMD 6 bis 9 Monate Vorsprung zur GTX480. Welcher Refresh kam dann gleich nochmal eher raus und war auch noch schneller? Die HD6970 oder die GTX580? Wer hat am Ende mehr $ aus der jeweiligen Serie herausgeholt AMD oder Nvidia?
 
Zuletzt bearbeitet:
@RICHTHOFEN

Das AMD bei Software-Tools um Jahre hinterher hinkt das sehe ich nicht. Und ich sehe auch nicht das CUDA so wahnsinnig auf dem Vormarsch ist. Zumindest nicht bei Produkten die eine breite Installationsbasis haben. DxO hat gerade der Version 7 ihrer Bildbearbeitungssoftware eine GPU-Unterstützung verpasst. Sie haben OpenCL gewählt, nicht CUDA.

Denver basiert auf ARM-Kernen. ARM jenseits von Tablets und Handy einen Entwicklungsrückstand von min. 5 Jahren. Denver ist für mich zur Zeit nicht mehr als eine Blaupause. Fusion hingegen sind reale Produkte.
 
wenn ich mich recht errinner wird Cuda nicht sonderlich weit vorn sein ... Nvidia Pysiks habe ich jetzt noch einmal bei dem spiel POSTAL 3 gesehen .. und das spiel ist als heutiges spiel sehr schlecht programmiert ... direct-x 9 usw ...... (stand 2006 ) xD

ansonsten hält sich sowas im hintergrund ..
 
Zurück
Oben Unten