App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
R1000 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Wurde auch Zeitmit 1mm Rand stört das nicht
LehmannSaW
Vice Admiral Special
- Mitglied seit
- 21.09.2007
- Beiträge
- 597
- Renomée
- 36
- Standort
- poloidal cell 5 im 3. grid block
- Mein Laptop
- HP ENVY x360 15 Dark Ash Silver mit Ryzen 5 2500U
- Prozessor
- AMD Ryzen 7 1800X
- Mainboard
- ASRock X370 Taichi
- Kühlung
- NZXT Kraken X61
- Speicher
- 16GB G.Skill Trident Z DDR4-3200 @ 3200Mhz
- Grafikprozessor
- Sapphire Radeon R9 Nano
- Display
- Acer Predator XR341CK 34-Zoll mit FreeSync
- SSD
- 250GB Samsung SSD 960 EVO M.2 + 256GB Samsung SSD 840 Pro SSD + 525GB Crucial MX300
- HDD
- 4TB Seagate Desktop SSHD
- Optisches Laufwerk
- keines
- Soundkarte
- on-Board
- Gehäuse
- NZXT S340 ELITE weiß
- Netzteil
- be quiet Straight Power 10 CM 800W
- Betriebssystem
- Windows 10 Pro 64
- Webbrowser
- Mozilla Firefox / IE
hehe, ja Fred...
Die Beamer-Industrie wird es ärgern -> http://www.youtube.com/watch?v=RY76QH811e0
8)
Gruß Lehmann
Die Beamer-Industrie wird es ärgern -> http://www.youtube.com/watch?v=RY76QH811e0
8)
Gruß Lehmann
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
Die Immersion kann man mit Projektoren dennoch deutlich erhöhen.
P.S.: Die Umsetzung in dem Video ist relativ schlecht. Normal darf man keinerlei Übergänge sehen.
P.S.: Die Umsetzung in dem Video ist relativ schlecht. Normal darf man keinerlei Übergänge sehen.
G
Gast30082015
Guest
bei CB wurden die hauseigenen Videos für den AF-Vergleich nun hochgeladen und sind über die entsprechende Seite im Test abrufbar.
Als Info für alle Interessierten.
Als Info für alle Interessierten.
Markus Everson
Grand Admiral Special
Find ich jetzt nicht so prickelnd. Die Texturen sind allgemein verwaschen und flimmern um 00:00:17 herum wie die Hoelle.
<srcnr>
Nun müssen die Karten nur noch den Weg in den Handel finden.
Amen.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
http://www.hartware.de/news_53605.htmlgeile sache . und der LG sieht noch geil dazu aus .. ich google mal gerade xD
Also noch was warten.LG will auf der CES 2012 im Januar in Las Vegas seine DM92-Serie vorstellen. Es handelt sich um 3D-Monitore mit 2.560 x 1.440 Bildpunkten und nur 1 mm dünnen Rahmen.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Ausführliche Specs von Southern-Islands: http://www.pcgameshardware.de/aid,861553/HD-7000-Preise-und-Spezifikationen-angeblich-bekannt-HD-7750-bis-HD-7990/Grafikkarte/News/
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Höchstwahrscheinlich fake bzw. zu ungenau um relevant zu sein.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Das sieht alles sehr viel versprechend aus, obgleich ich den Daten in den Bildern nicht so ganz traue.Ausführliche Specs von Southern-Islands: http://www.pcgameshardware.de/aid,861553/HD-7000-Preise-und-Spezifikationen-angeblich-bekannt-HD-7750-bis-HD-7990/Grafikkarte/News/
Jedenfalls hat AMD wohl nicht zufällig die Lage der Performance-Balken gewählt, wie sie nun mal im Diagramm eingetragen sind:
http://ht4u.net/news/24900_komplettiert_amd_die_radeon-hd-7000-serie_in_Q1_2012/
Schön finde ich, dass meine Vermutung VOLL UND GANZ zutrifft, dass alle Southern Islands PCI-Express 3.0 haben werden. Ein wenig offen ist noch wie viele Compute Units die 7800 und 7700 Modelle haben werden.
Leider geben die derzeitigen Bilder nicht wirklich darüber Auskunft:
Der Pitcairn und Verde ist im Bild lediglich "symbolisch" geshrinkt. Aber die Bilder lassen die Hoffnung zur Spekulation offen, dass die neuen Spitzenmodelle an der unteren Grenzen der alten Karten der nächst höheren Klassenstufe anschließen werden. Also die 7770 an die alte 6850 rankommt, die 7870 in Wurfweite der 6950 liegt und die 7970 fast die 6990 nass macht.
Oder anders formuliert: Die neuen Karten setzen sich leistungsmäßig deutlich ab von den bisherigen Marktsegmenten der 6000-Familie.
Wenn das so kommt, dann haben die Vorgänger aber immer noch ihre Berechtigung, weil manche vor allem Frames/sec, anstatt Ausstattungsfeatures und/oder Bildqualität bevorzugen.
Und für die neuen ist ja noch eine gewisse Leistungssteigerung bei den Treibern drin.
MFG Bobo(2011)
mariahellwig
Grand Admiral Special
Ich finde die wahre Stärke erkennt man erst wenn man sich GPGPU Benchmarks ansieht.
Selbst mit Code aus nVidia's SDK hat die GTX 580 deutlich das nachsehen:
Man verzeihe mir die Quelle, aber ich fand das Ergebnis sehr beeindruckend
Selbst mit Code aus nVidia's SDK hat die GTX 580 deutlich das nachsehen:
Man verzeihe mir die Quelle, aber ich fand das Ergebnis sehr beeindruckend
Zuletzt bearbeitet:
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Ich finde die wahre Stärke erkennt man erst wenn man sich GPGPU Benchmarks ansieht.
Selbst mit Code aus nVidia's SDK hat die GTX 580 deutlich das nachsehen:
Man verzeihe mir die Quelle, aber ich fand das Ergebnis sehr beeindruckend
Die Frage ist wie lange das Ergebnis so ist. Sie haben ordentlich zugelegt - keine Frage. Jetzt kommt es darauf an wie es bei Nvidia mit Kepler aussieht und vor allem wie es in Punkto Software sich entwickelt. Dort sieht es für AMD aktuell ziemlich Mau aus.
Anandtech hat das ganz gut zusammengefasst.
"
With that said, we’re going to open up this section with a rather straightforward statement: the current selection of compute applications for AMD GPUs is extremely poor. This is especially true for anything that would be suitable as a benchmark. Perhaps this is because developers ignored Evergreen and Northern Islands due to their low compute performance, or perhaps this is because developers still haven’t warmed up to OpenCL, but here at the tail end of 2011 there just aren’t very many applications that can make meaningful use of the pure compute capabilities of AMD’s GPUs.
"
mariahellwig
Grand Admiral Special
1. Ob Kepler der absolute Überflieger wird oder nicht ist zur Zeit vollkommen unklar.
Ich rechne sowieso nicht vor 2H12 damit. Bis dahin hat AMD noch einiges an Zeit Boden gut zu machen.
2. Es geht nicht nur um die reine Rechenleistung. Bei Applikationen die im "eigenen Saft" laufen, sehen die bisherigen Implementierungen gut aus. Code und Daten werden einmal ins VRAM geladen und dort abgearbeitet. Dazu zählen Brute-Force-Anwendungen zum knacken von Keys oder die typische nBody Simulation.
Aber bei Anwendungen die einen konstanten Datenstrom haben, sieht das schon nicht mehr so prall aus. Permanent müssen die Daten ins VRAM kopiert, verarbeitet und wieder zurückgeschrieben werden. Videobearbeitung ist ein Beispiel dafür. Oder Daten, die auf Grund der Größe nicht ins VRAM passen. Durch das ständige hin- und her kopieren wird die Berechnung per GPU unattraktiv. Viele Anwendungen eignen sich zur Zeit einfach nicht dafür.
Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
Zusammen mit besseren Tool's und Frameworks kann man auch in den nächsten Monaten eine breitere Unterstützung der Software erwarten.
Ich rechne sowieso nicht vor 2H12 damit. Bis dahin hat AMD noch einiges an Zeit Boden gut zu machen.
2. Es geht nicht nur um die reine Rechenleistung. Bei Applikationen die im "eigenen Saft" laufen, sehen die bisherigen Implementierungen gut aus. Code und Daten werden einmal ins VRAM geladen und dort abgearbeitet. Dazu zählen Brute-Force-Anwendungen zum knacken von Keys oder die typische nBody Simulation.
Aber bei Anwendungen die einen konstanten Datenstrom haben, sieht das schon nicht mehr so prall aus. Permanent müssen die Daten ins VRAM kopiert, verarbeitet und wieder zurückgeschrieben werden. Videobearbeitung ist ein Beispiel dafür. Oder Daten, die auf Grund der Größe nicht ins VRAM passen. Durch das ständige hin- und her kopieren wird die Berechnung per GPU unattraktiv. Viele Anwendungen eignen sich zur Zeit einfach nicht dafür.
Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
Zusammen mit besseren Tool's und Frameworks kann man auch in den nächsten Monaten eine breitere Unterstützung der Software erwarten.
Zuletzt bearbeitet:
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
1. Es wird immer ein schnellerer Chip kommen.
2. Wann Kepler denn nun wirklich kommt, weiß keiner genau.
3. Was er leisten wird, weiß keiner genau.
4. Kepler ist noch nicht da, und warten kann man immer, siehe Punkt 1.
Kurz, "jetzt" ist die 7970 das Ultimum in allen Bereiche, wo es vorher die GTX 580 war. Das sich dies im laufe des kommenden Jahres sicher wieder ändern wird, sollte eigentlich außer Frage stehen. Und im darauf folgendem Jahr wird sicherlich wieder etwas schnelleres folgen. So war es schon immer, warum soll sich das ändern?
Das sich auch die Software weiter entwickelt ist ja auch keine Überraschung.
2. Wann Kepler denn nun wirklich kommt, weiß keiner genau.
3. Was er leisten wird, weiß keiner genau.
4. Kepler ist noch nicht da, und warten kann man immer, siehe Punkt 1.
Kurz, "jetzt" ist die 7970 das Ultimum in allen Bereiche, wo es vorher die GTX 580 war. Das sich dies im laufe des kommenden Jahres sicher wieder ändern wird, sollte eigentlich außer Frage stehen. Und im darauf folgendem Jahr wird sicherlich wieder etwas schnelleres folgen. So war es schon immer, warum soll sich das ändern?
Das sich auch die Software weiter entwickelt ist ja auch keine Überraschung.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Muahaha, wie soll Nvidia das denn machen?
Immer diese BWL-Studenten hier.
edit:
Btw. Wenn/Falls Kepler bzw. GK104 dann irgendwann mal im nächsten Jahr herauskommt, es wird ja schon vom 2H gemunkelt, dann senkt AMD einfach die Preise und schiebt nen Refresh nach... oder auch nicht.
Meine 8800 GT samt Rechner möchte ausgetauscht werden, bis jetzt sieht es sehr gut für die HD 7000er Serie aus... ZeroCore finde ich schon mal richtig schick.
Immer diese BWL-Studenten hier.
edit:
Btw. Wenn/Falls Kepler bzw. GK104 dann irgendwann mal im nächsten Jahr herauskommt, es wird ja schon vom 2H gemunkelt, dann senkt AMD einfach die Preise und schiebt nen Refresh nach... oder auch nicht.
Meine 8800 GT samt Rechner möchte ausgetauscht werden, bis jetzt sieht es sehr gut für die HD 7000er Serie aus... ZeroCore finde ich schon mal richtig schick.
Zuletzt bearbeitet:
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Ich lache immer zuletzt... aber ich mach da natürlich keinen Wettbewerb draus.
Opteron
Redaktion
☆☆☆☆☆☆
Na da erzählen sie Käse, die Chips waren schnell, nur hat sich keiner außer Gipsel die Mühe gemacht dafür zu programmieren. Weils eben nicht so einfach war, wie bei nV. Das ist / war(?) der springende Punkt. Größte Neuerung auf dem Gebiet ist Microsofts C++ Erweiterung, die wird sich wahrscheinlich schneller durchsetzen als OpenCL "oops" sagen kannAnandtech hat das ganz gut zusammengefasst.
Perhaps this is because developers ignored Evergreen and Northern Islands due to their low compute performance,
Kepler hat doch ARM Kernchen an Bord. kA, ob die auch auf den Consumer Karten/Chips freigeschalten oder verbaut werden, aber mal schauen. Eventuell gabs auch schon irgendwo ne Erklärung dazu, beobachte Kepler nicht so toll.Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
@Duplex
Und warum sollte von Charlie positive News kommen, ich habe nichts dergleichen von ihm gelesen. Aber du kannst uns ja gerne aufklären, kryptische Nachrichten kommen generell nicht so gut an.
Und warum sollte von Charlie positive News kommen, ich habe nichts dergleichen von ihm gelesen. Aber du kannst uns ja gerne aufklären, kryptische Nachrichten kommen generell nicht so gut an.
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
1. Ob Kepler der absolute Überflieger wird oder nicht ist zur Zeit vollkommen unklar.
Ich rechne sowieso nicht vor 2H12 damit. Bis dahin hat AMD noch einiges an Zeit Boden gut zu machen.
Bei dem was AMD vorgelegt hat im Spielebereich muss er nun nicht wirklich kein Überflieger werden. Da reicht ja bereits ein Fermi Shrink ohne Architekturveränderungen. Im GPGPU wird Nvidia nochmal ordentlich zulegen. Davon würde ich mal ausgehen, da sie dort ja bereits seit Jahren investieren und das als einen Zukunftsbereich sehen. AMD hat erst jetzt angefangen dort zu investieren.
2. Es geht nicht nur um die reine Rechenleistung. Bei Applikationen die im "eigenen Saft" laufen, sehen die bisherigen Implementierungen gut aus. Code und Daten werden einmal ins VRAM geladen und dort abgearbeitet. Dazu zählen Brute-Force-Anwendungen zum knacken von Keys oder die typische nBody Simulation.
Aber bei Anwendungen die einen konstanten Datenstrom haben, sieht das schon nicht mehr so prall aus. Permanent müssen die Daten ins VRAM kopiert, verarbeitet und wieder zurückgeschrieben werden. Videobearbeitung ist ein Beispiel dafür. Oder Daten, die auf Grund der Größe nicht ins VRAM passen. Durch das ständige hin- und her kopieren wird die Berechnung per GPU unattraktiv. Viele Anwendungen eignen sich zur Zeit einfach nicht dafür.
Und genau hier setzt Fusion an: Share, don't copy.
Bedeutet, ein gemeinsamer Speicherbereich von GPU und CPU.
Ich sehe zur Zeit nicht, das nVidia etwas ähnliches in der Pipeline hat.
Zusammen mit besseren Tool's und Frameworks kann man auch in den nächsten Monaten eine breitere Unterstützung der Software erwarten.
Doch haben Sie. Project Denver wird genau das sein oder meinst Du die entwickeln die CPU Kerne so aus Spass? Project Denver ist kein Tegra - nicht vergessen. Und in Punkto Softwarebasis, Developer Tools und ähnliches hat Nvidia mehrere Jahre Vorsprung. Das holt AMD nie und nimmer in wenigen Monaten ein.
Wie gesagt die Hardware ist aktuell sehr gut dafür. Bei der Software siehts mau aus. Und wie immer im professionellen Bereich kommt zuerst die Software und dann die Hardware. Es nützt mir nix, wenn ich eine schnelle Hardware habe, dafür dann aber ewig rumfrickeln muss. Bis zum heutigen Tag hat AMD genau in diesem Bereich jegliche Professionalität missen lassen. Gute Hardware hatten sie schon des öfteren.
.
EDIT :
.
Muahaha, wie soll Nvidia das denn machen?
Immer diese BWL-Studenten hier.
edit:
Btw. Wenn/Falls Kepler bzw. GK104 dann irgendwann mal im nächsten Jahr herauskommt, es wird ja schon vom 2H gemunkelt, dann senkt AMD einfach die Preise und schiebt nen Refresh nach... oder auch nicht.
Über wen wird denn 2. Halbjahr gemunkelt - GK104 oder GK100? Die Chips unterscheiden sich erheblich würde ich sagen
In Punkto Refresh nachschieben gab es die gleichen Aussagen zur HD5870 zum Launch damals. Dort hatte AMD 6 bis 9 Monate Vorsprung zur GTX480. Welcher Refresh kam dann gleich nochmal eher raus und war auch noch schneller? Die HD6970 oder die GTX580? Wer hat am Ende mehr $ aus der jeweiligen Serie herausgeholt AMD oder Nvidia?
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
Demnächst gibts als erstes von Charlie positive News & dann werden wir sehen wer zuletzt lacht.
Warn doch bitte beim nächsten mal vor, hab meine Tastatur doch gerade erst gereinigt.
Obwohl - Charlie und was positives über NV - der war guuuuut....
mariahellwig
Grand Admiral Special
@RICHTHOFEN
Das AMD bei Software-Tools um Jahre hinterher hinkt das sehe ich nicht. Und ich sehe auch nicht das CUDA so wahnsinnig auf dem Vormarsch ist. Zumindest nicht bei Produkten die eine breite Installationsbasis haben. DxO hat gerade der Version 7 ihrer Bildbearbeitungssoftware eine GPU-Unterstützung verpasst. Sie haben OpenCL gewählt, nicht CUDA.
Denver basiert auf ARM-Kernen. ARM jenseits von Tablets und Handy einen Entwicklungsrückstand von min. 5 Jahren. Denver ist für mich zur Zeit nicht mehr als eine Blaupause. Fusion hingegen sind reale Produkte.
Das AMD bei Software-Tools um Jahre hinterher hinkt das sehe ich nicht. Und ich sehe auch nicht das CUDA so wahnsinnig auf dem Vormarsch ist. Zumindest nicht bei Produkten die eine breite Installationsbasis haben. DxO hat gerade der Version 7 ihrer Bildbearbeitungssoftware eine GPU-Unterstützung verpasst. Sie haben OpenCL gewählt, nicht CUDA.
Denver basiert auf ARM-Kernen. ARM jenseits von Tablets und Handy einen Entwicklungsrückstand von min. 5 Jahren. Denver ist für mich zur Zeit nicht mehr als eine Blaupause. Fusion hingegen sind reale Produkte.
B4ttleMasteR
Fleet Captain Special
- Mitglied seit
- 01.02.2009
- Beiträge
- 317
- Renomée
- 3
- Standort
- Saarland
- Mein Laptop
- keiner mehr
- Prozessor
- I5 2500K Sandy Bridge
- Mainboard
- ASRock Extreme3 Gen3
- Kühlung
- Antec H2O 620 Wakü
- Speicher
- 2 mal 4 GB Corsair Vengeance 1866
- Grafikprozessor
- AMD ATI HD 7950 oc Saphire
- Display
- LG Cinema 3D D2342
- HDD
- RAID
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- Realtek
- Gehäuse
- Zalman Z9 Plus
- Netzteil
- Thermaltake Toughpower XT 775
- Betriebssystem
- Windows 8 64 Bit
- Webbrowser
- Crome
- Verschiedenes
- Lüftersteuerung : Aerocool F4XT + Zalman Steuerung
wenn ich mich recht errinner wird Cuda nicht sonderlich weit vorn sein ... Nvidia Pysiks habe ich jetzt noch einmal bei dem spiel POSTAL 3 gesehen .. und das spiel ist als heutiges spiel sehr schlecht programmiert ... direct-x 9 usw ...... (stand 2006 ) xD
ansonsten hält sich sowas im hintergrund ..
ansonsten hält sich sowas im hintergrund ..
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 11
- Aufrufe
- 581
- Antworten
- 13
- Aufrufe
- 919