App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature currently requires accessing the site using the built-in Safari browser.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Free Sync - Die G-Sync Alternative
- Ersteller Duplex
- Erstellt am
Duplex
Admiral Special
http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014
AMD Demonstrates "FreeSync", Free G-Sync Alternative, at CES 2014
According to AMD, there’s been a push to bring variable refresh rate display panels to mobile for a while now in hopes of reducing power consumption (refreshing a display before new content is available wastes power, sort of the same reason we have panel self refresh displays). There’s apparently already a VESA standard for controlling VBLANK intervals. The GPU’s display engine needs to support it, as do the panel and display hardware itself. If all of the components support this spec however, then you can get what appears to be the equivalent of G-Sync without any extra hardware.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.931
- Renomée
- 428
- Mein Laptop
- Lenovo T15, Lenovo S540
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
lol... einen alten Hut als neu verkaufen wollen und unnötige Hardware dafür verkaufen.
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Details zu meinem Desktop
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Naja wichtiger währe ja das der Kram in ordentlichen und bezahlbaren Bildschirmen ankommt und auch wirklich genutzt werden kann. Mal schauen wie das in ein Paar Monaten im Handel aussieht und welche Bildschirme es mit FreeSync und G-Sync so wirklich zu kaufen gibt bzw ob AMDs Treibersupport zur Abwechslung mal gut wird.
mariahellwig
Grand Admiral Special
bzw ob AMDs Treibersupport zur Abwechslung mal gut wird.
*Gähn*
Wenn man erst eine Odyssee mit Intel HD-Grafik hinter sich hat, merkt man erst wie gut die sind.
Ich halte AMDs einheitliche Treiberstruktur für ziemlich gut und pflegeleicht.
So Spielereien wie nVidia Optimus, die funktionieren eine Zeit lang und nach irgendeinem Update war es das dann mit der Herrlichkeit.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Und der nächste Nackenschlag für Nvidia. Damit war's das wohl für G-Sync. Gut so.
FreeSync hört sich auf jeden Fall wesentlich massentauglicher an, wenn die VESA Spezifikation tatsächlich ausreichen sollte.
FreeSync hört sich auf jeden Fall wesentlich massentauglicher an, wenn die VESA Spezifikation tatsächlich ausreichen sollte.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.449
- Renomée
- 62
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
lol... einen alten Hut als neu verkaufen wollen und unnötige Hardware dafür verkaufen.
Guten Morgen!zugehöriger Artikel schrieb:Auf Seiten der Display-Engines soll das variable VBLANK schon seit drei GPU-Generationen von AMD unterstützt werden.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.746
- Renomée
- 270
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
@Krieger
Ich glaube er bezieht das auf nVidia.
Ich glaube er bezieht das auf nVidia.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.931
- Renomée
- 428
- Mein Laptop
- Lenovo T15, Lenovo S540
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
In der Tat bezog ich das auf Nvidia, welche ja die bei AMD GPUs verbaute Hardware in extra Hardware auf Monitorseite verbauen wollten.... beide nutzen dieselbe VESA Spezifikation VBLANK.
Es scheint als geht es mit der Industrie-Unterstützung für FreeSYNC gut voran. AMD hat ein bisschen was dazu veröffentlicht.
Von Samsung kommen sogar ein paar 4K-Modelle.
Von Samsung kommen sogar ein paar 4K-Modelle.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.118
- Renomée
- 983
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.Und der nächste Nackenschlag für Nvidia. Damit war's das wohl für G-Sync. Gut so.
Von sich aus, hätte AMD niemals mit FreeSync aufgewartet. Insofern war G-Sync nicht überflüssig.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.449
- Renomée
- 62
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Wurden G-Sync und FreeSync nicht im Abstand weniger Wochen angekündigt? Falls ja, wie kommst du dann auf die Aussage im zweiten Satz?
Ich frage mich mittlerweile auch, ob DSR so viel früher geschaffen wurde als VSR - angesichts AMDs Aussage, dass man seit März 2014 am Catalyst Omega saß, dürfte der Zeitabstand der eigentlichen Entwicklung nicht sehr groß gewesen sein.
Aber gut, so oder so sind einige Monate nicht sonderlich beeindruckend.
Ich frage mich mittlerweile auch, ob DSR so viel früher geschaffen wurde als VSR - angesichts AMDs Aussage, dass man seit März 2014 am Catalyst Omega saß, dürfte der Zeitabstand der eigentlichen Entwicklung nicht sehr groß gewesen sein.
Aber gut, so oder so sind einige Monate nicht sonderlich beeindruckend.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Details zu meinem Desktop
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
G-Sync als offener Standard wäre ja OK gewesen, wär AMD evtl. mit aufgesprungen. Aber als proprietäres NVIDIA only Feature...Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.
Von sich aus, hätte AMD niemals mit FreeSync aufgewartet. Insofern war G-Sync nicht überflüssig.
Man sieht ja auch, was aus deren Physics geworden ist.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Ja, danke für den Witz des Tages. Aber gut, wenn für dich proprietäre, teure und marktdestruktive Lösungen Innovationen sind, bitteschön. Kann mich ehrlich gesagt an keine nennenswerten Innovationen von Nvidia erinnern.Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.
Übrigens, FreeSync und G-Sync wurden über Jahre hinweg quasi parallel entwickelt. Nvidia hatte G-Sync letztendlich nur ein paar Wochen vorher angekündigt. Dass FreeSync lediglich eine Reaktion auf G-Sync gewesen sein soll, ist also völliger Quatsch. Das sieht man auch schon daran, dass bereits Bonaire FreeSync voll unterstützt, welcher in Form der HD 7790 in Q1 2013 gelaunched wurde. Ältere GPUs von AMD unterstützen FreeSync ja nur teilweise. G-Sync wurde aber erst in Q4 2013 von Nvidia angekündigt.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 13.888
- Renomée
- 1.801
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
G-Sync als offener Standard wäre ja OK gewesen, wär AMD evtl. mit aufgesprungen. Aber als proprietäres NVIDIA only Feature...
Man sieht ja auch, was aus deren Physics geworden ist.
Physx ist noch nicht einmal deren Kind sondern wurde lediglich aufgekauft und im Punkt Hardware Beschleunigung auf die eigenen Produkte beschränkt, was letztendlich für die Spieler ein Rückschritt war denn die zuvor erhältlichen PPU Karten waren für jeden nutzbar.
--- Update ---
Übrigens, FreeSync und G-Sync wurden über Jahre hinweg quasi parallel entwickelt. Nvidia hatte G-Sync letztendlich nur ein paar Wochen vorher angekündigt. Dass FreeSync lediglich eine Reaktion auf G-Sync gewesen sein soll, ist also völliger Quatsch. Das sieht man auch schon daran, dass bereits Bonaire FreeSync voll unterstützt, welcher in Form der HD 7790 in Q1 2013 gelaunched wurde. Ältere GPUs von AMD unterstützen FreeSync ja nur teilweise. G-Sync wurde aber erst in Q4 2013 von Nvidia angekündigt.
Meinetwegen kann es auch eine Reaktion darauf sein denn letztendlich basieren beide Lösungen auf etwas was bereits Teil der DisplayPort Spec war und letztendlich nur eine Abwandlung dessen sind. Was daran jetzt so wahnsinnig innovativ sein soll ist mir schleierhaft. Das ist lediglich eine Weiterentwicklung dessen was man mal wieder unter eigenem Namen und auf die eigenen Produkte beschränkt verkaufen will.
mariahellwig
Grand Admiral Special
Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.
Von sich aus, hätte AMD niemals mit FreeSync aufgewartet. Insofern war G-Sync nicht überflüssig.
Was ist mit Mantle? Das halte ich für einen wesentlich größeren Meilenstein.
AMD hat zahlreiche Innovationen vorzuweisen. Die Lorbeeren bekommen aber immer andere.
Zuletzt bearbeitet:
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.956
- Renomée
- 208
Mantle ist zwar proprietär, aber in meinen Augen sehr innovativ, weil es ein Befreiungsschlag ist.
Alle anderen Hersteller hatten sich auf die faule Haut gelegt, um den Stillstand für ihre Sache zu nutzen. Intel profitierte am meisten davon, dass man Highend CPUs benötigte, um das Potential der GPUs zu nutzen.
Nach Mantle sah sich Microsoft gezwungen, das absichtlich narkotisierte OpenGL hinsichtlich Mantle-vergleichbarer Effizienz weiter zu entwickeln.
Lediglich Apple, das immer gerne sein eigenes Süppchen kocht, ist mit Metal freiwillig einen ähnlichen Weg gegangen. Übrigens halte ich die Namensähnlichkeit "Metal" zu "Mantle" keineswegs für einen Zufall.
MfG
Alle anderen Hersteller hatten sich auf die faule Haut gelegt, um den Stillstand für ihre Sache zu nutzen. Intel profitierte am meisten davon, dass man Highend CPUs benötigte, um das Potential der GPUs zu nutzen.
Nach Mantle sah sich Microsoft gezwungen, das absichtlich narkotisierte OpenGL hinsichtlich Mantle-vergleichbarer Effizienz weiter zu entwickeln.
Lediglich Apple, das immer gerne sein eigenes Süppchen kocht, ist mit Metal freiwillig einen ähnlichen Weg gegangen. Übrigens halte ich die Namensähnlichkeit "Metal" zu "Mantle" keineswegs für einen Zufall.
MfG
LoRDxRaVeN
Grand Admiral Special
- Mitglied seit
- 20.01.2009
- Beiträge
- 4.169
- Renomée
- 64
- Standort
- Oberösterreich - Studium in Wien
- Mein Laptop
- Lenovo Thinkpad Edge 11
- Details zu meinem Desktop
- Prozessor
- Phenom II X4 955 C3
- Mainboard
- Gigabyte GA-MA790X-DS4
- Kühlung
- Xigmatek Thor's Hammer + Enermax Twister Lüfter
- Speicher
- 4 x 1GB DDR2-800 Samsung
- Grafikprozessor
- Sapphire HD4870 512MB mit Referenzkühler
- Display
- 22'' Samung SyncMaster 2233BW 1680x1050
- HDD
- Hitachi Deskstar 250GB, Western Digital Caviar Green EADS 1TB
- Optisches Laufwerk
- Plextor PX-130A, Plextor Px-716SA
- Soundkarte
- onboard
- Gehäuse
- Aspire
- Netzteil
- Enermax PRO82+ II 425W ATX 2.3
- Betriebssystem
- Windows 7 Professional Studentenversion
- Webbrowser
- Firefox siebenunddreißigsttausend
- Schau Dir das System auf sysprofile.de an
Nach Mantle sah sich Microsoft gezwungen, das absichtlich narkotisierte OpenGL hinsichtlich Mantle-vergleichbarer Effizienz weiter zu entwickeln.
Du meinst vermutlich DirectX?! Mit OpenGL hat Microsoft nicht all zu viel am Hut.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.118
- Renomée
- 983
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Finde ich nicht, denn Mantle besetzt anders als zum Beispiel CUDA keine Nische, die vorher (beinah) unbesetzt war. Spieleentwickler haben durch den Wegfall einiger Layer zwar mehr Kontrolle über Shader Units und VRAM als bei OpenGL oder Direct3D, aber Mantle ermöglicht keine Effekte, die vorher nicht möglich gewesen wären. CUDA hat seiner Zeit in meinen Augen mehr bewegt. Vor CUDA war die Verwendung von Grafikprozessoren für massiv parallele Aufgaben ein äußerst schwieriges Unterfangen. Heutzutage empfinde ich CUDA dagegen als überflüssig. OpenCL und C++ AMP sind weit genug entwickelt, sodass es keines geschlossenen Standards mehr bedarf. Trotzdem hat CUDA lange Zeit die Entwicklung vorangetrieben und geprägt. Ohne CUDA würden die freien Alternativen womöglich noch in den Kinderschuhen stecken. Mittlerweile dient CUDA jedoch nur noch dazu AMD aus dem HPC Bereich fernzuhalten. Dies lässt sich nVidia einiges kosten, indem sie ein großes Budget für SDKs und externe Projekte aufwenden. Allerdings befindet sich CUDA auf einem absteigenden Ast und dürfte sich bald von selbst erledigt haben. Mantle hat jedoch ein Gutes. Zumindest hat AMD nun ebenfalls eine Leiche im Keller liegen. Bisher wurde immer auf nVidia und CUDA geschimpft. Teilweise war diese Kritik durchaus berechtigt. Mantle ist im Vergleich keinen Deut besser. Die Offenheit existiert schließlich nur auf dem Papier. Im Grunde dient Mantle nur dazu Intels Stellung auf dem iGPU Markt mit unlauteren Mitteln zu schwächen. Ich würde daher Mantle niemals mit FreeSync vergleichen. FreeSync ist eines anderes Geistes Kind, weil AMD den (steinigen) Weg über die VESA beschritten hat. Bei Mantle hat man es sich einfach gemacht und die API aus dem Hut gezaubert, anstatt mit einem Industriekonsortium an einer gemeinsamen Lösung zu arbeiten. Eigentlich das typische Vorgehen von nVidia. Letzt genanntem Hersteller würde man ein solches Verhalten ankreiden; bei AMD überstürzen sich jedoch alle vor Lob.Was ist mit Mantle? Das halte ich für einen wesentlich größeren Meilenstein.
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
CUDA hat doch auch nichts neu besetzt. Es hat nichts ermöglicht, was vorher nicht möglich war. GPGPU gab es da schon länger. CUDA hat es nur zugänglicher gemacht. Wobei das auch andere boten. CUDA war halt lediglich eine Zeit lang am populärsten. In dem Punkt sind Mantle und CUDA gar nicht so verschiedenen. Der Unterschied ist lediglich, Nvidia hat CUDA bisher einzig und allein für exklusive Zwecke missbraucht. Das schaut bei AMD und Mantle nicht so aus.
Und dass Mantles Offenheit nur auf dem Papier existiert, ist ebenso Quatsch. DirectX 12 ist unter der Haube quasi nichts anderes als Mantle. AMD hat da schon mit Microsoft zusammengearbeitet. Und AMD hat ebenfalls der Khronos Group angeboten, Mantle zu übernehmen. Wann hat Nvidia mal solche Offenheit gezeigt?
Mantle wurde übrigens auch nicht einfach mal so nebenbei aus eigenem Antrieb aus dem Hut gezaubert. DICE wollte so eine Schnittstelle von den Grafikkartenherstellern und AMD hatte sich offenbar als einziges Unternehmen bereit erklärt, dies umzusetzen. Man hat ebenfalls gesagt, dass man einen Industriestandard damit anstrebt. Mit Nvidia ist das doch überhaupt nicht zu vergleichen. Nvidia macht in der Tat nur Alleingänge. Ob es jemand will oder nicht, ist denen völlig Wurscht. Und hinzu kommt, dass die Lösungen immer teuer sind, damit Nvidia absahnen kann. Von offenen Lösungen haben die noch nie was gehört. Sry, aber wie kann man beides nur in einen Topf werfen?
Und dass Mantles Offenheit nur auf dem Papier existiert, ist ebenso Quatsch. DirectX 12 ist unter der Haube quasi nichts anderes als Mantle. AMD hat da schon mit Microsoft zusammengearbeitet. Und AMD hat ebenfalls der Khronos Group angeboten, Mantle zu übernehmen. Wann hat Nvidia mal solche Offenheit gezeigt?
Mantle wurde übrigens auch nicht einfach mal so nebenbei aus eigenem Antrieb aus dem Hut gezaubert. DICE wollte so eine Schnittstelle von den Grafikkartenherstellern und AMD hatte sich offenbar als einziges Unternehmen bereit erklärt, dies umzusetzen. Man hat ebenfalls gesagt, dass man einen Industriestandard damit anstrebt. Mit Nvidia ist das doch überhaupt nicht zu vergleichen. Nvidia macht in der Tat nur Alleingänge. Ob es jemand will oder nicht, ist denen völlig Wurscht. Und hinzu kommt, dass die Lösungen immer teuer sind, damit Nvidia absahnen kann. Von offenen Lösungen haben die noch nie was gehört. Sry, aber wie kann man beides nur in einen Topf werfen?

... Mantle ist im Vergleich keinen Deut besser. Die Offenheit existiert schließlich nur auf dem Papier. Im Grunde dient Mantle nur dazu Intels Stellung auf dem iGPU Markt mit unlauteren Mitteln zu schwächen.
Den letzten Satz verstehe ich nicht. Weder wieso es auf Intels iGPUs zielt noch wieso das jetzt unlautere Mittel sind?
Auch bei dem Rest würde ich nicht unbedingt zustimmen. Ich hatte mal gelesen das fast alle Veränderungswünsche durch AMD bei der Khronos Group durch andere Mitglieder nicht durchkommen. in dieser Zusammen wurde auch Nvidia genannt. Sie haben innerhalb der Khronos Group durch ihre besser Vernetztung und bessere Stellung mehr Macht als AMD. Demnach blieb ihnen nur der Weg über eine eigene Schnittstelle. Selbst innerhalb eines neuen Industriekonsortiums wäre der Mantle wohl durch die Zweifler untergegangen.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.103
- Renomée
- 501
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.01 Beta
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Wenn ich mir die Mantle Erweiterungen anschaue, könnte man schon annehmen, dass hier optisch was möglich ist: http://abload.de/img/boinc_avx_collatz_aidhmqtb.pngFinde ich nicht, denn Mantle besetzt anders als zum Beispiel CUDA keine Nische, die vorher (beinah) unbesetzt war. Spieleentwickler haben durch den Wegfall einiger Layer zwar mehr Kontrolle über Shader Units und VRAM als bei OpenGL oder Direct3D, aber Mantle ermöglicht keine Effekte, die vorher nicht möglich gewesen wären.
(z.B. Advanced_MSAA oder Border_Color_Palette)
Insgesamt kann ich dir jedoch zustimmen, schön wenn die Schuld im Kreis herum geschoben wird.

sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 13.888
- Renomée
- 1.801
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Finde ich nicht, denn Mantle besetzt anders als zum Beispiel CUDA keine Nische, die vorher (beinah) unbesetzt war. Spieleentwickler haben durch den Wegfall einiger Layer zwar mehr Kontrolle über Shader Units und VRAM als bei OpenGL oder Direct3D, aber Mantle ermöglicht keine Effekte, die vorher nicht möglich gewesen wären. CUDA hat seiner Zeit in meinen Augen mehr bewegt. Vor CUDA war die Verwendung von Grafikprozessoren für massiv parallele Aufgaben ein äußerst schwieriges Unterfangen.
Korrigiere mich wenn ich mich irre aber das was mit CUDA berechnet werden kann war vorher auch mit CPUs möglich, nur ebend schneller.
Auch war es vorher bereits möglich anderweitige Berechnungen auf der GPU auszuführen, wenn ich mich recht erinnere war hier ATIs x1000 Serie einer der Vorreiter.
Damit bliebe der einzige Punkt das CUDA die Programmierung vereinfachte und das man neue Funktionen schneller einführen konnte weil man sich nicht mit anderen Hardware Herstellern absprechen musste.
Bei der Mantle Geschichte ist es auch nicht nur beim Wegfall von Layern geblieben sondern es sind auch mehr draw calls als bei Direct3D möglich, was passier wenn dies nicht oder nur unzureichend beachtet wird sah man ja scheinbar beim letzten assassins creed Teil. Die Befehle stauen sich und die Framerate geht in den Keller obwohl die Hardware mehr könnte.
Ist sowas etwar zusammen mit der deutlichen Senkung der CPU Last und einer anscheinend besseren Multicore Unterstützung nicht als neuer Effekt einzuordnen oder zählt dazu nur die Bling Bling Effekte auf dem Bildschirm?
Diese Frage ist natürlich nicht ohne Hintergedanken denn wenn die Effizienz und damit auch die Performance egal ist ist CUDA letztendlich noch schlechter dran.
FreeSync kann man letztendlich auch als kreative Auslegung einer Energiespar Funktion bezeichnen denn wenn ich das richtig verstanden habe dann bedient es sich letztendlich einer Funktion die schon länger besteht aber praktisch nur im mobilen Bereich zum Einsatz kam.
Mal ganz ehrlich, unterm Strich hat AMD für die Spielergemeinde mehr auf die Beine gestellt als nvidia, welche zwar eher mit Neuerungen raus kommen aber diese nur dazu nutzen sich dahinter einzumauern und die Kunden an sich zu ketten. Sei es im GPGPU Bereich mit Cuda oder im Hardware Bereich mit G-Sync und 3D Vision.
Kaum einer verzichtet schließlich freiwillig auf teuer die Funktion der teuer erstandenen Hardware und Programme und ist letztendlich gezwungen wieder ihre Grafikkarten zu kaufen. Da nehmen dann auch viele Geschichten wie höhere Preise oder eine schlechtere Speicher Ausstattung hin und verdrengen nur allso gern die erkauften Nachteile.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.118
- Renomée
- 983
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
@sompe: Ich möchte CUDA keineswegs schönreden. Ich habe einiges daran auszusetzen. Insbesondere die Bindung an nVidia Hardware. Für mich schlägt Mantle jedoch in dieselbe Kerbe, weil dadurch, dass AMD die Entwicklung in Händen hält, die Mitbewerber gehemmt sind. AMD hat offen damit geworben, dass Mantle auf die hauseigene GNC Architektur optimiert ist. nVidia und Intel hätten das Nachsehen, wenn sie Mantle ebenfalls unterstützen würden, weil AMD die Weiterentwicklung der Schnittstelle immer zu Gunsten der eigenen Produkte oder zum Nachteil der beiden genannten Konkurrenten steuern könnte. Deswegen werden sich nVidia und Intel hüten diese Low Level API zu unterstützen, solange AMD nicht einen Teil seiner Kontrollmacht über die API abgibt. Wenn AMD diesen Schritt geht, könnten sich jedoch Fortschritte wegen Unstimmigkeiten der beteiligten Parteien verzögern. Alle Interessen zufrieden zu stellen wird nicht möglich sein. Es ist spannend wer zuletzt leer ausgeht: Die GPU-Hersteller, die Entwickler von 3D-Engines oder die zahlenden Kunden?
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.931
- Renomée
- 428
- Mein Laptop
- Lenovo T15, Lenovo S540
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich sehe da niemanden leer ausgehen. AMD hat genau gesagt was sie mit Mantle machen:
Fertig entwickeln für GCN.
Nach Beta offen legen. Danach kann AMD nichts mehr steuern
Jeder kann auf seine Architektur optimieren der möchte.
Fertig entwickeln für GCN.
Nach Beta offen legen. Danach kann AMD nichts mehr steuern
Jeder kann auf seine Architektur optimieren der möchte.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 380
- Antworten
- 0
- Aufrufe
- 263
- Antworten
- 0
- Aufrufe
- 425