App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA - Kepler
- Ersteller Desti
- Erstellt am
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
GTX 780 Ti gerade live evtl GK110 Vollausbau? Kühler und PCB sind jedenfalls wie bei der GTX 780 oder Titan...
Edit: Angeblich schneller als Titan also wohl wirklich GK110 Vollausbau. Ist dann wohl der R9 290x Konter...
Also anscheinend sollen die ersten G-Sync Monitore und die GeForce GTX 780 Ti innerhalb des nächsten Monats erscheinen... wird dann Spannend auch was die Preise der kleineren Modelle angeht.
Edit: Angeblich schneller als Titan also wohl wirklich GK110 Vollausbau. Ist dann wohl der R9 290x Konter...
Also anscheinend sollen die ersten G-Sync Monitore und die GeForce GTX 780 Ti innerhalb des nächsten Monats erscheinen... wird dann Spannend auch was die Preise der kleineren Modelle angeht.
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Konter? Was erwartest du dir denn vom GK110 im Vollausbau? Titan hat zwei SMX Einheiten mehr als die 780 und ist im Schnitt etwa 5-10% schneller. Ein GK110 im Vollausbau hat lediglich eine SMX Einheit mehr als die Titan und dürfte dementsprechend weniger zulegen. Wenn es am Ende 5% sind, dann wäre die Karte 10-15% schneller als die 780. Das dürfte nicht reichen, sofern die Benches stimmen und die R9 290X ~25% schneller als die 780 ist.
---------- Beitrag hinzugefügt um 18:43 ---------- Vorheriger Beitrag um 18:22 ----------
Link scheint tot zu sein. Hier gibt's eine andere Übersicht.
---------- Beitrag hinzugefügt um 18:43 ---------- Vorheriger Beitrag um 18:22 ----------
Link scheint tot zu sein. Hier gibt's eine andere Übersicht.
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Bei 1080p ist der Abstand angeblich sehr viel kleiner. Zusätzlich wissen wir noch nichts über Taktraten und Speicherausbau bei der 780Ti von daher sollten wir wohl bis Mitte November auf die Testberichte zu beiden Karten warten. Aktuell kennen wir weder die Performance der R9 290x noch der 780 Ti, gleiches gilt übrigens für die Preise
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.414
- Renomée
- 1.993
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich denke eher das es sich nur um ein deutlich höher getaktetes Modell mit mehr TDP Spielraum handelt. Wird dann noch das Temperatur Limit entschärft kann der Boost Takt auch entsprechend hoch angesetzt werden.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Sorry, aber wer eine Titan oder 290x @1080p betreibt hat wohl was falsch gemacht (häufigs CPU Limit), 1440p sollten es schon mindestens sein. Der 4k Vorsprung ist natürlich immens und dort insbesondere wichtig, sofern die Zahlen stimmen.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Na wer eh nur bei 1080p spielt, womöglich noch ohne AA und AF, der braucht auch nicht solche Karten. Der kann auch zu was preiswerterem greifen. Da liegt eine Titan gerade mal 20% bzw 25% vor einer HD 7970G bzw GTX 680.Bei 1080p ist der Abstand angeblich sehr viel kleiner.
Wenn die 780 Ti wirklich im Vollausbau kommt, erwarte ich keine signifikant höheren Taktraten. Die 780 wird ja schon höher getaktet als die Titan. Denkbar wäre auch noch, dass die 780Ti wie die Titan über 14 SMX Einheiten verfügt, allerdings noch etwas mehr Takt rausgequetscht wird. ZB mittels Verringerung der Computing Fähigkeiten im Vergleich zur Titan, wie die DP Rate. Wunder sollte man aber auch da nicht erwarten bei gleichbleibender TDP.Zusätzlich wissen wir noch nichts über Taktraten und Speicherausbau bei der 780Ti
Laut Gerüchten soll die R9-290X ca. 50W mehr als Titan verbrauchen, die GTX780 Ti könnte mit 2880 Shader locker 1050Mhz Boost haben, auch wenn die Leistungsaufnahme höher ausfällt, man hätte keine Nachteile gegenüber der neuen Radeon.
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
noch etwas zu AMD Mantle ich poste das trotzdem mal hier kommt ja von der nV Konferenz...
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Welche Gerüchte? Dieses völlig nichtssagende Furmark Diagramm? Auch du solltest wissen, dass Nvidia in Furmark ordentlich drosselt. Das hätte nur eine Aussagekraft, wenn wir die dazu gehörende Furmark Performance kennen würden. Kennen wir aber nicht. Wobei das eh nicht viel helfen würde. Furmark nutzt OpenGL. AMDs OpenGL Treiber waren bisher nicht gerade toll. Direct3D ist eine ganz andere Geschichte. Mit der Leistungsaufnahme in Spielen hat Furmark daher wenig zu tun. Ausserdem sollte man bedenken, dass das die Unterschiede der Gesamtsysteme waren. Bei den Karten selbst würde der Unterschied geringer ausfallen.Laut Gerüchten soll die R9-290X ca. 50W mehr als Titan verbrauchen
Zuletzt bearbeitet:
Na wer eh nur bei 1080p spielt, womöglich noch ohne AA und AF, der braucht auch nicht solche Karten. Der kann auch zu was preiswerterem greifen. Da liegt eine Titan gerade mal 20% bzw 25% vor einer HD 7970G bzw GTX 680.
willst du aber mit vernünftigen herzzahlen spielen, dann reichen selbst diese karte heute nicht aus. sogar wie du es schreibst bei nur 1080p.
G-Sync scheint interessant zu sein, vielleicht hole ich ja doch mal ne nvidia karte seit der 440MX
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Was willst du mit einer Nvidia Karte? So wie ich G-Sync verstanden habe, brauchst du dafür einen entsprechenden Monitor. Funktionieren sollte es dann theoretisch mit jeder Grafikkarte. Ob es am Ende viel bringt, ist natürlich fraglich. Sichtbares Tearing nehme ich zumindest nur äusserst selten wahr. Kein Grund im Moment für einen neuen Monitor.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Und wie soll das funktionieren? Dann bräuchtest du ja auch andere Anschlüsse als bisher, über die du Nvidia spezifische Signale sendest. Also ich habe bisher noch nichts davon gelesen, dass es rein technologisch nur mit Kepler funktionieren soll. Wenn Nvidia das sagt, dann hat das vermutlich lediglich marketingtechnische Gründe.
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Funktioniert nur mit Kepler und über Displayport und es ist angeblich Technisch begründet. Man benötigt also eine Kepler Grafikkarte und einen neuen Monitor welcher über Displayport angeschlossen werden muss.
Edit:
Ich vermute das nV sowas für das Aktuallisierungs-Signal nutzt.
Edit:
Quelle: http://de.wikipedia.org/wiki/DisplayPortDisplayPort 1.0 soll zudem einen Zusatzkanal unterstützen, der bei geringen Latenzen und konstanter Bandbreite eine bidirektionale Verbindung erlaubt, um unter anderem eine Gerätesteuerung nach den VESA-Standards E-DDC, E-EDID, DDC/CI und MCCS zu ermöglichen. Dadurch wird echtes Plug and Play möglich. Dieser Kanal wird AUX-Channel genannt (englisch auxiliary, in diesem Zusammenhang mit Hilfskanal übersetzbar).
Der AUX-Channel kann für verschiedene Zwecke eingesetzt werden, dazu zählen unter anderem Consumer-Electronics-Control oder USB.
Ich vermute das nV sowas für das Aktuallisierungs-Signal nutzt.
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Und die technischen Gründe sind welche?
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Naja die Grafikkarte muss dem Monitor mitteilen wenn ein neues Bild zur Darstellung bereit steht. Aktuelle Monitore stellen einfach den aktuellen Inhalt des Speichers mit 60 / 120 oder 144 Hz Abtastrate dar. Irgendwie muss nun allerdings die Grafikkarte die Abtastrate des Bildschirms Dynamisch verändern können.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.414
- Renomée
- 1.993
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Bei DisplayPort sitzt der Taktgeber doch sowieso im Bildschirm selbst.
Ersetze ihn durch ein beeinflussbares Bauteil das durch die Graka gesteuert werden kann und die Sache sollte gehen.
Vermutlich ist deshalb auch ein neuer Bildschirm fällig.
Ersetze ihn durch ein beeinflussbares Bauteil das durch die Graka gesteuert werden kann und die Sache sollte gehen.
Vermutlich ist deshalb auch ein neuer Bildschirm fällig.
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Ja so sieht es aus. Es wurde allerdings mehrfach gesagt das die Steuerung selbst von der Grafikkarte kommen soll. Der Monitor ist demnach nur der Befehlsempfänger daher geht das ganze wahrscheinlich auch nur mit Kepler Karten. Einer der ersten Bildschirme mit G-Sync soll übrigens eine Neuauflage des ASUS VG248QE werden.
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Dennoch, wenn man DisplayPort nutzt, wüsste ich nicht, was gegen andere Grafikbeschleuniger sprechen sollte. Da müsste man jetzt natürlich die DisplayPort Spezifikationen kennen und welche Signale da bereits übertragen werden. Freiwillige?
Wie auch immer. Ich bin da eher skeptisch. Zum einen kann ich mir nicht vorstellen, dass das ständige Wechseln der Bildwiederholrate gut für die Langlebigkeit des Monitors ist. Vielleicht bin ich da aber auch einfach nur durch Röhrenmonitore geschädigt. Zum anderen erhältst du damit aber auch ständig wechselnde Framezeiten auf dem Monitor. Das was jetzt schon GPU-seitig immer wieder kritisiert wird. Und ob es auf dem Monitor recht augenschonend ist und als gleichbleibend flüssig empfunden wird, ist fraglich. MMn ist eine feste Abtastrate schon der richtige Ansatz. Nur müsste man hardwareseitig sicherstellen, dass im selben Abtastzyklus nicht unterschiedliche Frames übertragen werden können. Notfalls einfach einen oder auch mehrere Abtastzyklen überspringen. Sofern die Abtastrate hoch genug ist, sollte das nicht wahrnehmbar sein.
Das Ziel von G-Sync ist sicherlich nicht verkehrt. Nur werde ich das Gefühl nicht los, dass Nvidia mit Kanonen auf Spatzen zu schiessen versucht.
Wie auch immer. Ich bin da eher skeptisch. Zum einen kann ich mir nicht vorstellen, dass das ständige Wechseln der Bildwiederholrate gut für die Langlebigkeit des Monitors ist. Vielleicht bin ich da aber auch einfach nur durch Röhrenmonitore geschädigt. Zum anderen erhältst du damit aber auch ständig wechselnde Framezeiten auf dem Monitor. Das was jetzt schon GPU-seitig immer wieder kritisiert wird. Und ob es auf dem Monitor recht augenschonend ist und als gleichbleibend flüssig empfunden wird, ist fraglich. MMn ist eine feste Abtastrate schon der richtige Ansatz. Nur müsste man hardwareseitig sicherstellen, dass im selben Abtastzyklus nicht unterschiedliche Frames übertragen werden können. Notfalls einfach einen oder auch mehrere Abtastzyklen überspringen. Sofern die Abtastrate hoch genug ist, sollte das nicht wahrnehmbar sein.
Das Ziel von G-Sync ist sicherlich nicht verkehrt. Nur werde ich das Gefühl nicht los, dass Nvidia mit Kanonen auf Spatzen zu schiessen versucht.
Zuletzt bearbeitet:
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Durch die Fixe Wiederholrate addiert man immer eine weitere Verzögerung zur Bildausgabe der Grafikkarte, diese liegt bei einem 60 Hz TFT immerhin zwischen 0 und 1/60 Sec, spielen mit Niedrigen FPS und G-Sync ist alleine durch diesen Effekt wohl Angenehmer als ohne da man eine Fehlerquelle für inkonstante Bildausgabe weniger hat. Fixe Wiederholraten bringen eine Verzögerung mit die mit den Inkonsistenten Berechnungszeiten der Grafikkarte summiert wird. Das kann den Effekt entweder geringfügig verbessern oder aber (je nach dem wann das Bild genau fertig ist) sogar verstärken es ist also einfach eine zusätzliche Fehlerquelle. In Sachen Langlebigkeit sehe ich bei aktuellen Monitoren mit Dynamischer Wiederholfrequenz eigentlich keine Probleme wo sollen denn da welche entstehen?
Zu dem Sync Signal ich vermute das nV hier den CEC Kanal oder ähnliches nutzt. Ich hab allerdings keine idee wie der Sync befehl genau aussieht währe es möglich dafür DDM zu nutzen?
Daher vermute ich mal schon das es ein zusätzliches Signal gibt welches von anderen Grafikkarten zumindest aktuell nicht bereitgestellt wird. Das heißt nicht das man das verhalten nicht höchstwahrscheinlich mit einem neuen Treiber implementieren könnte.
Zu dem Sync Signal ich vermute das nV hier den CEC Kanal oder ähnliches nutzt. Ich hab allerdings keine idee wie der Sync befehl genau aussieht währe es möglich dafür DDM zu nutzen?
Quelle: http://en.wikipedia.org/wiki/DisplayPortDDM[edit]
Direct Drive Monitor (DDM) 1.0 standard was approved in December 2008. It allows for controller-less monitors where the display panel is directly driven by the DisplayPort signal, although the available resolutions and color depth are limited to 2-lane operation.
Daher vermute ich mal schon das es ein zusätzliches Signal gibt welches von anderen Grafikkarten zumindest aktuell nicht bereitgestellt wird. Das heißt nicht das man das verhalten nicht höchstwahrscheinlich mit einem neuen Treiber implementieren könnte.
Zuletzt bearbeitet:
ONH
Grand Admiral Special
Dennoch, wenn man DisplayPort nutzt, wüsste ich nicht, was gegen andere Grafikbeschleuniger sprechen sollte. Da müsste man jetzt natürlich die DisplayPort Spezifikationen kennen und welche Signale da bereits übertragen werden. Freiwillige?
Sehe auch nichts, was man neben dem Bildschirm an Hw benötigt für die g-sync. Nv will doch einfach nicht das ganze noch für 2+ Jahre alte karten in die Treiber integrieren, macht AMD ja mit Mantle auch nicht anderst.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.414
- Renomée
- 1.993
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Vielleicht nimmt der Monitor auch nur die Bilder entgegen ohne an eine feste Bildwiederholrate gebunden zu sein.
Erkennt die Grafikkarte so einen Monitor dann schickt sie die Vollbilder ohne Umwege sofort raus. Zumindest könnte man den Monitor dann auch an ohne dieses Feature betreiben da er so oder so auf das Refresh Signal reagiert.
Erkennt die Grafikkarte so einen Monitor dann schickt sie die Vollbilder ohne Umwege sofort raus. Zumindest könnte man den Monitor dann auch an ohne dieses Feature betreiben da er so oder so auf das Refresh Signal reagiert.
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Hmm was wurde da bei 3:48 rausgeschnitten?
So oder so Danke für den Link.
hier nochmal in Text form
und hier die Präsentation von G-Sync und 780 Ti als Text
Achtung: da es der Liveblog ist bitte von unten nach oben lesen
btw:
03:02PM EDT - Carmack: is G-Sync hardware licensable?
03:02PM EDT - NV: we haven't precluded that
und zu Mantle gibt es wohl eine recht übereinstimmende Meinung:
02:58PM EDT - Everyone seems to agree that Mantle alone isn't bad, if everyone builds their own it's bad, but hopefully it influences OpenGL/DX direction
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
Danke, aber das hatte ich schon gesehen, und die Lücke gibts da auch.
Sieht man auch daran, dass sich das "those" auf nichts bezieht. Scheint so, als ob er da ein paar Beispiele für die Langzeitprobleme genannt hat.it's not a replacement, the idea is that we can solve some of the long term problems we have been having on the PC,<Lücke> those are things we can experiment and work with Mantle, this is another avenue, opening up something we're quite familiar with, we've spent the last few years working on next-gen consoles, even though
Zum Displayportsignal stand was auf anadtech:
http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothnessMeanwhile we do have limited information on the interface itself; G-Sync is designed to work over DisplayPort (since it’s packet based), with NVIDIA manipulating the timing of the v-blank signal to indicate a refresh. Importantly, this indicates that NVIDIA may not be significantly modifying the DisplayPort protocol, which at least cracks open the door to other implementations on the source/video card side.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 410
- Antworten
- 1
- Aufrufe
- 452