News AMD setzt lang geplantes Ziel um: Kein VGA-Ausgang an neuen Grafikkarten

Onkel_Dithmeyer

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.04.2008
Beiträge
12.950
Renomée
4.023
Standort
Zlavti
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
VGA (Video Graphics Array) dürfte wohl jeder kennen, der mit PCs arbeitet. Die Schnittstelle wurde 1987 von IBM eingeführt und ist noch heute bei vielen Geräten anzutreffen, ob dies nun Mainboards, Grafikkarten, Beamer oder sogar Adapter auf Scart-Kabel sind. 2010 kündigten die führenden Prozessorentwickler AMD und Intel gemeinsam mit einigen Monitorherstellern (Dell, Lenovo, Samsung und LG) an, ab 2015 keine VGA-Anschlüsse mehr zu verbauen.
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Dabei behält der Monitor solange ein Bild, bis ein neues von der Grafikkarte erzeugt wird. Ändert sich der Bildinhalt nicht, muss die GPU keine neuen Frames berechnen

Das läuft auf ein Standbild hinaus. Besser wäre:
Ändert sich der Bildinhalt nicht, muss das TFT kein neues Bild anzeigen.
MfG
 
Ich verstehe den Unterschied nicht. Es geht doch darum, dass wenn ich einen Text lese zum Beispiel, nicht 60 Bilder in der Sekunde von der GPU gerendert werden müssen. Die GPU erzeugt nur ein neues Bild, wenn sich der Inhalt ändert und sendet dieses an den TFT, der bis zum Eintreffen des neuen Bildes das alte anzeigt.
 
Hast schon recht. Ist ja auch allen klar.
Man darf in diesem Kontext eben "Bildinhalt" nicht für das halten, was am Bildschirm ankommt, denn der ändert sich, WEIL die GPU einen neuen Frame berechnet hat.
Sondern das, was ein neues Bild verursachen würde. Mir fällt da spontan auch kein besserer Begriff ein. Bei Spielen wäre das der geringstmögliche Szenenwechsel. Allerdings ist das Thema für Spiele ohnehin nicht relevant sondern eher z.B. bei Textverarbeitung, wenn gerade mal ein Cursor mit 2Hz blinkt und deshalb das TFT nicht mit 60Hz updaten muss. Bei Textverarbeitung könnte man vielleicht einen Begriff wie "Inhaltsänderung" verwenden, um zu unerscheiden zwischen diesseits der Grafikkarte und jenseits, was dann definitiv ein "Bild" ist.
MfG
 
Und wenn ebend kein neues Bild berechnet wurde und erst dann ein neues kommt wenn es sich ändert? ;)
 
Ich verstehe den Unterschied nicht. Es geht doch darum, dass wenn ich einen Text lese zum Beispiel, nicht 60 Bilder in der Sekunde von der GPU gerendert werden müssen. Die GPU erzeugt nur ein neues Bild, wenn sich der Inhalt ändert und sendet dieses an den TFT, der bis zum Eintreffen des neuen Bildes das alte anzeigt.

Wenn sich am Bildinhalt nichts ändert muss die GPU auch nicht neues berechnen. Das ist schon immer so.

Der Unterschied mit Smart-Displays ist wo der Bildinhalt gespeichert wird. Zur Zeit ist das immer der VRAM, der Kanal zwischen GPU und Bildschirm läuft aber immer mit festeingestellter Wiederholrate, d.h. auch wenn sich nicht ändert muss die GPU ständig die Daten aus dem VRAM holen und zum Monitor pumpen, schon ein einzelner FullHD Bildschirm benötigt dabei 500MB/s an Bandbreite. Wenn der Bildinhalt im Display gespeichert wird, kann der Kanal zwischen GPU und Display bei unverändertem Bildinhalt gestoppt werden -> der VRAM kann in einen tieferen Schlafzustand geschickt werden und der Link kann ein power-down ausführen.
Beides zusammen kann zu erheblichen Einsparungen beim Verbrauch führen.
 
Wenn sich am Bildinhalt nichts ändert muss die GPU auch nicht neues berechnen. Das ist schon immer so.

Der Unterschied mit Smart-Displays ist wo der Bildinhalt gespeichert wird. Zur Zeit ist das immer der VRAM, der Kanal zwischen GPU und Bildschirm läuft aber immer mit festeingestellter Wiederholrate, d.h. auch wenn sich nicht ändert muss die GPU ständig die Daten aus dem VRAM holen und zum Monitor pumpen, schon ein einzelner FullHD Bildschirm benötigt dabei 500MB/s an Bandbreite. Wenn der Bildinhalt im Display gespeichert wird, kann der Kanal zwischen GPU und Display bei unverändertem Bildinhalt gestoppt werden -> der VRAM kann in einen tieferen Schlafzustand geschickt werden und der Link kann ein power-down ausführen.
Beides zusammen kann zu erheblichen Einsparungen beim Verbrauch führen.

Und diese ganzen zusätzlichen Buffer im Display machen noch einen tollen Input Lag...
 
Und diese ganzen zusätzlichen Buffer im Display machen noch einen tollen Input Lag...

Hab ich noch nicht von gelesen. Gibt es dazu schon erste Tests oder ist das nur eine Vermutung von dir?
 

Wird aber bereits seit einigen Jahren nur noch über Zusatz-Chips realisiert. Ich kenne keinen aktuellen Chipsatz, der die Schnittstelle noch nativ unterstützt. Sogesehen wird auch VGA durch aktive Adapter weiterexistieren ;)

edit:
oder meinst du, dass VGA als Form des RS-232 schon älter als Klinke ist?
 
RS-232 steht im Kontext der Aufzählung PS/2, VGA und "der älteste Anschluss bleibt allerdings nach wie vor der 3,5 mm Audio-Klinkenanschluss von 1979".
Zusatzchip hin, nativ im Chipsatz vorhanden her (steht nicht zur Debatte und nötigte zur Hinterfragung oben erwähnter Anschlüsse): RS-232 ist deutlich älter als das in den Raum gestellte 1979 und noch auf vielen aktuellen Boards zu finden. Von daher ist das Resümee schlicht falsch.
 
RS-232 im Sinne eines dedizierten seriellen Ports ist soweit mich eine kurze Suche nicht trügt bei keinem bei Geizhals gelisteten Bord vorhanden (egal ob Intel oder AMD oder sonstwas). Mein jetzt mindestens 3 Jahre altes (weiß ich net genau) Gigabyte Bord verfügt allerdings noch über einen (DE9)...
 
Ich hab es mal umformuliert, damit sollte es passen ;)

der älteste weitläufig verbaute Anschluss bleibt allerdings nach wie vor der 3,5 mm Audio-Klinkenanschluss von 1979.
 
Zurück
Oben Unten