News Details zu AMDs TrueAudio: Von VLIW und Verwandten

@tomturbo: In der Theorie mag das so sein (Stichwort : HRTF), aber meine Ohren funktionieren wohl anders. Bei mir hat es mit nur zwei Lautsprechern nie so leicht in alle Richtungen ortbar geklungen wie mit fünf oder sieben. Und bei Kopfhörern kommt hinzu, dass diese aufgrund des Gewichts und der Abmessungen häufig nicht mit ausgewogenen Lautsprechern bestückt sind. Kopfhörer sind oftmals ein wenig höhenlastig. Und was nützt einem dann ein besserer Raumklang mit Kopfhörern gegenüber einem 2.0 System, wenn der Klang (leicht) verfälscht ist? Gerade Computerspiele setzen oft auf Bässe. Zum Beispiel bei Antriebssystemen und Explosionen. Und (erschwingliche) Kopfhörer bringen diese nicht wirklich kraftvoll rüber.

@Opteron: Ich denke es fehlte damals einfach an den Ausgabegeräten bei der breiten Masse der Spieler. Als es den größten Hype um A3D und EAX gab, spielten die meisten doch mit simplen Kopfhörern oder Monitorlautsprechern. Damit stellt sich nur bedingt ein Raumklang ein. Das war ähnlich wie mit den Shutterbrillen, die zur selben Zeit gepusht wurden. Ein prominenter Vertreter dafür wäre die Elsa 3D Revelator. Sie haben sich nicht durchgesetzt und weil kaum jemand eine Shutter Brille besessen hat, wurden sie dann alsbald stiefmütterlich behandelt.

Fazit: Für TrueAudio benötigt man geeignete Ausgabegeräte und die gibt es nicht umsonst. Allein hochwertige Kopfhörer können genauso viel oder mehr als ein guter Monitor kosten. Wenn man denn bereit ist das Geld dafür in die Hand zu nehmen. Ich spare es mir lieber. Raumklang ist ein Luxus, den ich nicht unbedingt benötige, obgleich er seinen Reiz hat. Es gibt jedoch viele audiophile Menschen auf dieser Welt, die dafür gern tief in die Tasche greifen.
 
Zuletzt bearbeitet:
Damit hier ein Vorteil entsteht, müssten die neuen Sound-Effekte deutlich rechenintensiver sein als bei EAX.
Der X-Fi-Chip hatte glaube ich sogar die Leistung eines P4. ^^
Nicht unbedingt, sie müssen nur "besser" sein.
Wäre interessant zu erfahren wie EAX damals genau funktionierte, ob sie auch schon an die Positionsdaten rankamen, oder nicht. Da sehe ich den großen Vorteil von Trueuadio, da sie in der GPU an der Quelle sitzen. Dazu halt noch deutlich mehr Klangquellen und nen guten Algo ... in Verbindung mit ner großen Verbreitung der Hardware könnte da schon was drauß werden.
AMDs Folie macht für mich auch nicht unbedingt viel Sinn.
Hmm bei mir ist es andersherum, ich versteh nicht, wieso Du wieder deinen Zweikern- <> Vierkern-Vergleich wiederholst. Für aktuelle Spiele, trifft das ja durchaus zu, siehe AMDs Folie. Viele Spiele lasten Quadcores immer noch nicht 100% aus, da bekommst Du dann sicherlich ne Entlastung.
Aber probier das mal mit ner neuen Engine aus, die alle Kerne @100% fährt. Frostbite3 soll jetzt sogar imstande sein 8 Kerne zu belegen.

Kurz: Nen Entlastungseffekt gibts natürlich nur, wenn die Engine die vorhandenen Resourcen auch schon voll in Beschlag nimmt. Das war damals in alten Zeiten mit Deinem Quadcore sicher nicht der Fall.

Nachdem jetzt aber endlich die echten multicore-Engines kommen und die Soundeffekte ebenfalls (deutlich) zulegen, schätze ich die zukünftige Lage so ein, wie Du sie für Deinen Dualcore schilderst.
Und gn8 für heute. Ich lese Deine Artikel gerne. ^^

Guten Tag und Danke :)

@Spina:
Hmm da kann auch was dran sein, wobei ich aus der Zeit immer noch mein Creative 4.0 Boxenset hab. Also da sind schon ein paar Leute umgestiegen, aber es war vielleicht zu wenig. Mir persönlich reicht es, die 200 DM waren ne gute Investition ^^
Der propriätäre Creative-Digitaleingang liegt zwar brach, aber zum Glück gibts auch 2 normale 3,5er Eingänge.
 
...ob sie auch schon an die Positionsdaten rankamen, oder nicht.
Wie das bei EAX aussah, weiß ich nicht, aber bei A3D (2.0) ging das. Aureal nannte es Wavetracing:
Wavetracing: Aureal's process of using the game's graphics geometry to process audio sources and environments and render the sounds with proper and accurate occlusions and reflections
Quelle: http://www.quantexzone.com/

Dabei werden dann auch verschiedene Wand- und Bodenbeläge berücksichtigt. Ebenso wie Nebel. Die Technik war schon ziemlich ausgefeilt.
Hmm da kann auch was dran sein, wobei ich aus der Zeit immer noch mein Creative 4.0 Boxenset hab.
Vier Lautsprecher sind doch schon etwas. Jedenfalls mehr als die meisten haben. Vielleicht kommen mit TrueAudio wieder solche Bundle auf.
 
Zuletzt bearbeitet:
Wie das bei EAX aussah, weiß ich nicht, aber bei A3D (2.0) ging das. Aureal nannte es Wavetracing:Quelle: http://www.quantexzone.com/

Dabei werden dann auch verschiedene Wand- und Bodenbeläge berücksichtigt. Ebenso wie Nebel. Die Technik war schon ziemlich ausgefeilt.
Hm cool klingt in der Tat gut. Problem war dann vielleicht nur noch die Latenz die AMD auf den neuen Folien betont. Muss ja alles in Realtime ablaufen. Ob das damals in AGP und PCI-Zeiten so toll ging ...?

Vier Lautsprecher sind doch schon etwas. Jedenfalls mehr als die meisten haben. Vielleicht kommen mit TrueAudio wieder solche Bundle auf.
Jo seh ich auch so, 4 Lautsprecher reichen mMn, zumindest deutlich besser als 2 ^^
 
Grundsätzlich freue ich mich auf True Audio, und auf einen hoffentlich würdigen Nachfolger für EAX.
Spiele gerade wieder einmal Dungeon Siege 2, mit EAX.
Macht schon Spaß mit meiner Extreme Music.
Teilweise ist in anderen EAX-Spielen eine so präzise Ortung möglich, dass man die Gegner schon hören kann, bevor man sie sehen kann.
Das mit True Audio wäre schon eine tolle Sache. Könnte ich mir z.B. gut in BF4 vorstellen.
Und auch an das entsprechende mimimi anderer Spieler die kein True Audio nutzen können. ^^

Nur an eine große Entlastung der CPU (in Desktop PCs) will ich noch nicht so richtig glauben. :P
Da warte ich lieber noch auf entsprechende Tests zu True Audio. ^^
 
Ich geh jetzt einfach mal davon aus, dass auch die PS4 dies hat oder ???
Die sind da leider recht schmallippig. Da gibts nicht mehr Infos, als dass sie auch ne Audio-Engine haben:
"The reason we use dedicated units is it means the overhead as far as games are concerned is very low," said Cerny. "It also establishes a baseline that we can use in our user experience."

"For example, by having the hardware dedicated unit for audio, that means we can support audio chat without the games needing to dedicate any significant resources to them. The same thing for compression and decompression of video." The audio unit also handles decompression of "a very large number" of MP3 streams for in-game audio, Cerny added.
http://www.gamasutra.com/view/feature/191007/inside_the_playstation_4_with_mark_.php?page=3

Da reden sie aber nur über MP3 .. von Effekten kein direktes Wort, auch wenn er von ner "großen Zahl von Streams" redet. Ichs habs deshalb aber vorsichtshalber rausgelassen.

Nur an eine große Entlastung der CPU (in Desktop PCs) will ich noch nicht so richtig glauben. :P
Da warte ich lieber noch auf entsprechende Tests zu True Audio. ^^
Hmm naja .. das ist im Moment dann noch eher ein Problem. Ich hab keine Ahnung auf welchen Engines die angekündigten TA-Titel basieren. Wenn das noch was Älteres ist, werden die kaum 8 Threads auslasten können.
BF4 kann das, aber das wurde nur mit Mantle beworben, von TA hat keiner was gesagt.

Aber selbst wenns unterstützt werden würde, wären wohl keine fairen BEnches drin, da das Spiel ohne TA-DSPs sicherlich viel weniger Stimmen nutzen würde. Freu Dich einfach auf den besseren Sound und darauf, dass er garantiert keine Resourcen kostet. Wieviel das auch immer sein würden ^^
 
Für BF4 wurde TrueAudio aber bisher nicht angekündigt. Vielleicht dann bei BF5 *chatt*
 
Problem war dann vielleicht nur noch die Latenz die AMD auf den neuen Folien betont.
Das menschliche Ohr soll nicht besonders latenzempfindlich sein. Selbst geübte Ohren nehmen keinen Versatz kleiner als 10ms wahr.

Und bei 10ms bewegen wir uns schon im Bereich der mittleren Zugriffszeit herkömmlicher, (für IT-Verhältnisse) behäbiger Festplatten.
 
Zuletzt bearbeitet:
Hmm ok, aber das Auge? Wenn der Zombie um die Ecke biegt und erst dann hört man das Schleifen der Fußkette, ist das dann noch ok?
Falls ja glaub ich Dir mal, dann wär das auf den AMD-Folien nur Marketinggeschrei.
 
Je Meter braucht der Schall rund 3ms. In einem großen Opernhaus soll eine Latenz zwischen dem Orchester und den hinteren Rängen von 50ms und mehr herrschen.

Und ich glaube in der Oper hat sich noch kein Zuhörer darüber beschwert, dass der ankommende Ton und die Instrumente optisch nicht im Gleichtakt sind. *buck*
 
In einer Oper befindet sich das Orchester im Orchestergraben. Wie willst Du da was sehen?
 
In einer Oper befindet sich das Orchester im Orchestergraben. Wie willst Du da was sehen?

Naja ist ja egal, dann nehmen wir halt ne hypothetische Orchestervorführung auf der Bühne.

Aber in dem Fall kommt schon das Thema Hall und Raumakustik dazu. Wieso klingts in der Oper so wies klingt .. wegen des Raumes. Ich geh in ner Oper grundsätzlich auf die billigen Plätze nach oben, da ist der Klang am besten ^^

Wo der Schall nun herkommt .. Echo des Raumes oder genau der Augenblick wann ein Hornist ins Horn bläst ... sieht man nicht. Ein Drücken der Ventile könnte man vielleicht noch sehen, aber hmmh .. auch schon schwer. Aber selbst wenn mans mit nem Fernglas sehen würde, würde man vermutlich keinen Unterschied merken. Tendiere also mal zu Spinas Ansicht.

Wo mans feststellt ist bei nem Flugzeug, das 5km hoch oder so fliegt, das Dröhnen kommt da immer aus ner anderen Richtung als der Flieger. Aber sind halt 5000m, keine 50 ^^

Falls AMD da nicht mit den Angaben flunkert, dann könnte die niedrige Latenz vielleicht wg. der schieren Masse wichtig werden. Weniger Overhead -> mehr Zeit zur Berechnung.
 
Nicht unbedingt, sie müssen nur "besser" sein.
Wäre interessant zu erfahren wie EAX damals genau funktionierte, ob sie auch schon an die Positionsdaten rankamen, oder nicht. Da sehe ich den großen Vorteil von Trueuadio, da sie in der GPU an der Quelle sitzen.

Inwiefern macht es einen Unterschied ob die Daten die der DSP vom Treiber entgegen nimmt dazu zur GPU oder zu irgendeinem anderen Chip gewandert sind? Inwiefern soll der DSP Deiner Meinung nach "an der Quelle" sitzen? SOll es bei Audiodaten ebenfalls Unterstützung von Mantle und damit einen "kurzen Dienstweg" geben?
 
Na die GPU hat doch wegen der 3D-Darstellung *alle* Positionsdaten von jedem Grashalm, Mauer, Wetter.

Deswegen sitzt ein Audio-DSP da an der "Quelle". Der DSP bekommt die Daten nicht vom Treiber, die bekommt er direkt übers VRAM der Grafikkarte. Das läuft so wie der Datenaustausch zw. CPu und GPU jetzt schon bei den aktuellen Fusion Chips läuft.

Mit ner extra Soundkarte muss der VRAM-Inhalt erstmal über PCIe in den CPU-Hauptspeicher und von da wieder zurück zur Soundkarte. Direkt kann ne Soundkarte aufs GPU-Vram meines Wissens nicht zugreifen. Bin mir allerdings nicht sehr sicher, ausschließen möchte ich nichts, aber selbst dann ist der Overhead größer als bei nem ondie DSP.

Obs viel ausmacht ist die andere Frage, eventuell nicht, siehe Spinas Berechnungen oben.

Mantle hat damit nicht viel zu tun, außer dass es (aus anderem Grund, nämlich weniger Overhead) auch CPU-Zeit einspart.
 
Na die GPU hat doch wegen der 3D-Darstellung *alle* Positionsdaten von jedem Grashalm, Mauer, Wetter.

Ist das so? Ich würde eher vermuten die GPU hat keine Ahnung von Positionsdaten. Einen Überblick darüber ob das was die GPU da gerade berechnet ein Auto oder ein Radfahrer ist hat nur die CPU. Die kann daher Daten zur GPU oder zum DSP verschieben - aber eben nur genau so wie sie auch Daten zu einer Soundkarte verschieben würde. Weder die Transferrate noch die Latenz des Transportweges dürften dabei - imho - eine auch nur nennenswerte Rolle spielen.

Aber ok, Thema für mich geklärt. Warten wir mal ab bis die ersten Inkarnationen heraus kommen.
 
Naja, hab mal nachgeschaut ... eigentlich wissen beide Bescheid.
Die CPU schickt die Dreiecksbeschreibungen zur GPU, die das dann rastert und auf den 2D-Monitor zaubert. Damit die GPU weiss, wo am Monitor was ist, braucht sie natürlich die Positionsdaten.

Das ist die übliche Grafik-Pipeline:
http://www.cs.jhu.edu/~cohen/IGG/Lectures/Pipeline.pdf

Ist dann zwar insofern falsch, als dass das nicht die ursprüngliche Quelle ist, aber nichtsdestoweniger gibts die Daten auf der GPU direkt zur Verfügung, da sie so oder so da landen müssen. An der Grundaussage ändert sich also nichts.

Für genauere Zusammenhänge müsste man jetzt die Software-Architektur von Trueaudio untersuche, wo genau die Sound-Plugins da ansetzen.

Evenentuell ginge es technisch auch mit ner Soundkarte, aber MS ist das Problem, da sie den Zugriff gesperrt haben. AMD umgeht das ja, indem Trueaudio über den Grafiktreiber läuft (stand Mal irgendwo auf ner Folie, frag bitte nicht wie das genau läuft ^^)
 
Wichtig ist ab jetzt die Unterstützung von True Audio bei den Entwicklern.
An einer zu geringen Unterstützung ist schon Creative vor Jahren gescheitert, und auch AMD wird scheitern wenn es zu wenige Games damit gibt.
Viel Potential hat die Idee. Aber das allein reicht nicht....
 
Zurück
Oben Unten