Kaveri - der Trinity Nachfolger

APUs beschleunigen auch Code der nichts mit Mediadaten zu tun hat, z.B. Java wird bei Datenbankzugriffen durch HSA Code enorm beschleunigt.

Das ist mir schon klar. Aber ihre Vorteile finden in diesem Bereich am ehesten ihre Anwendung. Letztlich machen sie dort Sinn wo jede Menge Rechenleistung benötigt wird.
Und das ist nun mal häufig bei der Bearbeitung von Media-Inhalten zu finden.
Für einen einfachen Webserver der lediglich Inhalte durchschleift und vielleicht noch das ein oder andere Script ausführt sind einfache x86 oder ARM die bessere Wahl.
 
Ich frage mich wie Datenbank_zugriffe_ beschleunigt werden sollen die ja bekanntlich IO-gebunden sind.
Macht jetzt HSA auch Disken schneller?

Alles Wunschdenken.
 
Kann man die Datenbanken nicht auch in den HUMA Speicher legen? Damit könnte man parallele Zugriffe massiv beschleunigen.
 
Leute, macht kein Drama draus.
Natürlich beschleunigt HUMA nicht das Festplatteninterface.
Und natürlich läßt sich ein Datensatz mit ein paar Millionen Einträgen im Speicher mit vielen (GPU)Kernen schneller durchsuchen oder sortieren.
 
Datenbanken liegen sowieso so viel im Speicher wie möglich, sonst ging ja gar nichts weiter.
Trotzdem sind sie alle immer IO lastig.
Außer in äußerst wenigen Sonderfällen wo nur gelesen wird und die Datenmenge so klein ist in den Speicher zu passen.
Sog. in-memory databases

Für alle anderen DBs gilt:
IO-lastig bis zum geht nicht mehr und zudem SQL will auch mal übersetzt und interpretiert werden.
-> Grafikkarten Fehlanzeige.
 
Gehts nun um HSA oder HuMA? Ich hab den Faden verloren.
Da HuMA Teil von HSA ist sollte das keinen Unterschied machen. Du solltest dich wirklich mal mit HSA auseinandersetzen, damit du nicht andauernd die selben Fragen stellst.

Das ist ja als ob man fragt "gehts um Arbeitsspeicher oder um PCs?"
 
Deine Frage hatte allerdings den Kontext als wären es verschiedene Thematiken. Es ging um HuMA welches ein Teil der HSA Architektur ist. Also was wolltest du mit deiner Frage ausdrücken, ausser dass dir diese Tatsache nicht ganz klar ist?
 
und zudem SQL will auch mal übersetzt und interpretiert werden.
Ach pffff ... SQL .. das olle Zeugs aus den 70ern braucht man heute doch nicht mehr, es lebe noSQL:
http://nosql-database.org

Ok nun wieder im Ernst: Für so Hadoop-/MapReduce-Sachen sollte ne ja GPU topp sein, oder? IO darf natürlich weiterhin nicht limitieren, aber in dem Sonderfall gabs bisher ein CPU-Limit, wenn ich alles richtig verstanden habe.
 
Sonderfall?
SAP z.B. setzt mit seiner Datenbank HANA voll und ganz auf In-Memory-Technologie. Und da geht es i.d.R. um viel größere Datenvolumen als wir sie vom PC her kennen.
MfG
 
Datenbanken liegen sowieso so viel im Speicher wie möglich, sonst ging ja gar nichts weiter.
Trotzdem sind sie alle immer IO lastig.

Nicht zwangsläufig. IO lastig sind sie, wenn man viele Transaktionen hat und ein komplexes Wiederherstellungsmodell, sprich intensives Loggen der Transaktionen benötigt. Benötigt man das nicht, senkt das die Last enorm.
 
@Woerns:
Naja, für alle und jede Abfragen wird der MapReduce-Algo doch kein Allheilmittel sein, oder?
Von In-Memory redete ich nicht, das ist bei jeder DB immer (sehr) schön, wenn mans hat.

Frage ist eher, ob es bei Big-Data (das meinst Du sicherlich mit Datenvolumen größer als bei PC) noch praktikabel ist.
 
Sonderfall?
SAP z.B. setzt mit seiner Datenbank HANA voll und ganz auf In-Memory-Technologie. Und da geht es i.d.R. um viel größere Datenvolumen als wir sie vom PC her kennen.
MfG
Ja und?
Wo findet sich da jetzt die doch sehr spezielle eingeschränkte Rechenpower von Grafikkernen?

Abgesehen davon:
Gerade das kranke Datenmodell von SAP bekleckert sich nicht mit Ruhm wenn es um Performance geht.
Wenn da Grafikkarten die Perfomance wieder bringen sollen dann gute Nacht.

Nicht zwangsläufig. IO lastig sind sie, wenn man viele Transaktionen hat und ein komplexes Wiederherstellungsmodell, sprich intensives Loggen der Transaktionen benötigt. Benötigt man das nicht, senkt das die Last enorm.
Ja und?
Hier gilt das Gleiche wie oben.
Wo findet sich da jetzt die doch sehr spezielle eingeschränkte Rechenpower von Grafikkernen?

@Opteron
Map-reduce ist ja alles schön und gut.
Wo die Power interessant wird sind die Datenmengen wieder jenseits von gut und böse.
Dh. wie kommen die 500GB oder TBs zur Graka zum reducen?
In der Theorie wunderbar mit HSA in der Praxis wird man es sehen müssen.
Noch bin ich sehr skeptisch.
 
Ja und?
Hier gilt das Gleiche wie oben.
Wo findet sich da jetzt die doch sehr spezielle eingeschränkte Rechenpower von Grafikkernen?
Nun es geht nicht um die Power der Grafikkerne - dafür reicht ja OpenCL.
Es geht um HSA und die enthaltene hUMA Technologie, wo CPU und GPU gemeinsam daran arbeiten und nur ein Code dafür benötigt wird. Wenn bei gemeinsamem Code und Kontextbedingtem Switch der Recheneinheiten (CPU<->GPU) eine Verdreifachung der Verarbeitungsgeschwindigkeit erreicht wird, ist das Spitze.
 
Nun es geht nicht um die Power der Grafikkerne - dafür reicht ja OpenCL.
Es geht um HSA und die enthaltene hUMA Technologie, wo CPU und GPU gemeinsam daran arbeiten und nur ein Code dafür benötigt wird. Wenn bei gemeinsamem Code und Kontextbedingtem Switch der Recheneinheiten (CPU<->GPU) eine Verdreifachung der Verarbeitungsgeschwindigkeit erreicht wird, ist das Spitze.
Nochmal zusammengekürzt: Wo braucht SQL einen Kontextswitch auf eine GPU?
 
Überall dort, wo Daten parallel verarbeitet werden können.
Suchen, Sortieren, Summieren etc.
 
Überall dort, wo Daten parallel verarbeitet werden können.
Suchen, Sortieren, Summieren etc.
Eigentlich nichts, wo eine Server-CPU groß ins Schwitzen gerät, wenn man die Datenbank/Tabellen ordentlich designt (Indizes, etc..) hat. Und bei BigData limitiert vorher das I/O....
 
Nochmal zusammengekürzt: Wo braucht SQL einen Kontextswitch auf eine GPU?
Keine Ahnung. Hat das jemand ausser dir behauptet?
Komm bitte unbedingt wieder wenn Du verstanden hast was ein Kontext ist.
Guten Tag. Und was weiter jetzt? hUMA bleibt HSA und der Kontext deines Satzes ist nicht gegeben ausser es wären verschieden Themen. Du hättest mich vielleicht darauf hinweisen können dass ich grammatikalisch nicht richtig lag, jetzt ist der Zug abgefahren ;)
 
Zuletzt bearbeitet:
Ja und?
Wo findet sich da jetzt die doch sehr spezielle eingeschränkte Rechenpower von Grafikkernen?

Abgesehen davon:
Gerade das kranke Datenmodell von SAP bekleckert sich nicht mit Ruhm wenn es um Performance geht.
Wenn da Grafikkarten die Perfomance wieder bringen sollen dann gute Nacht.

Als unsere UNI mal SAP Besuch abgestattet hat, hat das verantwortliche Team auch die InMemory DB vorgestellt, das waren etwa ein Handvoll MA, k. a. wie da was gescheites raus kommen soll, aber vielleicht arbeiten jetzt mehr daran *noahnung*
 
Eigentlich nichts, wo eine Server-CPU groß ins Schwitzen gerät, wenn man die Datenbank/Tabellen ordentlich designt (Indizes, etc..) hat. Und bei BigData limitiert vorher das I/O....
Ah, dann ist das der Grund, warum zunehmend auf Microserver mit vielen kleinen Prozessoren mit viel I/O und viel Speicher gesetzt wird, weil eine teure Server-CPU eh nicht ausgelastet wird?
 
Ah, dann ist das der Grund, warum zunehmend auf Microserver mit vielen kleinen Prozessoren mit viel I/O und viel Speicher gesetzt wird, weil eine teure Server-CPU eh nicht ausgelastet wird?
Wo außer bei der Werbung wird auf Micro-schrott-server gesetzt?
Ich hab noch keine in den RZs gesehen.
 
Und ich habe SQL nicht erwähnt.
 
Zuletzt bearbeitet:
Zurück
Oben Unten