News AMD und Xilinx verkünden neuen Weltrekord bei AI Inference

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.365
Renomée
9.689
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Auf dem Xilinx Developer Forum haben Xilinx-CEO Victor Peng und AMD-CTO Mark Papermaster heute einen neuen AI Inference Weltrekord mit 30.000 Bildern pro Sekunde bekanntgeben, der auf einem System mit zwei AMD EPYC 7551 Prozessoren zusammen mit acht der heute neu angekündigten Xilinx Alveo U250 Beschleunigerkarten erzielt wurde. Der Benchmark wurde mit GoogLeNet (mit einer Batch-Size von 1 und Int8-Precision) durchgeführt.
(…)

» Artikel lesen
 
Spannend, wo AMD inzwischen öffentlichkeitswirksam mitmischt. Und alles, was man (noch) nicht selbst machen kann oder will, macht man zusammen mit starken Partnern, finde ich gut :)
 
In einem solchen Artikel wäre eine Erwähnung dazu wünschenswert, worin hier nun der Mehrwert besteht. Ja, mehr Bilder pro Sekunde. Aber für Was?

Ich persönlich habe keine Ahnung, worum es hier überhaupt geht bzw. wo der Nutzen liegt.
 
In einem solchen Artikel wäre eine Erwähnung dazu wünschenswert, worin hier nun der Mehrwert besteht. Ja, mehr Bilder pro Sekunde. Aber für Was?
Meines Wissens geht es dabei um die Klassifizierung von Bildern mittels künstlicher Intelligenz. Es werden also Bilder analysiert und nach dem Dargestellten einsortiert.
 
In einem solchen Artikel wäre eine Erwähnung dazu wünschenswert, worin hier nun der Mehrwert besteht. Ja, mehr Bilder pro Sekunde. Aber für Was?

Ich persönlich habe keine Ahnung, worum es hier überhaupt geht bzw. wo der Nutzen liegt.

Das hätte ich mir auch gewünscht, leider ist das Thema etwas komplexer und weder Xilinx noch AMD haben da wirklich was konkretisiert.

What that means is we all use inference all the time. Your smartphone’s voice-activated assistant uses inference, as does Google’s speech recognition, image search and spam filtering applications. Baidu also uses inference for speech recognition, malware detection and spam filtering. Facebook’s image recognition and Amazon’s and Netflix’s recommendation engines all rely on inference.

Ich hab mal das im Text ergänzt:

Mittels faltender neuronaler Netzwerke wie GoogLenet wird im Bereich Bilderkennung (Gesichtserkennung) und Spracherkennung (semantisches Parsen, Suchanfragenrückerkennung, Satzmodellierung, Satzklassifizierung, maschinelle Übersetzung) gearbeitet (siehe Wikipedia). Unterschieden wird dabei zwischen Deep Learning Training und Inference. Ersteres bezeichnet dabei das Training neuronaler Netzwerke, das zweite dann die praktische Umsetzung der antrainierten neuen Möglichkeiten zur Datenanalyse. NVIDIA zum Beispiel setzt für diesen Zweck die Tesla Produkte ein und bezeichnet die Tesla T4 GPU (basierend auf Turing) als weltweit fortschrittlichsten Infercence Beschleuniger.





<center>
What’s the Difference Between Deep Learning Training and Inference? ( Quelle: Nvidia)</center>
 
Zurück
Oben Unten