Mariadb (MySQL) über GPU laufen lassen

Hat jemand mal versucht MySQL oder MariaDB über die GPU laufen zu lassen? Wäre das überhaupt machbar und wenn ja, würde das Vorteile bringen?

Ja klar, machbar ist das - das geht aber nicht mal eben so! Und ob man solch ein Vorhaben zuhause mit relativ bescheidenen Möglichkeiten hinbekommt, steht ja noch auf einem anderen Blatt…

Für den privaten User wohl eher weniger, außer du hantierst zuhause mit DBs die mega groß und komplex sind?! Das ist bei den allermeisten Usern wohl eher nicht der Fall.
Vorteile ergeben sich daraus eher für die Technik und / oder Wissenschaft.

Ich kenne die Möglichkeit relationale Datenbanken per GPU zu berechnen von NVidia. Mit der Einführung von CUDA vor fast 15 Jahren, haben die damit den Grundstein gelegt. Mit NVidias erster eigener SQL-Engine (Blazing SQL) kurze Zeit später, war dann auch der Framework für die Berechnung gelegt.
In jüngster Zeit haben sich die GPUs als primärer Wegbereiter für das Deep Learning herausgestellt. Kommerzielle Anbieter, die erstklassige Rechen- und Analysesysteme auf der Grundlage dieser GPUs entwickeln, haben sich stark vermehrt. OmniSci brachte 2017 die weltweit erste Open-Source-GPU-Datenbank und SQL-Engine auf den Markt.

GPU-Datenbanken verwenden Standardtreiber und SQL zur Abfrage von Daten. Während Vor-Ort-Bereitstellungen für große Unternehmen eine gute Option sind, werden die meisten GPU-Datenbank-Engines in der Cloud ausgeführt. Da ein einzelner Grafikprozessor über so viel Rechenleistung verfügt, müssen für die Skalierung einer GPU-Datenbank einfach mehr Grafikprozessoren zu einem Server hinzugefügt werden, anstatt weitere Server zu installieren.

GPUs beschleunigen Operationen, die parallelisiert werden können, erheblich. Eine GPU-Datenbank kann komplexe Abfragen in Millisekunden zurückgeben, selbst wenn der Datensatz auf Millionen oder Milliarden von Datensätzen anwächst. GPU-SQL-Datenbanken können SQL nativ abfragen und so die Leistung im Umfang von Big Data außerordentlich steigern.

CPUs - wurden bis Anfang der 2000er Jahre jedes Jahr um 30 bis 40 Prozent schneller. Heute wächst die CPU-Verarbeitungsleistung weiterhin um 15 bis 20 Prozent pro Jahr. Dennoch können CPUs nicht mit dem explosionsartigen Wachstum von Daten aus verschiedenen Quellen mithalten. CPUs verfügen nur über 2-64 Kerne pro Prozessor und verarbeiten Daten in der Regel in Reihe.

GPUs - Grafikprozessoren - haben eine andere Architektur und ein anderes Verarbeitungsparadigma als CPUs. Dies ermöglicht einen Leistungszuwachs von mehr als 50 Prozent pro Jahr, was GPUs einen Vorteil verschafft, wenn es darum geht, mit den heutigen Big-Data-Anforderungen Schritt zu halten. GPU-basierte Datenbanken erzielen Geschwindigkeits- und Preis-Leistungsvorteile in Größenordnungen gegenüber CPU-basierten Analysetechnologien.
Ein CPU-Server hat vielleicht 8 bis 128 sehr schnelle Kerne. Ein GPU-Server kann jedoch bis zu 40.000 Kerne haben. Einzelne CPU-Kerne sind schneller und intelligenter als einzelne GPU-Kerne, aber die schiere Anzahl der GPU-Kerne und die enorme Menge an Parallelität, die sie bieten, machen den Unterschied mehr als wett.

Machbarkeit und Vorteile wären ja nunmal klar. Aber wie du siehst, eher keine Technik für mal eben! :wink: Du kannst dich aber mal probeweise bei NVidia registrieren in dem Projektbereich und schauen, was es dort für Infos und Möglichkeiten gibt…

Getting Started Kit for Accelerated Data Science - NVidia

Schade, ich hatte eher so auf eine digitalocean Schritt für Schritt Anleitung gehofft, wie ich Mariadb über meine RTX/GTX laufen lassen kann.

Zum reinen Verständnis…
Du hast einen VPS oder Dedi bei Digitalocean stehen und willst zuhause mit dem verbundenen PC und der verbauten GraKa, die DB-Berechnungen machen? Die DB liegt dabei auf dem Server selber?

Nein, Digitalocean bietet immer gute Anleitungen zu verschiedenen Themen.

Axxo, verstehe!
Hast du dich denn mal event. bei NVidia über den Link oben registriert?? Vielleicht bekommst du ja dort seine sehnlichst erwartete Anleitung?!? :wink: