Intel ARC. SYCL und Linux bei der Hardwareerkennung... Garnicht so Einfach.

in #deutsch6 days ago (edited)

Zumindest für mich. Und für die Profis ist es auch Einfach, weil ich mich garnicht Retten kann, vor lauter Vorlagen und Programmen zu dem Thema GPU Geräteerkennung unter Linux mit SYCL ARC.

Das ich XAIGPUARC am längsten Entwickelt habe bisher, im Vergleich zu seiner Größe, ist nur wegen diesem Thema der Grund.

Gestern, habe ich wiedermal versucht, die Harwareerkennung ein bisschen Größer zu bauen, als Harry, Hinz und Kunz es tun würden.

Damit sich jeder was aussuchen kann beim Benutzen sozusagen, was er denn nun gerne haben würde.

Ich zum Beispiel, bin inzwischen, ein rießen Fan von iGPUs geworden, weswegen ich meine Arbeiten auch auf sie Konzentriere und einiges dazu Gelernt habe inzwischen.

Diese Mini Grafikkarten, hat quasi jeder Computer, der keine Richtige Grafikkarte hat. :-)

Sathosi wäre Stolz auf mich, würde ich sagen, in der Sache so Weit zu Denken.

Ergo, versuche ich diese kleinen Minidinger, schön maximal Nützlich zu bekommen.

Die haben nämlich oft richtig Schmackes.

Zum Beispiel können die von Intel und gerade die Älteren, sehr sehr viel RAM für sich beanspruchen und sind damit super für KI Berechnungen geeignet.

Ja sogar Blockchains werden wir damit ein bisschen abarbeiten können, wenn ich alles Brav so weiter gestalte.

Aber der Code dazu.... Ein Grauß!

Meine bisherigen Fortschritte sind alle entweder bei der Nutzung einzelner GPU, iGPU oder CPU. Wobei ich auch ein funktionierende Version habe, die GPU und CPU voll Ausnutzt. (Die macht richtig Spaß ist aber noch nicht Freigegeben)

Ich möchte aber, das man ALLE GPUs im Computer gleichzeitig nutzen kann, damit die alle zusammen ein Konzert spielen können. Sozusagen sind das verschiedene Geigen und der Herr mit dem Fuchtelstab (ich) hätte gerne ein KI Lied von diesen gesungen.

Nur wollen sie nicht, wie sie sollen oder sollen können müssten!!!

Die Dinger bekommt man aus mehrerelei Gründen nicht richtig erkannt.

Linux, SYCL, der Cache (also das Einschreiben in diesen und die Abhängigkeiten beim Auslesen von diesen Informationen) und eben die Geschwindigkeit (zu Schnell, LoL).

Die Sachen bekomme ich alle auf einen Nenner mit XAIGPUARC, aber eben nur für eine GPU.

Bisher wird einfach automatisch deine stärkste Grafikkarte für das Programm benutzt. Das möchtest Du ja auch. Grundsätzlich mal.

Aber was, wenn ich dir erzähle, das die iGPU in Verbindung mit deiner dGPU, sehr viel Speicher zusammen bringt??? :-)

Dann wirds auch nicht so Unerträglich, bis hin zu echten 21B Modellen in F16 Format, mit 10-16 GiB Karten zu laden. :-D

DA liegt der Hund begraben, warum ich das Unbedingt machen will.

Aber ich werde mir noch sehr oft den Kopf zerbrechen müssen, wie ich es Schaffe.

Die Theorie ist Einfach. Aber in der Praxis sieht das ganz anders aus. Da funktioniert einfach keine Theorie in dem Thema! Ganz und Garnicht! Möge man mir besseres Lehren!

Wenn da einer mehr weis oder Erfahrung hat, wäre das Cool zu Verfolgen.

Wenn einer Fragen hat, wie man die GPU Erkennung, so wie jetzt schonmal hinbekommt, wiederum, kann ich auch bisle helfen.

Bau einfach alles Doppelt und Dreifach an Abfragen ein.^^

Salve

Alucian

Hier ein neues Demo Video von Lucy. Die kann auf quasi jedem Computer laufen. :-)