Ein extra Sammel Thread für das Thema lokale KI wäre echt mal angebracht. Das Thema ist allein so riesig, wenn man sich damit mal etwas intensiver beschäftigt wird man geradezu davon erschlagen. Mit einem halbwegs brauchbaren PC mit einer halbwegs gescheiten Grafikkarte kann man lokal schon viel machen.
Und wer es nicht 100% lokal braucht, kann selbst den Großteil lokal laufen lassen und nur eine LLM API für die KI selbst in der Cloud nutzen, gibt es auch diverse Anbieter für und wenn man die Kosten im Blick hält, wird es nicht mal so wirklich teuer. Statt OpenAI die ~20 Euro im Monat zu geben für ChatGPT kann man das Geld auch in eine LLM API stecken, natürlich auch die von OpenAI, anderen Anbietern oder gleich nem LLM Hoster, bei dem man zwischen zig Modellen wechseln kann, je nach dem wie man es braucht. Da kommt man mit 20 Euro im Monat auch schon recht weit, wenn man nicht gerade wilden KI Agenten Kram betreibt.
Es ist also schon vieles machbar und es gibt schon reichlich Open Source Software. KoboldCPP (für quantisierte GGUF Modelle), damit kann ich z.B. ein Qwen Next 3B 80B Modell auf meiner 4090 in Verbindung mit normalem RAM in einer akzeptablen Geschwindigkeit laufen lassen und 80B ist für lokal schon ordentlich, bräuchte eigentlich in voller Modellgröße ca. 160+GB, in 4Bit sind es nur noch 40GB und weil es ein MoE Modell ist, ist es selbst noch akzeptabel schnell, wenn man es auf VRAM und RAM (also GPU und CPU) aufsplitten muss, was dann bei mir nicht ganz 24GB VRAM sind (weil anderes belegt auch schon VRAM) und 16+GB RAM sind, braucht also nicht zwingend 64GB RAM neben einer soliden GPU für so ein Modell. Mit ner 5090 dürfte das Qwen Modell richtig schön schnell sein, weil schnellere GPU, mehr im VRAM, weniger im RAM. Aber kleinere Modelle, die dann in 4Bit selbst in 16GB VRAM passen, sind auch schon nicht so schlecht. Selbst für Text Zusammenfassungen tun es noch kleinere Modelle, die nicht mal 8GB VRAM brauchen.
Lokale KI hat also ebenso gigantische Schritte vorwärts gemacht. Natürlich nicht nur bei Text/OCR KI, Bild KI, Sprach KI, ja selbst Audio, Musik und eben auch Video KI, geht alles inzwischen lokal und die Qualität ist oftmals gar nicht mal so schlecht. Natürlich kein Vergleich zu den kommerziellen Anbietern, deren Modelle sind halt viel größer mit entsprechender Hardware dahinter, die wir halt daheim eher nicht stehen haben und entsprechend ist auch die Qualität meist höher. Aber es gibt auch kommerzielle Anbieter, die schon von Open Weight Modellen überholt wurden. Es gibt wirklich reichlich AI Unternehmen, die immer wieder Open Weight Modelle veröffentlichen. Da die Übersicht zu behalten ist fast eine Lebensaufgabe für sich. Ist auch gerade wieder ein neues Qwen Image Edit veröffentlich worden, ein Bild zu Bild Modell wie Nano Banana, mit dem man Bilder per Prompt ändern kann. Hab ich erst Gestern noch das vorherige Modell lokal genutzt. ComfyUI ist da auch ein lokales Tool, was man kennen sollte, extrem mächtig. Aber wie gesagt, Software gibt es reichlich, solche die mehr für normale Nutzer ausgelegt sind als auch solche, die dich mit Möglichkeiten schier erschlagen.