Nicht fürs Hobby. Videogenerierung oder TTS gehen super lokal, sogar auf kleineren GPUs als einer 5090. Da kann man mal was Witziges für die WhatsApp gruppe machen oder mit den Kindern kreativ sein, wenn sie ein Bild malen, wir das einscannen und dann animieren.
Bei einer LLM kommt es auf den Einsatzzweck an. Ein Modell um allgemein Text zu verarbeiten kriegt man schon mit 24-32GB gut unter, genauso wie etwas spezialisiertes wie Qwen Coding. Ich will vor allem auch bisschen Prompten üben und da in Zukunft meine Freundin untersüttzen, die ist Grafikdesignerin und muss sich mit dem Zeug auch auseinandersetzen.
Klar, das geht das auch alles in der Cloud, aber ich möchte z.B. OpenAI nicht meine Gesichter oder gar die meiner Freunde und Familie zum Verwursten für ihre gneerativen Modelle schenken.. Außerdem ist man da stark limitiert - ChatGPT free erlaubt es z.B. nur drei Bilder am Tag hochzuladen.