Hallo FutureUser,
welche Empfehlungen gebt Ihr mir Stable Diffusion local zu installieren und zu nutzen?
Greetz
undine
Anmeldungsdatum: Beiträge: 3400 |
Hallo FutureUser, welche Empfehlungen gebt Ihr mir Stable Diffusion local zu installieren und zu nutzen? Greetz undine |
Anmeldungsdatum: Beiträge: 11892 |
|
Anmeldungsdatum: Beiträge: 4399 |
Es wird eine gute GPU empfohlen. Ich führe das rein auf der CPU aus, was entsprechend länger dauert, zumal ich die CPU meistens auf 15 Watt Verbrauch begrenze. Mir sind 2 gute Web GUIs mit einfachen Installationsanweisungen bekannt, die erste verwende ich: Es gibt jede Menge Informationen im Web, ich verwende meistens SD-XL, oder drauf basierende Modelle. Darauf achten, dass eine passende Auflösung und ein passendes VAE verwendet wird. Die GUI von Automatic1111 kennt zahlreiche Startoptionen, unter anderem, um den Videospeicherverbrauch zu reduzieren. Für Modelle ist diese Seite brauchbar, man sieht viele Bilder mit den Generierungsparametern: Promptbeispiele (andere Modelle, aber als Anregung, welche Begriffe man zur Verbesserung oder Anpassung verwenden könnte, eine gute Anlaufstelle): Prompt-Book (da waren frühere Modelle aktuell, aber so ganz werden sich die Trainingsdaten nicht geändert haben): Modifier Studies Ich verfolge diesen Sub-Reddit, um auf dem Laufenden zu bleiben: Außerdem gibt es noch stable-diffusion.cpp, das ohne Python auskommt, mittlerweile auch die SD-XL Modelle unterstützt. Gerade für die GUI von Automatic1111 gibt es aber zahlreiche Erweiterungen, etwa für regionale Prompts, teil-zufällige Prompts, usw.. Drum empfehle ich das. Es lohnt sich, auf der Git-Seite in den Issues, im Wiki und im Discussion-Bereich zu stöbern. Informationen zu Workflows habe ich auch schon hier entnommen, scheinen jetzt aber (fast ?) alle auf Member only umgestellt worden zu sein, Tutorials sind noch teilweise so zugänglich: Und wenn du Bilder bearbeiten oder nach Vorgaben anderer Bilder generieren möchtest, schau dir ControlNet an: Viel Spaß beim Generieren von Bildern. |
(Themenstarter)
Anmeldungsdatum: Beiträge: 3400 |
@verdooft Machst Du damit so richtig was Produktives oder bist Du eher ausprobierend? Wie setzt Du Stable Diffusion ein? Funktioniert Stable Diffusion mit Linux oder mit Windows besser? |
Anmeldungsdatum: Beiträge: 4399 |
Ich probiere eher aus. Hab mit SD auch länger nichts mehr gemacht, weil ich im Moment vieles mit llama.cpp teste, das generiert Texte nach Anweisungen. Mittlerweile gibt es da auch brauchbare Modelle für die deutsche Sprache (mein Favorit ist derzeit eines, das mit 8 Experten, jeweils 2 pro Token - per Programmoption anpassbar - ausgestattet und auf meinem System - wieder nur CPU, llama.cpp bekam zwar Vulkan-Unterstützung, kompiliere ich es damit werden Modelle derzeit nicht geladen - wesentlich flotter als 70b-Modelle ist.). Windows/Linux macht, wenns mal installiert ist, meine ich wenig Unterschied, vielleicht werden Grafikkarten (AMD) besser unter Windows unterstützt. Die Installation kommt mir vom Gelesenen unter Linux viel einfacher vor, eben weil Python bereits vorinstalliert ist, im Pfad ist, usw.. |
Anmeldungsdatum: Beiträge: 4399 |
Was ich vergessen habe: Es gibt auch Turbomodelle für SD, auf den alten Modellen basierend, aber auch XL-Varianten, da werden mit wesentlich weniger Steps brauchbare Bilder generiert. Bei den Einstellungen in der GUI ist aber einiges zu beachten, CFG-Scale runtersetzten. Meistens steht bei den Modellen direkt dabei, was zu beachten ist, bei den alten Modellen gab es oft Trigger-Words, damit das spezielle Nachtraining überhaupt zum Einsatz kam. Übrigens habe ich mit der von von.wert verlinkten GUI angefangen, ist für den Einstieg bestimmt keine schlechte Wahl. Die Modellordner kann man in der Automatic1111 GUI anpassen, bzw. ich habs damals mit Links realisiert, dass die Modelle nur einmal geladen werden mussten. Eine Quelle für Modelle ist auch Hugging Face: |
Anmeldungsdatum: Beiträge: 4399 |
Funktioniert es? Ich habe kürzlich das System neu aufgesetzt, das Installationsscript hat alles erledigt, allerdings habe ich dem direkt mitgegeben, dass ich kein CUDA verwende, wodurch große Nvidia-Pythonpakete gar nicht erst geladen wurden. Kommt auf deine Hardware an, was für dich sinnvoll ist. |
(Themenstarter)
Anmeldungsdatum: Beiträge: 3400 |
Hallo verdooft, bisher habe nichts weiter getestet. Danke der Nachfrage, ich melde mich. Greetz undine |
Anmeldungsdatum: Beiträge: 4399 |
Ich setze jetzt parallel ComfyUI ein. Die Modelle der Automatic1111 Installation verwende ich, indem ich die Datei extra_model_paths.yaml.example zu extra_model_paths.yaml kopiert hatte und per --extra-model-paths-config extra_model_paths.yaml das beim Anwendungsstart übergebe. Entsprechend bearbeiten, bei mir steht da z.B.: a111: base_path: /daten/stable-diffusion-webui/ SD3 Medium (2B) ist ziemlich fehlerbehaftet, man kann das mit einem geeigneten Workflow aber doch ganz gut hinbekommen: https://www.reddit.com/r/StableDiffusion/comments/1dfuies/sd3_improved_workflow_and_some_thoughts/ Ist vielleicht nicht für dich nützlich, aber andere stoßen eventuell doch noch auf den Thread. |