Die 5 besten Open-Source-KI-Bildgeneratoren

Die 5 besten Open-Source-KI-Bildgeneratoren

Quicklinks

KI-basierte Modelle zur Text-zu-Bild-Generierung sind überall und werden von Tag zu Tag leichter zugänglich. Während es einfach ist, einfach eine Website zu besuchen und das gesuchte Bild zu generieren, sind Open-Source-Text-zu-Bild-Generatoren die beste Wahl, wenn Sie mehr Kontrolle über den Generierungsprozess wünschen.





MAKEUSEOF-VIDEO DES TAGES Scrollen Sie, um mit dem Inhalt fortzufahren

Im Internet sind Dutzende kostenloser und quelloffener KI-Text-zu-Bild-Generatoren verfügbar, die auf bestimmte Arten von Bildern spezialisiert sind. Also haben wir den Stapel durchgesehen und die besten Open-Source-KI-Text-zu-Bild-Generatoren gefunden, die Sie jetzt ausprobieren können.





1 Wachsmalstift

  craiyon-home-page

Craiyon ist einer der am einfachsten zugänglichen Open-Source-KI-Bildgeneratoren. Es basiert auf DALL-E Mini und Sie können es zwar klonen Github-Repository und das Modell lokal auf Ihrem Computer installieren, scheint Craiyon diesen Ansatz zugunsten seiner Website aufgegeben zu haben.





Das offizielle Github-Repository wurde seit Juni 2022 nicht mehr aktualisiert, aber das neueste Modell ist weiterhin kostenlos verfügbar offizielle Craiyon-Website . Es gibt auch keine Android- oder iOS-Apps.

Hinsichtlich der Funktionalität finden Sie alle üblichen Optionen vor, die Sie von einem KI-Bildgenerator erwarten. Sobald Sie Ihre Eingabeaufforderung eingegeben und ein Bild erhalten haben, können Sie die Hochskalierungsfunktion verwenden, um eine Kopie mit höherer Auflösung zu erhalten. Es stehen drei Stile zur Auswahl: Kunst, Foto und Zeichnung. Sie können auch die Option „Keine“ auswählen, wenn Sie möchten, dass das Modell entscheidet.



  craiyon-generated-image

Darüber hinaus können Sie im „Expertenmodus“ negative Wörter einfügen, die dem Modell mitteilen, bestimmte Elemente zu meiden. Es gibt auch eine Funktion zur Vorhersage von Eingabeaufforderungen, die ChatGPT verwendet, um Benutzern dabei zu helfen, die bestmöglichen und detailliertesten Eingabeaufforderungen zu verfassen. Schließlich können Ihnen die KI-gestützten Funktionen zum Entfernen des Hintergrunds dabei helfen, Zeit und Aufwand beim Zuschneiden von Hintergründen aus Bildern zu sparen.

Und das ist so ziemlich alles, was Craiyon tut. Es handelt sich nicht um das ausgefeilteste Modell zur KI-Bilderzeugung, aber es eignet sich gut als Basismodell, wenn Sie nichts Detailliertes oder Realistisches wünschen.





Die Nutzung des Modells ist kostenlos, Nutzer der kostenlosen Version sind jedoch auf neun kostenlose Bilder gleichzeitig innerhalb einer Minute beschränkt. Sie können die Stufen „Supporter“ oder „Professional“ abonnieren (zum Preis von 5 bzw. 20 US-Dollar pro Monat und jährlicher Abrechnung), um keine Werbung oder Wasserzeichen, eine schnellere Generierung und die Option zu erhalten, Ihre generierten Bilder privat zu halten. Eine benutzerdefinierte Abonnementstufe ermöglicht außerdem benutzerdefinierte Modelle, Integration, dedizierten Support und private Server.

2 Stabile Diffusion 1.5

Stable Diffusion ist vielleicht eines der beliebtesten Open-Source-Modelle zur Text-zu-Bild-Generierung. Es versorgt auch andere Modelle mit Strom, darunter die drei unten genannten Bildgeneratoren. Es wurde im Jahr 2022 veröffentlicht und hat seitdem viele Implementierungen erfahren.





Wie verkleinere ich eine JPEG-Datei?
  stabile-diffusion-web-ui

Ich erspare Ihnen die allzu technischen Details zur Funktionsweise des Modells (die Sie sich hier ansehen können). offizielles Github-Repository ), aber das Modell ist auch für absolute Anfänger einfach zu installieren und funktioniert gut, solange Sie über eine dedizierte GPU mit mindestens 4 GB Speicher verfügen. Sie können auch darauf zugreifen Stabile Verbreitung online, und wir sind für Sie da, wenn Sie möchten Führen Sie Stable Diffusion auf einem Mac aus .

Es stehen mehrere Prüfpunkte (betrachten Sie diese als Versionen) zur Verfügung, die für die stabile Diffusion verwendet werden können. Während wir Version 1.5 getestet haben, Version 2.1 befindet sich ebenfalls in der aktiven Entwicklung und ist präziser.

  dreamshaper-ai-generiertes-bild
Yadullah Abidi/MakeUseOf/DreamShaper

Auch die Ausführung des Modells ist recht einfach. Wir haben es mit dem getestet AUTOMATIC1111 Stable Diffusion Web-Benutzeroberfläche , und alle Bedienelemente und Parameter funktionieren gut. Dank der LAION-5B-Datenbank, auf der das Modell trainiert wurde, ist es auch ziemlich NSFW-sicher (obwohl sie wohlgemerkt nicht perfekt ist). Während die Generierungszeit selbst je nach Hardware variieren kann, können Sie davon ausgehen, dass Ihre Bilder auch bei einfachen Eingabeaufforderungen detailliert und realistisch sind.

3 DreamShaper

DreamShaper ist ein Bilderzeugungsmodell, das auf Stable Diffusion basiert. Es war als Open-Source-Alternative zu MidJourney gedacht und konzentriert sich auf Fotorealismus in den generierten Bildern, obwohl es mit ein paar Optimierungen genauso gut mit Anime- und Malstilen umgehen kann.

Das Modell ist leistungsfähiger als Stable Diffusion und bietet Benutzern mehr Freiheit bei der endgültigen Ausgabe, die von blitzschnellen Verbesserungen bis hin zu lockereren NSFW-Beschränkungen reicht. Das Ausführen des Modells ist ebenfalls einfach, mit a Herunterladbare, vorab trainierte Version verfügbar online für den lokalen Zugriff und eine Vielzahl von Websites, darunter Sinkin.ai , RandomSeed , Und Mage.space (erfordert ein Basisabonnement), mit dem Sie das Modell mit GPU-Beschleunigung ausführen können.

  Dreamshaper-StableDiffusion-Vergleich

Wie Sie wahrscheinlich inzwischen erraten können, sehen mit DreamShaper generierte Bilder im Vergleich zu Stable Diffusion tendenziell realistischer aus. Selbst wenn Sie auf beiden Modellen die gleiche Eingabeaufforderung ausführen, wird das DreamShaper-Modell wahrscheinlich realistischer, detaillierter und besser beleuchtet sein.

Dies gilt insbesondere für Porträts oder Charaktere, was meiner Meinung nach im Vergleich zur gleichen Eingabeaufforderung an Stable Diffusion mangelt. Wenn Ihre Bilder zu realistisch werden, finden Sie sie hier Vier Möglichkeiten, ein KI-generiertes Bild zu identifizieren .

Sie benötigen auch keinen riesigen PC, um das Modell auszuführen. Meine GTX 1650Ti mit 4 GB VRAM lief mit dem Modell einwandfrei. Die Generierungszeit war etwas länger, aber es schien keinen Einfluss auf die tatsächliche Ausgabe zu haben. Allerdings benötigen Sie möglicherweise GPUs mit mehr VRAM, um DreamShaper XL auszuführen, das auf dem Stable Diffusion XL-Modell basiert.

4 InvokeAI

Invoke AI ist ein weiteres KI-basiertes Bilderzeugungsmodell, das auf Stable Diffusion basiert, mit einer XL-Version, die auf Stable Diffusion XL basiert. Es verfügt außerdem über eine eigene Web- und Befehlszeilen-Benutzeroberfläche, sodass Sie sich nicht mit Dingen wie der Stable Diffusion-Web-Benutzeroberfläche herumschlagen müssen.

  invokeai-user-interface-with-image

Das Modell konzentriert sich darauf, Benutzern die Möglichkeit zu geben, anhand ihres geistigen Eigentums mit maßgeschneiderten Arbeitsabläufen visuelle Darstellungen zu erstellen. InvokeAI ist eines der besten Open-Source-KI-Bildgenerierungsmodelle zum Trainieren benutzerdefinierter Modelle und zum Arbeiten mit geistigem Eigentum.

Es ist offizielles Github-Repository listet zwei Installationsmethoden auf: die Installation über das Installationsprogramm von InvokeAI oder die Verwendung von PyPI, wenn Sie mit einem Terminal und Python vertraut sind und mehr Kontrolle über die mit dem Modell installierten Pakete benötigen.

Allerdings bringt die zusätzliche Kontrolle einige Einschränkungen mit sich, insbesondere strengere Hardwareanforderungen. InvokeAI empfiehlt eine dedizierte GPU mit mindestens 4 GB Speicher, wobei sechs bis acht GB für die Ausführung der XL-Variante empfohlen werden. Die VRAM-Anforderungen gelten sowohl für AMD- als auch für Nvidia-GPUs. Sie benötigen außerdem mindestens 12 GB RAM und 12 GB freien Speicherplatz für das Modell, seine Abhängigkeiten und Python.

  invoke-ai-generated-image
Yadullah Abidi/MakeUseOf/InvokeAI

Obwohl die Dokumentation die GPUs der GTX 10-Serie und 16-Serie von Nvidia aufgrund ihres fehlenden Videospeichers nicht empfiehlt, lief das bereitgestellte Installationsprogramm einwandfrei. Ihr Kilometerstand kann zwar variieren, aber wenn Sie eine GPU der unteren Preisklasse verwenden, müssen Sie damit rechnen, länger zu warten, bis Ihre Eingabeaufforderungen in Bilder umgewandelt werden. Schließlich können Sie unter Windows nur eine Nvidia-GPU verwenden, da AMD-GPUs derzeit nicht unterstützt werden.

Warum wird eine SMS nicht auf dem iPhone zugestellt?

Bei der Bilderzeugung tendiert das Modell eher zu künstlerischen Stilen als zum Fotorealismus. Natürlich können Sie das Modell anhand Ihres Datensatzes trainieren und Bilder generieren lassen, die Ihren Wünschen näher kommen, auch wenn es sich dabei um fotorealistische Bilder handelt, insbesondere wenn Sie in den Bereichen Produktdesign, Architektur oder Einzelhandelsflächen arbeiten. Beachten Sie jedoch, dass es sich bei InvokeAI in erster Linie um eine Bildgenerierungs-Engine handelt. Das bedeutet, dass Sie wahrscheinlich Ihre eigenen Modelle verwenden müssen, um die besten Ergebnisse zu erzielen (leicht zu finden über den Modellmanager in der Weboberfläche), als Standard Das Modell ist der stabilen Diffusion selbst ziemlich ähnlich.

5 Offene Reise

Openjourney ist ein kostenloses Open-Source-KI-Bilderzeugungsmodell, das wiederum auf Stable Diffusion basiert. Wenn Sie sich fragen, warum das Modell Openjourney heißt, liegt das daran, dass es auf Midjourney-Bildern trainiert wurde und seinen Stil in den von ihm generierten Bildern nachahmen kann.

PromptHero Mit , dem Unternehmen hinter Openjourney, können Sie das Modell zusammen mit anderen Modellen testen, darunter Stable Diffusion (Versionen 1.5 und 2), DreamShaper und Realistic Vision. Wenn Sie sich anmelden, erhalten Sie 25 kostenlose Credits (ein Credit für jedes generierte Bild). Anschließend müssen Sie die Pro-Abonnementstufe abonnieren, die 9 US-Dollar pro Monat kostet und Ihnen jeden Monat Zugriff auf 300 Credits mit anderen exklusiven Funktionen bietet.

  OpenJourney-StableDiffusion-Vergleich

Wenn Sie es jedoch lokal und kostenlos ausführen möchten, können Sie dies tun Laden Sie die Modelldatei von HuggingFace herunter und führen Sie es über die Stable Diffusion-Web-Benutzeroberfläche aus. Openjourney ist außerdem das am zweithäufigsten heruntergeladene KI-Bildgenerierungsmodell auf HuggingFace, direkt hinter Stable Diffusion.

Openjourney listet auf seiner Website keine spezifischen Hardwareanforderungen für die lokale Ausführung des Modells auf, Sie können jedoch mit ähnlichen Hardwareanforderungen wie bei Stable Diffusion rechnen. Dies bedeutet eine dedizierte GPU mit 4 GB VRAM, 16 GB RAM und etwa 12 bis 15 GB freiem Speicherplatz auf Ihrem Computer, um das Modell und seine Abhängigkeiten zu speichern.

  openjourney-ai-generiertes-Bild
Yadullah Abidi/MakeUseOf/OpenJourney

Von Openjourney generierte Bilder tendieren dazu, zwischen Fotorealismus und Kunst auszubalancieren, sofern nicht anders angegeben. Wenn Sie auf der Suche nach einem Allround-Modell sind und das Erscheinungsbild von Midjourney bevorzugen, ohne für das Abonnement zu bezahlen, ist Openjourney eine der besten Optionen.