Stable Diffusion (Fichiers & Informations)

(Tous les remerciements vont à Questianon pour la page original : https://rentry.org/sdgoldmine)

Actualités (ENG) : https://rentry.org/sdupdates3 Actualités (FR) : https://rentry.org/sdupdates3-fr

Avertissements :

  1. Les ckpts/hyper-réseaux/embeddings ne sont pas tous sûrs à l'heure actuelle. Ils peuvent être "pickled"/altérer et peuvent contenir du code malveillant. Utilisez votre bon sens et protégez-vous comme vous le feriez avec n'importe quel lien de téléchargement aléatoire que vous verriez sur Internet.
  2. Surveillez la température de votre GPU et augmentez le refroidissement et/ou sous-alimentez-le si nécessaire. Il y a eu des retours concernant des problèmes de GPU dus à des températures élevées.
  3. Les extensions peuvent modifier du code lorsqu'elles sont exécutées. Soyez prudent, consultez les dernières actualités pour plus d'informations.

Il y a maintenant un github pour cette page : https://github.com/questianon/sdupdates. Cela devrait vous permettre de voir les changements entre les différentes mises à jour.

Changelog : tout sauf discord et reddit

Tous les liens de rentry se terminent par un '.org' ici et peuvent être changés en '.co'. Aussi, utilisez la navigation incognito/privée lorsque vous ouvrez des liens google, sinon vous perdrez votre anonymat / quelqu'un peut vous doxer.

Contact

Si vous avez des informations/fichiers (ex. embeddings) qui ne figurent pas sur cette liste, si vous avez des questions, ou si vous voulez aider, contactez Questianon avec des détails, en anglais bien sûr.

Socials: (ENG)
Trip: questianon !!YbTGdICxQOw
Discord: malt#6065
Reddit: u/questianon
Github: https://github.com/questianon
Twitter: https://twitter.com/questianon

N'oubliez pas d'utiliser git pull pour obtenir beaucoup de nouvelles optimisations et mises à jour, si SD se casse, reculez dans les commits jusqu'à ce que cela fonctionne à nouveau.

Instructions :

  • Si vous êtes sous Windows :
    1. naviguer dans le répertoire webui via l'invite de commande ou git bash
      a. Git bash : clic droit > git bash ici
      b. Invite de commande : cliquez sur le point dans le "url" entre le dossier et la flèche vers le bas et tapez "command prompt".
      c. Si vous ne savez pas comment faire, ouvrez l'invite de commande, tapez "cd [chemin vers stable-diffusion-webui]" (vous pouvez l'obtenir en faisant un clic droit sur le dossier dans l'"url" ou en maintenant shift + clic droit sur le dossier stable-diffusion-webui).
    2. git pull
    3. pip install -r requirements.txt
  • Si vous êtes sous Linux :
    1. allez dans le répertoire webui
    2. source ./venv/bin/activate
      a. si cela ne fonctionne pas, lancez au préalable ``python -m venv venv```
    3. git pull
    4. pip install -r requirements.txt

Les Requêtes

Google Docs avec liste/rangs/informations de requêtes pour la création de waifu :
https://docs.google.com/document/d/1Vw-OCUKNJHKZi7chUtjpDEIus112XBVSYHIATKi1q7s/edit?usp=sharing
Classement et classification des tags danbooru, triés par quantité d'images, et classés par type et qualité (WD) : https://cdn.discordapp.com/attachments/1029235713989951578/1038585908934483999/Kopi_af_WAIFU_MASTER_PROMPT_DANBOORU_LIST.pdf
Collection de requêtes d'Anon : https://mega.nz/folder/VHwF1Yga#sJhxeTuPKODgpN5h1ALTQg
Effets des tags sur les images : https://pastebin.com/GurXf9a4
Comparaison des vêtements : https://files.catbox.moe/z3n66e.jpg

  • Anon dit que "8k, 4k, (highres:1.1), best quality, (masterpiece:1.3)" mène à de beaux détails.

Collection de parchemins chinois : https://note.com/sa1p/
Rouleau 1 : https://docs.qq.com/doc/DWHl3am5Zb05QbGVs

parchemin 2 : https://docs.qq.com/doc/DWGh4QnZBVlJYRkly
Parchemin 3 (effrayant) : https://docs.qq.com/doc/DWEpNdERNbnBRZWNL
Tome 1 : https://docs.qq.com/doc/DSHBGRmRUUURjVmNM
Tome 2 (lien manquant)
Parchemin japonais: https://p1atdev.notion.site/021f27001f37435aacf3c84f2bc093b5?p=f9d8c61c4ed8471a9ca0d701d80f9e28

L'utilisation d'émoticônes et d'emojis peut être très bénéfique : https://docs.google.com/spreadsheets/d/1aTYr4723NSPZul6AVYOX56CVA0YP3qPos8rg4RwVIzA/edit#gid=1453378351
🕊💥😱😲😶🙄 mène à https://files.catbox.moe/biy755.png
🌷🕊🗓👋😛👋 conduit à https://files.catbox.moe/7khxe0.png
Gribouillage parlé (bulle): https://twitter.com/AI_Illust_000/status/1588838369593032706
Anon : L'emoji est performant en termes de précision sémantique car il ne comporte qu'un seul caractère.

Dataset de requête : https://publicprompts.art/

requête Hololive : https://rentry.org/3y56t
Hololive 2 : https://rentry.org/q8x5y

Grosse requête négative : https://pastes.io/x9crpin0pq
Enorme requête négative : https://www.reddit.com/r/WaifuDiffusion/comments/yrpovu/img2img_from_my_own_loose_sketch/

Base de données de requêtes Krea AI : https://github.com/krea-ai/open-prompts
Recherche rapide : https://www.ptsearch.info/home/
Autre recherche : http://novelai.io/
Recherche de requêtes sur 4chan : https://desuarchive.org/g/search/text/masterpiece%20high%20quality/
Livre de requêtes : https://openart.ai/promptbook
Collection de mots/phrases pour requêtes : https://huggingface.co/spaces/Gustavosta/MagicPrompt-Stable-Diffusion/raw/main/ideas.txt

requêtes dynamiques : https://github.com/adieyal/sd-dynamic-prompts

Générateur de requêtes en japonais : https://magic-generator.herokuapp.com/
Construisez votre requête (chinois) : https://tags.novelai.dev/
NAI requêtes: https://seesaawiki.jp/nai_ch/d/%c8%c7%b8%a2%a5%ad%a5%e3%a5%e9%ba%c6%b8%bd/%a5%a2%a5%cb%a5%e1%b7%cf

Wiki japonais : https://seesaawiki.jp/nai_ch/

Wiki coréen : https://arca.live/b/aiart/60392904
Wiki coréen 2 : https://arca.live/b/aiart/60466181

Étude multilingue : https://jalonso.notion.site/Stable-Diffusion-Language-Comprehension-5209abc77a4f4f999ec6c9b4a48a9ca2

Valeur esthétique (des images utilisées pour entraîner SD) : https://laion-aesthetic.datasette.io/laion-aesthetic-6pls

Traducteur NAI vers l'interface web (pas à 100% précis) : https://seesaawiki.jp/nai_ch/d/%a5%d7%a5%ed%a5%f3%a5%d7%a5%c8%ca%d1%b4%b9

Guide "Editez des parties de l'image sans utiliser img2img/inpaint/Edition de requête" par anon : https://files.catbox.moe/fglywg.JPG

Décharge de conseils pour NAI : https://rentry.org/robs-novel-ai-tips
Conseils : https://github.com/TravelingRobot/NAI_Community_Research/wiki/NAI-Diffusion:-Various-Tips-&-Tricks
Décharge de conseils : https://rentry.org/Learnings
Guide obsolète : https://rentry.co/8vaaa
Astuce pour plus de photoréalisme : https://www.reddit.com/r/StableDiffusion/comments/yhn6xx/comment/iuf1uxl/

  • TLDR : ajoutez du bruit à votre img avant img2img

Conseils rapides NAI : https://docs.novelai.net/image/promptmixing.html
Conseils NAI 2 : https://docs.novelai.net/image/uifunctionalities.html

Chef-d'œuvre ou pas chef-d'œuvre : https://desuarchive.org/g/thread/89714899#89715160

SD 1.4 vs 1.5 : https://postimg.cc/gallery/mhvWsnx
NAI vs tout : https://www.bilibili.com/read/cv19603218
Comparaisons de la fusion de modèles : https://files.catbox.moe/rcxqsi.png
Fusion de modèles : https://files.catbox.moe/vgv44j.jpg
Quelques comparaisons d'échantillonneurs : https://www.reddit.com/r/StableDiffusion/comments/xmwcrx/a_comparison_between_8_samplers_for_5_different/
Autres comparaisons : https://files.catbox.moe/csrjt5.jpg
Plus : https://i.redd.it/o440iq04ocy91.jpg (https://www.reddit.com/r/StableDiffusion/comments/ynt7ap/another_new_sampler_steps_comparison/)
Plus de comparaisons : https://i.redd.it/ck4ujoz2k6y91.jpg (https://www.reddit.com/r/StableDiffusion/comments/yn2yp2/automatic1111_added_more_samplers_so_heres_a/)
Chaque comparaison d'échantillonnage : https://files.catbox.moe/u2d6mf.png

requête: 1girl, pointy ears, white hair, medium hair, ahoge, hair between eyes, green eyes, medium:small breasts, cyberpunk, hair strand, dynamic angle, cute, wide hips, blush, sharp eyes, ear piercing, happy, hair highlights, multicoloured hair, cybersuit, cyber gas mask, spaceship computers, ai core, spaceship interior
Requête négative: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, animal ears, panties

Original image:
Étapes: 50, Echantilloneur: DDIM, CFG scale: 11, valeur aléatoire: 3563250880, Size: 1024x1024, Model hash: cc024d46, Puissance de réduction du bruit: 0.57, Clip skip: 2, ENSD: 31337, First pass size: 512x512
NAI/SD mix at 0.25

Nouveaux échantillonneurs : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/4363
Nouveau vs. DDIM : https://files.catbox.moe/5hfl9h.png

Comparaisons f222 : https://desuarchive.org/g/search/text/f222/filter/text/start/2022-11-01/

Deep Danbooru : https://github.com/KichangKim/DeepDanbooru
Démo : https://huggingface.co/spaces/hysts/DeepDanbooru

Testeur d'intégration : https://huggingface.co/spaces/sd-concepts-library/stable-diffusion-conceptualizer

Collection de dégradés esthétiques : https://github.com/vicgalle/stable-diffusion-aesthetic-gradients/tree/main/aesthetic_embeddings

Euler vs. Euler A : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017#discussioncomment-4021588

Selon anon : DPM++ devrait converger vers un résultat beaucoup plus rapidement qu'Euler. Il devrait néanmoins converger vers le même résultat.

Chasse aux graines :

  • Par NAI speedrun asuka imgur anon :
    >J'ai fait quelque chose qui pourrait aider les chasseurs de valeur aléatoires/requêtes en haute résolution. cela imite le calcul du firstpass "0x0" et suggère des dimensions en basse résolution basées sur la taille de la cible en haute résolution. cela montre aussi des données sur le recadrage du firstpass. c'est un fichier unique que vous pouvez télécharger et utiliser hors ligne. picrel.
    >https://preyx.github.io/sd-scale-calc/
    >Voir le code et télécharger sur
    >https://files.catbox.moe/8ml5et.html
    >Par exemple, vous pouvez lancer des lots de basse résolution "firstpass" pour la chasse aux graines/aux incitations, puis les utiliser en taille "firstpass" pour préserver la composition lors de la création de haute résolution.

Script pour le marquage (comme dans NAI) dans l'interface web d'AUTOMATIC : https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
Danbooru Exporteur d'Étiquettes : https://sleazyfork.org/en/scripts/452976-danbooru-tags-select-to-export
Un autre : https://sleazyfork.org/en/scripts/453380-danbooru-tags-select-to-export-edited
Tags (dernière version) : https://sleazyfork.org/en/scripts/453304-get-booru-tags-edited
Scraper de base de gelbooru : https://pastebin.com/0yB9s338
UMI AI : https://www.patreon.com/klokinator

requêtes aléatoires : https://rentry.org/randomprompts
Script Python pour générer des requêtes NSFW aléatoires : https://rentry.org/nsfw-random-prompt-gen
Générateur de requêtes aléatoires : https://github.com/adieyal/sd-dynamic-prompting
Générateur de requêtes : https://github.com/h-a-te/prompt_generator

  • Apparemment, UMI les utilise ?

http://dalle2-prompt-generator.s3-website-us-west-2.amazonaws.com/
https://randomwordgenerator.com/
Un générateur de requêtes amusant qui fonctionne étonnamment bien : https://www.grc.com/passwords.htm
Sortie de l'extension Unprompted : https://github.com/ThereforeGames/unprompted

  • A DES PUBS

StylePile : https://github.com/some9000/StylePile
Script qui extrait les requêtes de Krea.ai et Lexica.art en fonction des termes recherchés : https://github.com/Vetchems/sd-lexikrea
Paramètres de génération aléatoire pour txt2img, fonctionne avec d'autres extensions : https://github.com/stysmmaker/stable-diffusion-webui-randomize

Idées pour quand vous n'en avez pas : https://pentoprint.org/first-line-generator/
Couleurs : http://colorcode.is/search?q=pantone

Je n'ai pas vérifié la sécurité de ces plugins, mais ils sont open source, donc vous pouvez les vérifier vous-même
Plugin Photoshop/Krita (gratuit) : https://internationaltd.github.io/defuser/ (assez nouveau et actuellement seulement 2 étoiles sur github)

Photoshop : https://github.com/Invary/IvyPhotoshopDiffusion
Plugin Photoshop (payant, pas open source) : https://www.flyingdog.de/sd/
Plugins Krita (gratuits) :

GIMP :
https://github.com/blueturtleai/gimp-stable-diffusion

Blender :
https://github.com/carson-katri/dream-textures
https://github.com/benrugg/AI-Render

Masquage externe : https://github.com/dfaker/stable-diffusion-webui-cv2-external-masking-script
Anon : il y a une commande pour ajouter la peinture de base, c'est '--gradio-img2img-tool'.

Collection de scripts : https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Scripts
Tutoriel sur la matrice de requêtes : https://gigazine.net/gsc_news/en/20220909-automatic1111-stable-diffusion-webui-prompt-matrix/
Script d'animation : https://github.com/amotile/stable-diffusion-studio
Script d'animation 2 : https://github.com/Animator-Anon/Animator
Script vidéo : https://github.com/memes-forever/Stable-diffusion-webui-video
Script de masquage : https://github.com/dfaker/stable-diffusion-webui-cv2-external-masking-script
Script de grille XYZ : https://github.com/xrpgame/xyz_plot_script
Graphiques vectoriels : https://github.com/GeorgLegato/Txt2Vectorgraphics/blob/main/txt2vectorgfx.py
Txt2mask : https://github.com/ThereforeGames/txt2mask
Scripts de changement de requête :

Script d'interpolation (mélange img2img + txt2img) : https://github.com/DiceOwl/StableDiffusionStuff

Script pour img2tiles : https://github.com/arcanite24/img2tiles
Script pour l'outpainting : https://github.com/TKoestlerx/sdexperiments
Script d'animation img2img : https://github.com/Animator-Anon/Animator/blob/main/animation_v6.py

Script d'interpolation de Google : https://github.com/google-research/frame-interpolation

Guide d'animation : https://rentry.org/AnimAnon#introduction
Guide du rotoscope : https://rentry.org/AnimAnon-Rotoscope
Clé chromatique après le SD (avec une requête complet ?): https://files.catbox.moe/d27xdl.gif

Plus de guide d'animation : https://www.reddit.com/r/StableDiffusion/comments/ymwk53/better_frame_consistency/
Guide d'animation + exemple pour le visage : https://www.reddit.com/r/StableDiffusion/comments/ys434h/animating_generated_face_test/
Quelque chose pour l'animation : https://github.com/nicolai256/Few-Shot-Patch-Based-Training

Animation de visages par anon :

Le flux de travail ressemble à ceci :
>générer un portrait carré (j'utilise 1024 pour cet exemple)
>créer ou trouver une vidéo de conduite
>recadrer la vidéo de conduite au carré avec ffmpeg, en s'assurant de faire correspondre la distance générale de la caméra et la position du visage (cela ne fonctionne pas bien avec les vidéos panoramiques/zoomantes ou avec trop de mouvements de tête)
>Exécutez thin-plate-spline-motion-model.
>prenez le resultat.mp4 et mettez-le dans Video2x (Waifu2x Caffe)
>Passez en flowframes pour 60fps et webm.

>si vous ne vous souciez pas de la mise à l'échelle, cela permet de faire du 256x256 assez facilement.
>une extension pour l'interface web pourrait probablement être faite par quelqu'un de plus intelligent que moi, c'est un peu fastidieux en ce moment avec tant de terminaux

voici un pastebin de commandes utiles pour mon flux de travail
https://pastebin.com/6Y6ZK8PN

Une autre personne qui l'a utilisé : https://www.reddit.com/r/StableDiffusion/comments/ynejta/stable_diffusion_animated_with_thinplate_spline/

Img2img Megaliste + implémentations : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2940

Modèle d'inpaint Runway : https://huggingface.co/runwayml/stable-diffusion-inpainting

Conseils pour l'inpainting : https://www.pixiv.net/en/artworks/102083584
Version de Rentry : https://rentry.org/inpainting-guide-SD

Extensions :
Inspiration d'artiste : https://github.com/yfszzx/stable-diffusion-webui-inspiration

Historique : https://github.com/yfszzx/stable-diffusion-webui-images-browser
Collection + Info : https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Extensions
Deforum (animation vidéo) : https://github.com/deforum-art/deforum-for-automatic1111-webui

Auto-SD-Krita : https://github.com/Interpause/auto-sd-paint-ext

ddetailer (détection d'objets et masque automatique, utile pour fixer les visages sans masquage manuel) : https://github.com/dustysys/ddetailer
Gradients esthétiques : https://github.com/AUTOMATIC1111/stable-diffusion-webui-aesthetic-gradients
Marqueur esthétique : https://github.com/tsngo/stable-diffusion-webui-aesthetic-image-scorer
Completeur automatique d'étiquettes : https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
requête Randomizer : https://github.com/adieyal/sd-dynamic-prompting
Caractères génériques : https://github.com/AUTOMATIC1111/stable-diffusion-webui-wildcards/
Script de caractères génériques + collection de caractères génériques : https://app.radicle.xyz/seeds/pine.radicle.garden/rad:git:hnrkcfpnw9hd5jb45b6qsqbr97eqcffjm7sby
Script d'image symétrique (Latent Mirroring) : https://github.com/dfaker/SD-latent-mirroring

Extension du menu contextuel du Finder de macOS : https://github.com/anastasiuspernat/UnderPillow

Interrogateur de clips : https://colab.research.google.com/github/pharmapsychotic/clip-interrogator/blob/main/clip_interrogator.ipynb
2 (apparemment meilleur que l'interrogateur de l'interface d'AUTO) : https://huggingface.co/spaces/pharma/CLIP-Interrogator, https://github.com/pharmapsychotic/clip-interrogator

Worflow pour ajouter des détails par anon : https://pastebin.com/8WVyDxt9

Inpainting un visage by anon :

envoyer l'image à inpaint
modifier la requête pour supprimer tout ce qui concerne l'arrière-plan
ajoutez (visage) à la requête
placez un peu de masquage sur tout le visage
flou de mask 10-16 (peut avoir à ajuster après), masked content : original, inpaint at full resolution cocher, full resolution padding 0, Étapes ~40-50, methode d'échantillonage DDIM, largeur et hauteur mis à la pleine résolution de votre image originale
Denoising strenght 0.4-0.5 si vous voulez des ajustements mineurs, 0.6-0.7 si vous voulez vraiment régénérer toute la zone masquée.
laissez faire le reste

  • La modification de l'interface d'AUTOMATIC1111 qui "compense la lourdeur naturelle de sd en ajoutant une ligne de 0 sqrt(2) sur la gamme 0 74 tokens (anon)" (égalise les poids des tokens avec un modèle linéaire, aide avec la remise à zéro du poids à 75 tokens ( ?))

VAEs

Tutoriel + comment l'utiliser sur TOUS les modèles (s'applique aussi pour le NAI vae) : https://www.reddit.com/r/StableDiffusion/comments/yaknek/you_can_use_the_new_vae_on_old_models_as_well_for/

Booru étiquettes scraping:

Caractères génériques :

Extension des caractères génériques : https://github.com/AUTOMATIC1111/stable-diffusion-webui-wildcards/

La requête de quelqu'un qui utilise beaucoup de jokers : Requête positive: (masterpiece:1.4), (best quality:1.4), [[nsfw]], highres, large breasts, 1girl, detailed clothing, skimpy clothing, haircolor, haircut, hairlength, eyecolor, cum, ((fetish)), lingerie, lingeriestate, ((sexacts)), sexposition,

Comparaisons d'artistes (peut ou non fonctionner avec NAI):

Quelques comparaisons de 421 artistes différents dans différents modèles.

Liste de comparaisons d'Anon :

Création de faux animes:

Quelques observations d'anon :

  1. La suppression des espaces après les virgules n'a rien changé.
  2. L'utilisation de "best_quality" au lieu de "best_quality" a changé l'image. masterpiece, best_quality, akai haato mais c'est une araignée, cheveux blonds, yeux bleus...
  3. La transformation de tous les espaces en tirets bas a changé l'image de façon substantielle.
  4. Remplacer ces virgules par des espaces a encore changé l'image.

Réduire le biais des modèles de dreambooth : https://www.reddit.com/r/StableDiffusion/comments/ygyq2j/a_simple_method_explained_in_the_comments_to/?utm_source=share&utm_medium=web2x&context=3

Tutoriel sur les paysages : https://www.reddit.com/r/StableDiffusion/comments/yivokx/landscape_matte_painting_with_stable_diffusion/

Le processus d'Anon :

  • Commencez par une requête pour obtenir le scénario général que vous avez à l'esprit, ici je cherchais juste à "seggs le rrat" donc j'ai utilisé l'embedding ici >>36743515 et décrit certains de ses traits de caractère pour aider à diriger l'IA (dans ce cas les détails des cheveux, les dents pointues, ses oreilles et sa queue de souris) ainsi que la rendre nue et avoir des relations sexuelles vaginales
  • Générer des images à la résolution par défaut (512 par X pixels) à un nombre standard relatif d'étapes (30 dans ce cas) et continuer jusqu'à ce que je trouve une image qui est dans une position que j'aime (dans ce cas la graine 1920052602 m'a donné une très belle image avec laquelle travailler, comme vous pouvez le voir ici https://files.catbox.moe/8z2mua.png (embed))
  • Copiez la graine de l'image et collez-la dans le champ valeur aléatoire de l'interface Web, ce qui permettra de conserver la composition de l'image. Je double ensuite la résolution avec laquelle je travaillais (ici, je suis passé de 512 par 768 à 1024 par 1536) et je coche l'option "Hires fix" sous les curseurs de largeur et de hauteur. L'option Hires fix est la sauce secrète de l'interface Web qui permet de conserver les détails de l'image lorsque vous augmentez la résolution de l'image, et combinée à l'option Upscale latent space que j'ai mentionnée précédemment, elle améliore vraiment les détails. Ceci étant fait, vous pouvez générer l'image mise à l'échelle.
  • Jouez avec les poids des étiquettes des requêtes et ajoutez des éléments au requête négative pour corriger des petites choses comme des cheveux trop rouges, un ventre trop rond, etc. Vous devez être prudent avec l'ajout de nouveaux tags car cela peut changer radicalement l'image.

Le processus Booba d'Anon :
>vous pouvez générer une anatomie parfaite de poupée barbie mais plus précise de chuba en épurée
>Ensuite, passez à l'image complète, img2img sur la même graine après y avoir collé des tétons comme un homme des cavernes, et appuyez sur générer.

Boooba v2 :

  1. Générez n'importe quel requête NSFW auquel vous pensiez en utilisant le modèle CURATED, oui, je sais que cela semble ridicule https://files.catbox.moe/b6k6i4.png (embed)
  2. Remettre en peinture les parties coquines. Vous n'avez VRAIMENT pas besoin de faire un bon travail : https://files.catbox.moe/yegjrw.png (embed)
  3. Passez en mode complet après avoir cliqué sur "Save", réglez Strength sur 0.69, Noise sur 0.17, et assurez-vous de copier/coller le même numéro de graine. Cliquez sur Generate : https://files.catbox.moe/8dag88.png (embed)
    Comparez cela avec ce que vous obtiendriez en essayant de générer le même résultat en utilisant le modèle complet purement txt2img avec la même graine : https://files.catbox.moe/ytfdv3.png (embed)

Tutoriel de rotoscopie Img2img par anon :

1. Extraire la séquence d'images de la vidéo
2. Tester la requête en utilisant la première photo du lot
3. Trouver la requête appropriée que vous voulez, la pose/les actes sexuels doivent être les mêmes que l'original pour éviter toute bizarrerie
4. L'échelle CFG et la force de débruitage sont très importantes.
> Une échelle CFG basse fera que votre image ne suivra pas votre demande et la rendra plus floue et désordonnée (j'utilise 9-13).
> La force de débruitage détermine le mélange entre votre message et votre image : 0 = Entrée originale 1 = Seulement la requête, rien ne ressemble à l'entrée sauf les couleurs.
la chose intéressante que j'ai remarqué et que la force de débruitage n'est pas linéaire, son comportement est plus exponentiel ( ma spéculation est 0-0.6 = me rappelle l'original 0.61-0.76 = commence à changer 0.77-1 = change beaucoup )
5. Echantillonneur :
> Euler-a est très bien, mais il y a un manque de cohérence entre les étapes, ajouter/abaisser d'une étape peut changer toute la photo.
> Euler est meilleur qu'euler-a en termes de cohérence mais nécessite plus d'étapes = temps de génération plus long entre chaque image.
> DPM++ 2S a Karras est le meilleur en qualité (pour moi) mais il est très lent, bon pour générer une seule image.
> DDIM est le plus rapide et très utile dans ce cas, 20-30 étapes peuvent produire une image d'anime de bonne qualité.
6. Tester la requête dans un lot de 4-6 pour choisir une graine.
7. Lot img2img
8. Assemblage des images générées en vidéo, je ne veux pas utiliser eveyframes donc j'ai fait le rendu en 2 étapes d'images et la moitié du taux d'images.
9. Utiliser Flowframes pour interpoler l'image intermédiaire afin qu'elle corresponde à la fréquence d'images de la vidéo originale.

Ex : https://files.catbox.moe/e30szo.mp4

Modèles, Embeddings, et Hyper-réseaux

Les téléchargements listés comme "sus" ,"pickled" ou "possiblement infectées" signifient généralement qu'il y à eu 0 réponses et pas assez "d'informations" (comme les informations d'entraînement). ou, les réponses ont indiqué qu'elles étaient suspectes. Je ne pense pas que le code des embedding/hyper-réseaux ait été vérifié, donc ils pourraient tous être malveillants, mais pour autant que je sache, personne n'a encore été "pickled".

Tous les fichiers de cette section (ckpt, vae, pt, hyper-réseaux, embedding, etc) peuvent être malveillants : https://docs.python.org/3/library/pickle.html, https://huggingface.co/docs/hub/security-pickle. Assurez-vous de les vérifier à l'aide d'un outil comme https://github.com/zxix/stable-diffusion-pickle-scanner.

Modèles

Collection de modèles potentiellement dangereux : https://bt4g.org/search/.ckpt/1
Collection? : https://civitai.com/
Collection Huggingface : https://huggingface.co/models?pipeline_tag=text-to-image&sort=downloads

  • anything.ckpt (v3 6569e224 ; v2.1 619c23f0), une continuation chinoise de finetune/training de NAI, est publié : https://www.bilibili.com/read/cv19603218
    • Huggingface, pourrait être mariné : https://huggingface.co/Linaqruf/anything-v3.0/tree/main
      • L'uploader a réduit l'un des modèles 3.0 à 4 Go.
    • Torrent: https://rentry.org/sdmodels#anything-v30-38c1ebe3-1a7df6b8-6569e224
    • Supposé ddl, je n'ai pas vérifié s'il n'y avait pas de pickles : https://rentry.org/NAI-Anything_v3_0_n_v2_1
    • Instructions pour télécharger depuis Baidu depuis l'extérieur de la Chine et sans SMS ni compte et avec des vitesses supérieures à 100KBps :
      >Téléchargez un gestionnaire de téléchargement qui permet d'utiliser un agent utilisateur personnalisé (par exemple IDM).
      >Si vous avez besoin d'IDM, contactez-moi.
      >Allez ici : https://udown.vip/#/
      >Dans la section "在线解析", mettez 'https://pan.baidu.com/s/1gsk77KWljqPBYRYnuzVfvQ' dans la première case et 'hheg' dans la seconde (enlevez le ').
      >Cliquez sur le premier bouton bleu
      >Dans la zone inférieure de la boîte, cliquez sur l'icône du dossier à côté de NovelAI.
      >Ouvrez votre gestionnaire dl et ajoutez 'netdisk;11.33.3;' dans la section user-agent (supprimez le ').
      >Cliquez sur l'icône en forme de trombone à côté de l'élément que vous souhaitez télécharger dans la zone inférieure et placez-le dans votre gestionnaire de téléchargement.
      >
      >Pour obtenir anything v3 et v2.1 : première case:https://pan.baidu.com/s/1r--2XuWV--MVoKKmTftM-g, deuxième case:ANYN
      * Un autre lien dont une lettre a été changée, ce qui pourrait signifier qu'il est pickled : https://pan.baidu.com/s/1r--2XuWV--MVoKKmTfyM-g
    • semble être meilleur (par exemple, fournir des arrière-plans et des personnages plus détaillés) que NAI, mais peut surcharger certaines choses. Essayez de baisser le cfg si cela se produit
    • Passe le testeur de "pickles" d'AUTOMATIC et https://github.com/zxix/stable-diffusion-pickle-scanner, mais il n'y a pas de garantie sur la sécurité des pickles, donc ça peut toujours être un spyware ccp.
    • Utilisez le vae, sinon vos sorties auront un filtre gris.
    • Windows Defender pourrait marquer ceci comme un virus, ça devrait être un faux positif.
    • torrent supposé d'un anon sur /g/ (je ne sais pas si c'est sûr)

Lien magnet potentiel que quelqu'un m'a donné

magnet:?xt=urn:btih:689c0fe075ab4c7b6c08a6f1e633491d41186860&dn=Anything-V3.0.ckpt&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce&tr=udp%3a%2f%2f9.rarbg.com%3a2810%2fannounce&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a6969%2fannounce&tr=udp%3a%2f%2fopentracker.i2p.rocks%3a6969%2fannounce&tr=https%3a%2f%2fopentracker.i2p.rocks%3a443%2fannounce&tr=udp%3a%2f%2ftracker.torrent.eu.org%3a451%2fannounce&tr=udp%3a%2f%2fopen.stealth.si%3a80%2fannounce&tr=http%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2fvibe.sleepyinternetfun.xyz%3a1738%2fannounce&tr=udp%3a%2f%2ftracker1.bt.moack.co.kr%3a80%2fannounce&tr=udp%3a%2f%2ftracker.zerobytes.xyz%3a1337%2fannounce&tr=udp%3a%2f%2ftracker.tiny-vps.com%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.theoks.net%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.swateam.org.uk%3a2710%2fannounce&tr=udp%3a%2f%2ftracker.publictracker.xyz%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.monitorit4.me%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.moeking.me%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.encrypted-data.xyz%3a1337%2fannounce&tr=udp%3a%2f%2ftracker.dler.org%3a6969%2fannounce&tr=udp%3a%2f%2ftracker.army%3a6969%2fannounce&tr=http%3a%2f%2ftracker.bt4g.com%3a2095%2fannounce

Mag2

1
2
3
4
Petite mise à jour, voici le lien avec tout, y compris VAE (deuxième)
magnet:?xt=urn:btih:689C0FE075AB4C7B6C08A6F1E633491D41186860&dn=Anything-V3.0.ckpt&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce

magnet:?xt=urn:btih:E87B1537A4B5B5F2E23236C55F2F2F0A0BB6EA4A&dn=NAI-Anything&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce

Mag3

magnet:?xt=urn:btih:689c0fe075ab4c7b6c08a6f1e633491d41186860&dn=Anything-V3.0.ckpt&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce&tr=https%3A%2F%2Fopentracker.i2p.rocks%3A443%2Fannounce&tr=udp%3A%2F%2Ftracker.torrent.eu.org%3A451%2Fannounce&tr=udp%3A%2F%2Fopen.stealth.si%3A80%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fvibe.sleepyinternetfun.xyz%3A1738%2Fannounce&tr=udp%3A%2F%2Ftracker1.bt.moack.co.kr%3A80%2Fannounce&tr=udp%3A%2F%2Ftracker.zerobytes.xyz%3A1337%2Fannounce&tr=udp%3A%2F%2Ftracker.tiny-vps.com%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.theoks.net%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.swateam.org.uk%3A2710%2Fannounce&tr=udp%3A%2F%2Ftracker.publictracker.xyz%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.monitorit4.me%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.moeking.me%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.encrypted-data.xyz%3A1337%2Fannounce&tr=udp%3A%2F%2Ftracker.dler.org%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.army%3A6969%2Fannounce&tr=udp%3A%2F%2Ftracker.altrosky.nl%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.bt4g.com%3A2095%2Fannounce

de: https://bt4g.org/magnet/689c0fe075ab4c7b6c08a6f1e633491d41186860

un autre lien magnet sur https://rentry.org/sdmodels de l'auteur

  • Mélange SFW/NSFW Pony/Furry V2 de AstraliteHeart : https://mega.nz/file/Va0Q0B4L#QAkbI2v0CnPkjMkK9IIJb2RZTegooQ8s6EpSm1S4CDk
  • Guide de mélange de méga (fait à partir de mélanges de modèles "Berry Mix") : https://rentry.org/lftbl
  • Cafe Unofficial Instagram TEST Model
    • Entraîné sur ~140k 640x640 images Instagram composé principalement de comptes japonais (mélange de cosplay, modèle, et comptes personnels).
    • Note : Bien que le modèle puisse créer des images Instagram-esques réalistes (japonaises) à lui seul, pour un plein potentiel, il est recommandé de le fusionner avec un autre modèle (comme berry ou autre).
    • Note : Utilisez CLIP 2 et des résolutions supérieures à 640x640

Raspberry Mix téléchargé par anon (pas sûr que ce soit sûr) : https://pixeldrain.com/u/F2mkQEYp
Strawberry Mix (anon, attention à la sécurité) : https://pixeldrain.com/u/z5vNbVYc

magnet:?xt=urn:btih:eb085b3e22310a338e6ea00172cb887c10c54cbc&dn=cafe-instagram-unofficial-test-epoch-9-140k-images-fp32.ckpt&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A80&tr=udp%3A%2F%2Fopentor. org%3A2710&tr=udp%3A%2F%2Ftracker.ccc.de%3A80&tr=udp%3A%2F%2Ftracker.blackunicorn.xyz%3A6969&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.leechers-paradise.org%3A6969

Ce modèle :

  1. (Somme pondérée 0.05) Tout3 + SD1.5 = Temporaire1
  2. (Différence d'addition 1.0) Temp1 + F222 + SD1.5 = Temporaire2
  3. (Somme pondérée 0.2) Temp2 + TrinArt2_115000 = CeModèle

Le modèle d'Anon pour les vampires( ?):

Mes étapes

Étape 1 :
>A : Anything-V3.0
>B : trinart2_step115000.ckpt [f1c7e952]
>C : stable-diffusion-v-1-4-original

A de https://huggingface.co/Linaqruf/anything-v3.0/blob/main/Anything-V3.0-pruned.ckpt
B de https://rentry.org/sdmodels#trinart2_step115000ckpt-f1c7e952
C de https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/blob/main/sd-v1-4.ckpt

Et "j'ajoute la différence"(Add Difference) à 0.45, et l'appelle partie1.ckpt

Etape 2 :
>A : partie1.ckpt (Ce que j'ai fait à l'étape 1)
>B : Cafe Unofficial Instagram TEST Model [50b987ae]

B est de https://rentry.org/sdmodels#cafe-unofficial-instagram-test-model-50b987ae

et j'ai "pondéré la somme"(Weighted Sum) à 0.5, et je l'ai nommé TrinArtMix.ckpt.

EveryDream Trainer

Tous les fichiers de cette section (ckpt, vae, pt, hyper-réseaux, embedding, etc) peuvent être malveillants : https://docs.python.org/3/library/pickle.html, https://huggingface.co/docs/hub/security-pickle. Assurez-vous de les vérifier à l'aide d'un outil comme https://github.com/zxix/stable-diffusion-pickle-scanner.

Télécharger + info + modèles de requête : https://github.com/victorchall/EveryDream-trainer

Modèles Dreambooth:

Tous les fichiers de cette section (ckpt, vae, pt, hyper-réseaux, embedding, etc) peuvent être malveillants : https://docs.python.org/3/library/pickle.html, https://huggingface.co/docs/hub/security-pickle. Assurez-vous de les vérifier à l'aide d'un outil comme https://github.com/zxix/stable-diffusion-pickle-scanner.

Liens :

Embeddings

Si un embedding est supérieur à 80mb, je l'ai mal étiqueté et il s'agit d'un hyper-réseau.

Utilisez un gestionnaire de téléchargement pour télécharger ces fichiers. Cela permet de gagner beaucoup de temps et les bons gestionnaires de téléchargement vous indiqueront si vous en avez déjà téléchargé un.

Tous les fichiers de cette section (ckpt, vae, pt, hyper-réseaux, embedding, etc) peuvent être malveillants : https://docs.python.org/3/library/pickle.html, https://huggingface.co/docs/hub/security-pickle. Assurez-vous de vérifier qu'ils ne contiennent pas de "pickles" en utilisant un outil comme https://github.com/zxix/stable-diffusion-pickle-scanner.

Vous pouvez vérifier les .pts ici pour obtenir les informations sur leurs entraînements en utilisant un éditeur de texte

Trouvé sur 4chan :

NOTE À MOI-MÊME : AJOUTER L'INTÉGRATION DU PONEY QUE J'AI TÉLÉCHARGÉ IL Y A 2 SEMAINES.

Trouvé sur Discord :

Trouvé sur Reddit :

Hyper-réseaux:

Si un hyper-réseau est inférieur à 80Mo, je l'ai mal étiqueté et c'est un embedding.

Utilisez un gestionnaire de téléchargement pour les télécharger. Cela permet de gagner beaucoup de temps et les bons gestionnaires de téléchargement vous indiqueront si vous en avez déjà téléchargé un.

Tous les fichiers de cette section (ckpt, vae, pt, hyper-réseaux, embedding, etc) peuvent être malveillants : https://docs.python.org/3/library/pickle.html, https://huggingface.co/docs/hub/security-pickle. Assurez-vous de les vérifier à l'aide d'un outil comme https://github.com/zxix/stable-diffusion-pickle-scanner.

Chinese telegram (uploaded by telegram anon): magnet:?xt=urn:btih:8cea1f404acfa11b5996d1f1a4af9e3ef2946be0&dn=ChatExport%5F2022-10-30&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce

J'ai fait une exportation complète du groupe Telegram chinois.

C'est 37 Go (~160 hyper-réseaux et un tas de modèles complets).
Si vous ne voulez pas tout ça, je vous recommande de télécharger d'abord tout sauf le dossier 'files' (environ 26 MB), puis d'ouvrir le fichier html pour décider ce que vous voulez.

Trouvé sur 4chan :

Trouvé sur Discord :

  • Style artistique de Rumiko Takahashi

    Base : Novel AI's Final Pruned
    [126 images, 40000 étapes, taux de 0.00005]
    Tips : "par Rumiko Takahashi" ou "Shampooing de Ranma", etc.

  • Amamiya Kokoro (天宮こころ) un Vtuber de Njiisanji [NSFW / SFW] (Travail sur WD / NAI)

    (Dataset d'entraînement : 36 images d'entrée, 21500 étapes, 0.000005 taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Débutez la requête avec "nijisanji-kokoro" pour obtenir un bon résultat.
    Recommandons le taux de force de l'hyper-réseau : 0.6 à 1.0

  • Haru Urara (ハルウララ) de Umamusume ウマ娘 [NSFW / SFW] (Travail sur WD / NAI)

    Dataset d'entraînement : 42 images d'entrée, 21500 étapes, 0,000005 taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Débutez la requête avec "uma-urara" pour obtenir un bon résultat.
    Recommandons le taux de force de l'hyper-réseau : 0.6 à 1.0

  • Genshin Impact [SFW]

    992 images, art officiel incluant des éléments du jeu
    15k étapes entraînés sur NAI
    utiliser "Nom du personnage genshin impact" ou "genshin impact" pour de meilleurs résultats

  • Ajitani Hifumi (阿慈谷 ヒフミ) de Blue Archive [NSFW / SFW] (Travail sur WD / NAI)

    Dataset d'entraînement : 41 Images d'entrée, 20055 étapes, 0.000005 Taux d'apprentissage.
    Modèle : NAI-Full-Prunced
    Débutez avec ba-hifumi pour obtenir un bon résultat.
    Recommandons un taux de force hyper-réseau : 0.6 à 1.0
    1.0 est un peu exagéré, j'y ai pensé.
    Si vous voulez porter des costumes différents, comme des maillots de bain ou des tenues décontractées, je pense que 0,4 à 0,7 est le meilleur taux idéal.

  • Higurashi no Nako Koro ni // style artistique de ryukishi07

    Je me suis entraîné sur les sprites originaux de Higurashi VN. Je pourrais faire les sprites d'Umineko ensuite, ou mélanger les deux.
    8k étapes, 15k étapes, 18k étapes inclus.

  • Formé Koharu de Blue Archive. Je ne suis pas très bon en anglais, donc c'est douloureux de lire cette description.

    Dataset d'entraînement : 41 images, 20000 étapes, 0.000005 taux d'apprentissage.
    Modèle : WD1.3 merged NAI (3/7 - Sigmoïde)

  • Queencomplexstyle (pas d'information sur l'entraînement) : https://files.catbox.moe/32s6yb.pt
  • Shiroko de Blue Archive. Ensemble d'entraînement : 14 images à 20000 étapes 0.000005 taux d'apprentissage. l'étiquettes est 'ba-shiroko'.
  • Complexe de la reine

    (https://queencomplex.net/gallery/?avia-element-paging=2) [NSFW]
    "C'est un style cool, et il a de bons résultats. Il n'est pas nécessaire de référencer quoi que ce soit de particulier, ça semble fonctionner correctement quel que soit la requête."
    Modèle de base : Novel AI
    Ensemble d'entraînement : 52 images à 4300 étapes 0.00005 taux d'apprentissage (images provenant du lien ci-dessus et recadrées)

  • Hyper-réseaux sur le style Raichiyo33. Pas parfait mais assez bon.

    Formé avec les légendes des étiquettes booru pour la compatibilité avec le modèle + art par raichiyo33 au début sur le modèle NAI. Utilisez "art by raichiyo33" au début de la requête pour le déclencher.
    Quelques conseils utiles :

    1. avec l'étiquettes "traditional media", les résultats sont plus beaux.
    2. essayez d'éviter trop de requête négative. Je n'utilise que "bad anatomy, bad hands, lowres, worst quality, low quality, blurry, bad quality", même si cela semble trop. Avec beaucoup d'étiquettes UC (surtout avec un ensemble complet d'UC NAI), cela produira un résultat NAI presque générique.
    3. Utilisez saut de CLIP -2 (parce qu'il a été formé sur NAI, bien sûr).
  • Genshin Impact [SFW]

    992 images, art officiel incluant des éléments de jeu
    15 000 étapes formés sur NAI
    utiliser "Nom de personnage genshin impact" ou "genshin impact" pour de meilleurs résultats

  • Gyokai-ZEN (alias : Gyokai / Onono Imoko / shunin) [NSFW / SFW] (Pour NAI)

    Inclut les images d'entraînement
    Dataset d'entraînement : 329 images d'entrée, diverses étapes incluses. Le modèle principal comprend 21 000 étapes.
    Modèle d'entraînement : NAI-Full-Pruned.
    Taux de force recommandé pour l'hyper-réseau : 0.6 à 1.0. Une force plus faible est bonne pour le modèle surentraîné.
    Accentuez l'hyper-réseau en utilisant les mots clés "gyokai" ou "art by gyokai".

    Remarque : les requêtes contenant "color halftone" ou "halftone" peuvent être utiles pour ajouter les petits motifs dans l'ombrage souvent vus dans le style d'Onono Imoko.
    CEPENDANT : Ceci résulte souvent en un bruit/grain qui peut être corrigé si vous effectuez le rendu à une résolution supérieure à 768x768 (avec hi-res fix).
    Supprimez ces options de votre requête si le bruit est trop important dans l'image. Vos sorties seront plus nettes et plus propres, mais malheureusement moins dans le style.

    gyokai-zen-1.0 est de 16k étapes à 0.000005, puis jusqu'à 21k étapes à 0.0000005
    gyokai-zen-1.0-16000 est un peu moins entraîné (16k étapes) et sort parfois plus proprement à pleine puissance.
    gyokai-zen-1.0-overtrain est à 22k étapes tous à 0.000005. Il peut parfois être un peu cuit.

  • yapo (ヤポ) Art Style [NSFW / SFW] (Travail sur WD / NAI)

    Dataset d'entraînement : 51 images d'entrée, 8000 étapes, 0.0000005 Taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Débuter avec dans le style de yapo / yapo pour obtenir un bon résultat.
    Recommandons le taux de force de l'hyper-réseau : 0.4 à 0.8

  • Lycoris recoil chisato

    Dataset d'entraînement : 100 images d'entrée, 21500 étapes, 0.000005 taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Démarrez avec "cr-chisato".
    Recommandons le taux de force de l'hyper-réseau : 0.4 à 0.8. clip skip : 1 Euler

  • Liang Xing stylé

    Artstation : https://www.artstation.com/liangxing
    20 000 étapes à des taux d'apprentissage variables jusqu'à 0,000005, 449 images d'entraînement. Nouvelle base d'IA.
    Requiert que vous mentionniez "Liang Xing" sous une forme ou une autre car c'est ce que j'ai utilisé dans le document d'entraînement. "dans le style de Liang Xing" comme exemple.

  • アーニャ(anya)(SPY×FAMILY) [NSFW / SFW] (Travail sur WD / NAI)

    Dataset d'entraînement : 46 images d'entrée, 20500 étapes, 0.00000005 Taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Débutez la requête avec "Anya" pour obtenir un bon résultat.
    Recommandons un taux de force hyper-réseau : 0.6 à 0.9

  • cp-lucy

    Dataset d'entraînement : 67 images d'entrée, 21500 étapes, 0.000005 taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Démarre avec "cp-lucy" / saut de CLIP : 1
    Taux de force de l'hyper-réseau recommandé : 0.6 à 0.9

  • バッチ (azur bache) (アズールレーン) [NSFW / SFW] (Travail sur WD / NAI)

    Dataset d'entraînement : 55 Images d'entrée, 20050 étapes, 0.00000005 Taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Débutez la requête avec "azur-bache" pour obtenir un bon résultat.
    Recommandons le taux de force de l'hyper-réseau : 0.6 à 1.0

  • Ixy (par ixyanon) :

    L'hyper-réseaux à été entraîné sur le style de ixy à partir de 100 images triées sur le volet, en utilisant des images surdimensionnées divisées.
    Entraîné avec Nai-full-pruned.
    Il est recommandé d'utiliser des pupilles blanches dans la requête, ixy pour un plus grand effet de leur style.
    Utilisations : rendra généralement votre résultat plus plat dans l'ombrage, très bon pour les trucs froufroutants, et les pupilles blanches bien sûr.
    Les exemples de grilles se trouvent dans le dossier.

  • Blue Archives Azusa

    Ensemble d'entraînement : 28 images d'entrée, 20000 étapes, 5e-6:12000, 5e-7:30000 Taux d'apprentissage.
    Modèle d'entraînement : NAI-Full-Prunced
    Débutez la requête avec "ba-azusa" pour obtenir un bon résultat.
    Recommandons un taux de force hyper-réseau : 0.6 à 1.0 saut de clip : 1

  • Makoto Shinkai HN

    Entraîné sur environ 150 images, 1,2,2,1 pour 30 000 étapes sur le modèle NAI, utiliser "art by makotoshinkaiv2" pour le déclencher (expérimental, il n'est peut-être pas très différent du modèle de base mais j'ai remarqué qu'il améliorait la composition lorsqu'il était associé au gradient esthétique).
    1007 images de l'ensemble du film d'animation 5 centimètres par seconde (Byousoku 5 Centimeter) (2007) de Makoto Shinkai.

  • hyper-réseau basé sur les requêtes suivantes :

    • cervix, urethra, puffy pussy, fat_mons, spread_pussy, gaping_anus, prolapse, gape, gaping

    Cet hyper-réseau a été fait par moi (IWillRemember) (IWillRemember#1912 sur discord) si vous avez des questions vous pouvez me trouver ici sur discord !

    Cet hyper-réseau a été entraîné pendant 2000 étapes à différents taux d'apprentissage sur différents lots d'images (généralement 25 images par lot).

    Je suggère d'utiliser une force d'hyper-réseau de 0,5 ou peut-être jusqu'à 0,8 car elle est vraiment forte ; elle est compatible avec presque tous les modèles de type anime et elle est très performante même avec des modèles semi-réalistes.

    Les exemples sont faits en utilisant le modèle Nai, mais il fonctionne avec ally, et tout autre modèle basé sur l'anime si la force est ajustée en conséquence, il pourrait aussi fonctionner avec f111 et d'autres modèles avec les bonnes requêtes, pour obtenir de très grosses lèvres majeures/mineures, et/ou béantes.

  • (reupload de la section 4chan) Hyper-réseaux entraîné sur l'art de spacezin, 13 images triées sur le volet, retournées et utilisées en surdimensionnement, les données sont le rar dans le lien.
    >par ixyanon
    >Entraîné dans Nai-full-pruned, utilisant la méthode d'activation swish avec dropout, taux d'entraînement 5e-6
    >Je recommande l'utilisation de "spacezin" dans la requête, des étapes moins importantes sont incluses pour les tests et l'utilisation si 20k est trop important.
    >Utilisations : seins avec des tétons couverts, des yeux perçants et tout ce que vous attendez de l'artiste.
    >L'intégration de gradients esthétiques est incluse, ce qui aide beaucoup à l'utilisation, et permet d'améliorer le style de manière significative si vous pouvez trouver de bons paramètres...
  • Hyper-réseaux entraîné sur l'art de mikozin (reupload depuis la section de 4chan)
    >Entraîné dans Nai-full-pruned, en utilisant la méthode d'activation swish avec dropout, taux d'entraînement 5e-6.
    >Le fait de placer Mikozin dans la requête lui permettra d'avoir un effet plus fort.
    >a un certain nombre d'effets, mais donne surtout un style très doux et peint à l'image de sortie.
    >L'intégration de gradients esthétiques est incluse, ce qui n'est pas nécessaire mais pourrait être intéressant !
    >Les données sur lesquelles il a été entraîné sont incluses dans le lien méga, si vous voulez quelque chose de spécifique sur les données sur lesquelles il a été entraîné, regarder la liste de mot présente dans les .txt.
  • yabuki_kentarou(1,1_relu_5e-5)-8750
    >Nombre d'images source : 75 (white-bg, hi-res, and hi-qual)
    >Nombre d'images de la base de données : 154 (divisées, 512x512)
    >Test de stress du dataset : excellent (LR 0.0005, 2000 étapes)
    >Modèle : NAI [925997e9].
    >Couche : 1, 1
    >Taux d'apprentissage : 0.00005
    >étapes : 8750
  • namori(1,1_relu_5e-5)-9000.pt
    >Nombre d'images sources : 50 (white-bg, hi-res, and hi-qual)
    >Nombre d'images du dataset : 98 (split, 512x512)
    >Test de stress du dataset : excellent (LR 0.0005, 2000 étapes)
    >Modèle : NAI [925997e9].
    >Couche : 1, 1
    >Taux d'apprentissage : 0.00005
    >étapes : 9000
    >Prévisualisation : https://i.imgur.com/MEmvDCS.jpg
    >Téléchargement : https://anonfiles.com/n2W8rdF7y5/namori_1_1_relu_5e-5_-9000_pt
  • Yordles :

    Hey tout le monde , ces hyper-réseaux ont été produits par moi (IWillRemember) (IWillRemember#1912 sur discord) si vous avez des questions vous pouvez me trouver sur discord !

    Ces hyper-réseaux ont été entraînés pendant environ 30 000 étapes à différents taux d'apprentissage sur 80 images.

    Yordles = à utiliser avec une force d'hyper-réseau DE 0,7
    Yordles-FullSTR = à utiliser avec une force d'hyper-réseau de 1

    Je suggère d'expérimenter beaucoup avec les requêtes car il donnent tous deux à peu près les mêmes résultats, mais j'ai inclus les deux car certaines personnes pourraient préférer la version la plus forte.

    Ils ont été entraînés avec NAI mais ils fonctionnent mieux avec le Gape60 d'Arena (je suggère fortement de l'utiliser).

    Ils ont été entraînés sur les étiquettes suivants : Yordle, tristana, lulu_(league_oflegends), poppy(league_oflegends), vex(league_oflegends), shortstack.
    Je ne sais pas pourquoi mais discord modifie les étiquettes pour lulu, vex et poppy, alors lisez le texte readme ! !!

    Je suggère fortement de construire autour d'un personnage spécifique, mais vous pouvez aussi créer vos propres yordles ! Essayez d'utiliser différents messages pour amplifier les chances d'obtenir un personnage spécifique.

    masterpiece, highest quality, digital art, colored skin, blue skin, white skin, 1girl, (yordle:1.1), purple eyes, (poppy(league_of_legends):1.1), shortstack, twintails, fang, red scarf, white armor, thighs, sitting, night, gradient background , grass , blonde hair , on back, :d

    Je suggère de ne pas utiliser de requêtes négative ou de n'utiliser que des requêtes conditionnelles comme : monochrome, letterbox, etc.

    Merci de nous avoir lu et bonne lecture !

    https://mega.nz/file/FCdiSIbI#ekOnlvox0ksEe1zzOQCFXgMJPkClEFPJFfGaAXv4rYc

    Exemples :
    https://cdn.discordapp.com/attachments/1023082871822503966/1037513553386684527/poppy.png
    https://cdn.discordapp.com/attachments/1023082871822503966/1037513571355066448/lulu.png
    Je ne sais pas pourquoi mais discord modifie les étiquettes pour lulu, vex et poppy donc lisez le readme txt ! !!

Des yeux colorés :

>Salut tout le monde, cet hyper-réseau a été publié par moi (IWillRemember) (IWillRemember#1912 sur discord) si vous avez des questions vous pouvez me trouver sur discord !
>
>J'ai fait le Hn comme une commission pour un ami 😄
>
>Je suis en train de sortir un hyper-réseau pour faire de meilleures animations comme des yeux brillants, et un visage/le haut du corps plus fin.
>
>Les étiquettes sont : 
>detailed eyes, 
>(color) eyes = ex : blue eyes, yeux bleus, etc etc
>collarbone
>
>Entraîné pendant 12k étapes sur un dataset de 80 images environ.
>
>Vous pouvez utiliser l'hyper-réseau avec une force de 1 sans aucun problème.
>
>Bon courage !
>
>Example: https://media.discordapp.net/attachments/1023082871822503966/1038115846222008392/00162-3940698197-masterpiece_highest_quality_digital_art_1girl_on_back_detailed_eyes_perfect_face_detailed_face_breasts_white_hair_yell.png?width=648&height=702
>
>https://mega.nz/file/dHFwmaxS#NQhMPjT4TElPXX_YAZhTsFrQ36PDJhpWFm9BcHU_BO4

Dégradés esthétiques

Collection de dégradés esthétiques : https://github.com/vicgalle/stable-diffusion-aesthetic-gradients/tree/main/aesthetic_embeddings

Ressources polaires

MORT/MANQUANT

Si vous avez l'un d'entre eux, s'il vous plaît, envoyez-le moi.

Apparemment, il y a une collection de téléchargements sur Google drive (peut-être le site coréen, mais j'ai fait une erreur de frappe).

Dreambooth :

Embedding :

Hyper-réseaux :

Datasets :

Dataset d'entraînement avec évaluations esthétiques : https://github.com/JD-P/simulacra-aesthetic-captions

Entraînement

Former un modèle de diffusion stable avec Diffusers, Hivemind et Pytorch Lightning : https://github.com/Mikubill/naifu-diffusion

Dreambooth colab avec un modèle personnalisé (ancien, donc peut-être dépassé) : https://desuarchive.org/g/thread/89140837/#89140895

Le GPU semble déterminer les résultats de l'entraînement (--low/med vram en arguments aussi)

Extension : https://github.com/d8ahazard/sd_dreambooth_extension

Aide GUI pour le marquage et le recadrage manuel : https://github.com/arenatemp/sd-tagging-helper/

Aide pour le marquage des images : https://github.com/nub2927/image_tagger/

comparaisons anything.ckpt
Ancien final-pruned : https://files.catbox.moe/i2zu0b.png (embed)
v3-pruned-fp16 : https://files.catbox.moe/k1tvgy.png (embed)
v3-pruned-fp32 : https://files.catbox.moe/cfmpu3.png (embed)
v3 full ou autre : https://files.catbox.moe/t9jn7y.png (embed)

Supposément comment ajouter des données de modèle sans fusionner par anon :

x = (Modèle final de Dreambooth) - (Modèle original)
filtre x pour x >= (un certain seuil)
sortie = (Modèle avec lequel vous voulez le fusionner) * (1 - M) + x * M

Méthode de fusion de modèles qui préserve les poids : https://github.com/samuela/git-re-basin

  • Gradients esthétiques : https://github.com/AUTOMATIC1111/stable-diffusion-webui-aesthetic-gradients
  • Classement esthétique des images ( ?): https://github.com/waifu-diffusion/aesthetic
  • 1 img TI : https://huggingface.co/lambdalabs/sd-image-variations-diffusers
  • Vous pouvez définir un taux d'apprentissage de "0.1:500, 0.01:1000, 0.001:10000" dans l'inversion textuelle et il suivra le programme
  • Astuce : combiner des phrases en langage naturel et des étiquettes peut permettre un meilleur entraînement.
  • Dreambooth sur 2080ti 11Go (guide d'anon) : https://rentry.org/tfp6h
  • Entraînement d'une TI avec 6 Go (pas sûr que ce soit sûr ou que ça marche, instructions de l'uploader anon) : https://pastebin.com/iFwvy5Gy
    • Avoir xformers activé.

      Cette différence fait 2 choses.

      1. Activer les optimisations d'attention croisée pendant l'entraînement de la TI. Voldy a désactivé les optimisations pendant l'entraînement parce qu'il a dit que cela lui donnait de mauvais résultats. Cependant, si vous utilisez l'optimisation InvokeAI ou xformers après le correctif xformers, vous n'obtiendrez plus de mauvais résultats.
        Cela permet d'économiser environ 1,5 Go de mémoire vive avec xformers.
      2. Décharge les vae de la VRAM pendant l'entraînement. Ceci est fait dans les hyper-réseaux, et je ne sais pas pourquoi ce n'était pas dans le code de TI. Cela ne casse rien et n'aggrave rien.
        Cela permet d'économiser environ 0,2 Go de VRAM.

      Après avoir appliqué ceci, activez Move VAE and CLIP to RAM et Use cross attention optimizations while training.

  • Par anon :

    Je ne sais pas si quelqu'un d'autre en aura l'utilité, mais j'avais besoin de le faire pour moi-même puisque je n'arrive pas à former un hyper-réseau, quoi que je fasse.

    https://mega.nz/file/LDwi1bab#xrGkqJ9m-IsqsTQNixVkeWrGw2HvmAr_fx9FxNhrrbY

    Ce lien ci-dessus est une feuille de calcul dans laquelle vous collez les données hypernetwork_loss.csv dans la cellule A1 (A2 est la cellule où les chiffres doivent commencer). Ensuite, vous pouvez utiliser M1 pour définir le nombre d'époques des données les plus récentes que vous souhaitez utiliser pour la ligne de tendance rouge (le vert a la même longueur mais commence avant le rouge). Outlayer % est si vous voulez filtrer les points extrêmes 100% signifie que tous les points sont pris en compte pour la ligne de tendance 95% filtre les 5 points supérieurs et inférieurs etc. En gros, vous pouvez utiliser ceci pour voir où l'entraînement a commencé à foirer.

  • Le meilleur d'Anon :

    Création :
    1,2,1
    Couches normalisées
    Dropout Enabled
    Swish
    XavierNormal (je ne suis pas encore sûr de ce que je vais faire, Normal ou XavierUniform serait peut-être mieux).

Entraînement :

Taux : 5e-5:1000, 5e-6:5000, 5e-7:20000, 5e-8:100000
étapes maximum : 100,000

Guide du vecteur par anon : https://rentry.org/dah4f

  • Autre guide sur l'entraînement : https://www.reddit.com/r/stablediffusion/comments/y91luo
  • Guide d'intégration super simple par anon : Prenez les images de haute qualité, passez-les dans le processeur. Créez un embedding appelé art by {artist}. Puis entraînez ce même embedding avec vos images traitées et définissez le taux d'apprentissage comme suit :0.1:500,0.05:1000,0.025:1500,0.001:2000,1e-5` Exécutez-le pour 10k étapes et vous serez bon. Pas besoin d'un hyper-réseau entier.
  • Il y a des informations sur l'entraînement et un tutoriel pour Asagi Igawa, Edjit, et Rouge the Bat embeddings (RealYiffingFar#4510) : https://mega.nz/folder/5nIAnJaA#YMClwO8r7tR1zdJJeTfegA

Datasets :

FAQ

Consultez https://rentry.org/sdupdates et https://rentry.org/sdupdates2 pour d'autres questions.
https://rentry.org/sdg_FAQ

C'est quoi toutes ces nouveautés?

Vérifiez ici si votre question a trouvé une réponse :

Comment dois-je mettre cela en place?

Guide standard (Traduit en français) : https://rentry.org/voldy-fr
Référer à https://rentry.org/nai-speedrun (Le "test Asuka")
Guide simple : https://rentry.org/3okso
Guide standard : https://rentry.org/voldy
Guide détaillé : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2017
Espace papier : https://rentry.org/865dy

Guide AMD : https://rentry.org/sdamd

Qu'est-ce que le test "Hello Asuka"?

C'est un test de base pour voir si vous êtes capable d'obtenir une récréation 1:1 avec NAI et si tout est correctement configuré. Ce test a été inventé par Asuka Anon qui a tenté de recréer NAI à l'échelle 1:1 avant toutes les mises à jour.

Référer à

Qu'est-ce que le décapage/pickle, le fait d'être décapé/pickled?
Les fichiers >ckpt et les fichiers python peuvent exécuter du code. On parle de décapage/pickle lorsque ces fichiers exécutent du code malveillant qui infecte votre ordinateur avec des logiciels malveillants. C'est une façon mièvre et amusante de dire que vous avez été piraté.

Je veux exécuter ceci, mais mon ordinateur est trop mauvais. Y a-t-il un autre moyen ?
Consultez l'un de ces sites (je n'ai pas utilisé la plupart d'entre eux, ils peuvent donc être dangereux à utiliser) :

Comment puis-je vérifier directement les mises à jour de l'interface web d'AUTOMATIC1111?

Pour une liste complète des mises à jour, allez ici : https://github.com/AUTOMATIC1111/stable-diffusion-webui/commits/master

Que dois-je faire si une nouvelle mise à jour brique/brise mon installation de l'interface web d'AUTOMATIC1111 ?

Aller sur https://github.com/AUTOMATIC1111/stable-diffusion-webui/commits/master
Regardez quand le changement qui a cassé votre installation a eu lieu.
Trouvez le numéro bleu à droite avant le changement.
Ouvrez une ligne de commande/git bash à l'endroit où vous avez l'habitude de git pull (la racine de votre installation)
'git checkout <numéro bleu sans ces crochets angulaires>'
pour réinitialiser votre installation, utilisez 'git checkout master'.

Qu'est-ce que...?

Qu'est-ce qu'un VAE ?

Variational AutoEncoder, en gros un "compresseur" qui peut transformer des images en une représentation plus petite et ensuite les "décompresser" pour retrouver leur taille originale. Ceci est nécessaire pour ne pas avoir besoin de beaucoup de VRAM et de puissance de traitement puisque la partie "diffusion" est faite dans la plus petite représentation (je pense). Les VAE SD 1.5 les plus récents ont été davantage entraînés et peuvent mieux recréer certains petits détails.

Qu'est-ce que le taillage d'un .Ckpt ?

La suppression des données inutiles (tout ce qui n'est pas nécessaire à la génération de l'image) du modèle afin qu'il prenne moins d'espace disque et s'insère plus facilement dans votre VRAM.

Qu'est-ce qu'un pickle, sans faire référence au format de fichier python ? Quel est le mème qui entoure ceci ?

Lorsque le modèle NAI a fait l'objet d'une fuite, les gens ont eu peur qu'il contienne un code malveillant qui pourrait être exécuté lors du chargement du modèle. Les gens ont commencé à faire des mèmes sur les cornichons à cause du format de fichier.

Pourquoi certaines choses sont-elles marquées comme étant 'dangereuses', et pourquoi l'interface Web de StableDiffusion a un drapeau 'safe-unpickle' ? -- Je suis bloqué sur pytorch 1.11 et je dois désactiver cette option.

Le dépicklage sécurisé vérifie les importations de la bibliothèque de code du pickle par rapport à une liste approuvée. S'il essaie d'importer quelque chose qui n'est pas sur la liste, il ne le chargera pas. Cela ne signifie pas nécessairement que c'est dangereux mais vous devez être prudent. Certaines choses pourraient être capables de se faufiler et d'exécuter un code arbitraire sur votre ordinateur.

Le contenu de Rentry est-il écrit par une seule personne ou par plusieurs ?

Il y a beaucoup de personnes qui maintiennent différentes rentries.

Pourquoi certains de mes requêtes produisent-ils des images noires?

Ajoutez " --no-half-vae " (supprimez les guillemets) aux arguments de votre ligne de commande dans webui-user.bat.

Quelle est la différence entre les embedbings, les hyper-réseaux et les dreambooths ? Qu'est-ce que je dois former?
Anon :

J'ai testé un grand nombre de modifications de modèles et voici ce que j'en pense :
Les embeddings : ce sont de petits fichiers qui trouvent la meilleure représentation de ce sur quoi vous les entraînez dans le modèle de base. C'est de loin l'option la plus flexible et elle donnera de très bons résultats si le but est de regrouper ou de mettre en valeur des éléments que le modèle comprend déjà.
hyper-réseaux : il existe des instructions qui modifient légèrement le résultat du modèle de base après chaque étape d'échantillonnage. Ils sont assez puissants et fonctionnent décemment pour tout ce que j'ai essayé (sujets, styles, compositions). Les inconvénients sont qu'ils ne peuvent pas être facilement combinés comme les embeddings. Ils sont également plus difficiles à entraîner parce que les bons paramètres semblent varier de façon sauvage, ce qui nécessite beaucoup d'expérimentation à chaque fois.
dreambooth : modifie une partie du modèle lui-même et est la seule méthode qui lui apprend réellement quelque chose de nouveau. Les résultats sont rapides et précis mais les poids pour générer les éléments adjacents seront détruits. Ils sont gigantesques et ont les mêmes inconvénients que les embeddings.

Dépôt de liens a trier

Info:

Boorus:

Upscalers:

Redimensionnement : https://www.birme.net/?target_width=512&target_height=512&quality_jpeg=100&quality_webp=100

Éditeur png simple : https://entropymine.com/jason/tweakpng/

Installer Stable Diffusion sur un PC à GPU AMD fonctionnant sous Ubuntu 20.04 : https://gist.github.com/geerlingguy/ff3c3cbcf4416be2c0c1e0f836a8183d

Comment exécuter https://huggingface.co/spaces/skytnt/moe-tts localement (lire les réponses) : https://desuarchive.org/g/thread/89714899#89715329

lol: https://desuarchive.org/g/thread/89719598#89719734

Twitter anons:
https://twitter.com/AICoomer
https://twitter.com/BluMeino
https://twitter.com/ElfBreasts
https://twitter.com/Elf_Anon
https://twitter.com/ElfieAi
https://twitter.com/EyeAI_
https://twitter.com/FEDERALOFFICER
https://twitter.com/FizzleDorf
https://twitter.com/Headstacker
https://twitter.com/KLaknatullah
https://twitter.com/Kw0337
https://twitter.com/Lisandra_brave
https://twitter.com/Merkurial_Mika
https://twitter.com/PorchedArt
https://twitter.com/Rahmeljackson
https://twitter.com/RaincoatWasted
https://twitter.com/S37030315
https://twitter.com/YoucefN30829772
https://twitter.com/ai_sneed
https://twitter.com/dproompter
https://twitter.com/epitaphtoadog
https://twitter.com/mommyartfactory
https://twitter.com/nadanainone
https://twitter.com/spee321

https://mobile.twitter.com/spee321
https://mobile.twitter.com/ElfieAi
https://mobile.twitter.com/Headstacker
https://mobile.twitter.com/ai_sneed
https://mobile.twitter.com/Rahmeljackson
https://twitter.com/SpiteAnon

Vider le cache de manière agressive : https://desuarchive.org/g/thread/89718344/#q89722878

diff --git a/modules/sd_hijack_optimisations.py b/modules/sd_hijack_optimisations.py
index 98123fb..0f5f327 100644
--- a/modules/sd_hijack_optimisations.py
+++ b/modules/sd_hijack_optimisations.py
@@ -99,11 +100,14 @@ def split_cross_attention_forward(self, x, context=None, mask=None) :
         raise RuntimeError(f'Not enough memory, use lower resolution (max approx. {max_res}x{max_res}). '
                            f'Need : {mem_required / 64 / gb:0.1f}GB free, Have:{mem_free_total / gb:0.1f}GB free')

+ torch.cuda.empty_cache()
     slice_size = q.shape[1] // steps if (q.shape[1] % steps) == 0 else q.shape[1]
     for i in range(0, q.shape[1], slice_size) :
         end = i + slice_size
         s1 = einsum('b i d, b j d -> b i j', q[ :, i:end], k)

Quelque chose à propos de l'entraînement ? ancien : https://www.bdhammel.com/learning-rates/

Cartes de jeu Koikatsu : https://illusioncards.booru.org/index.php?page=post&s=list&tags=card_frame&pid=0

Le pixiv de Faunanon : https://www.pixiv.net/en/users/87884328

Depickler? : https://github.com/trailofbits/fickling

filigrane lol : https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2803, https://github.com/AUTOMATIC1111/stable-diffusion-webui/search?q=do_not_add_watermark

Fairseq demse 13B (modèle de texte pour nsfw ?): https://huggingface.co/KoboldAI/fairseq-dense-13B-Shinen?text=My+name+is+Julien+and+I+like+to

Collection de liens : https://rentry.org/p5pk2

Discussion japonaise sur les images de 4chan : http://yaraon-blog.com/archives/225884
*Selon anon : rien de nouveau ici, c'est le fameux clickbait (アフィカス, désigne un site qui ne comporte aucun contenu ou qui ne fait que reprendre un autre site dans le but d'en tirer des revenus publicitaires)

Edit
Pub: 16 Nov 2022 22:41 UTC
Edit: 13 Dec 2022 14:36 UTC
Views: 1408