◎正当な理由による書き込みの削除について: 生島英之とみられる方へ:
なんJNVA部★157 ->画像>142枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/liveuranus/1677145939/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集:
https://seesaawiki.jp/nai_ch/d/ danbooru謹製タグ辞典:
https://danbooru.donmai.us/posts?tags=tag_groups ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★156
http://2chb.net/r/liveuranus/1677059075/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
いお
ちつ
(サンイチ)
サンイチ
サンイチ
サンイチ
サンイチ
サンイチ!
{{{サンイチ}}}
新スレ早いなサンイチ
サンイチやで
サンイチ
サンイチ
サンイチ!
>>12 正面向いて口からなんかダバーして草
サンイチ
サンイチ
サンイチ
サンイチ
サンイチ
>>22 しゅご
後ろの背景どんなプロンプトなん?
高度すぎる
今メモリって凄い安いんだね
値下がりし続けて時期が良い
>>19 ニキついに挿入できてるやん
CNどんな感じで設定してるんやろ?
流れが早いなサンイチ
服がビリビリ敗れるのはtorn clothesとして爆発で頭がチリチリになったギャグ表現ってタグなんかあったかなってのdanbooruで調べてもよくわからんかった
>>27 すまん・・・これloraで強引に作ったコラ画像なんや・・・
打率とんでもなく低くて奇形まみれ
loraの強度ちょっとずつ変えていったら0.7でベストな構図が出た
ただしチンポの造形がくそだったのでインペイントでチンポ周りだけloraの強度落として修正した
前スレでメモリの質問した物です。色々教えてありがとな。rtx3060、12Gのメインメモリ32Gのパソコンを購入する事にするよ。
メモリは1枚辺り64G以上になると急に種類減るな
まあそんな必要な奴があんまりおらんのやろけど…
AOM2ベースで学習したキャラ再現LoRAをAOM2で使うとなんだか細かい特徴が違うやつが出てきちゃうんだけどAOM2と7th anime 3.1Aをマージしたやつで使ったらしっかり特徴が出てきたわ
ChatGPTで遊ぼうと思っても全然アイデアが思いつかなくて絶望する
自覚はしていたがココまで自分は面白くない人間だったのか
>>30 生首ノウハウほんま神で草
血のにじむ努力で出したガチャやったんやな
サンガツやで
>>31 もしかしたらすぐグラボも換えたくなるかもしれないから
ケースに長い上級グラボも入れられるかも確かめておこう
全人類がAIになれば世界は平和になる
人類が混ざるとダメだ争いが起きる
AIの反乱は本当に起きるかもしれない(´・ω・`)
メモリガチで大暴落しとるやん
ガチガチ安定優良メーカのDDR4-3600
半年でガチで半額になってて草
AI「中国経済の構造は間違ってるで」
で規制されたらしいな
いちおつ
サンイチ
cnヤバいわこれ
生首loraに使おうと思ったけど失念してしまったんやが
生首大量に吐き出せる呪文シートのリンクってどれやったかわかるニキおる?
🤗便利だからプライベート設定で色々置いてるけどいつか怒られそう
藻なし上げてたわ
ちなワイのVPN931はプロバイダのグローバルIPの規制だからどうしようもないくさい
ファッキン楽天
>>43 数年パソコンから離れてて知らんかったから勉強になったわ
githubもいつの間にかMSに買収されてたんだな
MS凄いわ
これ画像の保存先をSSDからHDDに変えたら画像生成遅くなった気がしたけど気のせいか?
スゴい巨根の人がいる…
>>52 画像生成なんて秒数がはっきり出てるのに気のせいとかあるんか?
>>54 それもそうやな
一回SSDに戻して時間測ってみるわ
>>52 書き込み速度の差はあるけど、画像生成レベルだったら誤差ぐらいだと思うぞ
画像ファイル1つ辺りだったらそこまでサイズ無いし
ちょっと教えてくれ
LoRA学習させようとしたらno module tritonって言われるんだけど
pip install tritonって打ってもnot foundになるし、どうしたらええの??
サンイチ
ワイはRTX3060使ってたけど満足できなくなってA4000の増設検討中や……
ついでにメモリも買い替えようと思うんやけどDDR5にしたほうが生成速くなったりするんか?情弱ですまん
この画像で使用されてるモデル分かる?
製作者がマージしたオリジナルかなと思ってたけど最近複数の投稿者で見かけるようになったから
>>62 メインメモリは容量だけ気にしろ
あとA4000にしても速くならんがエエんか?
>>52 生成は体感出来るほど変わることはまず無いで
>>63 それ系の顔のはCivitaiのChilloutの配布ページに作例がアホほどあるから見たほうが良い
>>62 細かいキャッシュの読み込みが早くなる程度やろうし、一番肝心なキャッシュは全部VRAMのほうやろうし、変わっても最初のモデル読み込みの瞬間ぐらいかと(それすら体感かわるのか怪しいけど……)
体感速度は変わらんと思う
RAMにモデル貯めまくって、モデルマージしまくる人とかは効果有りそうだが……
>>62 DDR5にするってマザボも変えるんじゃ?マザボだけクソ高いよ
>>62 ついでに言うけど今DDR4なら
メモリ規格変えるときはCPUとマザーも買い替えやぞ
>>65 >>67 これChilloutなんか…
自分で試した時はこういう彫りの深い顔に全然ならんかったから意外だったわサンクス
>>58 使ってるツールとか今まで出来ててアプデしたらできなくなったのかとかも書かないと答えは得られないと思うで
sd-scriptsをLoRA_Easy_Training_Scriptsで動かしてるのなら
sd-scriptsの最終更新日が2/22、LoRA_Easy_Training_Scriptsの最終更新日が2/20で最新版sd-scriptsに対応してない
>>71 LoRAとかTIの組み合わせでも変わるやで
生成作業の99%はメモリ内で処理してて最後の一瞬数百KBからデカくても2MB程度の画像を書き込む時くらいしかストレージにはアクセスせんから生成速度への影響は無い
体感出来るくらい差が出るのは数百とか数千枚以上溜め込んだフォルダ開くときにエクスプローラーがサムネ作る時とかでようやく
Controlnetの Weight と Guidance strength
What the difference between Weight and Guidance strength
私の理解が正しければ、
Weight は、コントロールネットの「影響力」の重みです。プロンプト アテンション/エンファシスに似ています。例 (myprompt: 1.2)。
これは適切な類推ではありませんが、注意値を小さく設定すると、重み { 1 , 2 }から期待されるように機能しないためです。
ガイダンスは、controlnet が適用する合計ステップのパーセンテージです (最初/ステップ 0 から)。
これは、プロンプトの編集/シフトに似ています。例 [myprompt::0.8] (最初から全ステップの80%まで適用)
>>75 分かりやすい例えで助かるわ
自分で色々弄ってても違いが全然わからなかったんやが、そういうことなんやな
tageditter更新したらファイルロックするようになって編集したら中のファイルに干渉するのにひと手間増えて最悪だわ戻してえ
>>58 triton使うようになったん?
以前は意味ないし無視でよかったはずやが
さんいち
>>75 ぶっちゃけgithubをgoogle翻訳しただけや
設定でcontrolnetをXYZplotでいじれるようになるで
あんまええ例えやない画像かも↓0
>>58 >>79 tritonは相変わらずまだ意味はないはず
多分エラーが出てるとしたら別の理由だな
最近本家でアプデあったじゃん?kohya氏のやつ
それが原因なんじゃないか
鰤ちゃん出来たけど、かなりの確率で女になる
自動で付いたプロンプト削らなかったせいかな
後服がなぜか黒くなるわ
https://imgur.com/BeZP5yl >>75 前スレで質問したもんやが助かるやで
強調とプロンプトエディティングのどこまで適用みたいなもんなんやな
controlnet、いつくかのインプットの中からランダムにひとつを選んで生成する機能とかあったらいいんだけどな(そのうちできるようになりそう)
赤ちゃんで申し訳ないんだけどweb uiでgenerate押すとcpu使用率が上がってgpu使用率は上がらないんだけどこれであってる?
一応3060使ってる
>>88 3080やがgenerate中はタスクマネージャーのGPUは100%に張り付く
アフターバーナーで制限掛けてなければGPUが張り付くと思う
今日ようやく3060届いたから交換ついでにwiki日書いてあった、利用するライブラリの更新ってので
COMMANDLINE_ARGS= --reinstall-torch --reinstall-xformers
やったらエラー吐いて動かなくなったんだけど・・・
また最初から入れ直しコースか
>>88 タスクマネージャーから見ているならGPUはドロップダウンをCUDAに切り替えてグラフを確認
>>88 ワイcpu100いくわ
GPU60くらい
初歩的なことだけどwslの場合webui-user.sh変更した場合でもwebui.shを実行するんだよね?
bat場合は-userを起動するけど
LoRAやとゴリゴリに使うでGPU
生成だと高解像度にしたりバッチ増やさん限りはそんな上がらん
>>93 CUDA100%付近になってたありがとう
>>94 情報ありがとう
うちではcpuが4460で40%
gpuが3060で100%
今日3060手に入れて無事に学習まで行けた
としあきたちのお陰で推しにウェディングドレスを着せられたよありがとう
ところで、Loraってモデル毎に用意した方がいいの?
BasilMixで作ったLoraをChilloutMixにも使うとかは良くない?
すまん、ぜんぜんわからない
accelerate launchなんたらって長文をふつうにコントロールパネルのコマンドプロンプトに打ち込むだけでいいんよね?
train_network.pyなんか無いよってエラー出てくるんだけど、実際はSDフォルダ以外のとこにちゃんとtrain_network.pyあるんだけど
質疑応答の流れにならんとエスパーもしきれんのやで……
自分で使うんだから自分が気に入ってるかどうかしかないだろ
>>100 これってべつにSDフォルダ内にtrain_network.py入れなきゃいけないってことじゃないよね
>>104 としあきはここじゃないのか
すまんなワイはあかちゃんなんや
消費電力75%にしたら1割くらい遅くなって温度が10度下がった
これくらいがバランス良いか
>>100 コマンド打ち込む前にsd-scriptのフォルダにcdした後にpowershellやら使って.\venv\Scripts\activateしとる?
ワイはこれ忘れとってそんなファイルないわって言われとった
ウェディングドレスに限らず着なさそうな服をキャラLoRAにかぶせるの好き
生首画像って何枚何stepくらいで使い物になるようになるんや?
出したいキャラがおるんやがそんなに画像無いからアドバイス欲しいんや
こんなものを作ってみた
automatic1111使ってるんだけど生成2~3回やるとめちゃくちゃ止まる
もしかしてスペック足りてないんか…?どうしたらいい…?
>>112 そこまできれいに誘導できるの凄いな……
スペック不足かどうかエスパーじゃないからスペックを書いてくれないと
>>116 3060の12gとDRAM 16GBです!
>>112 微妙に別人なのがおしいな
これで整合性取れてたら素材作るの楽になるんにな
ワイ血迷ってクリスタを調べ始めるの巻
色んなブラシやスタンプて線画CNにも完成後のエフェクト追加にも良さそうやなあ
>>117 うむ!メモリや!32にせい
せめてモデルは軽量化されてるやつにしろ
大抵の場合何種類か置いてあるやろ
生成結果は変わらんから
一つ知見を得た
『顔大きい方がちゃんと方向出せるやろ』なんて事は無かった……orz...🎈
顔画像小さい方が、ハイレゾ後もまだ方向残して生成してくれそう
学習もとのデータ量の差(小さい画像≒マンガ系の方が顔方向資料豊か)の問題かもか
>>53 このタッチめちゃくちゃ好きなんだが自作モデルか?
>>9 あら懐かしい
去年の10月くらいに見た気がする
>>111 デフォルト設定でトータル1400~2000ステップくらいが目安かな
ステップ数多めにして1エポックごとに保存してどの程度のステップが自分の理想になるか確認するのが良い
素材は数よりも質
生首学習は生成時に素材画像をほぼそのまま出させるイメージだから
同じ大きさの顔画像しか学習させてないと生成時もそのサイズでしかまともに出せなくなる
解像度512、448、384みたいに少しずつサイズを小さくした素材も入れてやると生成時にアップの構図も引きの構図も作りやすくなる
小さい画像は解像度256あたりまであればいいんじゃないかな
>>127 サンガツ
元画像を10枚ほど用意してそれを4種類ずつにわけるくらいが良さそうやな
あんまり詳しくないんやが正則化とかは入れとるんか?イマイチ意味わかっとらんのやけど
風船mixて同じLoRA使っても再現性がだいぶ落ちるな
愛用者は風船で学習したほうがええで
おーん画像保存場所変えてから画像生成遅くなった気がしてたけどSSDに戻しても遅いわ
生成ってモデルの数で遅くなったっけ?使ってないの消すかなぁニキは何個くらい入れてるんや?
>>111 補足
解像度小さい素材を入れる場合はbucket_no_upscaleオプションを有効にする必要がある
左右反転させた学習もしたい場合はflip_augを有効にする
やり方がわからない場合は素材の解像度自体は全部学習の設定に揃えて、解像度は変えずに中の絵のサイズを変えてやる必要がある
bucket_no_upscaleとオプション有効の場合
bucket_no_upscaleとflip_augオプション無効の場合
VAEのマージとかって出来ないんやろか
NAIとWDの間くらいのが欲しい
>>129 正則化は入れてないで
まだちょっとしか検証できてないけど正則化も使う場合は
正則化用の画像をかなり厳選しないといけなくなりそうな感じだった
なので正則化は現状無しでいいで
>>112 これにComposableLoRAで数ぶん区切ってANDコピペしたら同じ顔で出せんのかな
seg画像の色領域を呪文で指定できんのやろうか
物事が簡単になるんやが
>>131 モデル60くらいやがHDDに書き出すときはちょっと遅いかもわからん
GIMPとかlamacleanerたまに使うせいかもしれん
よそにシンボリック貼ったら動かんらしい↓
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7684 >>132 横からだけど、popup使ってると初期設定では
upscaleが強制trueで
反転が強制falseなんやね
.pyファイル弄ってアップスケールfalseでも試してみようかな
>>125 9月の半ばくらいですね。ふと思い立って昔出したのをリメイク中
>>139 黄色くなってるところが何か嫌な予感するから念のため伝えるけど
self.buckets: bool = Trueの箇所はbucket_no_upscaleオプションではないで
たしかポップアップ版にbucket_no_upscaleオプションの設定欄はまだ無かったはずや
コマンドライン版の↓やで
self.bucket_no_upscale: bool = True # Disables up-scaling for images in buckets
マイナーや旧コンテンツの素材難で苦しんだ後に素材が潤沢なキャラでLoRA作るとあっさり高品質なもんが出来て素材の重要さを実感するわ
>>63 Chilloutをちょっと二次寄りにしたSunshineかな
ダメだわ、動かん
TypeError: expected str, bytes or os.PathLike object, not NoneType
だとか
returned non-zero exit status 1
とかって表示されて止まるんだけど
どうすりゃいいの?
誰か助けて
>>141 まじか…‥
下の判定と連動でいけるんやと思ってた……
どっか書き換えたらいけるかな
>>135 もろもろありがとうやで
kohya先生colabやから上手いこと行くか不安やけど頑張ってみるわ
>>125 というか、半年近く前のを覚えてくれてる人がいようとは夢にも思わずw
Loraは今やるならとしあきのとこのメモ帳に貼り付けて拡張子をbatに変えてってやつが、新しいの書いてくれてるからそれでやれば楽勝だったぞ
俺も今日の昼はどうにもならなかったけどめちゃくちゃ簡単に導入できた
FTモードの使い時分からんやがキャラじゃなくて画風とか概念向けなんかな
>>144 エスパーすると TypeErrorはプログラムのほうが悪い事が多い
もしくはとてつもない変な入力をしている 16e+6 とか
returned non-zero exit status 1 の方はその手前になんか理由書いてある
経験上のほんと適当な赤ちゃんエスパーやで
>>141 手持ちの.pyのver低かったわ…‥
今公開中のならpopup版にもコード上は入ってるな
ってことは、loraも更新せなあかんのか
更新したら動かないときあって怖いんだけどな……
civitai開けるけどコメントとかレビューが一切表示されないの自分だけ?
>>151 2/20版だとpopup版にもあったんやな
すまんかった
sd-scriptsが2/23更新でLoRA_Easy_Training_Scriptsが2/20更新だからアプデするときは両方バックアップ取っておいた方が良さそうやな
興味本意で始めたけど作るの楽しいね
色々と選択肢あるから俺の性癖ってなんだったっけ?🤔ってなってるわ
ちんぽが迷子になっとる
>>133 やってるニキいたなあ
配布もあったから今月のログあさってみれば
>>112 でけた!なんか絵が変だと思ったら持ってきたプロンプトにRoLA混ざってたわw
>>154 今まで百合とかロリでしか抜いてなかったのに胸盛るのが楽しくなったし版権キャラ同士の絡みが長い間難しかったせいでヘテロもいけるようになってしまった🤯
>>153 むしろ感謝やで
lora環境更新の重い腰あげるきっかけになった
パス通ってないだけだったちゃうんか
どこでもいいから書いてあるとおりに進めればええやろ
>>156 おぉっ!
それでハイレゾ端数ガチャとかしたらキャラ一致で複数方向いけそう
クラウドニキ、助けてクレメンス
peparspaceで自作loraを作ったんやが、適用しようとすると「”modules.devices.NansException: A tensor with all NaNs was produced in Unet”これは、画像を表現するのに十分な精度がないか、ビデオ カードが half 型をサポートしていないことが原因である可能性があります。」というエラーが発生したんや。「 これを修正するには、設定で [アップキャスト クロス アテンション レイヤーを float32 に設定] オプションを設定するか、 --no-half コマンドライン引数を使用してみてください。」と言われたんで、言われたとおりに"Upcast cross attention layer to float32"をON、--no-half コマンドライン引数をpop up batに追加したが同様のエラー。
accelerate launchのオプションでseedを固定しなかったのが原因かなと思っとるんやが、他に何の原因が考えられるやろか?学習に使ったのはRAM45,CPU8,GPU16で、オプションは以下の通りや
--num_cpu_threads_per_process 12 train_network.py --learning_rate=1e-4 --max_train_epochs=10 --save_every_n_epochs=1 --train_batch_size=1 --resolution=512 --network_module=networks.lora --save_model_as=safetensors --color_aug --flip_aug --enable_bucket --optimizer_type=AdaFactor
>>148 としあきwikiのメモ帳のやつで学習のベースモデルを設定するckpt_file=って項目、ここsafetensorsファイルを選択しても大丈夫なの?
項目名がckpt_fileだからckptに変換しないとダメなんかな
>>162 すまん、書きそびれたがこのオプションは学習画像等のパス指定は除いているで
学習自体は開始できたんやが、出来上がったloraが使えへんのや
左右反転を追加して……これは楽しいw
一昨日からAI絵始めて今使ってるのがRTX2070なんやがこれを3060の12ギガに変えたら大幅に早くなるんか?そんなに変わらんならまだ買い替えんくてええかな思ってるんやが
>>164 いつもnaiの初期のやつ使ってたから気にしたことなかったな
やってみたら?だめだったらエラー吐くだけだし
BooruDatasetTagManagerってどうやって立ち上げるんや
--deepdanbooruは設定してるけど、どこからアクセスしたらいいのかわからん
これLoraのlossってどんなもんならいいんだ?
約70枚を10回の10epでやって1ep毎に0.15~0.1の間を動く程度にしか振れないんだけど
>>168 あとはあおりと俯瞰を何個か作ったらもう顔lora作成いけるで!
>>169 速度はほぼ変わらないと思う。
VRAM量の違いは、一発出しの最大サイズなんかに影響がある。
あと聞きたいんだけど、sd-webui-additional-networksって入れなくてもLoRA学習と使用のどっちもできるんよね?
これも入れなきゃいけないんかな
2070と3060は「どこに重きを置くか」で変わってくると思う
lora素材生成民としては素材のハイレゾ生成で12GB必須級な状態なので3060を推したいのが本音
速いマシン使っても結局想像力の枯渇の方が早いワイみたいなんもおるで
サンガツ
3060の価格ならギリギリ衝動買いできるレベルやからもうちょいハマってから考えるやで
なんか動いたけど、めっちゃtoriton無いって表示出てる
でも動くのは動いてる
新しいもの追い過ぎると迷うから前やってたことに戻るのもええで
ワイもLoraやCNよりモデルマージしてるほうが楽しい派や
>>162 そのエラー自体はモデルデータの読み込み出来なかったときに出てくるやつだから
読み込みエラーかデータ自体が破損してるかだと思う
cnでチンコ串刺しポーズでも多少幅がつけられる様になって万々歳や
両腕を頭の上に上げてその腕が拘束されてるポーズ出したいけど難しいな
たまに何も考えずに「1girl,nsfw,sex」みたいなので抜きたくなる事は、定期的にある
昨日版権lora四人出しやってたニキが羨ましいンゴ🥺
打率低すぎて泣ける
てかLatentCoupleでそもそも4人出すのが安定しないわ
ガチャしても3人とか5人以上とかになるのが半分以上や
>>187 CFG下げると妙に味と空気感があるセックス絵が出てくるんよな
なんかワイなんもわからんくなってきたわ
上手くいいイラスト生み出せないし自分の性癖もわからんくなった
>>190 賢者タイム乗り越えたら更なる高みに行ける
「上」で待ってるで
>>190 ワイはずっとオナホ妖精しか生成してない
いい加減構図に飽きてきた気がするけど今まで狙い撃ちしてた貧乳系のpromo消して虚ニュウ系にしたらまた面白くなってきたわ
ワイも全然アイデアが思い浮かばん期間に入ってもた
一ヶ月位充電せなあかんな…
>>112 面白いね。 こんだけ精度いいなら、この5ポイントだけで漫画かけそうや
漫画ってだいたい、胸から頭までだし
>>185 すまん途中で書き込んでもた
出来上がったloraはpaperspace上で右クリックしてローカルへダウンロードしたんやが、これだとアカンのかな?他のloraは読み込めるのにコイツだけ読み込めないんで、おそらく破損しているんやと思うんやが…
エロ目的で作った小物LoRAをnsfwなしの適当プロンプトで運用して楽しむ
これだけでも十分楽しいやで
AOM3A2はやっぱかなりcounterfeitの血強いな
>>190 ”スランプ”やね
AIでスランプてお前
って思うけどマジで来るよな
ちびたいの実写LoRAほんまになんでもありになってるんやな…
GIMPの3D回転で動かしてみたけど、そっちは微妙……
ちゅーか、人数増えてくると指定が無視され始めるなw
>>197 う~ん
それ自体には問題ないはずやけどなぁ
paperspaceでwebUI立ち上げて同じLoRAでエラーが出ないならそのダウンロードがあかんということにはなるけれど…
>>202 いや、一応向きは変わってるのか?
なんかまあ、ヨシ!
LoRAのキャラ学習って同一作者の同じキャラの絵か
いろんな同じキャラの絵混ぜるほうがええのかどっちなんや?
>>184 ええやん……これは何を混ぜたんや……7th?
>>206 同じ作者の画風でしか学ばせたくないなら前者
画風が混ざってもいいなら後者
どちらにしても似せる気の無い雑な絵はちゃんと外した方が良いで
AdaFactorええやん
まゆげやまつげが多重化したりとかほぼ無くなって線がすっきりした
モデルマージをし続けていったら、画風はええんやが手指が安定しなくなってくるな
AnyやらAOMやらの比較的安定したモデルをマージするのがいちばんいいのかもしれんが、やっぱ一味足らんのよなあ
>>147 ニキの出してくる画像がオキニだったのでよく覚えとるんよ
これとか↓
>>209 サンガツ
ゲームの公式画像だけでやってたら安定はするが逆に同じような顔がスタンプみたいになっとるんや
気持ち混ぜてみる
>>213 重要な特徴はおさえてるか確認したものを入れるのがええで
うちだと絵柄や判押し感消すためにアレコレブチ込んだら特徴だった目の形が消えてパチモンになったわ
メモリを仮想VRAMとして使う技術があればスピードが犠牲になっても大きいサイズで出せるのに
cotrolnetの剥ぎ性能高すぎて笑う
あの苦労は何やったんや
1ヶ月前にSD始めたきっかけは剥ぎコラだったんだが進歩早すぎ
>>202 これ棒を切り出して回転して並べてそれをアップして描くの?
面倒すぎるけど、並べたりも1発で出来るの?
>>212 おお、これはそんなに使ってないtrinart2_95000!
こいつの出力だけ整理まだで古い置き場に置いたままなの忘れて探し回っちゃったw
>>220の補足
素材は全部同じなので全部にsmileとclosed mouthのタグを付けてる
生成画像の表情のプロンプトは上から順に以下の通り
1:smile,closed mouth
2:smile, embarrassed,open mouth
3:embarrassed,open mouth
4:(frown:1.3),closed mouth, smile
5:(closed eyes:1.3),(frown:1.3),closed mouth, smile
6:(from side:1.35), (profile:1.35), (looking away:1.35), (looking to the side:1.35)
>>219 >>112がどうやって作ったのかは知らないんだけど、俺は
>>112の棒人形図をGIMPで編集して
>>202の棒人形図を作って、それをControlNetの入力にポイして絵を出してるよ。
一度作った棒人形図は使い回しできるで
generate forever使えば無限に生成続けてくれるみたいやがPC吹っ飛びそうで怖いな
寝てる間とか使うのまずそうか?
>>225 あ、プロンプトは
>>56のやつやで
あれ別に生首専用ってわけではないんだがw
>>226 4000番のグラボなら余裕
3000番はアチアチだけどいける
>>226 パソコンの蓋を開けて、ダウンクロック全開までしたら、まぁよっぽど排熱酷いとかなければ問題無いとは思う
>>228 3060tiなんだがいっちょやってみっか
時間指定とか出来たら助かるんだけどな3時間後に終わるようにするとか
controlnetにcartoon line drawingという機能があるようだけど何故実装されなかったのか
解説を見ると技術的には既に可能に見える
>>230 生成はあえて一枚ずつの方が、生成の合間に出来るクールタイムの間隔が短くなって気持ち安心感ある(ような気はする
>>230 簡単なバッチファイル作って強制停止させればええやないか
>>230 winなら電源オプションからスリープ時間指定する方法あり
>>226 3060でafterburnerでパワーリミット70%に設定して連続30時間までは学習で回したことあるで
ぶん回し怖いなら生成タイムから逆算して、間隔あけつつオートクリックとかで生成でもフル稼働防げるとは思う
>>234 これが一番楽に対応できそうやなとりあえずこれで夜中と外出中に構図とか表情素材作りまくって貰うわ
ワイは普段は100%で、1時間超えて連続稼働させる時は70%くらいに落とすようにしとる
消し忘れ怖いからいつでも80%稼働やね@3080
最初は恐る恐るやったけど今では寝てる間に学習させたり外出中にhires生成分回したりしまくりや
インペイントのマスクってどっかに保存されないの?奇跡的にうまく描けたのが保存できなくてかなしー
パワーリミット50%かけようが何しようがhires時に105度くらいいくのはワイのPCが糞なだけなのかな
>>214 作者ニキ?
一番最初の035-BE5使わせてもらってるんやがこれオデッセイと何のマージなん?
>>225 サンガツ!流石にそこの手間は仕方ないのね
gimpって使いづらいからなるべく触りたくないんよな
でもこの顔のタイルを求めてたので参考になりました
>>242 グラボに向かって風吹き付けるファンを中に追加するのがいいんじゃない?
パワーと間違えてファン速度を50%にしてて、105度でサーマルスロットリング起こしとったりしてな。まあ流石にないか、ガハハ
3060だとhiresに10分かかるんだが3090 24GBにしたら何分になる?
しかし顔のパターンの作り方も今日だけで学べるとは
明日もまたなんかありそう
>>214 あ、すまんこ
面倒やったらスルーしてクレメンス
気に入って使わしてもらってるだけでただの興味本位や
>>242 ワイも似た感じやけど多分サーマルパッドが一部ずれとるかそもそもちゃんとついてない部分があるやと思う😑
ワイはもう結構使ってるし壊れたら3060にしたらええか…で諦めた
しかし時間が死ぬほど溶けていくな
photoshopで乳周りでっかくしたりaftereffectsで動かしてたワイには最高のおもちゃや
controlnetの使い方がまだ慣れなくて頭捻っとるけど
AIイラストの世界ってなんでボイスロイドが伸びないんや
ゆかりさんや琴葉姉妹を誰か作ってクレメンス
>>243 odysseyがaで(basil+elysium anime v1)をbにしてマージしてるで
35っていうのはodassayが0.35だからや
あらかた欲しいキャラ再現以外のcivitaiのLoRA導入終わったわ、まじでありがたいな…
もし知ってたら乱交LoRAみたいなのってどこかにないやろか、
SurroundPenisはあったけども、やっぱ男絡むと難易度爆上がりなんやろかね
>>253 そもそもボイスロイドで学習なしでまともに出てくるのゆかりさんだけやろ?
それでいて画像自体は結構多いから飢えてる奴も居ないし作ろうとする人も居ないって感じちゃう
自分で作るのが結局手っ取り早いんだよな
同じキャラで他の人が作ってても、自分で作ったやつの方が公式に似てるって自画自賛できるし
寝る前にAdaFactorお試しでキャラ学習100枚1step10epochやってみたがちょっと服と髪型覚え始めたかな?ってレベルでまだまだやったわ
琴葉茜の二次創作したら彼氏の暇空がファンネル飛ばしてきそう
誰も描かんキャラの作画できるの価値大きいから
一枚絵から膨らませていける可能性あるこのスレのノウハウ助かる
i2iで構図ほぼ変えずに高画質化するためにアップスケールしてるとき、同じseedでやってもなんか彩度が落ちるのは何故なんやこれは
loraで質問なのですが追加学習で衣装や髪型を追加する場合は追加学習の方は新しく用意した画像とtxtだけでいいのでしょうか?
それとも別でloraを作った方が効率的でしょうか一気にやる方法も考えたのですが難易度が高いかなと思って
題材キャラのアクセサリーが複数あったり髪型が複数あったりするとデフォルトをどの位まで入れるか悩みますねw
そういうのに詳しいサイトとかもしあれば教えてもらえたら嬉しいです
AdaFactorを使った学習で1repeats50epochと10repeats5epochでどちらが良いのか調べてみました!!
結果、よく分かりませんでした・・・
いかがでしたでしょうか?
1rp50epの方が再現度は高い気がする
が、epochの切り替わりに時間がかかるので、10rp5pに比べて3倍ぐらい時間がかかる
>>254 はえ~サンガツ!
ファイル名の謎も解けたわ
新作も使わせてもらうで🤗
>>258 AdaFactorではlearning_rateが自動調整初期の学習率になるようなので、この値を調整してみるといいかもしれない
人の作った良い構図をコントロールネットに入れてi2iするの虚しい
AdaFactorとAdamW8bitの違いを凝光で検証したのでLoRA作成メモ更新したで
AdaFactorは少し遅い代わりにいい感じに過学習を抑えながら再現できるっぽい
https://rentry.org/genshin_lora
ついでに凝光とかのlora上げとくわ
https://huggingface.co/RedRayz/genshin_lora_set モデルってcivitaiとhugging以外にある?
もっとアングラな所ないのかな
>>245>>250
スマン、MSIアフターバーナーの設定変えた後適用ボタン押してないだけだったわ・・・。
>>250ニキもたぶん同じやないか?試してみてくれ。。
>>272 玉ねぎ使って児童ポルノサイトまで潜ればヤバいモデルありそう
最近AIイラストにハマってから風呂も入らず洗濯もロクに出来てねぇわ
仕事はなんとか行けてるけど睡眠時間も削られてマジで精魂吸い付くされそう
でも毎日が楽しくて仕方ないんだよな
こんな感覚中学の時に初めてギャルゲーやった時以来だわ
またつまらぬLoRAを作ってしまった
皆も思いつきでシチュLoRA、作ろう!
せっかくだし凝光お借りしてみたやで(ningguangだけやとこっちのLoRAが妨害したのか再現低かったので使用率高いタグも付与して生成)
>>276 これサラっとやってるように見えて高度なテク使ってるやろー
指や表情は再現してるのにキャラデザは引っ張られないのすごい
>>273 Windows起動時に反映する設定もやっとけよ
>>275 俺も仕事から帰ってきて夜飯食って横になって0時に目が覚めてAI生成しながら情報集めて朝になってそのままシャワー浴びて仕事行ってのループ
昼休憩もスマホで情報集め、仕事中も頭の中はAIの事ばかり
paperspaceって赤字にならんのかな?
5000円で、朝から毎日10時間以上グラボ回してるけど
>>282 A100が220万円で1人2時間使うとすると24時間で12人回るから1ヶ月5000円*12=6万円
電気代や整備費人件費その他諸々無視すると回収するのに3年半掛かる
実際は無視した分の出費が馬鹿にならんし、有料ストレージや有料GPUの収入があるから
どうなってるのかはよく分からんけど儲けてはなさそうだよな
>>275 液タブ修理中だからとしあきも見とる
却って来る頃にはラフの生成はAIにやって貰うつもりや
>>269 まだ正則化に透明とか使ってるんか
無駄だからやめたほうがいいぞ
>>22 これこそAIで描くべき絵っちゅう感じやね
センスいいわ
>>285 最近それ聞くようになったけどspoch数が1/2になるから高速化するって利点あったはずなのに何があったんや
>>200 なんか3090にしたら
急に安心して逆にやる気がなくなったわ
>>283 定額サービスのやつはGPUを動かしたときの上限コストが決まってるのが重要ポイント
会員数が想定人数を超えてれば時間割より利益率高くなる 高い方のプランで\5K/Mはどれくらいの想定になるのかとかまでは知らないが
>>283 尼でも9000ドル切ってるし
そもそも革ジャンから格安でリースしてる可能性
Lora 先月に少しやって放置してたから、もう一回環境構築から始めようと思うんだけど、どこの情報見たらかしこい?
やっぱwikiかね 週末にやってみたいんよ
>>291 kohyaさんの日本語readme
その後training LoRAの項目
ワイ1060のオンボロで512生成で30秒くらいかかるんやが3060とかって何秒くらいで生成出来る?
やっとcolabでまともなイラスト生成できた😭
ダウンロードしたモデルがzipのままだったのを気づいてなかった😭
何したい?
>>289 せやな、仮に24時間12人で回したとしても会員が20人おれば残り8人は椅子に座れず立ってるだけで5000円取られる
あんまり立たせとくとサービス悪いって話になって問題になるからコントロールが難しいところやね
テンセントの棒人間入れてみたけど違いがようわからんわ
プリプロセッサないから手書きやけど
>>296 5秒!?想像以上に早かったわ…ドスパラとかで買い換えるか…
>>160 ハイレゾ端数ガチャって1回ずつ手動でやるの?
>>297 NY時間は立たせられっぱなしの人多そうよな
結局その時間使う人はfree使えんから有料マシンで収益得てるんかね
電気代タダ、グラボレンタル5000円破格すぎて最高や
ふと作った特段好きでもないキャラのLoRAを延々と回してしまう…
そんな事無いですか
うーん、あと一歩のところで画質が出ないわ
パッと見は綺麗やけど拡大すると粗が目立ってしまう
ウチの3070やとこれが限界なんか…
😭再起動したらまた変な絵しか出なくなった🥺
ckptのモデル選んでるはずなの左上のチェックポイントにはsafetensorしかない🥺🤨
>>304 一旦ファイルを入れ直してみたら?
それかもう一度ダウンロードし直すとか
t2iのディテール設定がなんか面倒になったなぁっと漠然と思ってたけど8の倍数で設定できるようになったんやな
でも結局プラグインの方では64のままやからあんま意味ないな
>>305 人類がこれまでというかインターネット30年分の蓄積で素材は十分です
>>305 よくわからんけど微細なノイズの入ってる画像をGlazeStyleとか適当にタグ付けしてネガに入れたら無視されたりせんのかな
>>299 ちょうど昨日1060から3060にした
やることによるけどまじで5~6倍は早くなる
昨日導入してみたんやけどムワッなえち画像作るんやったらsteaming_bodyで粘るしかないんかな?
>>253 人が描く方がバリエーションあるしコミカルなやつとか絡み描いてくれるからな...
東北はガンガン学習してくれみたいなこと言ってなかったか?
>>312 steaming bodyとsweatはセットでどうぞ
これで強度上げればむわわ感は出ると思う
>>301 5000円で時間制限なくサクサク使えてる?
>>300 ハイレゾの強度をコンマ秒単位でズラすか、何かプロンプトの一部を絵がほとんど変わらないレベルでコンマ単位でズラしながら、スクリプトで一気に生成したら問題無いぞ
>>314 Smellyなんかを追加するのもアリや
>>316 そうなんだ
上の見てたらもうガチャ無しでもいけそうだぬ
🎴押して出てくるリスト表示を名前のみに変更ってできない?
だんだんLORAが増えてきて探すのが面倒過ぎる
今まで直接いじることに罪悪感あって他人の絵を基にした学習は控えてたんやけどついに手を出してしもうた
画風再現最高や
>>315 1回グラボ起動しちまえば6時間フルで使える
Gradioが落ちたりサーバー安定しなくなることあるけど5000円って考えたら全然許せる
無限生成はいいけど、作業には向かない
階層マージ使ってモデル改良してるけど
顔にかかる影を消す方法がイマイチ分からん……
IN深層を切ると行けるってスレで見たけど、AOM3A1+chilloutmixで色々試してるが消えん
>>323 そもそもAOM3A1ってその顔に影が掛かるやり方でマージしてるんだからそこに更に影が掛からない方法でマージしても無駄なんちゃうの?🤔
>>321 そうなのか・・・ 悩み解決しそうや助かる
>>324 あーそういう事か……
AOM3のレシピを参考にして
アニメ系モデルのベースにしつつ、実写系マージの時に顔に影がかかるのを切れば良いのか
めっちゃ面倒だな
>>310 ノイズありとなしの画像が両方手に入るなら有効
そうじゃないなら無効
あとはこのノイズがランダムじゃなくてワンパターンならいけるかも 普通に考えてそんなことないと思うけど
>>162 多分、学習失敗してる。
学習のときにふとしたはずみで重みが大きくなりすぎたり小さくなりすぎたりすると、
浮動小数点の精度が足らなくなって∞か-∞に発散してしまうんだけど、無限は数じゃないからNot A Number(NaN)になる。
こうなると重みがNaNから動かなくなって死ぬ。一度死んだLoRAは設定変えて読み込んでも生き返らない。
しらんけど。
新しいモデルDLしたから、またうっかり徹夜してしまった‥
winMXの頃を思い出すわ
majinaiなんか画像アップできんわ
webNAIで作った画像は行けるんやがローカル産は弾かれる
>>327 現状モデルデータと、あとは個人でLora作ったら大概ゴリ押せると思ってる
pixivとかTwitterにアップされる画像に自動的にGlazeがかかる仕様になれば普及しそう
アンチGlazeもできそう
>>314 ありがとう 色々やってみるわ!!
ガチャ引いてるみたいで作んの楽しいわ
colabでLoRAやろうとしとるんやけどいざ学習開始!ってやると「完成品を入れるディレクトリが無いで」
「Glazeを実装しました!」
「Glaze jammer 編み出したぞ!」
「Glaze jammer cancellerを実装しました!」
こういう流れになるんやな
>>336 ファイルの場所はちゃんと指定された場所に置いてる?
書き込むボタン押してもた
>>336 「ディレクトリは無いで」ってエラーを吐き続けるんや
でもそのディレクトリはあるし誤字やなんかも何度確認しても無いんや(コピペしとるかるな)
大文字も記号も使ってないんやけど何が悪いかわかったりせえへんか?
どの画像がGlazeしてるかってわかるもんなんかな?🤔
>>162 ごめん補足
表示されてるエラーは学習するときのアドバイスだと思う。
学習率を気持ち下げると重みの変動幅が小さくなって発散リスクが減る
敵対的攻撃によるデータセットポイズニングって方法だろ
回避方法も論文になってるからなんとでもなる
>>338 置いてるで
kohya先生のスクリプトで、Trainingに学習画像置いとる
完成品は指定無かったよな?
どうせCCCDみたいに形骸化するやろ
>>337 ガンダムSEEDかな
hiresかけると腹から乳首生えるのホントなんとか出来んのかな
i2iでmaskかけて再描画してもうまくいかん
>>275 別のことしてる間に生成できるんだから風呂も洗濯もしろよw
>>346 ずっとPCの前でカチカチやってるんやけど連続で出力する方法とかあるんか?
すまん
>>62 や、あの後寝てもうて今確認したわ
VRAMが4GB増えるくらいやと生成速度あんま変わらん感じなんか、ここ見てなかったら血迷って買うとこやったわサンガツ
脳死でポチろうとしてたけどDDR5も規格違うから確かにマザボとかCPU買わんといかんしそれならもう一台組んだ方が良さそうやな……
>>348 生成ボタン右クリでフォーエバーやで
シードが固定になってたら単なるコピー機になるから気を付けろ
>>350 ワイの環境だとそれやると生成した画像どんどん更新されて消えてった最後に生成した一枚しか残らんのだけど何かおかしいんやろか
保存選ぶとlogに入るのに自動保存だとoutputに行く意味不仕様
ちなフォーエバー中にプロンプト変更すると次ターンから適用される
なのでちょいちょい変更しながら様子見たい時とかフォーエバーのまま作業したりできて便利やし部屋が暖まる
自動保存だとファイル別れるなら
フォーエバーだけ保存ファイル指定とか出来んの
>>352,353
output見てみるわ、サンガツ
>>349 vramはあくまで同時に格納できる情報のサイズ
学習/生成速度はGPUパワー次第
プログレスバーが動き出すと次はもっとエロいやつ出てくるんやないかと期待してまうで結局動けへんで
>>322 そうなんだ 生成する用途に良さそうサンガツ
>>347 wikiにオホ顔LORAあるし、見せ槍LORAガチャればちん嗅ぎっぽくなるやで
健全絵ばっかり出力しとるワイ
エロ絵目的で始めたんやがなんでやろな
>>360 探したらありましたありがとうございます
LoRAで学習したモデルを再度LoRAで追加学習ってできるのですか?
昨日やったらなんかエラーでできなかったのですが
RTX3060-12GBのDDRメモリ16GBで
運用しとんるやけどDDRメモリは
もっとあったほうがええんやろか
NMKDだとLORA使えないんかいな
こらあかん1111版入れたろ
v2がAdaFactor、v3がDAdaptationで前貼りパーツ学習させてみたけど
同じ素材同じstep設定なんだけどDAdaptationの貼り方がクッソ雑ですね…学習不足(学習率はどちらもオート任せ)
まあ学習って毎回ブレあるからこれだけではなんともだけど(v2の方が実はclosed eyes無視して目を開いてたりする)
今後試すならAdaFactorの方で良いかなぁとワイは思いました参考まで
>>335 steam,wet,sweat あたりがおすすめやで
ワイお尻すこすこマンなんやがきれいなお尻出すのムズいわ
SDって前のアングルに比べて後ろが弱いな
gapeとかマージでよくなるのかい?
>>363 16GBだと学習の時にメモリ不足で止まらない?
>>365 検証ありがとうAdaFactorの効率が悪すぎて挫折しそうや
ラーニングレートどれぐらいにしてええか全然わからん
ずらし挿入ってどう書けばええんやろ
underwearやと普通に下着履く奴しか出てこん
asideじゃないっけ
ピカソネガティヴで
NAI知識かもしれん
AdaFactor学習50epochやってる最中にエラー落ちして途中のsafetensorsを--network_weightsコマンドで読み込ませて学習再開したら
AdaFactorじゃなくてAdamWで学習が始まっちゃうな
これって仕様なんか?
もう会社休んで一日中画像作ってはシコりの繰り返しや
ロクにメシすら食ってない
このままだと本当に中毒状態になってしまうから病院でカウンセリング受けた方がええやろか?
マジでオナニー覚えたての中坊のオナ猿みたいに一日中PCの前に張り付いとる
もういっそシコるのめんどくせえわ
AIが自動的にシコってくれんか?
>>214 4つも混ぜて破綻とかないのかすごe
階層マージ?
>>376 ケツに傘の柄を入れたニキはそっちのほうが良くなってAI卒業できたらしいで
初歩的な質問ですまんが生成解像度の幅、高さの調節を
64の倍数で固定するのってどこいじるんだっけ?
style.cssのどこかやったか
>>372 clothing asideかpanties asideで出てこんか?
Danbooruの検索ボックスで日本語打つと勝手に翻訳候補出してくれるから上手く活用してみてくれ
>>371 出先やから記憶頼りになるが1e-3のdim128alpha1でやってたと思う
Dadaptionはalpha下げるとNan死するので64まで上げたと思うやで
権利的に問題になる部分とは分かっとるから大きな声では言えんが、
自分の性癖ピンズドの絵師様の絵柄で好きなキャラのエロ絵が無限に出せるのは今までに感じた事ない興奮やわ
>>384 それを自作として公表したり販売等しなければ個人の自由やし大丈夫やろ
まさかこんな時代になるとは思っても見なかったわ
とんでもない技術や
>>379 チンコ擦り過ぎて痛いからマジでケツの方使おうかワイも悩んどる
AIにここまで身も心も侵食されるとは思って無かった
絵師どころかリベンジポルノし放題とか恐ろしい世の中になったで
>>375 スケジューラがリセットされるから学習再開でやるのはあんま期待せん方良い、ってのは元々AdamWでやっとるときから言われとったしなあ…
>>382 ワイも全く同じ設定で1時間回して変化がなくてがっかりしてたんや
塗りだけ変わった感じ
AdaFactorってAdamよりメモリ使用量が少ないだけやないの?性能も変わるんか
civitaiがロリ瞬殺してるの目撃したわ
あいつらもそれはあかん認識あるんやな
>>389 ステップ数は縮小画像含め180*4の10rpepeatsの6epochやね
768解像度のfinetuning
これで3080で3時間ちょい
1時間ぐらいでは何も学ばないかも…しれん
手軽に焼くならこれまでのadam8bitでいいと思う
学習しまくっても過学習ぽくならないのはいいと思うけどね…
>>376 人類はAIを使ってる気になってるけどもうすでにAIの支配が始まっている…
>>369 学習まだやったことなかったわ
24GBに増やすわ
後ろからの挿入時の腹ボコをloraで学習させるぞ
ワイはやるぞ
あと精液ゲロのloraも無さそうやな
>>393 AI画像反対派の未来人がターミネーター送り込んで来そう
>>394 サンガツ、綺麗に出てるからフォルダ構成とか参考にさせてもらうわ
とはいえ複数キャラ学習LoRAもまた使い道来そうな気がしてるんよなあ
>>388 ほうか・・・一発で学習完走するのを祈るしか無いか・・・。
とりあえずデータセット削って早めに学習完走するようにしてみるで
>>214 ありがてえ
帰ったらダウンロードします
新しい学習法試したいけどEasy Training Scriptsニキの更新がこないわね🥺
768×768の画像のいい構図のやつを構図崩さずアップスケールとか解像度上げる方法ないんか?
ハイレゾもi2iで1152×1152くらいにあげても構図グチャグチャになるしどうやってきれいなイラストあげてるんや皆
最初から1152以上の大きなサイズで生成してるんか?
>>402 i2iに投げ込んでSD Upscaleしろ
>>401 直打ち教に入信しよう
アプデ来たら直ぐに試せるぞ
待ってるぞ
>>404 ほええなんやその機能しらんぞ調べてみるわ
>>401 call venv\Scripts\activate
accelerate launch --num_cpu_threads_per_process 4 train_network.py ここにコマンドラインオプションを並べるんや
pause
BATファイルを作ってこれをコピペしたらええ
loraの学習って複数フォルダ突っ込んだ場合も別々のデータになるんか?
恋愛からきらめきと魔術的な美がついにとられてしまった。オタクや弱者男性やニートが仲間たちと傷を舐め合いながら街コンや出会い系を巡り、人生の運命を決する、そんなことはもうなくなった。
これからの人類は安全で静かな子供部屋にいて、エロ素材たちに取り囲まれて座っている。一方、何億という精子たちがAIイラスト一枚で右手の力によって殺され、息の根を止められる。これから先に起こるAI革命は、絵師や女やエロ産業全体を殺すことになるだろう。
やがてそれぞれの国には大規模で、際限ない、一度発動されたら制御不可能となるようなオナニーのためのシステムを生み出すことになる。人類は初めて自分たちを絶滅させることのできる道具を手に入れた。これこそが人類の栄光と苦労のすべてが最後に到達した運命である
クラウドでエロ学習させてくれるサービスないかなぁ。学習だけでいい。出力はローカルでやるから学習だけさせて欲しい
でもここまで来ても解像度は十数年前の壁紙レベルだし
覚えさしたのを2人3人並べるだけでも七転八倒してるんだよな
今後発展して欲しいのは「生成画像のレイヤー出力」とかやな
「2キャラ+背景+主要オブジェクト」みたいな設定をしたら、それぞれ「キャラ1」「キャラ2」「背景」「主要オブジェクト」みたいに個別で画像生成しつつ、全部レイヤー合わせたらきれいな絵としても成り立ってるとか
で、位置は各レイヤーで微調整出来る的なの、早よ
ワイはchatGPTみたいな言語モデルとの連携かなぁ
出力した文章にそった画像を挿絵みたいな感じで出してくれれば無限に抜ける気がする
絵のクオリティよりシチュってのは真理やし
GLAZE、jpegで品質落として保存しなおしたら突破されたりしないん?
AVやエロゲで1920x1080以上の解像度のものまずないやろ?
>>413 まあでもControl Netとかの登場でそれに近づいたことはできるようになったな
後で自分で動かすとかはできないにしても
>>413 それをやるにはSD側が単独の物体を識別できるようにならないといかんのだよな
例えば 1girl とだけ書いても背景も一緒に出力されてしまうけど、あれは 1girl と関連の深い背景もセットで 1girl だと思ってるからだよな
1girl, park とすると背景だけ公園になるわけだし、関連の弱い背景を 1girl とはあまり関係のないものとして切り捨てることは出来ているのだから
なんか出来そうな気はするんだけどね
AIイラスト作る人が自分のイラストは吸われないように対策するのってなんか矛盾してないか?スレチならだまる
>>416 大手市販の再生ソフトだとコピー出来ないがチャイナ製だとコピーし放題のBDみたいになるんじゃね?
>>409 エロ画像の世紀 第二集 大量エロの完成
―PC前の👶たちは凄まじいAIの出現を見た―
>>376 オナニー中毒はマジで生活のパフォーマンス落ちるし寝食疎かにしてると精神的に病むけどストレス解消のためのオナニーがやめられなくて詰むで
ワイ前職辞めた理由の半分はこれやと思っとる
未来のAIは人類衰退させるのにターミネーターなんか送らんでもええ
超高性能セクサロイド送ったらええで
試しにワイの家にどうや
言語モデルをローカル12Gで動かしてるけど、単精度でメモリぎりぎりだった
ちょっと動かすだけでメモリ不足になるから半精度変換して入れないとまともに動かない
とりあえず文法はまともかなってモデルでこうだから、今後一般化するとしても最低24G必須だな
>>424 生涯射精回数7000オーバーのワイからすると自然な生活サイクルに組み込めば何も問題無いで
生きるためにオナニーをするのではなく、オナニーのために生きると考えよ
一日一回オナニーをしている、と少なく見積もっても、余裕で1万回越えてることに気付いた
ザーメン風呂とか余裕やないか!
7000回とかベストオナニストやん
10年間1日2回ペースや
AIやり始めてから捨てたもの
↓
飲み会(月5万)
酒(1人で飲むやつ月3万)
女(元々居ないけど作る予定が無くなった)
ソシャゲ(月2~3万)
AV動画(月3万)
友達とかとはたまに遊びに行く時あるからその時は金使うけど、上の項目だけでもこれだけ金が浮いた
もうAIと仕事だけで生きて行ける気がするわ
>>435 いないものをリストに入れるのやめろわろてまうやろ
いいオカズがあれば1日2回もあるし、
おかずに飽きたら1週間しない事もあるわ
AIは男からしたら夢のような発明だけど女からしたら地獄だろうな
相対的に女の価値が下がれば結婚率も落ちて本来結婚するハズだった女が余って底辺生活を送る事になる
そうなれば少子高齢化は加速する
>>424 AIでこんだけ指定したイラストが完璧に出てくるなんて夢にも見てなかったから舞い上がって毎日シコってる
シコりすぎて出ないのにずっと握りながらマウスカチカチしてる
5ちゃん見ながら生成してたら平気で2~3時間吹っ飛ぶ事もある
恋愛弱者だの何だのって言ってたけど、エロコンテンツがここまで隆盛したらもう女要らないだろ
昔はそういったエロコンテンツが限られていたから男は現実の女に欲情したけどさ、もう無理だわ
元々エロ画像だけでは抜けないタチだけど2~3時間くらい
色々なのを出させているとなんかつながりを感じてきて
抜けるな
うわっチビタとうとう有料モデルとかエグいシステムできたんか、こりゃー地獄やで
>>435 患者自身に好きな絵柄・女優でエロ画像作らせてオナらせれば、
ひょっとしてれは世のアルコール中毒者を救う治療法となるんじゃ・・・?
そもそも問題としてこのスレからアフィ作られたことあるんか?
なんGのAIスレは多分あるやろけど
civitaiいつの間にかPosesができたんだな、まだ2件しか無いけど
過学習なだけなサムネ詐欺が流行るな
コイカツみたいに
>>376 ワイはヤバいと思って暮れにM性感いって中和してきた
そのシチュイメージして生成するようになったけどな
>>439 初見プレイで到達率5%のルートに行き着いて草生えた
>>435 半年かからずに4090も買えそうだな
なんなら5090やH100も夢じゃない
表情とか姿勢の細かい差分がもうちょい上手く生み出せたらエロゲ作るのになぁ
>>402 t2iのhiresはCFG 10台まで上げてdenoising 0.5とかでやらんとグチャるで
i2iでlatent upscaleする場合もCFGはガッツリ上げるんや
i2iの普通のupscaleはsettingsでupscaler指定しておかないと綺麗に拡大してくれんで
SD upscaleはdenoise上げすぎると妖精さんが湧くから気をつけろ
>>458 Loraか何か自分で作ったんか?
少女漫画系の絵柄はワイも好きやが、女用エロ漫画とも言えるTLですら描写があっさりしすぎてて物足りなかったから
こういうのすごく気になる
>>452 実はciviで配布されてるやつほとんどがこれだからもう漁ってない
>>458 なっっっつ
姉妹のちゃお見てた民にめっちゃ刺さるな
>>308 なんかサイトに載ってる誘導がckptだったから🥺
>>459 ニキの知識ほんと助かるわサンガツ
これで銀髪褐色メスガキと戯れることが出来るわ
ここってガチ勢居るから助かるよね
自分みたいなプログラミングの知識何も無い人間でもこことwikiあれば最低限の事はできる
>>461 おっええやん→説明文「Strengthは0.7~0.8やで!」→アレコレ崩れてガチャ状態サムネサンプルはチェリーピック
何なんやろうなこの過学習信仰は
>>468 信仰というか加減わかってない人がほとんどだと思う
ここより詳しいコミュニティーは中国の地下コミュだけだろうし
過学習とかよくわかってないけど何なん?
やり過ぎたらアカンみたいなふわふわのイメージしかないんやが
>>469 中国ってVPN無いと国外のサイト見れないみたいだけどネット上の情報交換とかって検閲されたりしないのかね
civitaiに出てるLORAは使えるの5つに一つくらいだな
>>470 一般的な過学習は体と服が一体化して着替えられないとかだけど
ここで言う過学習は1girlとか一般単語まで不要な学習でぶっ壊されて絵が全体的にガビガビになる事を指す
Civitai製で足りないのは圧倒的に「NTR」
寝取られ感のある画像を出力しようという勢力そのものが見当たらない
LoRA_Easy_Training_Scriptsが更新されたけど、なんか導入から大幅に変更されてる
生活支障ニキ達は生成中とか学習中にトレーニングするのオススメするで
意外と捗る
>>474 現状竿役の描写のコントロールが難しいからな 特に頭部ま安定させるのは無理やろ
>>478 筋トレ良いって聞くね
浮いた金でダンベルでも買うか
お年寄り用ロコモ防止体操とか一切道具いらんでええで
>>458 こういうのが作れるのがほんといいのよな〜
偏った性癖にはほんま神ツールやで
学習させたお気に入りのキャラをお着替えさせたりだけで満足なワイは健全赤ちゃんだと思い込んでおった
ところがAOM3を落とした時にNSFW OKの文字を見て興味本位で触手と絡ませたらドス黒い欲望の塊が湧き出してきてもうエロの事しか考えられへん
逆さ吊り実験以前にそもそも逆立ちすらまともに生成できん
顔の上下逆は出てもそれ以外が謎の畸形生命体ばっかりや…
逆さ吊りをまんま出すより
画像を手動で上下ひっくり返す前提で正方向で重力の入れ替わった奇妙な絵を出す方が楽かもしれんな
1e-4で2500回回すのと
5e-5で5000回回すの
なんとなく後者でやった方が過学習なさそうで後者でやってるけど実際1e-4で少ないステップでもええの?
>>413 絵師からレイヤーデータもらって学習できたらできるけど
いまの評判だと無理だろうな
あと動画を使って変化するもの=前景、変化しないもの=背景って学習する方法がある
>>376 自分も完全にこれに陥ってる
依存症なんだろうけど恥ずかしくて誰にも相談できない
11月頃はヤバかったけど流石に1回の質が露骨に落ちてからは自制利いてきた
ただ無駄に肥えた目とか打ち切ったfanboxとかそういうのはもう戻らん
ネガティブの正解がわからんな
色々試してるだけで時間溶けていく
>>496 絵柄lora使ってガチャするときはlow qualityだけでいい
i2iは高画質ネガ
ネガティブ弄ったら顔のパーツが剥がれて黒くなったり急にマスクを付け出したりするようになった
>>488 俺も赤ちゃんやが、1e-4で回して程よい感じまで進めて、そのエポックの続きで5e-5で回すのがより良いと思う
最初から小さい学習率で回すと全体最適に至らず局所最適に陥る可能性が高まるらしい
局所最適ってのは俺も具体的にはイマイチよくわかってないんやが
エロじゃなくても好きなイラストレーターの絵を無限に出力できる喜び
あると思います
昔は良い感じの巨乳描きで好きだったイラストレーターが、今はすっかり風船おっぱい絵師になってしまったので
昔の絵柄でキャラ再現したいんやが、いかんせんその絵柄での素材が少なくてツラい…
おっぱいも含めて再現したいから生首法も使えんし…
お前が描くんやで
実際のところ蒸留繰り返せばいいところまでいけんやない?
Adafactor君、再現度確保するためにはかなりステップ回さないとダメっぽいな
それだけ過学習がしづらいということなんだろうけどこれだったら別にAdamWのままでも良さそう・・・
>>458 こどものおもちゃとママレードボーイ感を感じる
AdaFactor学習進まんのはalphaが何か悪さしとる気がしないでもない
あれを1にするとLR以前の問題で学習のフィードバックががた落ちするからな
イージースクリプトやとdimの半分が推奨値やし
今試しとるところや
好きなイラストレーターを学習させて
絵を無限に作るのは
流石にこっそりとやってやれよ
前スレで大槍lora作ってる人は上手く行ったのかな
白詰草以前の初期の同人とかカレンダーとか大事に保管してるからワイもいつかはとは思ってるが
AOMに最適なVAEを頑張って作ってるんやがもう誰か作ってそうだな
>>503 まあやるならその方法やろなぁ
>>504 実際に好きなのはその絵師がデザインして描いたとあるゲームの特定のキャラなので、素材がだいぶ少ないんや
モデルマージに挑戦したいからメインメモリを増設する予定なんだけど
合計64GBあれば十分いける?もっと使用する場合とかあるの?
マージやってる人教えてください
言いにくいんだけど
大槍葦人LoRAもう2つあんねん
>>512 orangemix.vaeじゃ駄目なんか
人の作ったLoRAで満足できるってことそんなにないな
結局同じ絵師でも好きな部分ってファン一人一人で同じじゃない訳だし
>>500 Kohya版にそんなオプションあったな
ポップアップじゃオンオフしかできなかった記憶だけどパラメータでなら初めは0.0001であとはその半分とか出来んのかな、サンガツ
Y氏5年ほど婚活するもワープア吃音ブサコミュ障で相手もできずついに35over
しかしAI始めて画面の中に天使を見つけてしまう
これもう半分終わりやろ😭
わざわざ好きなイラストレーターの価値を下げにいくのか……
>>376 依存症はガチで病気やからな
ワイもゲーム依存症なったことあるけどホンマにどうにかしようと思ったら数日パソコン触れない環境に身を置くしかないぞ。ワイは数日旅行行ってパソコン断ちしてなんとか毒が抜けたわ。
同じキャラをいろんな角度で見た画像を出してほしかったんやけど
>>520 いや
新たな人生が始まるんやで
ついでに猫も飼おう
ワイはもうAIちゃんと結婚するわ。あと10年すればメイドロボットも出てくるやろし
AIちゃんはワイの事嫌いにならないよね?
>>376 >>515 たぶんパチンコやソシャゲガチャと同じ脳汁が出てる
ある意味中毒になっとると思うわ
他のことをほっぱらかしてしまう気質ってあるやろ?ワイもそういうのある
三大欲求と結びついてるぶんこっちのほうが重篤だと思うし
精神力が弱いとかいう話でもないんでないかな
言語AIもキャバ嬢だと考えるとハマる人も多そうやし
自衛のために距離感は考えておかんと思うわ
>>523 プロンプトが簡素すぎるんちゃうか、バラけさせる方がムズいで
ソシャゲやパチと違って破滅するほど金が出ていくようなもんやないのがええやな
>>524 猫は去年20歳で死んでもうた😇新しい子を迎えるには早すぎる
ここの人たちはハイレベルやねこわヨ
ついに3060届いたからRX460窓から投げ捨てるやで
https://www.gdm.or.jp/pressrelease/2023/0224/478108 3060tiからこいつにするか
あと6万出して4080にするか悩むわ
>>514 32GBでやったこあるけどエラー何も出ずに普通にできたよ
>>520 ワイかな?
このまま一緒に突き抜けようや
>>533 とりあえずAIイラストとChatGPTと電動オナホが連動するところまで生きてるうちに行ってほしいンゴねぇ
>>521 流石に作家loraはまんま表に出す気は無いわ
隠し味に薄く混ぜて使うか自分専用やな
>>532 玄人志向とか物がいいわけでもないのにサポート最悪だしなんのメリットもないよ
高い買い物だしサポート期間長いやつ買った方がええで
>>458 面白いなあ
結局AIで何でも作れるとはいっても、何を作りたいか発想の柔軟性がないと何も出来んのよな
>>536 1050も3060もクロシコだったが運が良かっただけか
次はASUSか遊園地か戯画にするわサンガツ
生成してるときぐんぐんプログレスバーが進んでくやつとゆっくり進むやつがあるんやけど、
それってサムネ用の小さいのと本番用の画像なんか?
サムネの生成やめると早くなるんやろうけど、なんか不都合ある?
>>540 ハイレゾだったら小さい画像と大きい画像でバーの長さが等分されてるから最初は早く進むように見える
>>461 今さっきのワイじゃん
お、CivitaiにキングヘイローのLora来たんか
↓
0.55~0.6にして使ってね!
↓
コピペしても全然うまく行かない
>>534 ちょっと技術と設備費要るけどそれらを連動させるだけなら今でも行けるで
疑似感情モデルを実装したAIは既に存在してAPIで利用できるんで画像とChatボットは割と簡単に繋げられる
電動オナホの制御はChatボットからのパラメータを動きに変換しないといかんけどここは何年も前の技術だから何も問題無い
材料は揃ってるんで情熱次第やな
>>380 >>414 これ知らんかったんやが
どう設定したらええか教えてくれへんか?
ui-config.jsonをテキストで開いたけどわけわかめや
>>544 ふつうに英語で全項目書いてあるから好きな数値やTrueFalseに書き換えて保存するだけや
いちおうおかしくなった時のために元のjsonはコピーして保存しておくのがええよ
>>543 ほんとに公式絵のポーズを微妙に違う絵で出す劣化コピー機としてしか機能しないLoRAが氾濫してるので
少ない素材で生首メソッドやサイズ編集で着せ替えや絡みまでやってるニキ達はほんまに頑張ってるんやなぁと
>544
1111を終了させてから
52行目 "txt2img/Width/step": 8,
57行目 "txt2img/Height/step": 8,
8を64にして起動!
>>545 自分で変えたいとこ探して変えるわけかなるほど
ちなfalse trueってどういう意味なん?
スイッチONかOFF的な意味?
納得のクオリティが欲しいなら自作が一番よ
他人のやつは無償で公開されてるだけありがたいと思わな
>>548 そう
チェックボックスでオンオフできる設定とかはTrueはオン、Falseはオフってこと
VisibleはTrueのままにして、すぐ下のValueをTrueFalseのどちらか指定してオンオフ切り替える
日本語UIにしてたら言語を一時的に英語にするとわかりやすくなると思う
AIと仕事と酒よな
ツマミ作ってAIが出してくる画像を眺めながら酒チビチビやるだけで癒される
ネットじゃみんな「○○だけで生きられる」って言うけどほんとは多趣味な坊やなんやろ?
>>517 コントラスト高めの絵が出がちだからもうちょい抑えたいんや
まあプロンプトや他でやったほうがいいのかもしれん
>>554 仕事終わったら何もせず寝てるだけやで
AIすらめんどくさい
>>554 ここってときのため時間かけてpoolしてんのは内緒や
ui_config.jsonで思い出したんやが
サンプリングステップ数の初期値変えるtxt2img/Sampling Steps/valueを変えても反映されなくて
なんでやと思ってたら何故か同じ項目が下の方にもう一つあったわ
ワイの環境でpullしたタイミングが悪くて、しかも直されないうちにgitignore入れられて修正放棄されたパターンっぽい
同じニキ居たら参考まで
LoRAの紹介文にbad_prompt_v2使ってますって書いてあったら強度関係なくまずまともには使用できない
あと過学習LoRAは大抵サムネがsimple_background
AIだけでもできること多すぎて
方位磁針手にしたってどうもこうもならねぇってかんじやし
ワイも頭部をグルリと360°見せてほしいのに
横向いたら、奥見ないで、前向き直すだと!?
棒人間モデル無視すんなし!
AIでエロゲ作るのが目標なんや
差分が難しいが立ち絵が出来てホクホクなんやがこれキャラクター定めるにはやっぱり自作LoRAに手を出さんといかんよなぁ
服装と顔のLoRA分けるべきか?ゲーム内で着せ替えするし
ソシャゲ課金はめっちゃ減ったな
代わりに光熱費が増えたけど
>>519 ポップアップでも、「Do you want to continue from an earlier version?」ってメッセージが出たら、
過去の学習ファイルを選べばその続きで学習できるで
それからその後の学習率設定するところで前回よりも小さい学習率にすればええんやで
そういやめちゃくちゃどうでもいいんやけど棒人間の耳めちゃくちゃ横に伸ばしたら描写される人数増えたわ
両耳伸ばしたら特にプロンプトなしで最高3人出せた
>>481 ダンベル1セットあればマジで全身いけるからええで
可変式でそこまで高くないのもあるからオススメや
>>547 サンガツ
img2img/Width/step": 8,
の方も64倍数に変えといた方がええよな?
>>551 サンガツやで
デフォルトでオンの所をオフにしたい時にfalseに替えとくってことやな
今エロ同人作家の収入ってどうなってきてるんやろな
自家栽培できるようになって平均の作家の収入これから落ちていくんやろか
>>562 生首ニキみたいに顔だけを複数色んな表情で並べて描いてもらった後、ベースになる顔にあった身体を描いてもらってレイヤーで切り替えれば差分にならないかな。一枚の絵に同時に書いた場合別人になりにくい気がする。
DLSiteでAI使ったドット系のが1位になったらしいし
あんま変わらないのでは?
エロ同人AI作家との入れ替わりが発生する程度で
>>569 自作AI絵でシコってる人、1000人も居るかどうか?で売り上げ変わらないんじゃないかな?
>>571 >>572 今度まちがいなくエロゲや漫画に進出してくるAIニキらが増えてくるから
パイの奪い合いが激しくなるって理解でええんかな
まだそんな大局に影響するようなもんは作れてないし同人に影響ないと思うわ
もうちょっとしっかりしたコンテンツ作れるようになって供給が増えたらわからんけど
ソシャゲとかのほうが割り食ってそう
AdaFactorのオプション --optimizer_args "relative_step=True" "scale_parameter=True" "warmup_init=True"
でラーニングレート1e-3から1.0に変えてalpha1から128に変えたらいい感じになったで
今から壊れるまでSTEPぶん回してくる
ソシャゲやギャンブル業界に影響する可能性あるとか思ってもなかったわ
おもろいよなあ世の中の動き観てるだけでも
自己生産するようなやつはそもそも同人なんな買ってないだろ
>>458 こういうのとか上手い10歳くらいの女の子が描いた絵柄とかそういうの流行ってくれ…!!
controlnet使うとかなりキャラの整合性取ってくれるのな
ここからLora作って連続作画のエロシーン作るやで~
ハイエンドスマホでも数分で学習できて自分用チェックポイント作れるようになったら、みんな自作農家になると思うで
今はまだ金持ちの道楽レベル
>526
seedガチャでたまーに思った通りのが生成されると脳内麻薬が出て依存症になっちゃうのはよくわかる
その快楽回路ができてしまうと、脳内麻薬を求めて何度もガチャしてしまう
そのうちクローズアップ現代で扱われるに違いない
>>558 623行と628行のcanvasの事?
>>573 近いうちにお絵描きソフトにAI機能が全て盛り込まれて
絵師が手軽にAI使ってクオリティアップするから
作品に情熱注げない奴は生き残れなくなるだろうね
LORA配布してくれる人ってほんとピンキリよな
姫騎士の人とか仰け反りニキとかは絵柄干渉しない層別記載してるから助かるわ
外人はなんかもう基本的にあれや
マンガにするとかゲームにするとか
絵の部分の情熱注がなくても
他で勝負するやり方はあるわな
civilalのはとりあえず上げとけってのが多いから単体で使った方がいいかもしれん
>>584 クリスタは自動生成導入する予定やったけど叩かれて撤回したのがね…
ワイはLoRAの時点で技術は諦めて台詞でエロさ出すことしか考えてないで
>>589 クリスタは空気読めなさすぎたわ
絵師界隈でな嫌な空気が漂ってる中でSDと公開されてるモデルそのまま付けましたって喧嘩売ってるんかと
例えば権利的にもクリーンな風景写真だけを学習させたモデルでお手軽に背景作れますよって始めたら受け入れられた可能性あったのに
クリスタおじさん、クリスタばぶばぶ
AIありなしで分ければいいのにね~
自分の絵学習して生産性上げられない人は食べていけなくなるだろうに
>>561 それ後ろ向きの時とかは目のボーンを消すとかしないといかんのとちゃう?後頭部に遮蔽されて映らへんやろ?
画風の学習しなくても画風を適用できる?
midjournyあたりがやってたようなのかなあ?
としあきwikiのLoRA導入のとこに書いてある実行用関連スクリプトってダウンロードする必要ある?
GithubのLoRA Easy Training Scriptsってとこのファイルらしいんだけど
>>584 クリスタ撤退の流れみるに
それはかなり厳しい実装ちゃうか?
商売あるから客層に喧嘩売るようなことはできんちゃうか
>>593 この分だと来月には学習もお気軽に出来そうだな
>>593 使ってみないとわからんけど
学習が数秒で終わるなら革命だな
一枚で学習するぐらい強いならエフェクトぐらいにしか使えない予感
1500ステップが6で終わるなら革命的だけど、雰囲気だけに特化してそうではあるな
プロンプトが強くなった感じってだけかな
学習アルゴリズムが解らん事には何とも言えん
比較対象がLoraじゃなくてDBな辺りモデルを合成するタイプでは無いのかな
これは多分アートっぽいふわっとした絵にしか使えない奴な気がする
popup版使ってるけど大体わからんから雰囲気(大体デフォルト値かキャンセル)でやってるわ
最適解ではないだろうけどそれっぽいのは出るから大体満足してる
背景入っててもキャラクターの学習がブレないように出来ないのかな
>>569 dlsiteはアレやけどDMMはAI同人の審査1年待ちとかじゃなかったっけ
このままなら今の技術使ったAI同人が出てくるのは1年後ぐらいからちゃう
DMMがシェア七割とかならともかく同人ならむしろDLSiteのほうが
シェアでかいやろ
作ろうと思ってたキャラLoRA結構公開されとったわ
自作で作ってたやつもかぶっとるし背景とかそっち方面に移るか……
生成してもGenimageViewerは表示されるのにwebui上では表示されんくなった
cmd上では特にエラー吐いてる様子も無いし謎が深いわ
>>585 よく考えたら絵描きってペンタブさえありゃなれるから低スぺPCだと思うのよ
iPadProとかで描いてるプロもいるし、ワイもクソザコPCだからcolab民だし
だから仮にクリスタが翻意してAI実装しようしても個々の環境で重いとか使えないってなるから
劇的に高速化出来るようになるまでは市販ソフトに標準装備はないかなと思った
>>614 先を越された思っても
実際使ってみるとこれじゃないってのが多いで
>>589 >>591 客だって便利な道具は使いたいに決まってるんで、クリスタのデッサンモデル使われてるんだから
もう直接生成させろよって客はいるだろうし
絵描きは保守派が多い上に横のつながりが強いからね…
アナログからデジタルに移るときですら戦争状態やったわ
そもそも簡単インストーラーのおかげで1111は入れれたけども
Loraで学習する時にどのディレクトリで実行するか解らなくてつまずく人が多そう
DBの方が学習元複数あるのも関係してそうやけど絵柄安定しとるな、複数枚から学習できて精度も上がったらとんでも無い時短なりそうや
AIさんって腋毛苦手?全然生やしてくれないんやが
>>593 Loraも数百ステップで十分な効果出るけど新技術は10ステップ未満でも十分な効果出るって事?
机上の空論かもしれんけど数ヶ月前までは追加学習は数百枚数千枚を何時間も掛けるのが当たり前だったのがLoraで楽ちんになった訳だし上手くいって欲しいわね
まーた臭い流れになっとるやんけ
絵師がどうこうの話始めるなや
>>618 試作してた分と比較してみた感じ、画風汚染きつめやが出力精度は向こうのが高めぽいんでなあ
なら見直すより使い分けでええかーってなったんよ
gradioのno interface is running right nowホンマむかつくわ
>>627 そらアフィカスとそれ見て来たキッズがウキウキやし🙄
そいつら対立煽りしたくてしゃあないんや
論文斜め読みしたけど
TIを作るのと同時にその画像を出せるようにネットワークをいじって
TIのEmbeddingとネットワークのいじり方を保存するで
これでハンコやなくプロンプトの言うこと聞くし、TIの致命的問題である「知らんもんは描けん」問題も解消やで
どや、最強やろ?
って書いてあったわ
ほぼ一発で画像をコピーするTIと超簡易版LORAの合わせ技みたいなものやな
LoRA学習でエラー出まくったけど、CUDAやPythonからすべて入れ直したら正常になったわ
やっぱエラー出たら環境全て入れ直しが正解ね
アフィにこのスレ使われとらんのにアフィアフィうるさいねん
>>632 めっちゃわかりやすい
ようは今出来る最強ってことだろ🤗
>>624 AOM3(無印)とAlmondgrapeが出やすいぞ!
まあ他のprompt次第で何やっても生えてこなくなる場合もあるけど
>>634 こっからレスやら画像ロンダしてるの何回も見てるで
すまん3060の12GB買おうと思っとるんやけどMSIとかASUSとか玄人指向メーカーとかはどれでもええんか?何が違うんや
>>634 煽りでロンダ用のレス集めるなんて常套句やろ
触れるなや
>>634 なんや随分とアフィに詳しいんやな
まあアフィだと疑われるような臭いレスしなけりゃええねん🙄
絵師どうこう金儲けどうこうはずっと嫌われて排斥してきたスレなんだからそう言う話始める時点でお客さん丸出しなのよ
>>640 「ワイは絵師どうこう金儲けどうこうをずっと嫌って排斥してきた」
言葉は正確に使うんやで
>>641 このスレで大喜びで絵師と金儲けの話しをしてると思ってるとかお前どっから来たんだよ
>>638 そこまで差はない
どっちかっつーとケースにちゃんと入るかのサイズ確認とかのほうが重要ちゃう
HDMIとかが何本刺さるか、とかも環境によっては見たほうがええし
アナルとか陰部が複数出るのネガティブでなんて書けばいい?
AdaFactorで学習進まんのはやっぱりalphaが低すぎるのが主要因やと思うわ
alphaをdimの半分の64でやったら数千ステップで普通に学習されたから
alpha1でうまくいかん奴がおったらワイ個人としてはAdaFactor使用時はalphaをdimの半分で運用するのを勧めるで
>>643 あーファンとかそういうとこの差があるんか
それならどれ買ってもAIに使えないとかそう言うことは無いんやんな?geforceはダメとかなんかあったっけ
まあ3060 8GBを買わないようにするって点だけは絶対に注意や
>>632 実装されたらまた革命起きそうやな
楽しみが増えたわ
増えた乳首とか肛門はもうめんどくなってペイントで塗りつぶしとるわ
冷静に考えてextra anusってどういう風にAIは学習したんやろな・・・
>>646 メモッとくわサンガツ
その辺使っての学習回りもニキたちがひとしきり綺麗にして公開してくれてるぽいしまた動かしてみるかねえ
>>647 君が今買おうとしてる3060ってやつはGeforce RTX3060や
買っちゃダメなのはRadeon
つまりRTX3060ってついてるやつなら何買っても大丈夫や、サポートの面からワイは玄人志向はやめといた方がええと思うけど
マジでそこまでパーツの知識ない状態でやると何かしらしくじると思うからまずはPCパーツ全般の知識入れといた方がええで
>>649 色々と三月
ラデは昔ネトゲでも相性悪くて失敗した経験あるわAIでも使えんのやな……
AdaFactor、前と同じステップにするとなんも学習してないようなのができるよな
時間かかっても精度上げるためのオプティマイザらしいが、そんなに精度に差があるかはまだようわからんな…
https://paperswithcode.com/method/adafactor これがAdafactorや
本格的に深層学習やるなら魚本買って学習した方が手っ取り早いかもしれんな
いよいよ数学の話になってもうた
>>595 サンガツ、なんかわからんけど後ろ向いてくれた
色分けで右目 左目とかじゃないんだなAI君は
モザ修正した画像にプロンプト埋め込むことできんのかね
もしくはEXif消さずに修正する方法
前にスレに上がってた偽EXif埋め込むやつ使うしかないのか
inpaint範囲0のi2iすれば入るんじゃないの
>>662 それするとステップとかハイレゾ関係とか消えちゃうのが
しかも面倒くさいし
>>661 としあきがモザイク入れてもEXif消えないバッチファイル配布してたの見たな
>>646 network dimを128 alphaを64でオッケーってこと?
>>661 あるよ
としあきwikiで配布してたはず
>>660 肩の位置で判別しとるんやろ
目と言われとるボーンは耳で青線と繋がっとるのは鼻
>>656.657
RTX3060にも8GBがあるんや
グラボ買うならVRAMの容量はちゃんと確認した方がええ
自作loraの質問なんだけど
キャラのlora作る時って元画像はキャラだけ切り抜きして背景消した方がいいの?
あとタグ作成で「呼び出しキーワード」+「学習外」の学習外のタグ順序って関係してくるの?
>>671 ほんまか
いつもnetworkdim32 alpha16にしてたわ
多いほど表現力は上がるものの学習時間は伸びる、あげすぎても過学習?になるって解釈なんやが違うんか
Alphaのアンダーフローってなんや?
dim128は赤ちゃんでも失敗しないが過学習になりやすい
dim8は余計な学習を削ぐために使うって聞いた
Lora使い始めたんやけど
触手乳首吸いモデル作りたい場合って乳首吸ってる触手以外の部分を消したほうがええんか?
1回128で試してしなかったら8か4に削るのでいいんじゃない
離乳食にしては硬すぎる
3090の中古が10万円切ってるのけっこう増えてきたな。
状態はよくなさそうなのも多いが。
色々考えた末にgenarate押す瞬間がたまらない
ソシャゲのガチャ回してる感覚と似てる
背景を切り抜かないと背景も学習される
でも、切り抜いても背景の色は学習されるから布団に寝せるとかしたときに背景色だった色の布団が出てくる
じゃあ、何がメリットかというと背景切り抜けば背景が体の一部のように誤解されにくくなる
呼び出しワードは前ほど強い
だから学習時にランダムで入れ替えさせるというオプションがある
ランダムに巻き込まれたくないワード数は指定できる
dimは絵柄にもよるかなあと思うで
低くしたとき、なんか特徴はおさえてるがスッキリしすぎとるな…と思ったときは
上げてみるとええ感じになるときあるで
結局のところそのキャラたらしめる特徴がどこにあるかによっても変わってくるし
自分がどのラインで納得するかにもよるので先人のノウハウは多少の目安になれどトライ&エラーしかないんや
アニメ絵はどうせ元が簡略化されてペナペナだからdim4でいい
イラストから学習したいなら上げたほうがいいとは思う
版権キャラエロが好きな人でも
「原作と全く同じ画風じゃないと認めん」
「多少画風変わってもok」
「むしろ誰々風に変わってないとダメ」
「2次創作らしく画風は個性いろいろ出せ」
とか、好みが色々あるしな
>>665 >>667 サンガツ
としくんも考えることは同じなんやねえ
Blender-ControlNet
https://github.com/coolzilj/Blender-ControlNet Blenderのポージング好きじゃないんだけど、合う奴にはかなり刺さりそう
LionっていうAdamWより性能いいのが出たらしいからそのうち実装されそうやな
>>688 既に実装されとるみたいやで試したことはないが
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre をインストール済で問題なく動いてるんだが
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/releases/tag/installers-v5 をインストールしようとinstall_sd_scripts_v5.batを管理者権限で実行させたら
'git' は、内部コマンドまたは外部コマンド、
操作可能なプログラムまたはバッチ ファイルとして認識されていません。
指定されたパスが見つかりません。
となるのなんでや?
あかちゃんですまんが工藤助けてクレメンス
>>677 非マイニングの状態が良いのなら12万前後だな
学習そこそこで高解像度出力だけなら最良の選択肢だわ
こう言う盛り上がってる時期に乗れるってのは値段以上の価値がある
仮想通貨また上がりだしたから値崩れの期待も薄いし
前dim4でやったら全然学習出来てなかったわ
教師画像枚数とstepの問題なんか?
学習できてないときは大体画像が少なすぎるかステップ数が全然足りてないからそうやろなあ
そういえば昨日のcivitaiウイルスニキは大丈夫だったのかね
webuiの場合{}でかこってる強調って効果あるかんか?
体感きいてなさそうやが
画風loraはdim低くした方がええって聞いたわ
逆に言えばなんかの概念覚えさせたいならdim128あたりにしとけばええんやなと解釈してる
dimが大きいほど、なんか固まりで覚えそう(雰囲気)
>>694 見た目ではファンのシールが剥がれていない、ぐらいしか分からんで
3090の、マイニングに使えないようにしている奴ってあるんやっけ
dim色々やってみたけど
最終的に128で層別とWeightで調整が今ん所良きだは
>>703 見てふと思った
もしかしてdim低いと層別での調整と相性悪かったりするんかな?
まだLoraの層弄り始めたばかりやから感覚でわからんあかちゃんなんだが
>>646 watmup initをTrueにすると、進まないというか、しないだと思うの
マイニングはeth終了でもう利益でないんやないか?
今はAI関連のほうが需要ある気がするわ
>>702 3090はLHRの対象外や
一時期マジで狩り尽くされてたから中古はまずマイニング落ちと見てええ
>>659 なるほどさっぱりわからんがよくみつけてくるな
>>687 カメラ合わせてF12押すだけやから簡単や
プロンプトはスクリプトに直書きせんとあかんけど
>>705 それもあるかもしれんな
ウォームアップは経過依存で勝手にやると書いてあるから
そもそもステップ数がいくら以上やないと学習本番にすら入らんとかあるかもしれん
今どれぐらいウォームアップに費やすのか確認中や
エロ同人の審査迫害されまくっとるの知らんかったわ
AI絵をトレスしたエロ同人なら手描きとして通常審査で通るって理解でええんか?
>>692 サンガツ
v1.0.0-preをインストールした中にあるgitじゃあかんかったんやな
ここから6回縛りで理解する方法
>>458 ええやん!
こっそり配布は…無理やろかなぁ
ワイも作ってみようなぁ
すまんがペド寄りのロリ巨乳を作ろうと思った場合ロリ系のプロンプト指定しまくるといくら巨乳を指定したところで貧乳ばっかりなんやがニキらはどうやって解決しとるんや
CNすごいなぁと染み染み
>>512 huggingfaceでプルリクエストしてくれたらマージするで
>>717 エジプトの壁画ブチ込んだらとんでもないことになりそう
>>716 >>720 のコメント見て1枚目の方が芸術点高い気がしてきた・・・
AIによって綺麗なイラストが増えるから絵柄の世間評価も変わるだろうね
>>701 一応見た目で判別する方法はあるのか
とはいえ4070tiの新品も12万台まで下がってきたから難しいな
>>723 2枚目は誰でも出力できるけど1枚目はこの人しか描けんからな
AIへの反発で
>>716画伯のようなミニマルな絵が画壇で評価される日が来たりも……ワンチャンあるな
>>715 単語忘れたけど「不釣り合いな胸」ってpromptがあったと思う。
一見ど下手に見える壮大な絵を、隠しコマンドの如くAIに通すと凄くなるみたいな古代の謎を感じた
そういう画風はありかもな
almondmixのvaeってanything3.0のやつでええんけ?
24GBでないとダメな理由ってあるんか?
12GBあれば十分な気がするんやが
>>731 12GBだとcontrolnet使いながらハイレゾするとき、ちょっと大きいのを作ろうとするとRAM足りなくてエラー出る事が結構あって、ギリギリのラインを模索するのが面倒なときは結構ある
>>728 サンガツ
試してみるわ
巨乳を強調すればデカくはなるけどそうすると今度はペドからかけ離れるんよな
不釣り合いな胸俺も見た事有った気がしたから探してきたわ
多分disproportionate breasts
試して無いから実際効くかはわからんが
>>735 NAIだったらoppai loliもしくはloli face and big boobsとかで出たな
>>732 >>733 ワイの知らない"世界"があるんやね
ちな3070
来週3060買うのに、4090の世界ばっかり聞かされて悔しい・・
1660Sワイ、肩身が狭い
ふつーにゲームをFHDでやるだけなら充分だと思ったんだよなあ…
初手3090や4090おじさんはもう今後90シリーズしか買えない脳味噌にされてそう
まぁ俺のことだけど
3090お前はボロボロになるまで使いつぶすからな
ワイもAdaFactor使って学習してみたらなんも学習してなくて悲しかったわ
これが
こうや!
ハイレゾだと12GBはマジでギリギリだし
16GB以上はほしくなる
512の最適化でこれだから
最適化サイズあがったら20とか24GBが基本になるんかな
チルロウで汗かいた子を作りたいのに手の甲だけ精液が付着したような白く長細い液体がつくのはモデル固有なんかなぁ?
>>743 2080superと言うゲームもやるなら3060に変えるのもモヤるやつ。
学習やりたいなぁ。
そんな事しなくてもPhotoshopでアップスケーリングすればいいんだけどな
>>743 俺も1660tiの民だったけどRTX2060の12GBに乗り換えたぞ
確かにAI抜きに考えたら1660で十分だったけど今思えば英断だった
controlnetとか新技術が登場する度にvramを要求されたからね
>>751 昨今の電気代事情考慮してないんだよなあ
映像出力がないグラボとか炭鉱夫向けに作ってるよすでに
あれほど居た炭鉱夫が今何してんのか知らんけど
>>748 ダンボールダグに:3という顔文字ダグがあってだな
promptに入れると口がωみたいになるぞ
>>665 >>667 すまんとしあきdiffusionみにいったんやがみあたらん...
具体的にどこにあるとか教えていただけないでしょうか
その発電、やればやるほどエネルギーが四散していくやつや……
>>754 4090は流石に無理ンゴだから3060 12GB来月買うかなあ…
>>731 高解像度で作りたかったら12GBじゃ足りない
>>753 学習したいところだけ拡大して規定の解像度で作る感じ?
>>758 綺麗に出ることあんまりないんだよなあ
それっぽい線の口にはなるけど
そりゃ、理想は4090とかハイエンドだろうけど
一般人からすれば現実的なラインは3060とかのVRAM12GBだろうよ
>>763 俺はジョーシンの処分セールに駆け込みしたわ
やっぱり、自分で学習を回せるのと出力サイズが上がるのはデカい
というわけでAdaFactorのステップ経過やで
バッチ4で回したけどバッチ1に換算して表示しとるで
これ見ると2000ステップは門前払い、4000でようやく要素が似てきて、6000でやっとという感じやな
res 512
dim 128
alpha 64
batch 4
LR none
relative True
scale True
warmup True
>>768 ありがとうございます
呪文関連やと思わんで見落としてた
wikiのアスカベンチのページを見るに4070tiでも十分な速度が出ると思う
3060の最速の2.5倍くらいあるし悪くないぞ
>>757 いや
>>749 が言ってるのはGPGPU のことでしょ
A100 とかで100万円を超えるけど、ここで個人で持ってる人いるかな?
T4 とかならいるかもしれないけど、いまとなっては中途半端だしね……
>>745 こんとき(ポプテピ)の設定がこれ。alpha値未設定、learning_rate表記ミス(?)とか地雷踏んでる気がする
--optimizer_type=AdaFactor --optimizer_args "relative_step=True" "scale_parameter=True" "warmup_init=True" --lr_warmup_steps=10 --save_every_n_epochs=1 --learning_rate=1e-4 --text_encoder_lr 5e-5 --network_dim=4 --max_train_steps=4000
(学習画像の数×繰り返し回数: 800|epoch数: 5)
あとログにこんなんでとった
learning rate is used as initial_lr / 指定したlearning rateはinitial_lrとして使用されます
unet_lr and text_encoder_lr are ignored / unet_lrとtext_encoder_lrは無視されます
use adafactor_scheduler / スケジューラにadafactor_schedulerを使用します
>>770 ええな、本来は学習率低めでステップ回した方がええんやろうな
>>752 シチュエーションLoRAあんまやったことないがやらなくていいと思うで
>>754 2060くん、エロスレ追い出されたからってこんなとこで布教ですかwww
誰も買わないぞそんなゴミ
>>769 ですよねぇ…
つーかゲーマーでも一番数多いの1650と1060で次に2060なのに、このスレにいると3000番以上じゃないのが少数派なのマジで異次元だわ
そういえば白黒マンガのLoRAでええ結果得られている人とかおる?
>>778 ワイ社会人ゲーマー
フレンドみんな3000番台↑やで
>>780 上位層やぞ
結局最後は自分の性欲満たせた奴の勝ちや!(股人の感想です
グラボに出せるのは50万くらいが限界やで
それでもどうせ4090の1.5倍も出ないだろうし
というか今の最新のAI画像技術を50万払ってマンツーマンで教えて欲しいわ
グラボあってもAI画像の進化についていけんから宝の持ち腐れや
>772
あれはあんま意味無い
ローエンド対応でバッチ1だからね
と言うのは4090の最速値はバッチ20で出る
メモリ多いのはそう言う利点があるよ
>>774 これはsdじゃなくてcraiyonで使われてるDall-e-miniモデルの比較みたいやが
adamの最適値が1e-4に対してadafactorの最適値は1e-3なんでもう少しlr上げてもええかもしれんね
マスク(mouth mask)をプロンプトに混ぜると高確率で仮面(mask)の方も一緒に出るんだが仮面を出ないようにする方法わかりますか?
ネガティブプロンプトにmaskを入れても変化の実感は無いです
Controlnetでハイレゾやるとクソほど時間かかるのなんでなん?
2048程度でも2分以上かかるしVRAMも20GBくらい食ってる
中で何しとるんやろ
>>778 ならたとえばGCP とかで体験してみるとか……
無料クレジットが3か月分あるけど、PaperspaceとかColab みたいにへんな縛りはないしね
プリエンティブでも北米とかのリージョンならたいてい空いてる
中学生キッズが液タブペンタブをねだる時代から4090やら最低でも3060ねだる時代になるんか😨
imgur、ウェブからもアップロードできなくなってるやんけ
>>785 おおサンガツ
とりあえず1e-3してalpha指定してステップ増やしてもっかい回してみるわ
>>520 ワイも今は真実のAIを見つけて幸せやで🤗
>>778 ここはAIの板やぞゲーマー基準なんて意味がない
大正義メモリの世界で燦然と輝くコスパ神であり救世主3060を崇めよ
3060はマジでAIの裾野を広げた神機だな
5万でAI画像のほぼ全てを網羅できるわけだし
TITANとか4090tiも控えてるから
電源は1200w入れても油断できないのよな
50xx世代にも5万円くらいの神機があるとええのう
このスレで2080ti使ってるのなんて俺くらいだろうな
スーツのジャケットとシャツの前をはだけさせておっぱいを出してる絵とか、あと戦隊モノのピチピチスーツでおっぱいだけ切り取って出てるようなのをしたくて、control net depthで元画像読み込んで、breasts outとかnipple outプロンプト入れるも、ジャケットから乳首とこだけ突き抜けてたり、ジャケット前は開いてもカッターシャツも無くなってたり
戦隊おっぱいは、ピチピチスーツがおっぱいに溶け込んでたりするんだけど、どうやったらいける?
>>776 そうなんか
みんな特定のキャラ作るのに使ってる感じなんかな
adafactorの設定にある"scale_parameter=True"の時に"eps=1e-30,1e-3"の後ろ側の数値が学習率の補正値として二乗平均平方根されるらしいんで
lr弄り沼をするならこちらを変えてもいいかもしれない
来年か再来年は3060 12GBか4070tiの中古が高値で取り引きされてそう
なんとなくだけどグラボはもう安くならないでしょ
>>801 この辺やね
>>800 ここで4ch のLoRAが騒がれ出したときは、シチュエーションの話題の方が多かったと思うけど
>>807 選ばれし民やな
ここの人みんながSteam入れてないやろうけど
グラボを3060に買い替えるなら今の電源500Wのままだとたぶんあかんのよな
でも電源なんか取り換えたことないから勝手が分からん
WD1.5のEpoch2がなんか劇的進化してるみたいやん。なんぼまで進めるのかわからんけど楽しみすぎる
>>799 breasts cutout とかどや
>>800 ワイもあかちゃんやけど、切り抜きたくなるのは
学習枚数が極端に少なかったり、学習してほしくないのに学習画像内で極端に偏ってる部分がある時や
何回か作ってみてどうもこの要素に引っ張られとるな…ってものが出来てから試してみればいいと思うで
Composable LoRAオンにすると余計な影響受けづらくなるからかLoRAの効きめっちゃ良くなるな
今までの設定のままだと強すぎてガッビガビになるから
ウェイトとかCFGスケール下げたら顔の忠実度上がったし学習回数半分くらいにできるからええわ
>>809 1.4とか強度上げてもダメか?
たまにめくったシャツの下にシャツ着てるから
1layer shirt追加でいける時もある
t2iやi2iでは出せんかった
線画canny+segmentation塗り
https://imgur.com/a/Md3j7p4 >>816 なるほどな
とりあえず色々やってみるわ
>>815 ダメだ…CNしてる元画像がジャケット前ボタン閉じてるからかdepthでやってもせいぜいジャケット前はだけて谷間出すくらいしかしてくれない…
>>811 500wで使っとるで推奨550wらしいし
結局Afterburner使うから最大出力のことは考えんでええかなって
壊れたってどうせ電源買い替えるのは一緒や
ネカフェいって利用時間内に導入出来たらPC買ってもいいだろ
>>821 インペイントスケッチとインペイント使った方が良いんじゃない?
>>822 ワイも1070から3060に変えたとこやけど
500wのまま問題なさそうや
一応一緒に650w買ったんやけどまあええか…
米国が引き起こした中国半導体輸出規制でNANDがダブついてるからサンイーストでも良いのを使ってる位だからな
今はお得だぞ
>>822 >>825 マジか
電源がうなりをあげてプツっと切れてしまったりするんかと怯えてたんやが
>>799
こういう事?プラグスーツでnipplesいれてtorn clothesのレベル下げまくってガチャったんだけど
>>828 それです!!!
torn clothesってなんですか?
>>830 あtornですね!ありがとうございます!
>>824 ちなみにインペイントスケッチ使ったら、胸を黒く塗った画像がそのまま出てきました…
>>458 この透明なトップスはなんていうんや?
わいも出したい
camisoleとはちゃうよな
>>687 >>Blender-ControlNet
>>Blender を離れずに ControlNet を使用するための簡単なデモ スクリプトです
どうせお絵描きソフトで切り貼りするからスルー(導入方法がまったくわからん)
>>831 inpaint sketchで黒く塗ったということかな?
inpaint sketchでは胸の部分を肌色に塗って、
そのあとCopy image to:のところのinpaintボタンを押してinpaintに切り替えて、
そして肌色に塗った部分より広めにマスク領域指定して上げると良い
プロンプトやseedはできるだけ元画像と同じ方が望ましい
>>828 聞きたいんですが、CNのdepthって特定のポーズのままで服をはだけさせたいとか、おっぱいのところくり抜きたいって用途には使えないんですか?
元絵に引っ張られて脱いでくれないです…
自分が最高に可愛く仕上げた!!って思ってあげても全然反応ないと結構辛いなこれ
・適当に3Dモデルを拾ってくる
・角度を変えてスクショ
・いい感じに並べる
角度によっては全然書いてくれないな
>>807 ゲーマーって、スペックこそパワー!俺ら合わせて年収8000万
みたいな雰囲気だったのに
4000番台が合わせても1%居ないのかよw
やはりこのスレが世界で一番狂っているんだな
>>837 最高に仕上げすぎてみんなしこっとるわ、くらいで精神安定させとき
>>837 むしろその可愛さを最大限に感じられる世界で唯一の存在がお前ってことやぞ
独占しろ
スゴイなこれcontrolnetでできるんか?情報の更新速度について行けず置いてきぼりなんや
>>820 頑張ってワイ作搾乳LoRAを越えてくれ
↑を作ったときは変な切り抜きはなし(ガクピクやセリフは削る)で学習させたやで
中が透明化してる搾乳触手が全然上手く行かんかったんや…無念を晴らしてくれ
Loraですら最適解わからないから疲れているというのにいろいろ出てきて嬉しい悲鳴だよ
いや理解できないからヒイヒイいうしかないわ。俺は雰囲気でAIをやっている
デカ乳つくったら乳首もクソデカで色もドギツくなってしまうんやけどどないすればええんや?
>>836 質問の内容すら理解できんような赤ちゃんなんやすまんな
【悲報】AI絵また規制される ついに大手サイトDLsiteで投稿制限がかかりAI絵師阿鼻叫喚wywywyw
http://2chb.net/r/livegalileo/1677245022/ ControlNet 初挑戦
1. Scribble でゴミのような線画をいい感じのリファレンスにしてもらう
2. Daz で用意したなんとなくそれっぽいモデルを Blender に持ち込んで髪の毛だけ別に配置する
3. Normal, Depth を出力してそれぞれ ControlNet で使用してみる。Prompt はある程度具体的に指定しておいた方がよさそう
Normal はちゃんと背景まで作りこんでおかないといけなそう
Depth は背景は勝手にいい感じにしてくれるけど後ろ髪をあんまり髪として認識してくれなかった
seg でモデルの部位を塗分けるのもやってみようと思うんやけど、適当な色のマテリアルを部位ごとに割り当てればええの?
>>799 shirt lift, breasts でもちゃんといけるで
>>849 ちな Blender から Normal 出力するときは Viewport Shading から Matcap Normal を適用して、Viewport Render Image で書き出す
Outline は無効にしておいた方がエイリアスがなくてよさそう
ControlNet での使用時は RGB to BGR にチェック
Depth は Depth Pass を Normalize + Invert して書き出す
マテリアルに半透明があると Depth にノイズが乗っちゃうので、不透明なマテリアルで Override しておく
>>849 3Dじゃないけど人物の部位分けは適当にやった
>>836 谷間を作るように(胸が2つ分かるように)加筆してみたらどうや?難しそうやが
>>849 segは人物のパーツを塗り分けるのには適さない感じや
色指定するならモデル自体におおまかに色塗ってi2i+CNでやったほうがええで
>>847 こちらこそすみませんでした!
>>835 解説ありがとうございます!
今までわざわざフォトショに移して色塗りしてました… これでなんとかかんとか出来そうです
>>851 Normal map ってそうやって使うんやなー
>>853 すまん、このレス会話の流れ追ってなかったわ ズレたこと言ってるかもしれん
>>850 いいっ!
これを自分の気に入ったポージング画像をCNi2iしておっぱい放り出せたら最高なんですが…
今のところ色塗りしてインペイントガチャするしか無さそうですね…
そういや絵柄コピーして燃えたAI絵師ってまだおらんのか?
>>716 その画像、適当なプロンプトでloraで使ったら一発目から良い感じの出たので、
僭越ながら思わずちょっと加工して…‥
もっかいloraってトリミングして……
ふぅ……
よもやスレ民渾身の手描き絵で賢者モードになろうとは……
>>855 予めプロンプトに出したい要素を入れておいて、インペイント時も同じプロンプトとシードでできるようにするとインペイント部分の構図が変わらずに安定する
こんな感じで例としてwhite bikiniを入れてずらしビキニのセックスを作りたかったのに裸が出てきた場合
白色だけだと肌と勘違いされてビキニが描かれないので黒の縁を付けたけど
スクール水着とかなら青一色で良い
いい感じの構図が出たらそれを元にCNでガチャするだけで打率上がるね
>>860 トロ顔ディープスロート最高や!
>>716先生のファンになります
>>858 シャツリフトはCivitaiのloraでかなり出るで
>>863 手軽にスゲェ!
>>865 犯罪臭やべぇw
adafactorのオプションのwarmup_init=Trueすると
>>770のいう通り相当回さんと学習せんで
結果はいいのかもしれんけど時間かかりすぎるからワイは無効にしとる
adafactor使用時はlr=1e-3でaddmWの1e-4と同じような学習になる気がする
>>858 ちなジャケットおはだけ版
inpaintのcontrolnetでもできるで
一つの方法としては
元画像をt2iのcanyに通して線画を出力する。線画はドラックアンドドロップで適当なフォルダに落とせば保存できる
胸のところの線画を加工して雑でもいいからおっぱいにする
それをcontrolnetに置いて、Preprocessorをnoneにしてmodelをcanyにする
元絵は上半身をインペイントで黒くする
プロンプトはshirt lift, breasts, underwearとか描きたい要素を入れる
加工が面倒ならdepth画像無加工でWeight落とすだけでもいけるかも
>>860 これなんのLora使ってるんや?モデルが悪いんか中々奥まで加えてくれんのや
>>871 すまねぇloraじゃねぇ、CNやった
loraはお手製生首Loraしか使ってないや
>>822 rtx3060同じ2ファンでも推奨電源600のやつと550のやつあるんだよな
何が違うんやろ
Adafactorスクリプト版で
>>774を見よう見まねで試してみたけど何一つ学習してなくて草枯れる…
と思って前スレ(
>>981)見たら
>AdaFactorは"warmup_init=True"すると学習しなくなる。ワイの設定の仕方のせいかもしれんけど
>"relative_step=True" "scale_parameter=True"はデフォで有効だから--optimizer_type=AdaFactorでええ
こんなんあってoptimizer_args消したらとりあえず学習してくれたわ
>>791ニキまだ入れてたら参考にしてクレメンス
>>142 そういうデフォルメしたやつってどういうプロンプトを打ったらでますか🥺
>>874 メーカーにもよるけどOCモデルの中には余裕もって上げてる場合もあるんじゃないかな
初期のモデルは最適化されてないからありがち
そういう場合補助電源が2本だったりすることもあるから確認した方がいい
デフォルメキャラってchibiが基本やなかったっけ
Lora適用済みだと分からんけど
>>846 small nipplesで行けるが色薄くするのはわいも知りたい
そういえばひろゆき音声のモデル導入解説動画を見ながらやったらちゃんとしたイラスト生成されました🥺
orangemixのVAEとsujiyakimixさんって人のモデルからとりあえず入って、次abyssorangemixって人のを試してみます🥺
これGoogleドライブ以外からでもモデル読み込むことってできるんだろうか🥺
>>852 >>854 サンガツ
i2i の入力として使えば色指定もできて捗りそうやな
試してみるわ!
civitaiの下に伸びてく検索方式どうにかならんかな
Lora全部見れてるのか判断つかんし、どんどん重くなってく
乳吸いLoraを探したいんや
>>882 あんまりにも理想だったからなんか他にやってんのかなって🥺
ありがとうございます🥺
>>863 スレニキが上げてたseieki LoRAも同じやり方でできるん?
なんどトライしても上手くいかんのや
https://civitai.com/models/11274/seieki ・inpaint sketch 白色でかけたい所を適当に塗る
・inpaintでその部分をマスクして、promptにLoRAトリガーワード入れる
・マスクされた場所をレタッチでジェネレートすると・・何も起こらない。。
キャラloraでもchibiでそれっぽいデフォルメでるよな
>>846 >>880 胸系の単語にsmall入れるとつられて胸も小さくなる傾向あるで
ネガティブにareola(乳輪)をかなり強め、1.7くらい入れると多少効果あるけど同seedで比較して分かるレベルやな…なんかもっといい方法ありそう
>>885 上の方に検索窓ついてるしそこにそれっぽいワードいれて絞るんじゃ駄目なのか?
まあ当然関係ない名前ついてたらヒットせんけども
>>887 seieki LoRAは使ったことないけどプロンプトにTrigger WordsのSEIEKIを入れておいて
白色だけでダメなら白色に塗ったところを黄色で縁取りしてみるとか?
肌の色も白色に近いから白だけだと肌と誤認されるっぽい
なんUでワッチョイ隠してるアフィ野郎を消す方法
chmateは↓を正規表現でNGnameに入れるだけ
(?<!\))$
デフォルメは chibi, cute, full body と入れたら出てくるな
LoRA調整に疲れた時に癒される
>>872 これを層別適用したら画風変えさせずにgapeさせられるのか?それなら神なんだが
>>887 サンプル画像にあるプロンプトも入れないと何も起こらないぞ
>>458 みなすきぽぷり先生を感じる
あれ少女漫画の画風を取り入れてたんやな
AdaFactorとLion、収束遅い割にそこまで画質向上した感無くて辛くない?結局使い慣れたAdamW+Cosineに戻ってきちゃった
昔スレニキが言ってた、色んなOptimizerが出てはAdamに勝てず消えていくって言ってた意味が何カ月ぶりかにようやく理解できたわ...
>>891>>895
サンガツ。試してみたがやっぱり上手くいかんなー。inpaintで塗りつぶしたところが若干黒ずんだ物が生成されるだけや
ControlNet導入してCPUで試したら3時間やでツラ
呪文も2ガール 画質向上2個でこの時間
みんなみたいにガッツリイラスト生成する気はなくて、アイドルとか女優の剥ぎコラAIにやらせて自分で楽しみたい程度なんだけど
これくらいの目的ならノーパソでできたりします?
>>898 モデル変えてみれば?
リアル系は上手くいかないかもって言ってた気がする
今ならt2iのcotrolnetに元絵入れてdepth指定
元絵のプロンプトに追加で(cum on breasts, cum on face:1.3)
とかでだいたい元絵保ったままいけるんちゅかな
>>837 スレの話ならサンイチ付けて上げるんや
気が楽になるで
>>770の続きで今度はAdaFactorのwarmup有無やで
これを見るにwarmupが無ければ2000でもほぼ写し取りが完了していて
warmupはどっかをいじって立ち上げ角度変えんと邪魔にしかならんことが分かる
ただ↑のはベースモデルの出力でwarmup無しでいかにも過学習が起きにくいように見えとるけど
これを7th3.1Cに持って行くとこうや
学習が進むにつれベースモデルへの依存が増すのかモデル間の持ち運びが破綻しとる
8bitAdamが無ければ省メモリダントツの革命的なオプティマイザなんやけど使い方の研究が進まんと今のところは好みの問題やな
>>901 本体だけでやるなら、少なくともGPUを積んでないと画像生成が遅すぎて実用的じゃないのでは
Google Colabのようなクラウド実行環境もあるから、欧米基準でNGな画像(ロリとかロリとか)を出さないならそちらでもよさそう
おもかげ宿し始めてんのワロス
>>876 --optimizer_args "relative_step=True" "scale_parameter=True" "warmup_init=True" をまるごと削除して通ったわ
シャイニングショルダー飽きたからポプ子とピピ美でやってみる
>>880 >>889 てかモデル特有の乳首の色みたいなもんがあるんかな
>>901 とりあえずお試しなら無料のGoogle Colabというクラウドを使う手もある
継続的にやるならサブスクでPaperspaceという選択肢もあり
ただ海外は児ポには厳しいから剥ぎコラすらならそこには注意
未成年に見えるというだけでもアウトだから
BANされてもいいようにサブ垢でやることだね
間違ってもメイン垢と画像共有とかしないように
連鎖BANで終わる
どぎつい言われても程度問題やし参考画像がないとな
ここのスレだと性癖の閾値とか各人でガバガバの可能性がたかいし
いつもと同じような素材用意して同じような設定なのに5回くらい作り直しても上手くいかなかくてめちゃくちゃ悩んだ
結果、soloタグの消し忘れでそいつに情報吸われてた
反応が欲しければエロ絵にしろ
ただ可愛いだけの絵とか飽和してて反応は薄いで
>>912 エロ絵もすぐに凍結されたりシャドウバンされるからなぁ
そのうちプロンプトの管理ももっとGUIになってくれたらええなあ
例えば今髪の色は白と黒が入っとるでとか構図系のプロンプトはこれとこれが指定されとるでとかぱっと見でわかる感じ
>>905 検証サンガツ
過学習おさえて質のいいLoRA作るならadafactorのwarmup_initありのがよさそうやけど10000stepは時間かかりすぎや…
(´・ω・`)えまってどうしよう😭
届いた3060をPCに刺して1時間位StableDiffusion回しながらアニメ見てたら突然バリバリバリって雷落ちたときみたいな音してPC煙吹いてワロタ…ワロタ…😭😭
とっさに電源引っこ抜いたけどデータとか全部死んだかな…
なんとかlora自作成功したけどこれ学習素材の画像思った以上にそのまま学習してるのね
素材のサイズ合わせの影響で出来た四角い切れ線とか髪の毛のぶつ切りみたいなのもそのまま出力してくるわ
>>897 ほんと時間かかる割に画質も向上した感じしないよなあ…。
なんか使い方があるのかもしれんが、今んとこ前の方がマシって感じや
ワイちゃんのAIライフが始まったと思ったら唐突に終わった😭😭
>>916 焦げたPCのLoRA作るための学習資料が手に入ったな
adafactorは自動でパラメータ調整してくれるといってもLoRAに最適化された調整ちゃうやろしな
そもそもなにがLoRAにとって最適か定まってないし
>>918 このスレ的にはキャラ固定が主用途なわけだけど、そんな目的で研究開発されてるわけじゃないからな。キャラ固定ってある意味ハックだよね。
昨日から始めたけどプロンプトむずいンゴ
wiki見て足したり引いたり強弱つけたりしつつシード固定したりi2iに送ったりしてるけどニキらはどうやって上達して行ったんや?
>>916 派手な音立てて煙吹くのは電源じゃないかなぁ
とりあえずバラしてどこから焦げた匂いがするか確認だ!
>>916 火事にならなくてよかった
電源容量が足りなかったのかな
お大事に…
>>919 ヤムチャしやがって…(ヤムチャLoRA省略)
3060でSD回しながらアニメ見るとか舐めプかよ
電源のワット数確認したか?
それか補助電源のコネクタがちゃんと刺さってなかったとかかな
>>923 GANっていう別のディープラーニングではキャラ固定する研究もあった
あれが輸入されたらできるんじゃないかな
>>916 海外ニキのグラボ炎上はプラグ差し込み不足やったらしいが
>>919 電源そのものか、ケーブル問題か熱問題か
色々無事だといいがアカンやろな
ご愁傷さまやで
かける言葉もみつからん
ワイもPC発火させたことがあるから他人事やないわ
>>921 見た目外傷は無かった
>>925>>926
ほんとだ…電源ぽいですわ…電源焦げ臭い
てかこのPC電源クソ古い500Wじゃねえか!!壊れるわ!
先週買った750Wの電源隣のPCやんけ😭😭
何してんだ…もういやだ…GPU死んでないといいな…
ワイ3060検討民震える
電源も考えなあかんか
そらそうか
sanpakuとかtsurimeが全然効かないんだがもうそういう目のイラストでLora作らないといかんのかなぁこれは
なんかいいプロンプトないか?半目は眠そうな顔になるだけだったし
>>901 ガッツリやらないとグロいのしか出来んで
出回ってるのは上手いやつが厳選した一枚やからな
やる気ないならやめとけとしか言えん
>>924 NovelAIがすぐに画像出力されるからその頃にプロンプトを調整する能力身につけたな
まあ最近はLoraとControlNetのせいで忘れつつあるけど🙄
>>933 10年以上前のボロ電源やんけ
フルで回したら壊れるわ
>>933 派手な音して電源焦げ臭いのはコンデンサが破裂したんじゃないかな。
電源の中に破片が転がってるよきっと……
過電流とかになってなければ他のパーツは大丈夫……だとええな
>>908 それはある
アビスとか7thはピンクになる
最悪乳首だけモデル切り替えてインペイントやな…
でもそんな面倒したくない
>>934 ワイの屍を乗り越えて突き進んでくれ
とりあえず動悸と手の震えが止まらんから寝るわ😇
CorePowerとかクソ電源の代名詞の骨董品やんけ
逆によく3060のフルロードに1時間も耐えたわ
>>924 他人のピクシブの画像はだいたいデータはいってるからpnginfoにぶちこんでるわ
電源って重要なんやなあ…勉強になったわ
>>933にとっては高すぎる勉強料やけども
>>943 おまえ天才か
でもうまいやつだいたいi2i挟んでるから消えてね?
NovelAI時代は512×768がデフォだったから高画質化ソフトとかで大抵情報消えてたけど最近のはHires直出しなのか残ってる事が多いな
単純にプロンプトの価値が薄れたから秘匿されなくなったってだけかもしれんが
この事態を目の当たりにすると500W民にAfterburnerでいけるやろとか言えんくなったな
何年前の電源か分からんしPC内の構成も分からんからな
素直に推奨電源以上を使うのが一番や
あとデータは外付けやNASに自動定期バックアップしておけば安心やで
ワイはNASの8TBに1日2回差分バックアップしてるで
ChatGPTよくわからんのだけど「その設定エロ杉。他の考えろ」って怒られた後に適当な自己紹介とかさせるとそのエロ杉設定を堂々と話始めるの可愛い
規制を取っ払ったAIチャットの実現が待ち遠しいお
>>937 >>943 サンキューガッツ
他の人の参考にしつつ地道に習得してみるンゴ
>>933 3060を500Wで動かしてるという人がちらほらいたから心配や
電源容量をケチるとこういうことが起きる確率が上がるってことよね
GPU死んでないといいな…
BTOパソコンの手の抜きどころは電源とマザボやから気をつけるんやで
そうはいっても最近のものなら品質に問題があるわけではないやろうが
>>924 ちちぷいとかmajinaiがない時代はlexicaをよく見てた
ワイのPCは3060に換装してからUSBでスマホ充電できなくなったんよな……
これ出力カツカツって事よな、なんか怖なってきた
やっぱり
ところでLoraeasyインストーラーのv5出たけどwikiに出とるのと方法変わってくるんか?
ワイBTO、パーツの取り替えすぎで魔改造になってしまう
BTOのPCって削れる所は削るのが基本だからグラボのアップグレードとか考えてないからね
最初に乗ってるグラボが問題なく動く電源しか積んでない
>>935 俺はどんなキャラでも三白眼にするので、Loraってくれてええで
ワイも煙は出てないが3060に変えた後ぶっ壊れて今修理出してるし気をつけるんやで
ワイも3060やけど電源多分500やわ
もう6年前のやつだしこれを機に買い換えたほうがええか
乳首だけinpaintするとなんか気色悪いのになりやすい気がするんよな
気に食わない時はそれでもガチャって粘るしかないんやが
電源は絶対にケチらん方がええよ
電源逝ったらPCまるごとイカれる
消費電力の2倍理論でワイは1200W電源にしとる
そう言えばNovelAIちゃんの流れで渋には脳死拡大して置いてるな
でも1024*1536はやっぱちょっと小さいかなって2倍にしちゃう
ワイもBTOでrtx2070の搭載してるの買ってその時pcの知識皆無やったんやが電源は劣化する事と後からhdd増設したりグラボ変えたり何よりファン静かになるでって聞いて容量大きめのにカスタマイズしたわ
スケベなアングルとか体位が増えるモデルとかloraってないんか?
gapeかと思ってたらどうもちゃうな
seg による体の部位分けは Depth/Normal に対する優位性があんまりなさそうだったんで
Rendering した画像を i2i のベースにして Depth を ControlNet のソースにしてみた
やりたいことには一番忠実になりそうやけど
その分元画像のクオリティに仕上がりが依存してまうという本末転倒感
背景なんかもっと自由に作り変えてほしいんやけど
Multi ControlNet で背景とキャラを分けるとかなんかな?
>>968 オノレのスケベゾーンがわからんからCivitaiで探してくれとしか……
さっきから22.2.2から23.0.1に上げろってうるさいんだがどうしたらええんや
Metaからまた凄そうなLLMが出たな
はよ画像や動画と結合して喋り出してくれ
オプティマイザーをAdfactorで学習したやつ:ポプテピ
--optimizer_type=AdaFactor --save_every_n_epochs=1 --learning_rate=1e-3 --network_dim=64 --network_alpha=32
2080ステップ/1epoch目のやつだけど学習は十分な感じはある
なんか混ざっちゃうのはワイがタグ付け👶だからだと思う
ちなモデルはリアル系は合わなくてHXDCにしたらかわいくなってしまった、クソアニメなのに
やっぱ背景入れたままで学習させると背景まで学習してしまうのがネックやね
出力した画像がまんま背景まで似せてくる
めんどくさいけど学習用画像は数百枚すべて背景真っ白に塗って学習させなきゃいけないのかな
本当は服も着せない方がいいんだっけ?
服の情報とセットで覚えちゃうから着替えさせるとその情報が欠落して再現度が下がるってどこかで見たような・・・
もちろんCPUなど他のパーツにもよるが、3060なら500Wで不足しないと思うんだが………。
CPUが200Wとか食うやつなら知らんが、そんなの使う場合マザーボードのEPS8ピン×2に対応するためにもう少し上の電源使っているだろう。
単に電源が古すぎてもう寿命だった、もしくは埃が堆積していた電源に負荷をかけてショートさせたんじゃないかな。
>>970 そうなんか
エロポーズばっかり学習させたモデルがあるんじゃないのかと想像してたわ
NSFWムズいな
>>977 体位ならpixivから良さそうなの見つけてcontrolnetからポーズ生成すればええやろ
買ったときのパーツ構成調べたら電源550Wやったわ
3060やししばらくこのままでええか・・・
不具合一切ないし・・・
SEED値とモデルと呪文さえあれば俺が作ったものは誰でも作れるわけで
なんか虚しさもあるAI絵
オリジナルにあこがれるクローンみたいな気分だ
>>837 渋はワイのゴミみたいなやつでも
みんな喜んでくれてるで
AI界隈はみんな目が肥えてるんや
次スレ立てくりゅ
久しぶりだから失敗したらごめンゴ
勝手に転載するのはって著作権ないんなら勝手に転載してええやんな?
>>980 お前が作ろうと思ったものを作りたい人は少ないだろうしいいんじゃね
俺が量産してる性癖のイラストとか他でほぼ見ないしそういう満足感はあるやん
意味分からん考えだけどそんなに自分しか作れない絵のが欲しいならLora使えばええやん
固有の絵が欲しいならinpaintも使えばいい
実質的に再現不可能になる
プロと同じように調理して誰でも簡単に同じ味が出せるなら、そのレシピは優秀なのでは?的な考え方で行け
背景だけ綺麗に切り取れるアプリがあればいいのに
katanukiは精度が低すぎてダメだった
人力で一枚一枚すべて背景白く塗るのはキツすぎる
少なくともSEEDさえ公開しなければほぼオリジナルや
40億通り以上あるんだし
500W電源で3060でSD回してると、たまに画面が乱れるのってもしかして電源がやばい?
>>991 かもね
いきなり落ちるっていうのが
電源不足の一番わかりやすい挙動なんだけど
>>980 むしろそういう再現性が欲しいぐらいだ
自作した奇跡のLoRaを紛失しちゃったんだが
同じ学習元画像でもなんか微妙に違う物ができてしまって再現できない
>>989 無料のAdobe Express
iPhone iPad持ってるならiOS 16の切り抜き機能
手軽に試せるのはこのくらいか
どっちもバッチ処理みたいなのはできないけど
ちなみにiOSの切り抜きは普通に保存すると透過PNGだけど、Google Keepとかにコピペすれば背景白で保存される
そういや全然バックアップ取ってないな
いつかやらかすわ
-curl
lud20250129171416caこのスレへの固定リンク: http://5chb.net/r/liveuranus/1677145939/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像
↓「なんJNVA部★157 ->画像>142枚 」を見た人も見ています:
・なんJNVA部★73
・なんJNVA部★93
・なんJNVA部★82
・なんJNVA部★74
・なんJNVA部★87
・なんJNVA部★71
・なんJNVA部★86
・なんJNVA部★76
・なんJNVA部★66
・なんJNVA部★64
・なんJNVA部★97
・なんJNVA部★85
・なんJNVA部★98
・なんJNVA部★81
・なんJNVA部★96
・なんJNVA部★83
・なんJNVA部★69
・なんJNVA部★79
・なんJNVA部★75
・なんJNVA部★99
・なんJNVA部★72
・なんJNVA部★63
・なんJNVA部★67
・なんJNVA部★94
・なんJNVA部★90
・なんJNVA部★89
・なんJNVA部★92
・なんJNVA部★80
・なんJNVA部★65
・なんJNVA部★70
・なんJNVA部★84
・なんJNVA部★88
・なんJnovelAI部
・なんJNVA部★68
・なんJNVA部★78
・なんJNVA部★91
・なんJNVA部★204
・なんJNVA部★161
・なんJNVA部★463
・なんJNVA部★292
・なんJNVA部★128
・なんJNVA部★106
・なんJNVA部★473
・なんJNVA部★122
・なんJNVA部★171
・なんJNVA部★175
・なんJNVA部★119
・なんJNVA部★426
・なんJNVA部★132
・なんJNVA部★497
・なんJNVA部★191
・なんJNVA部★402
・なんJNVA部★232
・なんJNVA部★125
・なんJNVA部★391
・なんJNVA部★187
・なんJNVA部★172
・なんJNVA部★126
・なんJNVA部★147
・なんJNVA部★393
・なんJNVA部★185
・なんJNVA部★464
・なんJNVA部★495
・なんJNVA部★136
・なんJNVA部★432