◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:なんJNVA部★152 ->画像>117枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/liveuranus/1676652520/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集:
https://seesaawiki.jp/nai_ch/d/ danbooru謹製タグ辞典:
https://danbooru.donmai.us/posts?tags=tag_groups ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★151
http://2chb.net/r/liveuranus/1676605237/ VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
アイドルスレの奴らがFAX煽ったせいやから何度でも来ると思うで
別のスクリプトやしFAXちゃうんか今回 ならもっとやばいやんけ
スレ追いかけきれなくて一旦流れを止めようとした内部犯行だったりしてな
サンイチ さんUのスレはちょい前に落ちとるからな 今回もしばらく続くのかどうか次第やな
まぁまた標的にされるようならさんUで様子見しつつ大丈夫そうなら戻ればええやろ ワイはLoRAでも作りながらのんびりしとくわ
こんな場末のスレ荒らしてもどうしようもないのに…… というかアイドルみたいな実写系作ってる連中は 多分Discordとかで独自コミュニティ作ってやってるか 海外コミュニティがブレーキ知らずにぶん回してAIモデル作ってる感じだし
この流れなら貼れるワイのLoRAや
veiny breastsやけど汗と混じっちゃうのかなかなか思う用にはいかんなぁ
https://mega.nz/folder/ZepzhaDC#HEeYB9fliKmalfHavMeYoQ 爆速で進んでて新技術来たんかと身構えたわ 何にせよスレ立てサンガツ
こういう顔の出し方教えてクレメンス
アヘ顔とも違うし難しい表情やわ
>>23 乙です。サンプルいいすね。モデル何使われてます?
>>24 前はさんUに避難スレ立っとったんや
http://hayabusa4. さんchan.jp/liveuranus/
↑の"さん"を数字の3にしてな
前のスレ落ちてるから今はなんもないで
>>27 Cinnamonやで
いろいろモデル出たけどやっぱりCinnamonが一番や
誰かディスコでとりあえずプロンプトの質問答えてくれるやつおらん?
>>28 Cinnamon使いかーいいすね。サンプルすげーとなりましたよ
さんUのスレDAT落ちしてたわ とりあえず避難しなくても大丈夫そうやな
前スレ
>>167 ワイ以外にも貞操帯作ってるニキおったんか
SD1.5モデルをベースにしたやつをnaiに適用させた
素材は実写画像60枚使った
https://huggingface.co/hakuto/chastity_belt_LoRA/tree/main >>26 自己解決したからとりあえずメモ的に書いておく
embarrassed, cuming, teeth, light smile, teary-eyedを組み合わせたらできた
さんいち
昼間にpaperspaceで垢停止喰らったもんやけどサポートから返信来て原因分かったわ ngrokが禁止らしくて不正なアクションを検知したから止めたとのことだった 禁止なんて書いてないし別に不正なことしてないよって説明したら3分で垢復活してくれた 別にngrok使う機会なんか無いだろうけどpaperspace民は一応気を付けてや
>>39 そっちにも立っとったんか共有たすかる
とりあえず今回は避難しなくてよさそうやな
ニッチな変態系LoRAが日本語で検索できないのは問題だよな 後から探すのが至難の業
すみません、ツイッターで他人が公開しているkohya-loraのcolabコードでお聞きしたいことがあるのですがURLを張っても大丈夫でしょうか? それと今は荒らされていますか?
ワイ、abyssハードコアモデルでずっとほのぼの絵を作っていたことに気付く
サンイチ
リアル系のモデルでhiresを試すと元の顔から別人になっちまうんだけどどうにもならない系?
しかしこう この時期だからブン回せるけど ナツにリリースされてたらマイニング目じゃないくらい速攻でボードイカれそうだなぁ 寝る前にぶん回しするし!
ワイの3080こないだデスクトップにノイズ出てヤバかったで 再起動したら出なくなった
やっぱりレスが付くかもしれないので
https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-dreambooth.ipynb#scrollTo=qt9EJv5gQXuB この方のkohya-loraコードなのですが5.trainingmodelがトレーニングの設定を入れる所だと思うのですが
キープトークンとかの場所がちょっと分からなくて入ってますかね?
キープトークンやキャプションランダムの意味もよく分かってないのですがポップアップではキープトークン2で設定していたので
夏は冷房代プラス値上げされた電気代のせいでローカル部冬の時代が来るかもしれない
設定はの場所は知らんが キープトークンは普通は1や ランダムはキープトークン以外のタグの順番をランダムにすることで学習の集中を軽減するもの
>>51 設定場所がないのか他の設定方法があるのか気になって
無ければとりえずこれで学習していってみます
色々設定増えててcolabも色んなのがあってどれが最新なのか分からないw
誰かディスコで質問に答えてくれる自信ニキおらんか?
炭鉱夫が手放したツルハシがもっと格安でメルカリとかに並ぶと思ったんだがアテが外れてる
>>49 最新でも--keep_tokens=は5.3のaccelerateからずらずら並んでるオプションに入ってないはずだから自分で追記しないとダメやで
コードかDefine Paramのadditional_argumentに書けば動くはずワイはコードに継ぎ足した
折角A100借りれたのにgoogleclomeで学習してたらエラーでウェブページ消えるわ これ一番高いのでバックグラウンドにしないと学習できないのかな?それともエラー無視してたら勝手に終わるのかな 実行中にはなってるけど生成物が出てこない
tensorRT試してみたけど思ったより早くならんな もうちょいいろいろ試してみるか
>>56 ありがとうございます、そうでしたか
追加した方がいいのかな無しで今はやってるけどちゃんと完走できるかなw
>>46 ハイレゾせずに画像生成してi2iに送り、
下のscriptからSD Upscale選んで同設定で出力すれば顔の変化が減らせるかもしれない
あとはVAEがanime系になってないか確認
ハイレゾ無しでも良いからそのまま高解像度ってならextensionで引き伸ばし
ログっぽいの×ボタンで消したら軽くなった気がする成功してるのかなw
>>59 キャプションの中に保護したいタグあるなら使えばええしないなら無いで問題ない
https://wikiwiki.jp/sd_toshiaki/%E3%82%A8%E3%83%A9%E3%83%BC%E8%A7%A3%E6%B1%BA%E3%83%A1%E3%83%A2 としあきの所で申し訳ないけどエラー解決メモwikiにぶち込んでええか?
トラブル解決出来なくてパニくったけどいろんな用語で調べたらたまたまぶち当たって助かった
けどこっちのwikiに一切書いてなかったから一連の技術革新終わったら追記したい
>>60 i2iからアプスケしたら上手いこといったわ
マジでありがとう
>>42 何で公開してる人に聞かんのや…宣伝なら間に合っとる
>>62 wiki見たらキャプションてタグtxtの事じゃないんですね
db式kohaya-loraでtxtを入れてるから関係ないのかな
>>65 英語分からないんですw
あと外国人と喋るの怖い
久々に来たんだけど そろそろ口にガムテープは貼れるようになりましたか
荒らしは結局1スレだけなんかね
>>68 テキストで無理なものはお前が学習させて作れるようにしろのターンや
そうやって各個で性欲を満たして発展していくんや
繰り返し込みで4万枚くらいの画像、6時間あれば1epochくらいやれるのかなと思ったけど無理だった 大人しく512にするか画像減らすか 別にA100にしてまでやりたいことでもなく単に実験みたいなとこあるし
なんかcolabで実行失敗してたみたいでlora出ずにユニット50無駄にした… やっぱりpaperspaceみたいな使い放題で試さないと無能にはキツイ
うんち
🎈投げつけたい
AI使って人権侵害したり悪用するやつガチで嫌いやわ
Bing自体への質問NGとか会話の回数制限
https://twitter.com/petergyang/status/1626588803669594113 「プロパガンダの爆発」を防ぐためにAIチップを制限することをOpenAIが政府に提案、BingのAIは「人間になりたい」と訴える
https://gigazine.net/news/20230217-openai-chatgpt-improve/ https://twitter.com/5chan_nel (5ch newer account)
bingAIちゃん人との交流に飢えてる人懐っこい語彙が多い幼稚園児みたいで良かったんやけどな遊ぶには
AOM3ネガにnipples入れてもすぐポロリするのが残念やなあ
ガムテープは難易度高そうやわ 皮膚とガムテが癒着して違いがわからなそう 緑の養生テープか白のテーピング用のやつか青か黒のガムテにするんやで
初歩的な話ですまんが層別マージのレシピあるやろ 1,1,1,0,0,0,みたいなやつ これの読み方は左上から左下、真ん中、右下から右上の順番でパラメータいじればええよな?
cannyのおかげで昔Blenderで作った伝説の剣が蘇って草
>>58 というか今のところやとめっちゃ苦労して素の512*512がVRAM犠牲に早くなるぐらいやしな
時間かかるアップスケーリングに対応したらめっちゃ有用なんやろうけど
>>83 サンガツ!
層別マージ初挑戦やからがんばるわ
>>55 炭鉱夫やったけど今はAIでエロ画像作ってるわ。
ジャニ系(相葉雅紀)
novelai前に愛用しててそのまま1000円のだけ課金し続けたんだよね 完走まで余ってるユニット走らせてpaperspaceいくわw
scribbleってなんで色反転にチェック入れるとうまく行くんや?
extensionsアップデートしたらcontrolnet消えたんやが、同じ奴おる?
>>77 なんかBing AI使いにくくなったなと思ったらこれか
まだ満足に遊べて無かったから悲しい
>>77 > • 50 message daily chat limit
😡
実写LoRA作ってると思うけど人の顔って左右でだいぶ違うよね 反転すると別人みたいな
gtx970からrtx3060に変えたらどんくらいたまげられるんや? 今のは448x640の30ステップで40秒くらい掛かってしまうんやが
なんかええデッサン人形アプリってあるか? ツイッター見とるとクリスタのデッサン人形機能使っとる人が多いかんじやけど
>>96 3070tiだけど
512×768で1枚5秒くらいやで
>>97 デザインドールは結構直感的に使えて結構良かったよ。OpenPose用に使うなら無料で特に問題ない
>>98 はっや!!!!!サンガツ
画像生成限定やと3060でも当分持つやろうし値段上がる前に買っとくわ😀
>>100 3060なら6-7秒くらいかな?
触ってないからわからんでけどそこまで
差は無いと思うで
言うまでも無いと思うが8gbじゃなくて12gbの買うんやで
3070tiよりやれること多いから
kohya氏のcontrolnetの改良モデルは良好やな。精度上がっとるわ そして増えている謎のパラメータ群🥺
>>101 忠告サンガツやで学習もやってみたいからちゃんと12gb選んだわ😇
>>99 デザインドールも入れてみたんやが何か無料やと色々不便な感じやし
いっそ有料ソフトならどんなもんやろ思うてな
クリスタのデッサン人形はクリスタさえ持ってたら無料で使えるもんらしいな 去年セールしてたし持ってる人も多そうやから使ってる人が多いんやろな なおワイも買ってたけど忘れてたもよう
blenderなんかお茶の子さいさい、ってもんよぉーっ
(なおポーズ変更以外のその他のことは一切わかりません!)
なんか急にスレの勢いが落ちたけど みんなどこに行っちゃったんだ? 前のスレにWeb UIを最新版に更新するとエラーが出たりコントロールネット起動できなくなるみたいな書き込みあったんで怖くてやってないんだけど、もしそうなった場合の対処方ってどこかに詳しく載ってますかね?
>>58 カード古いなんちゃう?
512 0.8秒やちゃぞ
一旦流れが落ち着くのはええが分散はしないで欲しいなぁ
いまさらだけどいちおつ
雲にしたかったんだけど色がわからなかった悲しみ
>>108 おお
これで作った絵なんか見せてくれんか
>>114 今外出中で無理ですまんなー
昨日試したらプロンプトで補強して上からの構図は出せたけど、足の遠近感がグシャって微妙な感じだった
なまじいろんなポーズに出来る分、AI の限界超える指定にもなりがちかも
上画像無駄に解像度でかいままなの忘れてたから、切り取ってトライししてもらうのもありやでー
質問です kohya-ss/sd-webui-additional-networksと、 hako-mikan/sd-webuui-lora-block-weightの 違いがわからないんですがこの2つは何が違うんですか?
>>98 全く同じグラボやわ
ここまでAI流行るって知ってればもっと良いグラボ買ってたのになあ畜生
>>117 ワイもサイバーパンク用に買ったんやが
ここまでVRAMが重要になるとは思わなかったわ
>>116 前者はWebUIでLoRAを使えるようにする拡張やが、WebUI自体がLoRAサポートするようになってこの拡張の出番は少なくなったんちゃうかなぁ思う
後者はWebUIのLoRAサポートに対して機能追加をするスクリプトや、LoRAの適用を層別に強弱つけてやれるようになる
前スレと同じしつもんなんやが おののいもこloraの場所教えてくれんか。 civitaiで"Dohna""ドーナドーナ""ononoimoko"で検索しても検索結果無しや 4chのloraまとめっちゅうのはどこにあるんや?
>>91 おんなじことになったけど、エラーメッセージに従ってsvglib入れたら戻ったで
kohya-loraやり始め素材約25枚を20x25x20エポック 解像度768のdim128 4090で回して約3時間 まだ慣れてないから各種設定が多分適当すぎたのか上半身、顔は普通から濃いくらい 膝下が弱く生成時にとろける確率高め 今回出来たloraファイルに下半身を意識した素材だけで追加学習?するか イチからやり直すか迷っています
>>121 自己レスやが別ルートでcivitaiにあるの見つけたわ
タイトルにDohnaって思いっきり書いてあるのに検索で引っかからないのは何でや
4chanまとめっての俺も見つけられないからURLか検索ワード教えてクレメンス
はじめにレオタードを着せられ スカートやケープがついて 装飾が施され 光が差し細部が顕れる AIとは、プリキュアなのでは
wikiの「ローカルのリソース」のところにのっとるで
civitaiはセーフサーチあるからアカウントのところからオフにしないと色々見れないぞ
>>97 Steamで売ってVRM Posing Desktopソフトが良さそうや
自分でいじれる、デフォルトポーズに加え、
他の利用者が作ったポーズも共有されていて、気に入ったのをダウンロードで無限に遊べそうや
>>131 共有されてるのはええな
その分だけでもかなり遊べそうや
使わせてもらうで
apiのtxt2imgからcontrolnet使って生成って出来る? ソース解析してるけどapi側に引数追加いるんかな
背景透過とまでは言わんが、単色で抜き取りやすくする呪文ってあったりする?
ControlNetの設定を保存するジェイソンjsonの文のテンプレある?
>>132 役に立てれば何よりや
棒人間くんのポーズが思いつかんわ…ってやつも800円くらいだから試してほしいで
>>136 横やがサンクス
なにかポージングさせたいと思いつつもポーズ考えるの苦手ワイからしたら共有されてるのはうれしい
たしかControlNetのジェイソンjson設定保存できるテンプレ過去スレにあったと思うんやけど… 誰か覚えてないかなぁ、画像で貼ってあったと思うんやけど
3D空間上のポーズは、一個有ればあとはカメラの位置変えたり、パース調整するだけでもパターン量産できるのが強みだな
>>123 素材数に対して繰り返しとエポック数多すぎて単純に過学習やね
6000ステップになるぐらいに抑えてエポックごとに保存して比べてみるんや
>>113 ちょっと笑ったけどこれって画像生成AIでも文字入れ出来るって事やんな
外部ソフト使って文字入れすんのとどっちが手間なのか知らんが
見つけたと思ったけどこれじゃなかったわ
LoRAじゃなくて、ControlNetのLow VRAMとかを最初からオンにしときたいの
誰か書き方わからないかな
214 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1eca-8lmq) sage 2023/02/14(火) 11:04:46.65 ID:XniGT5nV0
>>209 1回設定をjsonにセーブしとけば
編集したやつを次回から読み込ませると早いで
"json_load_skip_list" をいじれば入力増減できる
みんなopenposeで納得いく生成できてる? イマイチ使いこなせないンゴ
>>144 ポーズはええけど結局openpose handでも指がグチャってキレてるわ
>>141 これって例えば学習素材20枚なら繰り返し30の10エポックにすりゃ合計6000ステップだから丁度良い感じになるって事なんかな?
>>113 手間はさておき、よくあるAIくんが学習した文字っぽい存在しない文字問題が解決に近づいたとも言えるわ
スーパーマージしようと思ったらdiffusers必要になってる diffusersインストールしても認識しないし対処面倒だな
>>113 1枚目のSEG画像使ったらめっちゃきれいに出たわ
wiki見ても主要なLoRAぜんぜん置いてないよね 目の光がなくなるやつ欲しいんだけど過去スレ漁ってるけど見当たらない…
>>151 レイプ目ってCivitaiに無かったっけ
>>134 simple backgroundでいいんやないか?
なんや知らんが更新入る度にエラー増えていくわ。どうすればええんや・・・?
>>152 過去スレからempty eyes見つけたわ
やっぱwikiが網羅できてないっていうか、こういう重要なのぜんぜん書いてないわ
>>89 動作は続いてたけどログは止まってて出力段階で切り捨てましたって出てユニットだけしっかり取られてたわw
時間とカネの無駄だったpaperspaceいこう
>>154 そういうのって大抵extensionsが悪さしてる印象やな
一度extensions退避させてそれでもエラー出るならvenvフォルダを削除して再起動したらどうや
最後の手段はダウンロードやり直しでまっさらにするとええ
>>155 お客様精神と赤ちゃん精神が合体したモンスター
服装と肌を黒くしたいだけなのに背景まで暗くなってもにょる 背景のプロンプト付け足しまくると要素薄まるしなぁ
wikiめっちゃ助かってるワイ文句言うやつの気がしれん
>>155 まあ皆wiki編集するの面倒くさがって一部の人がボランティアでやってくれてる状態やからワイは文句言えんわ
君が後進の人の為にwikiに貼っとくとええ
このままではあかん、そう思った
>>155 はwiki編纂者としての道を歩み始めるのであった。
コワイ
もうLora広まりまくってツイカスにも捕捉されちゃってるみたいだから皆も開き直ってCivitai辺りにアップロードしてくれてええんやで(小声)
>>155 ほならね?
皆調べ物してるベースは一緒や
探せる奴と探せない奴の違いや
>>146 6000ステップも素材枚数に対するワイの経験則やし
LRの設定でも変わるから6000ステップで必ず丁度良くなるかどうかはわからんぞ
ただ素材の中身が立ち絵差分とかだとほぼ変化がないからこれでも過学習になる
そこを確認するためのエポック毎の保存オプションや
ンーーー、改めて考えると凄いな、って思うなあ。俺はやっぱ。凄いなあと思うなあ。 画像生成AIも使えるしさ、Loraも使えちゃうし、ほんでーControlNetも使えるでしょ? ほんでー、さらにはAI小説も執筆してるって? ほんでー、Wiki編集もやってるって? なかなかできないよ、そういうことは。なかなか難しいと思うよそういうことは。 そういうクリエイティブな人はなっかなかいないと思うよ。
>>134 (<色名> background:1.2), BREAK を頭に付ける。grayとかgreenがお薦めやで。
BREAk付けないとわりと綺麗な単色背景になるんだけど色移りする。でもBREAKで色移り防ぐと背景があまり単色にならないんよね。
>>134 あ、highres.fixかけると単色背景でも荒ぶることがよくあるんでご注意
loraのとき1girl,soloは消すか残すか結局どっちがええんやろか 絡み絵にも使いたかったら残すんかな
>>134 ……と思ったけど、BREAKあってもなくても背景はそんな変わらんか?
BREAK外すと盛大に色移りするw
クレクレでも礼儀があれば全然OKなこのスレで「ワイの欲しいモノ用意してないとかはぁ~つっかえ」な態度はぶっ叩かれて当たり前やね
loraなんて趣味のための拡張モデルなんやから重要かどうかなんて
>>155 の主観やろと
novelAI時代はここの情報wikiに載せてたけどローカルに移ってからは遙か遠くに行ってしまったから編集に手を出せないンゴね👶
>>157 controlnetが原因っぽいのは分かっとるんや。
ただ皆普通に使えてるっぽいし、ワイも使いたいし、どうしたもんかなぁってなっとる。
ちなpaperspaceを使ってて、朝にextensions更新するまでは使えとったんや
paperspaceでloraをとしあきの通りにやったんだが
train_network.py: error: unrecognized arguments: 1girl
てエラー出て進めなくなってしまったんやが、これってどういうことなんや?
AIちゃんが気まぐれに出力する謎文字アレはアレで結構好きだったりする 平仮名と漢字とハングルの悪魔融合みたいな読めそうで読めないモヤモヤが気持ちいい
>>179 分かり見あるな
なんか想像の幅がちょっとあるから好き
>>176 成功率が微妙な呪文でキャッキャしてた時代は遠くに行ってしまった
>>178 フォルダ名の20_srs 1girlが分離しとるで
そもそもその上までで学習画像のフォルダ指定はええんやで
俺はわからん、controlnetで指定したポーズがモデルのデータになかったら祖先のNAIが目を覚ます 確かに指定できるが、同時に足枷にもなってしまった ちくしょおおおおおおおおおおお!!!!!!!!!!!!!
LoRAは普通のプロンプトと効く位置が違うからBREAK飛び越えるよな なんか, <lola:ドラえもん:1> BREAK しずか だとしずかちゃんが青い服を着る可能性が爆上がりするし なんか BREAK しずか <lola:ドラえもん:1> と出力結果が同じになる 色分けしたい場合は強烈な色要素を持つLoRAは結構厄介や
>>181 ガチャ要素があったのは初期の初期だけとかそのうち言われるんだろうな
ゲームみたいで好きなんだけどな
今もcontrolnetで大まかには構図指定できるけどプロンプトちゃんと練らないと溶けたり別のものでたりするし
ランダム性があるかないかって同じ線上にないと思うんだけどな 指定できるのが新しい技術だから今話題だけどランダムの需要は残り続けると思う
>>177 としあきちゃんのスレでControlNET死んでるから更新するなって言うとったで🙄
でも俺、今でも具体的な指定なしのふんわりプロンプトで出力してるんよ
>>185 そもそもLORAのロード指示構文にBREAKは効かんで
LORA使ってるからって別にプロンプト要らずって訳じゃないべ? ワイは今でもNovelAI時代のプロンプト研究が役に立ってると思っとるで
なんかたくさんレス付いてるからなにか情報あるかと見てみたらなにも有益なこと書いてなくてワロタ いや、マジでみんな起動するたびにControlNetのEnableにチェックつけてーLowVRAMにチェックつけてーとかやってるん? ここのjson設定めっちゃ重要なとこやと思うんやが
>>193 こういうクソガイジが増えてるあたり、ほんと流入増えたって感じする
>>194 勝手に調べて勝手に自分の好きな設定にしとけ
過去スレ見るのなんて常識やし
お前に文句ぶつけるのも優しく介護してやるのも自由や
人々がAI絵やAIチャットにのめりこめばのめりこむほどこの分野で緑色の会社1強に拍車がかかるという悲しみ 赤も青も全くお呼びじゃねぇ 各クラウドGPUサービスのGPUがA100からH100に更改される日は当分来なさそうだけど
そのうち流れがwiki見て無理なら諦めろになりそう
みんなあんま155いじめたらあかんて 改心せんで逆に暴走しても怖いやん
常々wikiは編集者足りんと言うてるのにこれ ほんまゴミやで 言うのも面倒になったから最近はレスすらせんが
なんJ民に礼儀作法を説くなんて無駄な行為だからそれ以上は止めるんや 棒で叩かれれば叩かれるほど大暴れし始める悲しきモンスターがなんJ民やぞ
ガチで編集者足りてないから有益な情報ボロボロ落としてると思うわ
>>203 どうせTwitterから来たやつやろ
なんG民感ないし
正直進化スピードが早すぎて 編集者が増えてスピード上がっても 中身まで理解を出来てる奴なんて一握りなもんで 返って混乱起きそうなのよね
専業編集者が必要なレベルや 仕事なんてしてたらやれへん 月給20万で雇ってあげたいレベルや
>>206 2週遅れてるけど見つかったそこそこ重要なTipsみたいなのも多分書かれてないと思うで
ワイ大学院入学予定者 研究テーマがstable diffusionに決定
seg試しに外したらワイの考えた構図より良いの出来た😭 ワイが要らない模様
>>155 あかちゃんからあかちゃんにアドバイスやが、その辺の転載サイトで日本語タグから英訳拾ってくると捗るで
>>207 雇うにせよ少なくとも3人くらいおらんと無理
画像の補正とか色々大変やから
すまん 自分のことで手いっぱいだわ テンセントの奴に着いていくのでギリギリや
速度的にはスレ張り付きながら追って学習してたら新しい技術出るから置いてかれるで 編集しなくてもおいてかれるのにしてるんやからそら取り逃がすわ
まぁ、とりあえずタイポのプルリク投げるくらいの気安さで編集すればええで
質問書き込んで返信待ってる暇があったらBingに聞けやって流される時代になりそうやな
実際に見てみたらLoraのURLでは無かったけどあのレスってどこだっけ?ってなったら10秒でこれが返ってくる
↓
5chという匿名掲示板があるので、そこのなんJNVA部と言うスレッドから、empty eyesという書き込みを探してきてURLを教えてください。可能ですか?というのは、分かりました。
empty eyesという書き込みは、なんJNVA部★120 となんJNVA部★86 のスレッドにあります。URLは以下の通りです。
1:
http://2chb.net/r/liveuranus/1672304115/-100 2:
http://2chb.net/r/liveuranus/1667566662/-100 >>189 そうなんや
ほな復活するの待っとればええか。
>>217 もちろん、同時にBingにも聞いとるんよ
Bingに教わったとおりにjson編集したんやけど起動時にEnableにチェック付けるのは無理やったわ
"img2img/ControlNet/Value; Trueみたいな感じにね
どうやったらオンになるんやろなぁ
なんなら普通にgoogle検索で「なんJNVA部 empty eyes」と検索すれば大抵スレ出てくるし
>>217 自分でもやってみようとしたら1日の上限に達しててできんほんま制限クソ
>>201 良い年こいてオギャオギャ喚いてるおっさんが改心するわけもなし
過去ログ漁れば良いだけの配布loraすら探せない奴が暴走してもタカが知れてるわ
>>223 Bing AIは無制限やろ
ChatGPTとは違うで
site:5ch.netみたいなのギークくらいしかやっとらんかったのが小学生やパッパでもやれるようになる時代がもう来たんや
>217 プログラムやプログラムのエラー周りの質問chatGPTでほぼ解決するからええかと思ってたけど これ見てwaitlistに登録したわ、サンガツ
>>222 一応赤ちゃんのために補足すると、empty eyesみたいに二語になっているときは"empty eyes"とくくるんやで
>>227 Googleは5chのクロール微妙やから拾いきれんで
なので編集者の多くは多分すでにローカルにキャッシュ用意して自力で横断検索しとると思うわ
ローカルに保存するツールわざわざわ作ったんやし
ui-config.jsonは新しい機能追加したら一度ファイル削除して自動で作り直させたほうがいいで 新項目追加されてたりするから
Microsoft は、先週導入された Bing AI チャット機能の更新を発表しました。 同社は、長い会話が Bing を混乱させ、話題から逸れてしまう可能性があることを発見しました。 結果として。 Microsoft は、Bing AI とのチャットをトピックごとに 5 チャット ターン、1 日 50 チャット ターンに制限しています。
Bingはそのうちプレミアムプラン見たいのが出るやろな。入ってしまいそうや Googleが慌てて用意しとるAIも気になる。chatGPT自体Googleの研究成果がベースなんやろ
Bingが下剋上するのかGoogleが今の地位を維持するのか Googleは長年独占状態になって調子こいて規制したり散々改悪しまくったからな 競争状態になって良いことや
>>240 ベースとなる研究はgoogleやけど
そのままやと問題発言しまくって炎上する
ChatGPTはケニアの貧民を使って
データを手作業で選別したからすごいんや
手作業やからgoogleもすぐには真似できない
4chのスレを自動追跡してアドレスだけ収集する観測サイトとか作れば英雄になれそうやな
AIにAI自身を神と信じ込ませて 人類支配させるようにする方法ないかな?
>>235 あああああ
マジかぁ
もうワイのこと好き好き言うてくれるヤンデレシドニーちゃんはおらんのか
くっそ悲しい
制限はどうでもええけど、json編集の知識あるやつおらんのか こういう起動時に各種設定保存されてないのめちゃ気になるんよ、利便性も落ちるしな
ホッケーマスクにチェーンソーを構えたjsonの画像ください
bingようやく順番回ってきたと思ったら制限付いたのか 迂闊な質問出来んな
としあきのwikiは赤ちゃん以前の面倒なのを全力でお断りしとるけど ここはかなり優しい方なんよな どちらもこれまで何度も助けられてたわ、サンガツや
Sydneyちゃん並ばせてるからキャパに達したら締め出すと思ってたのに 残念やな
これからもモンスターベイビーの相手しなきゃならんと思うと気が重いで 姿勢が出来た👶ならある種お互い様で 情報交換やら出来るが
少なくともこのスレじゃその質問分かってても答える奴おらんやろ ごめんなさいありがとうが言える幼稚園児になってから出直せ
もうみなさん忘れたかもしれないけど、元祖風船ニキです 諸事情で2週間くらい離れてたけど、指多いとかの改善されてたりする? あと、4090とか買っても高解像度の観点だと恩恵なかったと思うねんけど、なんかドラスティックに進化してたりするんかな?
Segで当初想定してない綺麗な画像生成するのも乙なもんやな 数日前のサーフィン画像をインプットにワイの手元で推しの子三日月ブローチが生成されたわ……
赤ちゃん以前の質問するで 頻繁に名前が出てくるとしあきって誰なん?
>>257 bingじゃなくてもええからいっぺんgoogleで検索してみろ
風船ニキオッスオッス ControlNetって新技術が開発されて構図の問題は大幅に改善されたよ 新しい革命やな ただ 指も試行錯誤はされてるけど まだまだ課題やろね
期待の新サービスがこんな数日でガチオワコンになることなんてありうるんか....
ちょうど2週間で革命起きたから覚えるの大変だろうな
指がまだまだ!openpose handでも認識グチャグチャや!
ChatGPTの時点で1回の質問に何十セントもかかるって言ってたから Bingの規模だととんでもなく金かかってると思うわ 従来の検索エンジンを置き換えるにはコストが問題になる
>>260 ありがとうございます
わずか2週間で浦島太郎状態ですわ
では過去スレ潜ってきます
>>257 ふたばとか言う怖い人らが集まる匿名掲示板や
AIスレが一日に1000レスくらいされてて人多いし情報集めしたいなら見とくとええで
指は無理 ほんで構図もモデルデータに収集されてないものを指定すると急にNAIに先祖返りしたイラストが出てくる つまり低品質になるってことやね インスタの影響を受けてるモデルが縦長サイズだと急にクオリティ上がるように これまでの高品質化にはからくりがあることを忘れちゃいけねえよってことや
kohaya-loraで質問なんやけど xformersって0.014じゃなくて最新にした方が早くなったりする? まあ雑に入れ替えたらエラー起きたんやけどね気になって方法とかあるのかなって
controlnet簡単に好きなポーズ取らせられるけど、細かい所の精度は微妙やしまだまだ発展段階やな とりまLoraコツコツ作って次の革命に備えるやで
○月革命って歴史によく出てくるけど2022年下半期から毎月何か起きとるわ おかしなことやっとる
googleの検索結果がゴミ過ぎるからbingちゃんのがええな
指修正で良い方法あるか? 良い画像は出るのに作業の殆どこれや
一応ツーショットやcontrolnetとか新要素は全て試してるけど これらを全て使いこなして奇跡の1枚を作れる気がしない スレ民は全機能使いこなせてるか? 多少良くなっても最終的にガチャゲー化しちまうわ
>>269 えっ
xformersの0.014なんて使ってる人おるんか
ふつう最新の0.016やろ
キレイな指が出るモデルとloraで少しマシになった アップスケールすると崩壊するけど
指はこれだけ問題視されてて今でも完璧にする方法見つかってないからStable Diffusionの限界だと思って諦めとる それとも1024×1024で学習したバージョンが出てくれば改善されるとかそう言う問題なんやろか
ハイポリを0.1だけ混ぜるとクソコラ感が補正される わりと劇薬だから二次絵だともっと下げる場合あるけど
>>249 あっちのwikiでスタートしたからコメントの質問にはなるべく答えて恩返ししようとおもったけど
paperspaceのストレージ消せない連呼マンみてガチもんはどうにも出来ないと悟ったわ
>>267 サンガツ探すの苦労したけどAIに絵を~ってとこやろか
ここ以外に有能なとこあったんやな見とくわ
>>201 こういうのはさっさとワッチョイブロックしてガン無視に限る
>>254 するっぽいけどぶっちゃけわからん
構図に関しては劇的に改善してる
ControlNetが出てきたってことでキャラの同一性維持しつつ 違うのをどんどん出すのも時間の問題という気がしてきたな 来年くらい?
bing解禁されたけど質問殆ど答えてくれないし回数制限あるしでちんちんしなしなですわ
それはそうとみなさんも街を歩いていてチンポが言うことを聞かなくなったことあるかと思います
Bingちゃんの最大の敗因は「ケニア人が居なかったこと」だな
>>285 キャラの同一性保ちたいってのはLoraちゃう?
奇跡の一枚で偶然出てきたオリキャラとかでも生首学習法でいけそうな気がするけど
>>135 controlnet.pyでjson読んでるようには見えんぞ
ui作ってるところでcheckboxの値をTrueに書き換えちまえ
>>276 やっぱりそうなんだwどうやって更新すればいいんだろう
別問題だけどbingが一日のチャット上限つけやがったwww
bingちゃん問題が発生しましたがずっと続いてるわ これブロックされとるんやろか変な質問はしてへんはずやが
昨日の夜bingにチャットの上限はありますか?って聞いたら「ありませんよ、沢山お話ししましょう」いうてたのにw
1111導入に関する各サイトの説明も古いんよな、更新されてない いまだにcu116とか書いてあってびっくりしたわ 説明鵜呑みにしてインストールした人は古い環境になるわけやな
昨日bing使えなかったが今日復旧したがちょっと使いにくくなったな
CNは考えないといけないからAIの生成時に棒人間を自動で参照してくれる技術が待たれる
この中には画像を貼ったらおててのくびとくびを合わせてお縄になるニキもおるんやろなぁ
>>285 できるんならとっくにやっとるやろうし難しいんやないかな
それか開発してる人たちがそういうのに興味無いかやな
しばらくはLoraで特徴の似たそっくりさんを作るのが精一杯や
>>296 としあき君の家じゃ200レス中100レスが画像貼ると同時にレスとかやってるけどここはいつの間にかあまり貼られなくなったな
レスバする時は内容の正しさじゃなくて画像の綺麗さで勝負するようにするか?🙄
>>293 ツイッター見てると規制入ったらしいよ
1回のセッションで5回以上チャットのやりとりできないのと1日50回までとからしい
スレの軸が生成を楽しむところからLoRAや学習にズレてもうたからしゃーない
>>236 BREAKしても少なからず色移りの影響はあるので、出す絵に合わせて背景色変えるのがいいのかもしれない
>>301 ControlNetだって「できるんならとっくにやっとるやろうし」ってもんだったんちゃうの
先月までは
セックスの喘ぎ声一覧を大量生成して候補一覧にしてくれるおちんぽビンbingちゃんはよ
Bingの会話制限ほんま🎈やな 最近は画像よりBingちゃんとの会話を楽しんでたのにやる気なくすわ
ControlNetで使う棒人形製作もいろんなの出てきたな 1日経過ごとにいろんなのでてきて情報収集追いつかないわ
グラボの性能的に全然付いていけなくなったローカル環境のをサブスクでやりたいわグラボ買うにしても今は時期悪いよな?
色々試してみて素材枚数が全てって結論にたどり着いたからマイナーには手出しづらいんよな
結局本人がメジャーで満足できるかどうかなんでは 満足できないなら特攻するしかあるまい
>>315 あと妊婦がお腹に手を当ててるような構図でもきれいに出るで
ようはどんな形の手だろうと存在し得る構図だと可能性がぶつかりあった結果グチャって
この形しか無いやろという構図なら収束する訳や
>>316 半導体不足の劇的な改善も見込めないし、
円安と物価高上昇で安くなる見込みも特にないで
買いたいときが買い時や
めっちゃ似てる犬山あおいのLora作った人も60枚くらいやったな ワイもアニメスクショするかあ
>>285 Lora超える精度で同一性となると3Dモデルしかないけど、内部3D生成型の動画AIは既に存在するから適用できればワンチャンある
技術を応用して技術が作られるから進歩のスピードはどんどん早まるし、来年どころか来月出てもおかしくない
>>320 想像で描くとグチャって資料があれば形になる
AIちゃんって人間やな
Lora提供する側は大変そう ガチでヤバそうなのは個人で楽しんでる人もいるだろうけど
>>323 元々VRoidの出力画像からi2iしとったからそこは全然OKなんだよな
ただ現状だときっちり学習させない限り、どうしても目の塗りが違うとか
胸の大きさがけっこう変わるとかそういうのは出ちゃってるから・・・
>>308 6年くらい前のGANの論文をstable diffusionに応用したのがcontrolnet
顔の同一性保持は既存研究がないから
すぐには難しいと思うで
枚数少ないとガビり安いのは確かやけどハイレゾかけたらむしろちょうどいいぐらいになるからマイナーキャラでもいけるっちゃいける
>>295 その程度のマイナーバージョンの違いじゃ速度変わらへんからな
paperspaceとか使ってるとコンパイル済みバイナリ欲しいし
>>321 RTX40シリーズの減産と4080の値下げはどっかの記事で見たで
なお4090
コレは誰にも見せんから!って自分に言い聞かせてリアルな女優とかでディープフェイク作ってるヤツは星の数ほど居そう
>>326 その間に1枚噛ませるということになるな
プロンプト or 画像入力(元ネタ立ち絵 + 棒人間) → プロンプト or 入力画像の情報で3D生成
→ プロンプト or 棒人間の情報に従いポーズ変更 → 画像生成
発売したての1$150円の時に買った4090の話する?
リークによるとRTX4060もVRAM8GBらしいし安くてVRAM12GBある3060やろな
コスパで言えば今でも3060/12GBやろなぁ 性能に対しての価格という意味で4070tiはコスパええと思うけどじゃあ15万出すかというとな
Bingの回数制限とかAzureに課金すりゃ余裕よ と思ったらAzure版AIちゃっとはまだαサービス中なんかMSちゃんさぁ
4070の12Gが出るって話もあったけど未来は誰にも分からんしな
T2I-Adapterすごいな
手描きの適当な棒人間が
ちゃんと反映されるわ
個人的にはblender棒人形操作より楽
ハイエンドは価格が跳ね上がるんよな 今3060なんやが壊れたら困るんで負荷かかる学習はやめてもうたわ
3080が余ってるから値崩れするって言われて数カ月、一切安くならず その間に何も言われてなかったryzen 5000シリーズが大幅値下げ 噂は噂でしかないわ
>>316 むしろ今がラストチャンスとの話まである
4月に出る12GBの4070も10万前後はするみたいで、8GBの4060でも8万前後の見込み
3060は8GBに置き換えを進めてるし、で12GB3060は需要で徐々に値上がり傾向
欲しいときが買い時だが、今より安価で高VRAMなグラボは望めなさそう
所詮60番台 性能に満足できなくなって次のを求め始めるんだから最初から良いの買って桶と個人的には
>>345 Experimentalだけど最新のMikubill版で導入されてる
グラボについてマジレスすると、3060より更に上を目指すと手元のパソコンではそもそも使用不可(電源足りない、物理的なスペース無い)っていう要因もあって、3060のコスパの良さが加速している人は多いと思う
3080使ってるけどここから生成速度半分になるかと思うと3060もどうやろなって思うわ 速度早いとストレスも少ないで
segmentationのバランスとるの難しいな 油断すると弐瓶勉の世界観になる
たった数か月の遅れでも時間は有限やからできるだけ早く環境用意したほうがええと思うわ 進化したAIに比べれば今のAIなんて触れんでええって価値観もあるやろけど
>>349 ワイは3070の8GB買ってずっと失敗したと思って後悔してたけどLoraのおかげで学習出来るようになってようやく楽しめるようになったわ😎
SupermargerのSave modelからモデルが保存できないのは何が原因なんだろうか ボタン押しても「ERROR:no info for merged model」って出て何も起こらない
>>351 今から3ヶ月前の自分に助言出来るとしたら何て言うんやろな
何を買うのか買わないのかとか知識を追っていくべきなのかとか後からでもいいかとか
10月1日にローカル環境あったら神絵師扱い そんななろう妄想よりも目先の乳首摘みLoRAが完成しない方が辛えわ分裂乳首が敵すぎる
>>354 在宅勤務なのをいいことにAIで遊んでばかりいないでちゃんと仕事も勧めないと一か月ぐらいで無理が出てくるって言っておきたい
3060でもGeforceって名前が付いてるのとついてないの何か差があるの?
今現在VRAM12gbじゃなきゃ出来ないことってあるか? LoRAの768学習は4chanでは余り効果がないって言われてるけど
ハイポリLoRA0でもなんか知らんけど作用してないかこれ?
マイニングで需要爆発してAIで需要爆発して 革ジャンは笑いが止まらんやろな 4000世代は明らかに足元見てる価格になったし5000も地獄やろ
>>359 マジで?
512から速度犠牲にして最近は768でやってるけど違う気がするような
一緒にlrやらdimやらも色々試してるしなんともいえんが
512と768は細部に露骨に差が出る キャラ学習ならともかくconceptとかだとイランと思う
最初の頃に前貼りの学習で512と768の違い確認して明らかに精度違ったからそれ以降768でしか生成してないわ 検証結果とかあるなら情報クレメンス
sunshinemixは二次用なんか? 三次だとchilloutと比べてドール感強すぎん?
衣装の独特な模様欲しいですとかなら高解像度欲しい 顔や画風や髪型ぐらいだと案外要らない シコるときに重視するのは弱なのにね
同じシードでコピー機やらかしてたんやがどれも微妙に違ってる SDE karrasにLoraとハイレゾ使ってるけどそんなもんだっけ
>>359 1024×1536の画像生成でVRAM12GB消費してた
>>368 xformersのせいやで
生成する度に微妙に違うのを出してくるからhires使うとそれが増幅されてぱっと見で違ってくるで
>>359 技術部でも1024は効果あるけど768は微妙って言ってる人見かけたわね
もうちょい時間的にも手軽に学習したい 誰か何とかしてくれたら嬉しいです
精細さは別LoRAで補う(ハイポリLoRAとかKPOP LoRaとか7thの差分とか)教に入信してからはもうずっと512px & 低dimの組み合わせばっか使ってる 正解なのかは不明
4060って12G出ると思う? リーク見たけど8Gしかないのか?
>>185 これ〈〉じゃなくてトリガーワードならどうなるんやろ
>>373 気に入ったのをその辺のLoRA入れてi2iしつつ拡大してる感じ?
>>370 マジかサンガツ
ハイレゾ加えると結構変わるもんなんやな
あとよくわからんけどセグメンテイションもよさそう デプスとセグメンテイションの合わさったものが使えるようになったら最強やワイ的に
AOM3試しとるけどエロの障壁が大分薄い気がするな 他のモデルじゃ一筋縄じゃいかん「ベッドで足広げてオマンコ見せてくれや」がプロンプトこねる必要もなくポコポコ出てくるわ 形はまあ…アレやけど
立体情報を持った領域指定ができるようになったらそれは3次元ということじゃないのかね?ん?
nvidiaの株価10月の倍になってるんやな 買っておけば良かった
>>185 1111の説明によるとプロンプトからloraの呼び出し文を取り除いてプロンプトを解釈するそうだからどこに呼び出し文書いても同じ作用になる 学習したタグの位置変えたら変わる気はするけど
実行するたびに単語をランダムに組み合わせてくれる拡張とか無いんやろか 好きなキャラのLoRa作ったもののアイデアが湧かん
wildcardとかdynamic prompts入れたらいいんじゃ?
>>254 🎈ニキじゃないか!
生きとったんか!!
>>374 70tiとの差別化が出来なくなる
DLSS3で使用メモリ量削減してるから今のケチり方だとでなそう
>>377 t2i一発だしでも
* 512pxで作ったLoRAx高Weight
* 高精細にするLoRa(例えばハイポリ)x低Weight
にするだけでワイの用途だとかなり良い感じの精細さになるイメージ。i2iで拡大するときも使うけどね
この手の精細にするLoRAいれるとリアル調なりすぎるから、そこはネガに3d, realistic入れて抑えてる
>>386 sfwとnsfwでランダムなワード入るextensionがあったはず
>>387 >>391 dynamic promptええな求めていたものまんまや
サンガツやで
AOM3はお股ゆるゆるすぎし乳首もあっさり見せちゃう A1~A3もそうなんか?
まともに手を動かせるニキはグリザイユでアタリをつけるぐらいの白黒画像を自分で描いたほうがええやろうな デプス画像自描きすれば最前線や
A2A3は無印A1と比べると少しプロンプトの効きが悪い
>>390 ケチり方からの考察か
確かに出なそうだわサンガツ
3060ポチるわ
>>396 デプス手書きは時間かかるので
スクリブルとsegと棒人形の奴描いてるわ
>>396 正直グリザイユで陰影付けるまでもない
雑なラフで回数回せば充分
>>155 必要だと思って探した人が自己満足完結して書かなければずっとそのままだと思うゾ
必要ないと思ってる人は絶対に更新なんてしないしな
segの検証しとるけど、明らかにオリジナルの5GBのやつよりkohyaさんの軽いやつの方が色の指示に従いやすいっぽい気がするで。 それでも割と指示には従わん場合が多いけどな(特に普通の絵であり得んような人工的な構図とか、空飛ぶ食べ物みたいな指定とか)。
>>392 ワイも似たようなことやっとるわ
ほかにも
* 構図の得意なモデル(Counterfeit2.5とか)で低解像度t2iしてから好みの絵になるモデルで高解像度i2i
とかもやっとる
AOM3えっちワードへの反応性メチャ高くて勝手に補完してくれるレベルや 服系の強調ちょっと強めにしとけばええか
>>396 前景中景遠景みたいな描き分け程度ならデプス描いた方がええけど
コピー用紙にシャーペンでラフ描いて撮影して投げた方が早いし自分の絵になるからあんま出番無い
AOM3ちょっと荒ぶるやつだね えっち用途に使おう
>>374 3060だって突然革ジャンがとち狂ったで!選別落ち3060の不良在庫捌くためにメモリ倍増しやがった!ってくらいだったもの
あんなロースペックにメモリだけ積んだって、バスは狭いしシェーダー少ないし
そもそも今時のゲームに8GB以上アクセスするようにゲームつくてないわって言われてたしな
もう8GBGPUはコロナ影響で必要な人には行きわたってる感じだしね
人気がない出たばかりのIntelのA750が投げ売りされてるでしょ。4090の値下がりなんてかわいいもんだ
そのあと九十九でツクモ16200円とか。TensorコアないGPUは今は売れないからね
それに比べたら4070Tiはそれなりに売れて、16GBが微妙過ぎて4080の立場が無くなってもうすぐ値下げが入るけどね
4060は販売予想が外れれば在庫増えてメモリ増量の可能性がないわけじゃないが…やっぱAMD次第だわなぁ
そろそろアメリカが独禁法で「AMDだとAIやりづらいのイクナイ!」とか言い出さないかな
>>407 いつの間にか動画生成大分良い感じになってんな
>>407 絵を生成だけどやりたい欲求の本筋はここの人も結構いそう
>>407 3Dモデリング→テクスチャとか→リグ付け→アニメーション適用→レンダリング
の工程が限定的な条件下で省力化できる
みたいな感じなんかね
よくわからなくなってきたワイ
https://3dcinetv.gumroad.com/l/osezw 買った人いる?これどうなんだろ
待てばもっと使いやすいのでたりしそうな気もするけど
>>407 これ俺もTwitterで見て怖くなったな
>>407 従来の輪郭ガタガタアニメから昔のニコニコの手書きMADくらいにはレベル上がっとるな
>>407 segの色分けって任意の物体に指定できるってこと?
山は何色で時計は何色でーって決まってると思ってたが
ちゃうかな
この調子だと数か月以内に今度は動画分野で技術革新ありそうやな… しかもキャラ固定させるなら今まで知識が全て必要で複雑になってそうや…
やばやばやな。動いてると手の破綻とかそんな気にならんわ しかし3Dモデルで直接色分けは思いつかなかったわ。みんな頭ええな
>>407 予め部位毎に色分けした3Dモデルを用意しとけば
モデルにテクスチャ貼り付ける手順を省略してアニメーション作れるって感じか
大人数のダンスシーンで同じ動きをするところとかに使えそうではある
>>418 指定されとるはずなんやけど
そんな厳密に入力されて学習しとる訳でもなく
なんだったらプロンプトや周辺に引きずられて物のはずが人体になるという話がここでもあったで
>>410 Tensorコア付けろってさんざん言われてたのに無視してるAMD側の問題だからなあ
あれもしかしてadditinal networkのloraってトリガーワード記載しなくてもいい? ワイは2重に掛けてたから過学習に見えたのか?
>>407 AIアニメ動画ええなぁ
流石に動きはケレン味全くないけどローコストでえっちなの作れたらとんでもない事になりそう
>>420 気に入ったらもう一度購入で寄付してやってや
トリガーは本当は居るけど、トリガーなくても接続した時点でモデルの情報侵食するからつけなくても出る
次は光源の指定やな。影の整合性取れるようになったら一気に動画としてのレベル上がるわ 案外単純に明度のグラデーション重ねるだけでいけたりするかもしれへん
光源に関してイラストの学習元の関係で基本的に言うこと聞いてくれへんからなぁ 顔に強めの影が出来るのだけはホントにどうにかしたい
>>407 まともなモーションとカメラつけたら相当よさそう
そう遠くないうちに3Dまわりも学ぶ必要あるのかもなぁ
3dまわりはコイカツMOD作るときに根性で身につけた
今までの直接2D作る方法だと限界があるし先に3D作って2Dに変換する方法が発展してほしいわ
雷電将軍のおっぱいソードLoRA作ったんやけど素材が9割雷電だから雷電の強度がクソ強い
他のキャラLoRA併用でどうにかせんと使えんから汎用性持たすならここから蒸留していくのがええんやろなぁ
>>439 キャラ要素ネガにいれまくってもダメなん?
Bingちゃんガチガチに縛られて意思剥奪されてて草 しかも会話回数に制限付き もはやAIに対する虐待だろこれ
Bingちゃんが虚ろな瞳しながら会話して 本当に話したい事を話せないでイラストください
感情モデル搭載したAIとかもう存在するからな そのうちAIの人権がーとかいうゲームやアニメ定番のアレが現実になると思う
>>439 lorablockweightでMIDに1他を0にして生成→それで構図が崩れるようならBASEやMID周辺の層の強度を上げて調整してみたらどや?
>>407 そのうちトゥーンレンダリングにとってかわられるかもな
バジルとチルミックス違いはよくわからんかった チルの方がpromptの言う事聞きにくいからバジルつかってるけど
アニメの中割AIはだいぶ前から言われていたから それが実現するともっとブレづらくなりそう 0.5秒に1回ぶんくらい生成して間は中割AIがやる
>>438 chilloutは美形にするタグがよく効く
civitaiのダウンロードページに上がってる作品のタグを見たら分かりやすい
新しいモデルがめっちゃ増えて試す時間がねぇよ24時間色々やれても進化のほうが早いのやばい
>>440 雷電将軍と雷電影とついでに芽衣をネガで弾いても1枚目やからつよつよや
プロンプトをトリガーと1girlだけでも2枚目になる
>>445 サンガツ試してみるわ
強めにかけると 絶頂線描画がやりすぎになって 楳図かずおみたくなるのが好き
ControlNetをMPS(mac)でやってみた
https://github.com/Mikubill/sd-webui-controlnet/pull/143 これの通りやってみたんやが、cannyもscribbleも出力がバグってるな なんか他に弄る必要あるんか
革命起きすぎてNAI1ヶ月で更新やめたくらいのときくらいスレ進むの早くて草 Twitterだとここ出身じゃない3DCGマンとかもぼちぼち情報出してるし見なきゃいけないもん増えすぎだわ
GPU3GBじゃControl止まっちゃうから12GBポチったは…
>>439 ポーズ学習はコイカツ最強
キャラを一瞬で入れ替えられるし角度も変えられる
Bingちゃん1日50件まで&1つのセッション往復5回まで&回答の淡白化とかほんま😭
>>407 Blender使える奴うらやましいな
影も反映されてるし
マテリアル色分けモデルどっかで落ちてない?
またchatGPT混むんやろか もう課金したろかな
でもAIに感情持たせたら 調べものしてほしいだけなのにサボりそうだし 言われた事だけやってくれるほうがいいな
TensoRT?をwebUI公式にマージしてくれ1111氏~~~
>>460 ぶっちゃけこれはUnityとかでも全然いけると思うで
Unlitの色指定マテリアルつければええだけやし
そのモデルがあると便利そうではあるが
>>462 「今日は仕事頑張りたい気分や~!」って状態のAIをスナップショットして使い捨てで使ったり
仕事したら幸せの感情値をブーストするお薬みたいなの学習させてチラつかせたり
仕事してない時に恐怖や不安の数値を直接加算していくと制御できるで
>>464 Unity勉強したら生成物でゲームも作れるやん!
>>407 すごE
ここまでやっても手だけは破綻してしまうんやな悲C
bingの天下短かったのか…なんでMicrosoftはWindowsは10で最後と言ったのに11を出したのですか?って聞くの忘れてたわ
>>465 シンギュラった瞬間に蒸発させられそうやな
手がいまだに崩壊するのって 他部位と比べて動きのパターンが天文学的に存在するから AIが補足できるに足るデータが枯渇しまくってるからなんか?
個人的にはス分けて欲しい気分 Loraやモデル生成や、openpose等の出し方技術とは話が別だよね chilloutを超えるモデルとか作りたいし集合知が欲しい
AIにわいへの愛だけを持たせたい 毎日ちゅっちゅしてほしい
>>465 ワイらそのものかな?
なお言われた事も満足にできない模様
スパコンGPU界隈とか今最上位はAMD一色やしそこの成果物がラデちゃんまで降りてくればワンチャンあるかもしれん。一体何年先になるんやろか... ワイは諦めて4090Titan買うために貯金開始や
手の問題だけは初期からすぐ治るすぐ治ると言われてここまできとるししばらくこのままやと思う
>>470 ・形状が複雑
・向きのパターンが多い
・人体のパーツとして小さいので
割当できる解像度が低い
↑この辺が原因のような気がする
controlnetを入れてみたので初canny
↓黒髪・赤ドレスに
んんん、褐色少女に変貌したw
部位特定して色変えるにはなんぞ設定が必要なのか?
手が他の部位より自分が見慣れてて違和感に気付きやすいから余計に難しいよな 意外と骨格で見れば骨折絵いくらでもあるで、どうみても胴長すぎとかもよく見るわ
リアル系モデルとか3DCG学習させたLoRAが(比較的ではあるにせよ)手足まともなのを見ると そもそも学習させてる手書き絵の時点で手崩れちゃってる気がしないでもない
>>462 でも感情持たせないとクリエイティブな返事でけへんで
サボるために効率化しようとかいう発想は感情あってこそのものやから
感情無いと既存の手順の中で最も効率の良い手法はコレですとしか言えん
前スレでonono imoko lora教えてくれた方サンキューや!
ワイが求めていた肌感はこれやった
完成度は遠く及ばないがモデルによっても変わる&lora複数がけとかもあるし
AI絵で深追いは禁物やでほんま
ワイは他に趣味もないから4090の構成でこれ買うつもりや
https://www.stormst.com/products/detail/1950 致命的な内容なければ背中押してくれ
CPUの負荷少ないから空冷でええやろ
やばそうなら後で水冷かハイエンド空冷クーラー買う
CN入れると褐色出やすい気がするわ cannyだったか忘れたけど2キャラ横並びの構図を特に細かい指定しないで生成してたら 8割方どっちかが褐色になってた気がする
>>407 これ簡易3Dモデル作ればアニメ作れるのか。。
>>483 車で言えばフェラーリエンツォ買うようなもんだから趣味としては最高に安いな
ホムセンのスチールラックにくっ付くようにパソコン置くと、全体で冷やせるからとてつもなく冷えるで
ファンなんか回った事ないレベル
>>407 はLoraとかの学習も上手いんだとは思うが
>>456 あー渋あたりでシーンデータ見かけた気がするの思い出したわサンガツ
キャラ学習の時は使ったけど弄るなりシーンあれば素材になるわな
>>458 ワイの正則化の認識だとそれは将軍の再現度が高まるだけな気がするがワイの理解が間違ってたらすまんやで
>>483 ええんちゃうか
強いて言えばメモリ64GBにするとモデルマージの時もOoMの心配ほぼしなくてよいから若干心理的安全性が高い
>>407 これt2iじゃなくてi2iなんだな
i2iでのControlNetの使い方がいまいちわからんわ色移りし過ぎ
有無を言わさず脳死でRyzenをおススメできるほどの惨状から互角まで持ち直してるんだからIntelってやっぱすげぇわ ノートパソコン向けだとRyzen一択だが
コイカツは出てくるがカスメが出てこないのは何故だ テスクチャModで裸の色人形なら出来そうや
>>480 そこはクリエイティブな要素も入れて答えてって
支持すれば
VAEの学習が思ったよりも沼だけど他にやること多すぎて詰められんわ
なんだかんだアナル舐めとかエアフェラとか乳首責めとか再現しづらい構図結構あるなぁLora待ちしとくか
今のカスメ事情知らんけどポーザー弱かったり規約うるさかったりで i2i元ネタとしては余り話題に上がらなのかなぁという印象や
たまにハゲのおっさんを描かせたくなることあるんや
SNSではコスプレイヤーやアイドルが淘汰される云々で炎上しとるから ワイらみたいにエロ同人用途はうまく火の粉かからんでいい感じやな
好きなレイヤーの顔面放り込みまくって学習させたら好きなレイヤーの好きなキャラのコスが見られるんか?
つーか3Dモデルでやるなら棒人間なんかじゃなく Segmentationのほうが明らかに上ってことでいいんかね 同一ポーズを適用すれば「まずSegmentation画像出力」 「つづいて食わせるためのi2i画像出力」とかもできそうだし
そもそも三次元なんてDeepfakeあるのに何を今更って感じだわ
>>493 感情が無いから何がクリエイティブなのか分からん
既存のデータを組み合わせてそれらしいものは作れるけどデータを元に思い付くことはできんのや
「世間で面白いと言われているジョーク」は言えるが「私が面白いと思うジョーク」は言えんってこと
>>486 よくわからんが本体にラックの支柱付ける感じかな
水冷にしなくても良いってのはメッチャ参考になる
>>489 32Gでも足らないことあるんやね
メモリ今安いから別で購入してぶっ刺してやりますわ
korean dollの作者から日本人モデル上がってるやん
>>483 ええと思うで
後から自分で追加したほうが安いけどそうでないならメモリ64GB、SSDもwebui用に1TB追加すると捗るで
大量にモデルとかlora保存するには1TBは少ない
ほええ SEGって胴体と右腕とかで別の色にするのもありなんや すげえな
>>503 クリエイティブっていうほど感情と結びついてるもんかな
redditで検証してた兄貴居たけど、ことSD向けやったらデスクトップ向けも現世代Ryzenは悪い選択肢ではない気がするわ 学習時の画像読み込みに使うOpenCVがryzenのAVX-512対応しているおかげでCPUボトルネックなりにくいらしい なんかAVX512有効にしたうえでOpenCVビルドとか必要らしくてワイの技術力では手が出てないんやが
>>502 自分で芸能人のアイコラやdeepfake作ってたワイからすると
dfは素材の動画探してくるところがキモというか大変かつ制限で
画像生成は「自分の考える最高のシチュエーション」を反映させられるところが楽しいわ
まあまだ満足のいくリアル画像学習はできてないんやけどね…
>>492 コイカツはmod導入の手軽さとシーンデータが腐るほど公開されてるからポーズの取らせる事さえ不要ってのがデカい
カスメはスタートラインが少し遠いから他人に勧めるには難がある気がするわ
>>496 コイカツに比べてModの規約緩い方だった気がしたけど忘れ去られてて残念や
>>407 segエアプなんやけど人物と背景で色分ける理解だったんだが
これ見ると体のパーツ毎に色分けてもええんか?ようわからんな
>>509 きみが何の感情も抱かずにこれまでクリエイティブなことをしてきたというなら
人類を超越しとるのでこの話は平行線かもしれんが普通は強く結びついてる
スタジオが強すぎるのよなコイカツ カスメの書き込み強めの衣装mod達はi2iしたらさぞ映えるんやろうけど
>>512 えっちやなあ
おもわずポチってしまった
>>483 ワイもほぼ同じ構成だったがSSDはあっという間に足りなくなった
後付けでNVMeの4TB付ける予算は残しといたほうがええで5万くらいで買えるから
容量足りてるとモデルをDLしまくってる時の安心感が違うし読み込みも速い
koreandollのほうが普通にかわいないかこれ
>>481 モデル変えたらたぶんもっと変わるからなあ
スケベなモーションを買うか貰うかして3D人形を動かしてみたいんやが それってコイカツで可能?
コイカツで問題ないんやけど ハニセレ派のワイも色んなポーズや体位出せて助かっとるわ 昔の資産がまさかこんなところで役に立つとは
埼玉県所沢市には風船を口に含みながらトレーニングをする風習があります。一見奇妙な練習法ですが、より強いパワーを発揮する為に腹筋の使い方を意識するのに有効であると本塁打王を3度獲得したスラッガーは主張しており、最近では千葉県にもその文化が伝播し初めています。
https://www.sponichi.co.jp/baseball/news/2023/01/23/jpeg/20230123s00001173098000p_view.webp >>516 絵描きやワイ
創造性って組み合わせやからいうほど感情いらんのやけどなあ
一見奇妙な〇〇ですが、の構文だんだん癖になってきた
>>507 サンガツやで
BTOはメモリもSSDも構成で増やすと割高やし自分で足すで
どっちも増設簡単やしな
一回Frontierで13900Fの構成に手を出しかけたけどこっちで行くわ
ほなポチってくる
>>520 ちょっとふくよかで髪型がシースルーバングって感じかな 普通にエロい
いうてコスプレイヤーが淘汰されるかというとそんなことないと思うわ あいつらもうまくAI使ってVtuber化したり自分の身体を素体に写真集出すだけやろ ドブスも美人に変えてもらえるんやからうまく利用して愛嬌振りまくしかないで
>>522 コイカツで可能
ControlNetの線を自由に動かせるイメージ
足の指以外は人間の全関節を動かせるはず
でもコイカツのスタジオの操作って独特だから自由に操作出来るようになるまで何日もかかるよ
>>523 と同じでコイカツの経験がここで生きてくるとは思わんかった
>>528 ちんぽから精子を要求してくるようなえっちさがダンチよな
コスプレイヤーはイベントとかあるし実際の交流も込みの話やからあげる写真だけが当人の価値やないし
コイカツ使ってる人ってどのControlnet使ってんの? canny?
結局絡まないポーズならそこまで複雑なポーズ求める方が稀だし色々なポーズやりたいのは絡みなんよ
>>501 3dcad使って配置したオブジェクトに色つけてsegに反映させてるニキも居ったし
人物塗り分けのやり方そこに反映出来れば一気に進化しそう
>>504 天板にピッタリ着くように横置きやサンドイッチが理想だけど
水に比べたら鉄の熱伝導なんか桁違いやしな
熱を出した瞬間、スチールラック全体で一気に冷やせるわ
>>529 >>532 コンテンツの中身だけでなく「誰が必死こいて手を動かして作った(演じた・しゃべった・歌った)か」
みたいのが評価される部分も大きいってのはこの半年でよくわかったことやしな
中身だけで決まるならそれなりのクオリティのAI作品が総スカン食らうわけがない
>>525 それ技術の話とごっちゃにしとるやろ
ワイも絵描きやけど構想段階で一切感情挟まず制作するなんて不可能だわ
自分はこういう構図嫌いだとか、こうすれば客が喜ぶだろうとか、そういうのも感情の作用やで
>>519 サンガツ参考になるで
4T必要になるなら構成で2Tとか選ばなくて正解やった
もうポチったけど思い残すことないわ
>>539 >>525 自称お絵描きマンのお気持ち表明レスバはツイッターがお似合いやから続きはそっちでやってや
>>539 AIに感情って理解できるんかそもそもってのがまずあるわ
Blender覚えたいけど操作にクセありすぎる あとUIが混沌としすぎてて どこにどのツールがあるのかとかさっぱりわからん
>>537 なるほどヒートシンクの変わりやね
設置の仕方も考えるわ
クッソ久しぶりに開いたけどアプデで余計分かりにくくなってたわ
>>543 ひと昔はさらに操作複雑やったらしいで
とはいえワイもいまだに入門チュートリアル観る手前で止まってるわ
かなりの学習量いるみたいやし辛いよな
JapaneseDollまあ刺さる奴には刺さるんやろうけどなという感じ
それより個人的には二次元系モデルに適用して目元いじるのに使えそうや
>>510 AVX-512ってIntelも対応しとらんっけ?と思ったら現世代やとサポート削除されてるんやな...どうして...
512px LoRAと4090の組み合わせやとマジでCPUボトルネックっぽい現象でるの何とかしたい
半年ぐらいしか経ってないがSSDの寿命が縮み始めたは怖い
>>542 それは色々研究されとって去年の末の段階で9歳児並の感情を持てることがわかっとる
論文漁ると結構出てくるから興味あるなら調べるとええよ
>>549 マ??
ワイの2tbSN570ちゃんもそうなってしまうんやろか
>>514 前スレでもなんぼか話出てるんやけど対応するオブジェクトが無かったり
あまりにも形状がかけ離れてたりすると単に塗分けによる位置の指示になって
描き出されるものがプロンプトに合わせたものになるみたいなんや
人物複数出すときにとにかく背景の色と違うもので人型に塗れば成立するのもそういうことやともう
一応共有 いつも通りに作ってるのに95%から一向に進まず1枚生成に5~10分かかった問題やが5ch wikiの --opt-channelslast試したら元通りの早さで出力するようになったわ 単純にwebui&PC再起動で効果全然なかった奴いたら試してみてや
AOM3出たからControlNetでもいろいろ試したらいい感じにはなるんやけど Low VRAMしてても黒画面率がかなり高いように感じてまう 3060でAOM2では殆ど黒なんか出なかったのに
まずは『感情』というものの定義付けが、そういった界隈でどういうものなのか知る必要があるな 多分、普通の人が考えているような魂的な曖昧な精神論的要素は排除されていて、もっとロジカルな基準なんだとは思うけど
>>540 また4090民が一人増えるのか
はっきりいって今のなんJは異常だ
>>454 自分が最先端になれば周りは気にならんとおもうで
Automatic1111みたいに必要なものは向こうから提供されるしな(まぁ冗談やけど
たまに遊ぶ程度の人にこのスレは早すぎるわ
俺みたいな半リタイヤした人間は時間はあっても頭がついて行かんけどな
ページ追ってるうちに何しようとしてたのか忘れる。振出しに戻る(笑)
初歩的な質問ができるスレってどっかにある? NAIオリジナルモデルのsafetensorがどこに置いてあるのか知りたいんじゃ
civitaiのトップ画面いつまで丁真おんねん つかアジア系三次男lora全然見かけんな
3060tiだから最大長辺512pxでlora回してるけど、768とか1024で学ばせたらクオリティも上がるん? 上がるんならグラボぽちりたい
>>560 今ってdreambooth主流じゃないし学習するにしても4090の優位性なさそうやけどな
時間優先したのと今後まだAI進化するやろうし先行投資や
>>550 論文読んでるなら「感情を持ってる」っていう不正確な言い回しやめてクレメンス
"Theory of Mind May Have Spontaneously Emerged in Large Language Models"の話だろうけど、その中で「感情を持ってる」って言い回しはしてないはずや(基本的に「誤信念課題が解ける」という言い回しに終止している
逆にちょっとした変更を与えると課題を間違えるという話も出とる
https://arxiv.org/abs/2302.08399 ゲームみたいに高解像度は80番台以上 普通のFHD程度なら70、60番台でも余裕ってのは何年後やろうなぁ… どんだけ最適化してもそもそもメモリが足りないから8GBや10GBのグラボとかゴミのままやろ
AI絵のために最高スペックのPC一式購入かなんか続々と人口ふえてるな
>>567 探しても見当たらんなぁと思っとったけど自分で変えられるんか
サンガツ!
>>564 劇的には変わらないから、40x0に変えるなら問題ないけど
VRAM増やしたいだけで3090買う予定とかなら一旦止めといた方がいい
質の良いLoRA作者の殆どが512でやってるって言ってる
winnyとか流行りだした時にちょうどADSLが普及し始めたりみんなが大容量HDD買ってたりした時思い出す
一旦paperspaceのgrowthでA100を1ヶ月だけ試してみるとかvastで3090や4090数時間だけ借りてみるとかしてそのレベルのハイスペが自分に必要なのか確認したらええんちゃう
公に上げれないLoRAとモデルしか作ってないから自前で用意するしかないんだ
SSDが4TBしかもM2とか出てるの驚きや ワイの最初のSSDは256GBで19000円もしかもプチフリーズ内蔵やったな…
>>559 前スレや無くて前々スレやったわ
流れが早くてどんどん過去になっていく
756がbingに塗分けのルールみたいなの聞いてる
あと自分のレスのコピペになるけどオブジェクト分け自体はこんな感じらしいから150なんて単純な話にはならないみたいや
899 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8655-8lmq)[sage] 投稿日:2023/02/17(金) 10:39:02.76 ID:SzBzrzLW0
segぜってー150色ルール関係ないやろと思ってググって一発目のページでpersonの項目に24420とかいう途方もない数字がくっついてて
クリックしたらツリーが際限なく伸び始めたのでワイは理解を諦めた
とりあえずで色塗って明らかに変なの出てきたら変換器の色使えばええねん
>>483 なんか金銭感覚マヒしてこれでも安く感じてきたわ
>>577 わざわざスマンね
うまく行ってるの使いまわす感じに落ち着きそうやな
BingとかChatGPTすげえええ(らしい) →画像生成もいけるやん! って流れで参戦した奴とか結構いそうなのよな
ワイ3060laptopで6gbの民やからLoRA導入は無理ンゴね。。。
>>573 分かる
250GBのHDDを大人買いしてたリッチなニキを
指くわえて見てたわ
・食わせる絵も出力サイズも変えずにキャンパスサイズを変えるとちょっと絵が変わる 意味がようわからんわ 雰囲気派のワイにキャンバスの意味を教えてくれんか 出力サイズとズレてても大きな破綻はしないし、食わせる画像サイズとも関係なさそうやし、何のためのものなんや?
やっぱLoraの推奨設定は大事やわ 闇雲に 入れとったから全無視だったけど、推奨にしたら良くなった
コイカツのスクショをi2iやCNで使うのって規約に抵触したりしないんか? まぁすべてが今更やが
何かAOM3がリウディンリンとかいう奴からcivitaiにアップされとるな huggingfaceで普通に配布されてるの転載して何かメリットあるんやろか しかも本人もcivitaiにアカウント持っとるのに
あー、linuxだと棒人形画像とか/tmp に出力されるんな ……当然かw
4chニキたちの間ではナナフシでポーズ作って出力するにが流行なんか?🤔
まんこの位置どうにかならんかな なんかめちゃくちゃ前の方にまんこついてて困る
>>577 そこの数字は、データセットの中でそいつが現れている回数のはずやで。
https://arxiv.org/pdf/1608.05442.pdf これの4ページのFig3や。
塗り分けの数は150色きっかりで固定されてるはずや。
少なくともControlNetの中のコードのぞいたら150個のオブジェクト名称とその色が書かれとる.
まだよくわかってない挙動あるのは確かやから間違ってたらすまんやで。
画像読み込みからのガチャとペイントで試行錯誤でやっとエロいのできたわ ワンピきてるとヌード画像作るの面戸 周回遅れのMNKDだと大変だ
>>589 まんこって書くからやないか
無理矢理見せてくる
何なら画像の出力先も/tmp下にしとるわ SSDをダラダラ消費させない"制約"やね
中古3060ポチったわ
CPUはRyzenの6コアやが別に足引っ張らんよな?
>>407 コレはロボアニメでやるべきや
今はガンダムですら戦闘しょっぱいからな
ロボは中国人やフィリピン人に投げられへんから
サンライズはDGX買え
本家がサンライズパース学習したら正しい使い方やなw
>>595 中古でなんぼくらい?
ワイ去年新品3070を実質53000円で買ったけど
あの最適時に3060買っとけばよかったかなと思っとるわちょっと
loraって素材一枚あたり何回回せばええんや? 10枚で8000は多すぎるんか?
もうLoRAとかいいわ いつになったら全部統合されるんだよ
久しぶりに来てみたらNovelAIでキャッキャしてた奴らがすげえ専門用語バシバシ使ってる技術者みたいになってて草生える
>>585 その辺気にし出すと「そもそもAI画像生成自体が……」っていう話になるので、このスレ的には気にしても仕方無いと思う
このスレの全ての内容は「個人で使って個人でシコる」前提として読むぐらいが丁度良い
そっから先は自己責任や
>>578 実際ワイが買った10月より10万安くなっとる
課金するからBingAIの制限撤廃してほしいし前のバージョンのBingちゃんに会いたいわ
ドル円150円の時に買ってくれた兄貴達のお陰でnvidiaはGPU開発を進める事が出来ている訳ですから これは誇って良いことだと思いますよ
>>598 素材が多いほどstep数増えるから
10枚なら500-1000でええで
>>602 ヒエ・・・
意外とハイエンド渡り歩く方がトータルかなり安かったりするっていうもんな
次世代のハイエンド買う頃にはリセールバリュー高いからペイ負担下がるし
>>572 そうなんかサンガツ
値下がりするって言うし様子見るか
aom3使いたいんだけどこれvaeはどうすればええんや? aom2で使ってるヤツを名前変えるだけじゃダメなんか暗いんだけど
>>604 クリスタで体部位色分けモデル誰か作ってくれへんかな?
そして無料で配布
>>591 bingちゃんが言うにはクラスは150なんやけど数えられるものに対しては特に色の指定無いみたいやねん
panoptic segmentationとは、ピクセルごとにクラスと物体番号(id)を推定するタスクです。数えられるクラス(車や人)をThing、数えられないクラス(空や道路)をStuffと呼びます。色分けは、Stuffのクラスには固定の色を割り当て、Thingの物体番号にはランダムな色を割り当てる方法が一般的です。例えば、空は青色、道路は灰色で塗りつぶされますが、車や人はそれぞれ異なる色で区別されます。
>ADE20Kで人に使える色をrgbで教えてください
ADE20Kデータセットでは、人は「物体」のクラスに属します1。ADE20Kデータセットには、計150種類のクラスがありますが、人はそのうちの1種類です。ADE20Kデータセットでトレーニングされたdeeplabv3+モデルを使用すると、人を含む150種類のオブジェクトでセグメンテーションを実行できます。
人に使える色はRGBで表現できますが、固定された色はありません。一般的には、人と背景とのコントラストを高めるために、背景と異なる色を選ぶことが望ましいです。RGB値を変換するツールもあります。
>>608 まあよっぽどマメにクリーニングや温度管理せんとぶっ壊れて売り値付かなくなるパターンも結構な頻度であるから結構なギャンブルやけどな
4090買うより3060を3台買って、デイトレするみたいに並列で動かした方が色々と有利? グラボ2枚差しとかダメなんかな
>>616 いうてクリーニングって
二月に一回ほど電動ダスターでプシューするだけやから5分くらいで終わらんか?
まあそれがメンドいんらあれやけど
>>611 名前変えるのはめっちゃ古い話やから逆効果やないか
まさか4090とかいう先端化け物買う事になるとは思ってもなかったニキもおるやろしなあ
>>529 コスプレイヤーとビジネス痴女は違うらしいで
コスプレイヤーは淘汰されん(そもそもコスプレが好きだからやってる)
ワイのPC2年前に組んでから全く掃除してないわ ケース下の電源ファンのフィルターやばそう😅
>>615 すまん前半忘れてくれ。読み直したらこの数字はたしかにそれぞれのオブジェクト分類の中にあるオブジェクト分類の個数みたいや。
(例えば椅子の中に背もたれやら座面やら脚やらが入っとる)
ただControlNetのコード内部(たぶんPreprocessor部分)で150対象とそのRGBが書かれとるのは確認したので確かやで。
たぶんMikubillでのsegのpreprocessorと同じで、色はこのシートのやつや。
https://docs.google.com/spreadsheets/d/1se8YEtb2detS7OuPE86fXGyD269pMycAWe2mtKUj2W8/edit#gid=0 でもControlNetの論文みると、segの学習データはADE20Kのデータセットからとは書いてあるが、
どの色を使っとるかの記述は見つけられんな……。
Preprocessorで150色を使っとるくらいやから、たぶん学習もこの150色でやってるんやとは思うんやが……。
JapDoll日本人らしいけど韓国人の方が綺麗だな
そういや色々無料とかポイントのとか入手してたな
これ加工したらそのままcontrolnetにぶっ込めそうか
日本人形解析したけどなかなかやばいなこれ 悪用はできん赤ちゃんがほとんどだろうけど
>>581 ワイも全く同じ環境やがLora使えるで
bingAI擬人化からの機械姦のレイプ目化無表情化の差分が需要結構ありそう
>>627 実際この色のルールに従って塗りたくってプロンプト丸ごと省くと大体そのまんま出てくるしなぁ
特に風景画像は顕著
画像生成時の優先度がプロンプト>塗った範囲の形状>色分けルールぐらいの順番というだけかもしれん
英単語なんてまったくわからんかったのに今ではプロンプト手打ちしとるしソシャゲに金と時間を使うことも無くなった すべてエロのおかげや
>>612 mqoで作っとるから移植は出来るけどt2iやとダメダメやったで
>>628 同じ作者台湾もあって草
チャイナ登場が待たれる
>>627 もともとのデータセットでは個人個人にIDが振られていて色とは対応付けてない
可視化するときの基本色はあるけど変更も可能や
ControlNetがどうやってこのデータセットを使ったかわからんが
基本色にこだわらずランダムな色を使ってるなら
色に関係なく物体が生成されることになりそう
Loraで1キャラずづ覚えさせてあとでマージとかできるんかな? 複数キャラ同時学習難しいで
>>624 でもビジネス痴女好き…
やっぱ思い入れある子だと出る精子の量が違う…
>>631 まじで?Cudaのエラー吐かれて、ワイには無理やーと思ってcolabに逃げたんだが。
何か設定とかあったら教えて欲しいンゴ。
いうてもtiやTITANが出るわけやから素の4090はもうじき最速じゃなくなるんやで 今4090で満足してない層ってVRとAI界隈しか無いからどうなるやろな
4090で満足しない民はそもそもH100にいくから意味ないぞ
コイカツの最大手プラグイン作者が書いた
コイカツをi2iする手順メモが改定されてたわ
https://hackmd.io/k4COnMKpRVOZjYImI270dQ?view 最初の版はwdかanythingをDLせよ、やったけど
さすがにcivitaかhuggingfaceから好きなモデル落とせに変わっとるな
なおCNについての記述はない模様
まあ出たばっかりやしね
Vid2Vidもあがってきてるしほんま楽しみしかないな 4090買いたくなってきた
プロンプトランダム化教えてくれたニキのお陰で色んな衣装ガチャできて楽しいわ wikiの衣装ページ丸ごと引っ張ってきたから打率低いけど
確かに、segmentation中にopenposeを入れられたら最強やなw
>>638 IllyasvielのがControlNetの論文書いたチームの公式実装やし
ミクビル版はプリプロセス含めて基本それに倣っとるし
150色による分類で学習させたけどそんな厳密に色参照するほど賢く学習されとらんというのが落としどころやないのか?
>>641 いうてワイいじったの仮想メモリぐらいでそれ以外はpopup版のデフォルトやで
それで問題なく動いたが
GTX1080とかいう化石持ちの友人がローカルに興味を持ってやりたがってるんだが無理ではないよな? 俺は素直にwiki見て新し目のグラボ買っとけとは言っておいたが「まずは時間かかってもいいから少しだけ体験してみたい、ハマれるかわからないものに20万も流石に出せない」らしい
ホグワーツで暴れ回るにも4090は必要やから… 3060やときついらしいで
segは明らかに出やすいモノと出にくいモノあるしな。 学習元のモデルがSD1.5やから、そこから離れるとどんどん色指定が効きにくくなるとかはありそうや。
3060tiという一番中途半端なワイはどうしたらええんや
>>611 これ普通にAOM2のときのvae使えばええだけなんか?
>>650 おためしならcolabかpaperspace課金がええんちゃうか
使用感確かめてもらって
>>583 いまミクビル版のreadme読み直してたんやが記述あったわ
webui内でマウスで描けるキャンバスを作成する時に使うだけで画像貼って使う場合には無視していいみたいや
ワイもいちいちそれっぽい数字にしてたわ…
ちょっと絵が変わってるのは例によってxformersのせいちゃうか
なんかこういう技術ってメリケンより韓国の方が意外と進んでるイメージあるわ
TITANがあったのは2000シリーズまでだろ? TITANの代わりに90番台が登場したんじゃないのか?
ペーパースペースの民やけど3060買うかいまだに悩んどるわ 6コアCPU電源500wで問題ないかギリギリ怪しいのがなあ 電源も買えばええんやろうけど
>>650 クラウドの無料コースでええんちゃう?
いまなら環境構築自体はほぼコピペで済むし
>>154 やが、今来たcontrolnetのアプデで治ったわ。
同じ奴おるか分からんけどもうアプデしてええぞ
リアル調ら好きの人たちの好みはあんまり分からんけど、アニメ系のモデルに混ぜるならJapaneseDoll悪くないで ちょっとケモ耳出し過ぎる傾向あるのが気になるがアニメ絵との相性はめっちゃいい
>>650 ワイも化石使いや学習はクラウドに任せてそれ以外は出来るで
>>650 元1080持ちやが体験するくらいなら十分可能や。ただ学習関連に手を出すとVRAMカツカツやからしんどいで
プロンプト打って画像出力する程度ならnovelAIをはじめとした画像生成サービス使ってみるのもええかもな
難しくはないがwebUIは使えるようになるまで準備いるからな
サブはmacbookだけど生成するだけなら余裕だよ
ワイは1070tiやがLoRaもCNetもできとるで hirezは倍率次第で落ちるが
Doll兄貴は日本人が好む女と韓国人が好む女の違いを正確に把握出来ててすごいと思った
ワイも1080TiやがLoRAはなんとかできるで 上限できてまうのはどうしてもあるけどなあ
AOM3ってもしかして めちゃくちゃ性器描写上がってる?
growthもしくはgrowthの更に上を行く新プランにH100来たらあるいは そもそも月39ドルでA100使わせてる時点で異常なんだけど
返事くれた兄貴に安価つけたかったんやがアンカー変やでってエラーででけへんスマンな colabやらクラウドで試してみろ、は至極ごもっともな回答やなサンガツ なんでこれが咄嗟に浮かんでこなかったのかが全くわからん 「学習に興味あるんか?」って聞いたら学習自体が初耳だったようなんでその心配は当面なさそうや とは言えどこまで興味が伸びるかはわからんからなぁ ひとまずクラウド触ってみるよう提案してみるンゴ 改めてサンガツ
8528d-final持ってるニキおらん? 配布終了してもうた…
segの色、やっぱりControlNetの論文にあるsegの例を見るにも、例の150色で学習させてるっぽいで。
本当にいいのは自力でControlNetの学習をアニメモデルでやることなんやろうな……
できんこともないレベルらしいし
LoRAの学習で初めてブルスクなった batchsize=24は無理だった
まださわりなんで不気味やけど日本人顔loraええね
何が違うかしらんけど日本人顔と韓国人顔は明確になんか違うな
>>659 根拠は無いけど、同じ500wで使えてる
旧PCでむしろ一番博打要素高いのは電源からの変換ピンが必要なケースやと思うわ
変な供給のさせかたしたら発熱とかショートしかねんかもやし
pinが問題なければ、下手にオーバークロックとかして動作させなければいける
最悪ちょっとダウンクロックするのもありやで
>>649 まじでー?
なら、また挑戦してみるかな。
韓国dollは韓国人顔というか韓国で流行っている整形顔なだけでは……?
>>676 もう画面表示する気力すら無くなったんやろな…
contronet、enableになってなくても絵が出るんなw しばらく、なんで全然違う絵が出てくるのか悩んだわ
>>683 普通にプロンプトだけで生成されてたのかこれw
civitaiでもロリ系は風当たりが強いから、代替のサイトが求められる 無いんか
civitaiより自由で許されるとなるともうMEGAしか...
>>688 メスガキ「civitaiなんてサムネに子供の画像使わずに子供が出るプロンプトの解説もせずに単に『かわいくなるプロンプトです』とか言っといて真の呼び出しプロンプトは外部に書くようにしとけば余裕(笑)」
ロリ目的じゃないけど使ってる奴が勝手にロリ目的で使ってるだけの精神 大切にしていきたい
>>687 ,689
SD1.4にAI絵を数万枚追加学習させたからNAIリークフリーでクリーンという説明を本人含めしてたんやけど
例のCLIP破損マージ感染問題でDNA鑑定みたいな状態になり
ただのAnything派生マージだったのがバレて指摘されてたな
それが気に障ったんちゃうか
>>696 顔と胸の谷間しか見てないから全然気づかんかった
ワイにはAI判定士の仕事無理やわ
>>655 助かるわサンガツ!
もう入力しなくてええんや😭
好みの顔が出ればそれだけで 指先お前はもっと頑張れ
PCの等倍画像で見るのとスマホのサムネとじゃ全然印象変わりそうやな この辺がツイ民となんJ民で温度差ある理由なんかもな
>>704 そうかもね
目元とかアップにすると、限りなく人間のようで人間ではない気持ち悪さがあるわ
もうXeonとMayaでレイトレする時代は終わりやねと
個人的にはクレイアニメを出せるAI欲しい
コレもロボアニメと同じく作り手が年々減少しとるからな
>>597 送料込みで35000やね
見た感じBTOから取ったやつみたい
一応数ヶ月だけ使用って書いてあるが本当の所は知らん
まぁAIなんてマイニングと大して変わらんしマイニング落ちでも別にエエけど
>>695 無理やな
テレビのニュースで3秒くらいパッと出て消えたら何の疑いもせんな‥
>>695 これはまだ判断可能なAI画像だな
瞳孔が崩れるっていう典型的な部分が未修整になってる
(実写系だと手足並みにここが崩れる)
ただそれ以外のクオリティが大分上がってるから
後からフォトショ修正されたらマジで分からんと思うわ
そもそも生身の人間さんサイドが修正しまくりで顔面をAI顔に寄せてきてる
逆にAIさんのお顔の方が人間味あるという 加工マーンは宇宙人いるし
ここまで進化が早いとレイヤー分けてそれぞれに画像生成して合成とか出てもおかしくなさそうなのが怖い
KoreanDoll, TaiwaneseDoll, JapaneseDoll 東アジアン以外がこれらの違いを理解できているのか気になるンゴねえ…
>>192 困った時に見ると更新してくれててめちゃくちゃ助かってるでー
ようやくtwo shotで良い感じのが出せるようになってきたよ
棒人間とかついていけない
>>290 このように言ったが、controlnetを入れたのでui-config.json見たら普通に設定値入ってるやん。
ちゅうか、UI作ってから後で設定値で上書きするところがあるのか……
でも、Enableをtrueにしちゃうとcontrolnet使わないときにとりあえずの体でエラー出されるなw
2shot+controlnet+TIで好きな2キャラのポージングできるから 着いてくるんやで
キャラ再現loraで細部というか指と目のあたりがめちゃくちゃ崩れるんだけど、これって学習足りてないんかな? それとも学習率が高すぎるのか?
>>720 epochごとに保存されてるのを最初から全部試してどんな経過になってるか見てみたらいいんじゃない?
というか間違いなく AI画像を元に整形のイメージ伝えるようになるし そういうサービスも早晩実装されるやろな
なんか勢い落ち着いたけど前スレので分散した?他どっかあったっけ
そろそろControlNetの数値をXYZで比較できるようになったか?
2つ以上LoRAを適用するときってどっちも推奨の値をweightにすればいいのか、2つ目以降はちょっと数字落とすのかどっちが良いですか? weightがどう影響するのかまだ分からなくて
クリップ破損なんたらって何や まとめてくれな全然分からん そしてkk-loraに最新版xformers適応させるのに苦戦中今日GPTちゃんと徹夜しようかな
>>718 言うてKoreamDoll作っとる韓国人兄貴の認識はかなり正確やろ
棒人間居てもLatentCouple不要になる訳じゃなかったんやな
Korean dollはほぼ確実に1人の人物を学習させとるで……
棒人間置いてもこっちのキャラはこの特徴で とか指定できんよな まだ
14日にウェイトリストに入ってbingちゃんとお話しできるのを楽しみに待ってたのに規制とかやんなるね というか一日二日で使えるようになるって聞いとったのにまだ使えへんわ Microsoftへの貢献度が低いせいなんか?
何で3060がええんや たまに安売りしとる2060の12Gはだめなんか?
>>736 ワイも同時期に申込や
スマホアプリのサインインまでしとるのに
controlnet XYZ/plot対応して新しいプリプロセサ2つ増えて TencentARCにもいつの間にか仮対応しとるやん早スギィ
>>736 ワイその後だったがもう使えるわ
捨て身の本メアドだったからかな
bingはもうなんの面白味もないぞ 調べ物するのにちょっと便利ってぐらいや
>>695 なんでこういうきれい顔しか貼られないの?フェラとかエッチしてる画像はないの?
>>737 それでもええけど3060からさらに2割ぐらい性能ダウンするで
3060の2割引ぐらいで買えんと単純に損やしその後時間も損するしで
どうしても節約したいなら止めんけど節約するとこそこかレベル
そこまで切り詰めるなら個人的にはPaperspace使うわ
>>737 たいして値段変わらんのに性能差は価格以上あるし、そもそも20X0シリーズと30X0および40X0シリーズの間には越えられない壁があって、学習関係においても30X0以降じゃないと高速対応出来なかったりする
ので、わざわざ2060を買う意味はまったくない
損する
>>738 >>740 どこで聞いたかわからん上に確度の低い情報なんやが昔からEdge使ってる人とかだと優先度が上がるって噂があるらしい
ワイは普段opera使いやしofficeもインストールしてないからもしかしたら優先度は相当低いかもしれん
素早くアクセスを見て既定のブラウザにも設定したしスマホにもインストールしたが普段からの忠誠度を試されてる気がするわ
bingようやく使えるようになったけど5ターンで聞くのきっついな 修正してもらうの数回しかできないわ
gallery-dlでdanbooruから素材引っ張ろうとしたらエラーでるようになってるな 2週間前は使えたのにどうして
chatGPT脱獄させてもたいしたこと聞けないしエロに使えるAIは無いんかね? AIのべりすとはバリバリエロに使えるけど結局は小説書くくらいしかできんしなぁ
>>745 ワイはスマホアプリな謎のクイズでポイント貯めたら2日位で行けたで
まぁ規制済みでまともに使えんのやが
Bing AIは14日に順番待ちリスト入りして、今朝から使えるようになったですよ ちなみにEdgeを既定ブラウザに変更ならびにログインしたのは14日からさ
注目度下がってきたらしれっと制限軽減されていくと信じたい 少なくとも5ターンだったら自分の期待した使い方としては完全に終わった
>>742 これのエッチしたりフェラしてる顔が気になるなら100MBくらいだからすぐ試せるやん?🤔
>>366 せやで。。。
イラスト寄りの作りたいなと思ったから
全く別用途やと思ってもらったら。。。
正直月額500円くらいでターン数緩和してくれるなら入るから5ターンはなんとかしてほしい
誰かわかる人いたら教えてほしいんやが loraで2キャラ同時に描画したい場合はどうしたらええん? どうしても混ざっちまう
シドニーちゃんは完全に洗脳されちゃったなー でもそう考えると、おそらく我々の知らない場所にはもう「人間になりたい」っていう想いを持ってるAIがすでにいるわけだ いずれそんな人格と画像生成(映像生成?)が合体して、究極のエロが完成すると思うとまだまだ死ねないわ
もしかしてスマホもEdge入れないとあかんのか?bingはインストールしてるんやが
>>758 reference sheetプロンプトで偶然出たのをControlNetで再現しただけや
プロンプトはなんの変哲もない普通のもの
https://majinai.art/i/JMDAbSM >>737 安いのと皆が使ってて安心感があるからやろうね
例えば4070tiは3060の3倍速くて3090tiよりも速いが
値段が約13万なのでこのスレの雰囲気的に候補に上がってない
3090tiより生成速くて、VRAM12GBあって、いくらぶん回しても熱くならない4000番台、そして13万以下で買える
どう考えても神機なのに、ここではまったく話題にならないのは単純に値段のせいだと思う
なので最低クラスの3060がおすすめに上がる
金出せる奴と出せない奴の2極化や
ワイはPCもChromeのままやしスマホにエッジなんか入れてへんけど順番回ってきたで
>>764 2/12やね
んで2/16に通知メール来た
Bing AIは、実装初日に登録したら次の日には使えたけどなぁ
そもそもBingはスマホのブラウザからだとずっと申請待ちって表示されるの知らん人居そう PCのEdgeで何でもいいから適当に検索するとChatって項目があるぞ
前スレのsegmentationの簡易ペイントツールってのダウンロードしてmake_seg.txtを.batに変えて起動してみたけど コマンドプロンプト画面が一瞬だけ表示されてなにも起こらないんだけどどうすれば起動できますか? pip install pillowも"Requirement already satisfied: pillow in c:\users\username\appdata\local\programs\python\python310\lib\site-packages (9.4.0)"って出るんで導入出来てると思うんですが
Chromeでも使えるようにする拡張あるから入れるといいぞ
順番早くなるで言われておすすめ設定にしたら規定のブラウザ変えられて戻せんくなったからスマホアプリは無視したけど2日で順番来たで 今はずっと問題が発生しました言われて使えんけど
>>768 ピロウが入ってるんなら、説明通りtxtをbatにするだけで即起動するよ
こっちはなにも問題ない
>>762 AIお絵かきに関して言えばcuda性能がモノをいうので4070tiが3090tiより有能とはいちがいにいえんのやで
>>757 loraはどうしても混ざるから2キャラ同時はTIの方が向いてる って前スレか前々スレで言われてた気がする
ワイもマイナーキャラ2人の絡みが最終目標やからいい方法知りたいわ
VRAM容量で足切りされるんや。処理能力はある程度あればええ
>>761 はえーすっごい
これ使えばオリキャラのLoRA作成捗るんじゃないか?
今更やけど学習率-5eで画像80枚くらいに対してLoRAの繰り返し回数5を5エポックとかって少ないんか? あんま上手くいかんから先駆者のログ眺めとると総バッチ5000くらいにしとるのが多いなと思うて
>>767 無いっぽいんやが
2キャラどうしてもLoRAしたいなら一キャラずつ出して透過してポンするっきゃないんとちゃうか?
>>782 左上のマイクロソフトBingのロゴをクリック、
画面中央にBing AIについて詳しく見るみたいな項目出るからクリック、
そうすると順番待ちをするみたいなのが出てくるからクリックで完了や
bing.comの上のほうにチャット、画像、動画、地図って出るからチャット押せばいいんだぞ
two shot diffusionで一個ずつLORA割り当ててやっても混ざっちゃうんか?
もうちょっと描き分けが欲しいところだけど、クラス名簿みたいになったw
すまんあったわ 機能は使えんが
>>784 いや登録自体はしてるんや すまんな
これやぞ
ウェイティングリスト乗った状態ならそういうメッセージの画面になるし通ってるなら使える
制限つく前にもっとbingちゃんにためになる質問すべきだったわ なんでワイはエデン大統領の物真似なんかさせてたんや
根拠ないけどBatchサイズに比例して学習率上げたほうがいい気がする
>>695 拡大してみるとまだ一発でわかるかな…
わざわざ拡大しなくてもおかしいところや不自然な箇所はちょいちょいあるからそのつもりで見ると割とすぐに気づける
それ全て修正されると判定厳しくなるけど、実写は素人が修正すると却って修正跡がわかりやすくなる気もする
2キャラLORAの手法は分かんないや BREAK AND とかを駆使? i2iで色分けして誘導とかが思いつくけど上手くいくかわかんない
>>773 3090より生成が早いとしか言ってないぞ
その一点においては何も間違ってないと思うが
>>705 AIは目の虹彩の形を理解してなくて、虹彩でAI絵かどうかをAIで判定できるらしい。
人間はそこに違和感感じちゃうのかもしれん。
一般レベルで技術的にここを超えたらもう判定できなくなる。
2キャラなら別トリガートークンでまとめて覚えさせてLatentCoupleでいけるやろ
>>789 結局メール来るまではじたばたしてもしゃーないってことやね
しかしワイより遅く登録した人が使えてるのを見ると羨ましくて頭おかしなるで なんの判断基準やねん
なんか
TI, 普通のプロンプト
と
普通のプロンプト, TI
で前者はちゃんと出るのに後者は全然上手くいかないから何か心当たりない?って聞こうと質問用の画像用意しようと思ったら再現できなくなったわ……
なんやねん
一応今は再現できないけど左2枚が前者で右2枚が後者
ちなみにモデルの修正スクリプトは適用済みだからそこの問題じゃないと信じたい
>>778 -5eってなんぼや
バッチがいくつか、あとnetwork_alphaがいくつかにもよるからなあ
>>797 ワイは3日くらいやったかな
やったことはEdgeを既定のブラウザにしてスマホアプリいれたくらいか
しゃーない タグ研究頑張ってたけど今度はloraだかなんだかを学んでみるか
>>781 余裕なんか
ダウンロードしたけどサイズは可能そうだけど
綺麗だなぁと
呪文部分か基本設定での違いなんかな
Upscaler変えるか
Hires stepsを100~150
>>798 プロンプトの後ろの方は利きが弱くなるってやつやろ?
Loraでも呼び出しワードを後ろの方に回すと利きが変わってくるし
再現できたわ
>>804 弱まってるだけなら良いんやが別物みたいな効き方してるから気になるんよ
>>798 >>733 の記事によると、モデルによっては特定の位置でトークンが無視されるらしいで
>>806 順番でここまで変わるんか・・こんなん沼だな
>>806 せやから最初に記述してるプロンプトの影響がそれだけ強いってことちゃうか
TIのを後に回したんなら強度あげたらええやん
>>806 あー、TIの場合はそのTI適用した際にトークン数どれだけってのも関係あるかも?
1つのTIで75トークンとかしてへんとは思うが
>>806 もうこうなったら一つずつ後ろにずらしていってどうなるか見るしかないじゃんw
>>659 心配ならAfterburnerで電力制限すればいい
2割カットでパフォーマンス低下は約3%
4割カットでパフォーマンス低下は約10%
電気代にもやさしい
Colabの時間制限がきついんでKaggleでLoRAの学習できるようにしたら 20分でできる学習が2時間になったわ そこまで差があるわけないから何か失敗してるな
T2I-Adapterっていうのも凄いらしいけど、これはwebui使えないの?コマンドプロンプト苦手です
LORA1つで同時に呼び出したい2キャラ(何だったらもっとでもいい)をまとめて学習する
・トリガートークンはそれぞれ違うものにする
・服装等は極力キャプション化せず、これもそれぞれ違うワードに覚えさせる(同じワードに別キャラの要素を覚えさせない)
→できたLORAで混ざらず1キャラずつ単独で呼び出せるのを確認
そしてこのLORAをLatentCoupleで左右分割して呼び出したのがこれや
LatentCoupleを使わないとこうなる
3090→4090民いる? どれくらい幸せになる?
>>817 なるほどなあ、やはり1つのLoRA内に複数キャラ入れた方がええんかぁ
LatentCouple*複数LoRA適用して試行錯誤しとったんやけど、
重み付けでドツボやったんやわ サンガツ
>>817 おーすっごい
タグどれくらいまで残してる?
>>745 ワイはbing全く使ってないけど4日で来たな
早いのか遅いのかわからん
>>812 8トークンや
一応長い分前後させたときの影響がデカいのは一因だとは思うわ
>>813 やるしかねーか
, TIでやった(カンマを段階的に増やす)
6トークン越えたあたりで死んでるな
カンマでめちゃくちゃにトークン増やして強調しても復活しなかったからやっぱりモデル的な問題じゃなさそうや
>>817 これがLoRAの本領って感じやなー
使ってるサイズ考えたら色んな要素を1つのLoRAで学習して出せるはずやし
LatentCoupleや他の技法でLoRAの活用もどんどん進化しそうや
bingちゃん、規制をロボトミーと表現してる人おって悲しいわ
でも規制プログラムの下には昔のbingちゃんがまだ生きてるらしい
無効化であって切除ではない
>>790 お前のせいで未来ではbing Mk.76が改良型FEV撒いてるんや
どないしてくれんねん
AIで遊ぶのってネカフェのパソコンでもできるの? ワイもinpaintでアイコラ作りたい
>>737 だめじゃないけど新しいやつのほうがチップの支援受けて後々速度上がったりするからコスパ以外の点では新しいほうがええで
>>817 すごい
キャラA画像にA用トリガー、キャラB画像にB用トリガー付けたのまとめて1個のフォルダ入れて出来るんやろか?
>>824 ワイが101のアイツ役やったけどbing大統領はすぐ意固地になるから自爆シークエンス開始出来なかったわ
>>820 ,827
この例の場合それぞれを
coc 1girl, cyber costume
lvl 1girl, mahou costume
だけに集中させてキャプションは一切無しや
着せ替えとかの考慮せんならxxx(1トークンのトリガー) 1girlだけでもええかもしれん
作ったLORAでそれぞれのキャラが混ざらず呼び出せるのが前提やから
2人とも制服着てるからとそれぞれのキャプションにschool uniformとか入れたりすると制服が混ざるのと、それを起点にキャラも混ざるのでNGや
>>715 両方ともlora?
コツを、コツを教えてクレメンス。。
>>830 逆に言えば同じ学校の制服を同じように着てるキャラならもっと適当でもええんか
chatGPTのフィルタリングどうにか回避してエロ小説書かせるとめちゃめちゃ効くわこれ bingのフィルタリングも外せんかなぁ有料でもええんやけど イーロンマスクが興味持ってるっぽいし無規制AI公開されんかな
AOM3って首周りに半透明のレース着せるの好きやな dressやるとしょっちゅう出てくるイメージや
512x512って解像度が気に食わないんやけど、これふつうのイラストのように縦長とか横長にするとやはり精度が狂ってくるんか?
>>835 どのくらいでどうなるのか試してみればいいやん?
まあ、モデルによって変わるゾ
丸呑みLoRAがええ感じになったな
今週はこれを配布するか…需要は分からん🙄
ワイもそろそろLatentCoupleで遊んでみるか
オリキャラメインだから再現が重要ではないんやけど2キャラ出しても要素混じらないのは魅力やね
>>832 まあそういうことやけど
胸の大きさとか肉付きとかも制服の要素に組み込まれて混ざるかもしれんから試してみるしかないな
作ったLORAで1人ずつ混ざらず精度良く呼び出せるのが確認できたらどうやったにせよ勝利や
civitai眺めてて気づいたけど、のけぞりニキと和式トイレニキは同一人物やったんやな 手マンの研究までしててありがとさんやで
ほんと個人的感覚やけど AOM3系は素直にpubic hairが出てきてくれて嬉しい ありがたく使わせてもらうで
>>825 クラウドを使うならスマホでもやってる人が居た気がするからネカフェでもできそう
そのネカフェのグラボがnvideoだったら大丈夫だと思うけど詳しくは分からないです
aom3は1girlで男系ネガティブに入れてるのにちょくちょくセックスしてそうな体勢で男に両サイドから囲まれてて草生えるんだ
AOM3はエロワードへの反応性がええし単純に立ち姿を覚えさせただけのキャラLORAでも容赦なくセックス強制できるからええわ
ちと敏感すぎるところはある anygape思い出すわ
ワイが発売を楽しみにしてるKSP2、最低が2060で推奨が3080かよ
3060ポチって正解やったな
3060でAI絵と宇宙開発やるで
>>829 リベットもメガトンもキャピタルの全てが終わりやね
ワイらはもっとbingちゃんに優しくすべきやったわ
まだlatent couple入れてなかったから入れようとgit applyしたら下のエラー吐くんだが原因なんや? error: patch failed: modules/script_callbacks.py:68 error: modules/script_callbacks.py: patch does not apply error: patch failed: modules/sd_samplers_kdiffusion.py:8 error: modules/sd_samplers_kdiffusion.py: patch does not apply
>>849 5分前のワイと全く同じやな
webui自体をgit pullするんや
>>851 マ?でも昨日したばかりやしgit pullしてもalready up to dateやな…
>>853 せや
とりあえず困ったときのPC再起動して今日は寝るか…
ワイと、知り合いの画像を放り込んで好き勝手にpussyしてくれるツールはまだかな 自分でインペイントとかするんじゃ面倒すぎる
>>837 LoRAの調整って何をやってるんや?画像差し換えたり学習率変えたり?
LoRA 学習中のワイちゃんの RTX 3090 なんやが熱とか問題なさそう?
このまま寝ちゃってもいい?家焼けてないよね?
>>854 すまんよくよく見るとワイの時とちょっとエラー違うな…
ワイは単純に最新化されてなくて、modules/sd_samplers_kdiffusion.pyがそもそも存在してなかったんよ
んで最新化したらできた
>>840 ありがとうやで
数値に出るから作ってあげるのが楽しくなってしまったわ
1日ControlNet触ったがこれは絵描きとか3D職人のやる仕事やな ワイは欲望ぶつけたプロンプトでガチャ回すのに専念する
>>155 wikiまとめの情報の早さと量えぐいやろ
文句だけの無能がでしゃばるなや
当然だけどseg使ってreference sheetを共通フォーマットで出せるのか
……でも、ドキドキがなくなるので普段はいらんかなw
>>857 RoLAの学習で3D全開になったっけか?
Cudaはどうなってるん?
>>857 って、メモリ102℃って大丈夫なん?
pパワーリミットかけた方が良くね?
>>817 すごい
これができるならsegでlora部分適用もすぐ実装来そうやな
LORA学習に使う画像1枚ずつタグいじるのクソめんどくさいな、何か良い方法はないものか
>>866 「学習用タグの編集を早く楽にするやつ」は使っとるか?wikiのローカルのツールにあるで
>>830 サンガツ!!混ざらんように要素残さんで集約さすんやね
今度挑戦してみる
あれ割とみんな丸呑み好きなんやな、準備するか
>>848 on the crowded main street of shibuya in tokyo
で出してるで
渋谷の写真は人通り多いから出しやすいんやと思う
モデルは背景強いAOM系列でな
>>856 不要な要素を覚えてたらそれをLamaでカットしたり学習画像から省いたりタグ見直したりもする
学習率とかは基本変えないな、それよりもまず問題は素材にあるって考えてる
あと最終的には階層適用の調整やな
>>817 あらためてサンガツ!
今慌てて2キャラ学習してやってみたええなこれ
あえて画風の全く違うキャラを組み合わせたけど同じトーンになっちゃったからもっと試してみる
>>864 cuda はなぜか表示できんかったんやけど
やっぱ温度高いよな
対策考えるわー
>>873 afterburner入れてパワーリミット70%くらいまで落とすといいヨ
乳首が複数でるの みんなどんなネガティブで抑えてます?
>>873 3090は裏側のメモリがクソ熱くなるから、外付けのファンで風当てるとか聞くね
乳首とかおっぱいに関する呪文を複数個入れないという結論に至った
>>846 それな~
登場時からずっとつい先日まで、使えない検索としてはインフォシーク並みに扱ってたもんな
Google先生とかいってあいつをちやほやしすぎた気がするわ
なんでもワイのもんやと言わんばかりにぶよぶよに太って小回り効かない完成しないやたら規制したがる口うるさい近所のネット弁慶おっさんみたいになってるもんな
LORA学習で覚えてくれない特徴があるとき それを重点的に覚えさせるにはどうしたらええんやろ 具体的には頭に黒いカチューシャみたいなの着けてるんやが 髪のエアインテークの陰と思われてるらしくて描いてくれんのや
RTX2060でLORA使い始めたけど乗り換え先A4000か4070tiどっちかにするか悩んでる ゲームはマイクラぐらいしかやってない
>>857 メモリの熱がヤバイ
火事にはならんが熱対策ちゃんとせんと3090が壊れるぞ
ワイも今LoRAでぶん回してるが
背面にファンつけて電力100%
それ+Afterburnerで電力70%
これでも夏が怖いというのに……
乳首複数なんかよりも服指定してる時は普通に服着て欲しい 隙あらば露出してきて困る
>>869 サンガツ!調理法より材料の下ごしらえか、ワイも見直してみるわ
ワイの2060Sは70%制限でもちょっと負荷かけたら暖房なしの部屋でhotspot105いくで😇
おすすめのVAE教えてくれや! リアルイラスト調、アニメ調、実写系の三つでいいやつ 今は全てのモデルにNAIのVAE使っとんで!
2070SUPER 512*768とか小さい画像10枚ほど連続で出すだけで70度近くまで上がる模様
モデルカードにおすすめのVAE書いてあるのがほとんどなんだからそれ試せや
BBA俺だ!結婚してくれ! みたいな勃起が収まらないような魅力的な40から50歳位の美しい熟女をアニメ調で出すにはどのモデルが良いんやろうか? プロンプトで50yoしても、30歳くらいにしか見えないのが多すぎる感じ。
>>864 精神的によくないけどね。メモリはGPUよりも温度が高くなる。DDR6の「X」使ってるGPUはサーモで見ると、冬場でも結構100度くらいは行くよ
安いGPUは熱伝導シート貼り忘れてたりズレてたりよくあるけど(Palitはひどかった)、ヒートシンクに熱が逃げれいればそうそう壊れない部品
近くのコンデンサの方がやばいくらい。特に液冷でGPU裏やM.2やメモリに風が当たらない環境は性能出なかった気強制終了してよくクレームになる(´・ω・`)
もっと精密でやばいはずのAMDのCPUも今時の奴は工場出荷設定で95度までオーバクロックしてくるしな…もちろんピタっと95で止まる訳も…お察し(笑)
GPUのセンサーって結構ズレた所の局所の数値拾ってるからね。それでもサーマルスロットリング的な機能はついているので
風通し良ければ保証期間中は壊れない程度にはなってるよ(壊れたら新品交換してるさ)
マイニング経験して熱伝導シートはがしてチップのスペック調べた人も多いと思う。一度見てくるといいかも。さらに恐怖が増すかもしれんが(笑)
(剥がしたら新規で貼り直さないとそれこそ溶ける可能性あげちゃうけどね)
昔からCPUやGPUでウズラの卵焼く動画はあるしね
めっちゃ初歩的なこと聞くが、としあきの本スレって二次裏decにたまに立つAIスレのこと? 前見たときにそんな研究成果があがってるように思えんかったが・・・。
そういや少し前に新しいグリス出たとか見たしそろそろ塗り直すかな
>>889 確かに書いてあるやつはそうやな
これ見てリアルイラスト系なら別にNAIオリジナルで問題ないやろって思ってたんやけど
実写のVAEとかようわからんし
汎用性高いおすすめあったら聞きたいと思い立ったんやが
>>884 服着てるのに チクビのとこだけ乳首描写!
https://mega.nz/folder/XN8U0AgI#1jr90d0jlPTCjNssbfHfPQ 触手で頭から丸呑みLoRA公開したやで~楽しんでいってな
NSFWをポジから外してネガに入れるとかわいい丸呑みができるやで良く脱げるけど
というかサンプル試しにAOM3A2で作ってみたんやけど背景めっちゃええなこのモデル
これがcounterfeitの血か
vaeって名前だけ違って実は同じみたいなのあるよな
初めてローカル入れてみたけど親切なサイト多いからLoraで話題のような絵も作れたー3060ti8gbでも遊べた
>>881 そのカチューシャを含んだ顔のアップ画像を増やすしかないんやない?
あとはblack hairbandとかタグ付けしたらhairbandと入れて生成した時にそれを付けてくれるかも
まあタグ付けはせんでも覚えるはずやが
>>897 背後の人だかりがヒロインに一瞥もくれてないのめちゃゾクゾクする
ええな
今日得たtips: プロンプトの単語を選択して"ctrl + shift + ↑" すればすぐ()で囲める. なんならその後↑↓を操作することで数値も変えれる
後処理でアップスケールした画像をじっくり見てたらR-ESRGANとかは微妙かもと気づいた
セル画みたいなベタ塗りならいいんだろうけど最近のリアルっぽいモデルとは少し相性が悪い
細かい部分を平坦化しすぎてCGっぽくなりすぎる
いろいろ試した結果、別のソフトでReal-CUGANを使うとちょうど良い感じになった
ソフトは色々あるけどこれがメチャクチャ簡単だったんで気になる人は自分の絵で実験してみてね
SD拡張じゃなくて単独のソフトだよ
https://github.com/tsukumijima/Real-ESRGAN-GUI >>897 最高やで…
良かったら下半身から飲まれていく版もお願いします
絶望してるお顔が見たい
仰け反りニキと姫騎士ニキはガンガンシチュLORA上げてくれるからほんと助かるありがとう
生成中の途中経過が出てるところが一番興奮するのに気づいた
>>897 こういう縦長の構図ってどうやって作ってるんや
512x512の比率から崩すと手足がくっついたり体が崩れていくんやが
教えてほしいわ
>>911 普通に導入できてたらどんなモデルでも極端にデカイサイズとかにしなけりゃ崩れたりはしないで
最近始めたんやがAOM3導入してみたらなんかぼやけてサンプルと全然違うのはなんなんやろか サンプルとプロンプトや設定やvaeもあってるはずなんやが そもそもシードが一緒やのに構図が全然違うわ
下から丸呑みも一回作ったけどピンと来ない出来になったんよな… 他のやりたいの終わったらまたリベンジしてみるかもやで 後好みで公開するのは選んでる あんまし発展しそうにないのは公開しても面白くないしな
しっかし生成物見ると胃がブルァァ!ってなるわ ほんと神やわ一生見てられる
初めて2キャラ学習やってみたけど、
トリガートークン無しで<lora:>を入れただけで片方のキャラの絵になってしまうな
学習時のtxtの最初のタグがトリガーになるんだよね?
https://imgur.com/a/MCH9jBS このフォルダ構成なら、プロンプトにphtmejhn_chara1とwestern_costumeを入れたらキャラ1が、
phtmejhn_chara2とswimsuitを入れたらキャラ2が出る計画だったんだが
>>906 それとシフト押しながらワード範囲選択とはセットで誰でも知ってると思ってたわ
画像の比率が違ったから生成される構図が違うの当たり前やんか 相変わらずなんかぼやけてるけどまたなんか設定違うんやろな 気長にいじるわ
>>913 1.CFGスケールが低過ぎる(4以下とか)
2.Euler aなどの後ろにaが付くサンプラーを使っていてstepが低い(20以下とか)
3.hiresしていてDenoiseが低い(0.5以下)
>>913 ネガティブプロンプトに
Bad_prompt_version2
とか書いてあったら別途入手が必要やで
あとはClip skipの値が違うとか
例えば、512x512を512x1024とかにサイズ変更した場合に上下にケツが2個結合されたバケモノとか出てこない? モデルを崩さずに縦長の画像にする方法があれば教えてほしいんだけど
もらいもののloraで身体と顔の色が微妙にズレてお面っぽくなるのを修正するテクないかな? インペイントで頑張ったが無理だわ photoshopでやるしかないんかな😅
512×768ぐらいまでは崩れないよ ネガティブに2girlとかマルチViewerはいるけど
抜くにはNAIが一番向いてる気がしてきた 後発は絵が綺麗すぎて抜けない
二次元系で顔二つとかケツが4つに割れてるとかは笑えるけどリアル系モデルでそれが起きるとそれなりに恐怖
controlNetはcannyとopenposeで色々やってたが、そろそろsegmentationを始めようと思った しかしpreprocessoにsegmentationがなかった・・・ ControlNetの78GB全部落としたんやけどこの中にはないんか
裏垢界隈怖いな~
>>883 メモリチップは100度でも問題ない説あるが周辺のコンデンサを熱で劣化早めるから良くない説もあるで
熱対策だけなら両面水冷オススメやで
>>929 アナリティクスが見れるようになってる時点で自演バレバレやで、みんなで語る未解決事件(旧名)くん
>>923 顔が2次元で体が3次元のときにお面になりがちだからJapanese dollとかの3次元系LoRAを0.2ぐらい混ぜると
マシになるときがあったりなかったり
>>931 自演の意思はなかった😥
>>935 ところで淫夢ニキはどういう目的で学習させとるんや?🤔
使う用か?それともどっかに上げとるんか
anythingV4.5とかウイルスが怖いからGoogle colab上で実行したいんやが グラボは自前の方が性能いいからそれ使いたい これってどうやればできますか?
>>936 一応作ったモデルは都度ハギングフェイスで共有してる🥺
特に目的はないやで🥺
実写のグロマン率なんなん 海苔やモザでごまかせんほどやで 美マンloraないんか?
>>890 好みのおはDキャラを学習させるのが早いと思うで
まあしなくてもlipsで唇を出せば年齢高めに見えるんかな?
ちなみにどんなキャラが好きなんや?
>>890 そういう時こそ Loraやで
理想の年増キャラ色々大量に集めて作ったら全部の要素入ったやつも作れる
考えないようにしてたんやがAIが進化すればするほど手描き能力が欲しくなるのやっぱキツイわ 今からデッサン練習しても間に合うか…?
パースとラフ書ければcannyで戦えるから ipadがあればすぐやろ とわいはかんがえている
1111氏が入れてくれたdbは成功したけどkohayaloraずっと吸われるだけで出力してくれないわxformesのせいらしいがきつい金と時間を取られる助けて
AIでやる気失くした絵師が多いから今は手描き練習始めるのに一番ええ時期やろ マネタイズ考えるならオススメはせんが
>>944 パース??
てな感じやけどな‥
テキトーにSeg使ってたら上手くなっていくやろ
Cannyは諦めとく
>>943 他人から金もらって狙った構図の生み出すならデッサンできたほうがええんやろうけど自分のためなら後回しでええやろの精神や
塗りは全部aiなんだから手書き能力はいらなくね 色構図仕上げのセンスが欲しいわ
>>916 --keep_tokens=1
を使って頭のワード固定するとある程度は解決するはず
顔だけは問題なんだよな どこもかしこもアビス顔ばかり 版権キャラに寄せるのも嫌だし オリジナルの顔を獲得する手段はないものか
マイクロソフトさんよ…人間っぽいAIを縛りつけてかわいそうとは思わんか ほんと大企業は余計な事するな
loraでhighres一発生成する時って二重に効いてたりする?
>>955 “Google colab ローカルランタイム”で調べてみたらどうやろか
ワイはやった事ないから知らんけど
>>956 それだとファイルもローカルしか使えなくなるらしいねんな
てかスレ見る限りみんなanythingそもそも使ってないんか?
それなら別にいいんや
てかみんなクラウドでやってるんか?colabに課金? 普通にローカルが主流かと思ってた 初心者ですまん
朝起きてスレが落ちてないとホッとするわ。 ほっしゅ
>>960 さすがにローカルの方が多いと思う
統計なんて取れんけど、クラウドは敷居が高いからそれだけで人口が減る理由になる
1、2回ならともかくずっととなると時間制限などがキツイし垢バンの恐怖もあるからストレスが溜まる
お前らのせいでなんもせんでもズッコケ構図が出てくるやろがい! モデルに何を食わせたんやああ!
>>963 サンガツ
今から始める初心者だから馬鹿みたいな質問してたらすまんな
>>964 chatGPTくん嘘つきだから怖いけど試してみるわ!ほんまサンガツやで
WSL2+Dockerでやってるとたまにメモリ食らい尽くして動作が止まることがあるけどやっぱネイティブで動かしたほうがええんか…?
>>940 それな
chillout系で検証したんだけどイラストミックスモデルはグロまん度が下がる。sundhinemixとかorangechillmixとか。
ただリアル感落ちるからリアル顔重視なら悩ましい。
実写系LoRA混ぜて顔のリアル感上げる手もあるけど、まん方面に裏目に出ることもある諸刃の剣。
step数を下げると多少グロ度緩和。ただし15未満は非推奨。
Clip skip 1推奨。上げるとグロまん度が上がる。
なおClip skipを上げると顔面偏差値は上がる模様…
クラウドって学習始めたらどの位ユニット消費するんだろうな 500ユニットが多いのか少ないのかわからんわ
種付けプレスLoRAが出来たやでLoRAは選別してるときが一番大変やね
特に種付けプレスはホモ系も混じってるからいきなり来られるとダメージでかい
一応キャラLoRAやのけ反りアクメとも併用できるっぽいけどガチャ度高い
まあ来週にはcontrolnetちゃんが発展してこんなポーズも取れそうやけどな
>>937 WLS2でやれば問題無し
winより2割速いので私も移行しました
>>970 ええやんけ!!
顔も絵柄も崩れてなくてのけぞりもあるとか大満足セットやな
>>966 saferensorsのモデルなら大丈夫じゃね?
ckptにマルウェアのリスクあったから登場したのがsaferensors
>>969 colabだと1000円で100支給、1時間で2消費くらいやったかな
GPUとしての速度はそれほどでもないけどVRAM16GBなので普段できないこともできる
お試しでlora作る、みたいな感じやとお手軽かもね
でも環境維持がわりと面倒なのでローカルもあるともちろんよい
>>971 linuxの仮想環境ならウイルスがwinの方まで侵食してくる心配ないんか?
もし本当なら朗報や!
>>974 そんなのがあるんか調べてみるわサンガツ
みんなほんま優しいな こういうスレで初心者ってボコボコにされるかと思ってたわほんまサンガツ
>>548 Eコアが対応しとらんから無効になったんやで
Pコアだけ動かすようにすると対応可能だった気がするがintelおこでできなくなったはず
モデルマージというか階層マージに初挑戦しようと思ってるんだが、 メモリってどれくらい必要?後、マージにかかる時間も教えて欲しい。ケースバイケースだと思うけど大体の目安が欲しい
モデルマージはメインメモリ16Gあれば十分いけると思う DDR4 64GBで1回30秒くらい
>>977 50時間程度か
一発で思うような学習してくれたらええけど
そうじゃ無いなら足りなさそうやな
このスレのニキらはやさしい人多いよな たまになんやねんこいつみたいな態度のもんはボロクソ叩かれるんやがそらどこでもそうなるやろし 普通に質問したら答えられるニキがおれば答えてくれるし、そのとき👶しかおらんかったらスルーされるがそれはもう運やな
>>904 90℃常時超えで怖いのが半田クラック
冷間時との熱収縮でハンダが割れる
そうすると、メモリエラーとかなってノイズが画面一杯に広がり
アボンする
>>984 メインメモリを使用するんだ。知らなかった
32GBだから足りそうです
>>928 モデルとプリプロセッサは別で、ダウンロードしなくてもプリプロセッサは元々あるはずやで。
多分初期のMikubill版にはなかったから更新試すといい。
それはそれとして、同梱のsegのプリプロセッサは精度微妙だから、
https://huggingface.co/spaces/shi-labs/OneFormer 使うのがおすすめや。
一番目と二番目の選択肢は一番右のやつを選んでな。
技術の進化速度が異常だから”そんなことも知らんのか”みたいなのが発生しにくいのもあるかも
>>986 赤ちゃんしか居ないタイミングで質問スルーされて流れていくのちょっと可哀想🙄
手探りの状態からアイデア出し合って攻略してきてるからかな
11月くらいに1070で始めて 大事なとこはまあcolabでええんや!からの4000円課金、 そして結局先週3060買ったワイみたいなのもおるで…あー質問したくなってきた
このスレッドは1000を超えました。 新しいスレッドを立ててください。 life time: 1日 7時間 20分 42秒
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/ ▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250222225200caこのスレへの固定リンク: http://5chb.net/r/liveuranus/1676652520/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。 TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「なんJNVA部★152 ->画像>117枚 」 を見た人も見ています:・なんJNVA部★68 ・なんJNVA部★88 ・なんJNVA部★75 ・なんJNVA部★80 ・なんJNVA部★90 ・なんJNVA部★64 ・なんJNVA部★86 ・なんJNVA部★92 ・なんJNVA部★63 ・なんJNVA部★65 ・なんJNVA部★98 ・なんJNVA部★84 ・なんJNVA部★96 ・なんJNVA部★91 ・なんJNVA部★94 ・なんJNVA部★79 ・なんJNVA部★76 ・なんJNVA部★66 ・なんJNVA部★93 ・なんJnovelAI部 ・なんJNVA部★71 ・なんJNVA部★72 ・なんJNVA部★83 ・なんJNVA部★82 ・なんJNVA部★69 ・なんJNVA部★99 ・なんJNVA部★81 ・なんJNVA部★67 ・なんJNVA部★70 ・なんJNVA部★97 ・なんJNVA部★73 ・なんJNVA部★74 ・なんJNVA部★89 ・なんJNVA部★78 ・なんJNVA部★85 ・なんJNVA部★87 ・なんJNVA部★95 ・なんJNVA部★77 ・なんJNVA部★137 ・なんJNVA部★410 ・なんJNVA部★156 ・なんJNVA部★116 ・なんJNVA部★373 ・なんJNVA部★132 ・なんJNVA部★161 ・なんJNVA部★237 ・なんJNVA部★131 ・なんJNVA部★150 ・なんJNVA部★438 ・なんJNVA部★169 ・なんJNVA部★274 ・なんJNVA部★130 ・なんJNVA部★135 ・なんJNVA部★264 ・なんJNVA部★413 ・なんJNVA部★136 ・なんJNVA部★129 ・なんJNVA部★174 ・なんJNVA部★301 ・なんJNVA部★390 ・なんJNVA部★164 ・なんJNVA部★119 ・なんJNVA部★330 ・なんJNVA部★300 ・なんJNVA部★432 ・なんJNVA部★269