2025年5月29日木曜日

PENTAX K-3 mark 3の背面液晶が表示されない

 DA21mm limitedを付けたK-3 mark 3

私は20年来くらいのPENTAXユーザーでして、現在はK-3 mark 3を使ってます。
※3のmark 3ってw

で、主題の通り背面液晶が表示されなくなりました。ライブビューは表示されるので液晶自体には問題がなく、てっきりモニターをoffにしたものだと思ったのですがinfoボタンを押しても解消されません。

とりあえずChatGPTにも聞いてみましたが解決しなかったのでリコーイメージングに電話。
まず最初の状態を説明して、最初にやったのがアイセンサーのふき取り。軽くアルコールをつけて拭いてみたところすぐ液晶が表示されました。え?

見たところ汚れた様子とかまったくなかったのでアイセンサーは疑ってなかったのですが、まさかここが反応していたとは・・・ と驚きました。

というわけで同じく表示されなくなった人は汚れていないと思っても吹いてみたほうが良さそうです。

2025年5月9日金曜日

Flux.1のLoRA学習が辛い

偶然できたナイスな一枚

私、Flux.1ではCopaxTimelessというチェックポイントが好きでしてメインで使っております。

Copaxさん、ありがとうございます。

https://civitai.com/models/118111?modelVersionId=1273458

Civitaiのスクショ

単体でもいいんですけど、NSFWなものをいろいろ作りたくてですね、試行錯誤しているんです・・・
テキストエンコーダーのT5をトレーニング対象にしたり、パラメータを変えたり・・・

いきなり複雑なものを作るのも難しいのでヌード程度からやってみようとしているんですが、これはこれで精細さが出せません。ということでAIに聞いてみたんですが、結構な枚数が必要なようで(全体像に200枚から300枚+パーツの画像数千枚)

えっと・・・LoRA作るんだよね?ファインチューニングじゃないよね?って感じなんですがそのくらいやらないと駄目なようでして・・・ 先は長いです。

2025年3月29日土曜日

FluxGymでlibraryのimportエラーがでる

今回の話とは全く関係のない画像

既存のモデルで出しづらい画像があったのでちょっとLoRAを作ってみようと、Stability MatrixにFluxGymを入れてみました。

インストールそのものは何のこともなく、WebのUIが立ち上がってトレーニングを開始したのですが、train.bat実行後に以下のメッセージが出ました。

ModuleNotFoundError: No module named 'library'

pip install されてないのかなぁ、とか思ったらそうではなくsd-scriptフォルダにlibraryはありました。

sd-scriptディレクトリ

ということは実行されているパスから見えないということなので、flux_train_network.py に以下の追記をして無理やり解決しました。

flux_train_network.pyの一部

本来的にはワーキングディレクトリを指定してやるのがいいのかなぁとか思っているもののとりあえず応急処置ということで。

実行できましたが、GPUが使われていないと以下のメッセージ。

The installed version of bitsandbytes was compiled without GPU support. 8-bit optimizers, 8-bit multiplication, and GPU quantization are unavailable.

調べるとtorchがCPUしか使わない状態だったので、以下のコマンドでインストールを行う

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124

※参考URL:https://pytorch.org/ cudaのバージョンは各環境に合わせてください。

ここまでで実行できるようになり、さてトレーニングをしたのですがなかなか望む結果にはなりません。繰り返しを増やせばいいのか、エポックを増やせばいいのか。単に増やすだけでは時間もかかり過学習になるようですし。VRAM増やしたい・・・

2025年3月21日金曜日

スマート家電リモコン(RS-WFIREX4)がiOS 18でWiFiにつながらない

 AIが考えたリモコンを操作するイメージ

かれこれ4-5年くらい前にかったラトックのスマート家電リモコンがWiFiにつながらなくなりました。厳密にいうとつながってたんですがタイマー設定がうまくいかなかったのでいったんリセットして接続しなおそうとしたけどできませんでした。

我が家のWiFiルーターはバッファローなんですが、WPSでも接続ができず、通常の接続もiPhone側がスマート家電リモコンに接続しようとして失敗し接続ができません。

https://iot.ratocsystems.com/support/rs-wfirex4/

上記に記載があるように、いろいろ手を尽くしましたが結局つながりません。

そこで古いiPadがあったのでそちらで試しました。こちらはiPadOS 17でした。

結果的につながったのですが、特別何かをしたわけではないのでひょっとしたらiOS 18ではRS-WFIREX4はセキュリティ的に繋げられないのかもしれません。

iOS側で設定が変えられるかもしれませんが、とりあえずつながったので良しとしまして、次はより新しいものを買いましょう。

2025年3月19日水曜日

画像生成AIのおかげでテーマを変えられた

 


画像は非実在Catです。「毛糸玉で遊ぶメインクーンの子猫。部屋はアイボリー基調、床はライトブラウン」とだけ指定しました。アイボリー基調が抜けている気がしますが。

カスタムテーマを探す際にネックになるのが画像でして、大体のテーマが一覧で画像が表示されるんですね。

こちらThemeXPoseを参照するとわかるんですが、基本画像メインです。ものによっては正方形じゃないとハマらないテーマとかもあります。

そんなわけで、こちらのテーマ「Typography」をしばらく使ってたのですが、もう縛られる必要はないと。

画像のアスペクト比は固定したくはないので、正方形固定とかはちょっと使いづらいのですが、選択肢が大幅に増えました。

2025年3月18日火曜日

Stable DiffusionによるアップスケールはFlux.1だとまだ遅い

CopaxTimelessで出力した画像

※上記画像はTileを使わずにただ2倍にアップスケールしています。

正確に検証したわけではないですが、以下の条件で検証しました。
なお、Stable DiffusionとWabeSpeedは併用できないようだったので併用していません。

とりあえず4Kアップスケールまで試してみましたが、
4Kだと最初のロードに時間がかかりすぎて終わったのは8時間後。なんて結果でした。

ワークフローの一部

アップスケールしたいサイズが小さいうちはタイルサイズを512x512とかにしても良いのですが、それを4Kでやると分割数が多すぎてロードに時間がかかりすぎるなんてことになります。

とはいえ、1024x1024にしても時間はかかるのでVRAMとモデルサイズの関係なのかと思っています。

ちなみにSDXL系でも試してみましたがこちらは数10秒でアップスケールができていたので8Kアップスケールでもできるのでしょう。

以下にワークフローのjsonを置いておきます。

Flux用のワークフロー

SDXL用のワークフロー


2025年3月8日土曜日

Stability Matrixだけあればいいと思っていたがそんなことはなかった


先月記事を書いた時点ではStability Matrixさえあれば他のUIなんていらないと思ってたんです。

「Inference最強や!」とか思ってたんです。

実際、InferenceでText to Image、Image to Image、Upscale、Image to Videoができます。

ですが、いろいろやってくるとやっぱりバックエンドで動いているComfyUI使っちゃうんですよね。

例えばInferenceでFlux.1もStable Diffusion 3.5も動作させられます。(やや、設定が面倒ですが)

でも遅いんですよね、まぁモデルがでかいんでしょうがないのですが。

ちなみにInferenceでFlux.1を動かすときはこんな感じの設定にします。

InferenceのModel設定箇所

手順は以下です。まず必要なものをダウンロードして然るべき場所に配置しておきます。

モデル
私の好きなCopaxTimeless
https://civitai.com/models/118111?modelVersionId=1273458
Models\Unetに配置
別にこのモデルである必要はないのでFlux.1 DとかFlux.1 Sの好きなモデルを探してみると良いと思います。

VAE
ここからダウンロード
https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/ae.safetensors
Models\VAEに配置

Encoder
textencoders配下のファイルをダウンロード
https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main
Models\CLIPに配置
※SD3のものですが使えるはずです。適宜変えてみるのも良いでしょう

なお、上記ディレクトリはポータブルでインストールするとData配下にあります。

歯車アイコンをクリックして、Model  Loaderを表示

  1. Model LoaderでUNetを選択
  2. ModelでFlux.1のモデルを選択
  3. Precisionでfp8_e4m3fnあたりを選択
  4. VAEでaeを選択
  5. Encoder Typeでfluxを選択
  6. Encoder 1でClip lを選択
  7. Encoder 2でT5xx系を選択

こんな感じです。ちなみにGGUFっていうのもありまして、その際は1.で選択するのがGGUFになり、3.が不要になる感じです。
なお、GGUFはファイル形式のことで量子化(簡単に言うと軽量化)してあるかはまた別の話のようです。

次にSamplerあたりはこのように設定しておきます。
Use Flux Guidanceはデフォルトでは表示されていないので、Addonsの+をクリックして表示させトグルで有効にします。

Samplerの設定

StepsとかCFG Scaleは適宜調整しますが、低めが安定している感じです。サイズは1024x1024以上でも大丈夫です。

モデルで作成した参考画像にプロンプトも記載されているので取ってきます。
https://civitai.com/images/51162633
※画像ではSteps20のCFG 4にしていますが、サンプルに合わせて設定しなおしました

できました
何枚か作成しましたが、最初はロードに時間がかかって50秒程度、そのあとは30秒程度でした。
Upscalerまで入れないのならまだいいんですが、Upscaler入れると遅くなっちゃうんですよね。
試してみましょう。

アップスケール設定

アップスケールのモデルが存在しない場合はUI上でダウンロードできます。いや、できたはず!

遅いなぁ~、遅いなぁ~、まだかなぁ~(´・ω・`)

はい、できました。335秒です・・・
1枚ならいいもの大量に作成させてその中から選ぶのにはしんどいですね。まぁ、いいの選んでからアップスケールかければいいんですが・・・

できたやつ

なんでこんなに変わるかというとワークフローの問題なんですね。画像をComfyUIに放り投げるとワークフローが表示されます
※ComfyUIで作った場合、InferenceはバックエンドでComfyUI使っているからできる

確認するとわかるんですが、サンプリング2回やってるから遅いんです。しかも2回目がアップスケール後なんでより遅い。

そんなこと考えていたらすげーやつを発見しました。

https://github.com/chengzeyi/Comfy-WaveSpeed

インストール方法とか細かいことは書く余裕があれば後日書きます。
これ使うと2倍から3倍くらい早くなるんですよ、マジで。ちょっとワークフローを書き換えます。

変わったところらへんだけ

えっと、最初のサンプリングは2倍くらい早くなったんですが、アップスケール後のサンプリングはあまり変わりませんでした・・・ これ画像サイズのせいですね・・・

私の使っているグラボは4070 ti superで16GBあるんですけど、画像サイズがでかいので限界って感じですね。Tiled Diffusionとか使えば早くなると思います。これはあまり試していないので、試したうえでまた記事を書きたいと思います。今日はここまでで・・・