Articles
HiDream-O1-Image を 3〜8 倍速く使う: steps / CFG / 解像度の実測ベンチ
HiDream-O1-Image Full の steps / CFG / 解像度を同一 prompt / seed で振り、生成速度と品質の落とし所を実測した記録。
2026-05-15#hidream#diffusion#imagegeneration#benchmark#gpuHiDream skeleton: openpose ref より prompt が強い (実証 8 パターン)
HiDream-O1-Image (8B Full) の skeleton モードを 8 パターン + layout 3 パターンで実証ベンチ。openpose ref を渡すとかえってポーズが固着し、prompt 経由の指定が強い理由を pipeline.py を読み解いて解説。
2026-05-15#hidream#diffusion#openpose#imagegeneration#ai言語学習ショート動画を Claude Code で再現してみた — Gemini を sub-agent 化したマルチモーダル拡張
Pingo 風言語学習ショート動画コメディを Claude Code 開発環境でローカル GPU + Gemini 3.1 Pro Preview のハイブリッド構成で再現した話。サブエージェント化でメイン agent の context を膨らませず editorial signal だけフロンティアに委ねる。
2026-05-11#claudecode#gemini#ai#shorts#ttsLTX-2 22B を fp8_cast で peak VRAM 40% 削減した話 — optimum-quanto は罠だった
LTX-2.3 22B の量子化を試した記録。optimum-quanto は LTX-2 transformer と互換性問題で動かず、LTX-2 native の `QuantizationPolicy.fp8_cast()` に切り替えて peak VRAM を 40 GiB → 24 GiB(cold-start, 768×512)に圧縮。3 解像度のベンチマークと cold-start / persistent の使い分け判断まで。
2026-05-11#ltx2#quantization#fp8#diffusion#gpuLTX-2.3 を 96GB GPU 1 枚で TTS と同居させる cold-start 構成
音声ロールプレイ製品に LTX-2.3 を組み込む際、persistent モードでは 86 GiB を VRAM に置きっぱなしになり TTS/Ditto と同居できない。cold-start に切り替えて idle 0 GiB / peak 40 GiB を達成した実装記録。
2026-05-10#ltx2#vram#cold-start#bitsandbytes#blackwell