ComfyUI コントロールネットの詳しい使い方 SD1.5 / SDXL
今回はComfyUIのコントロールネットについて解説します。ComfyUIでコントロールネットを使う場合は構成は複雑ですが、基本的なことは標準インストールで使用できます。
Team DDR4 3200Mhz PC4-25600 16GBx2枚(32GBkit) デスクトップ用メモリ Elite Plus シリーズ 日本国内無期限正規保証
¥6,980
値引き¥1,600 (19%)
ASIN:B093GNJS1T
シリコンパワー デスクトップPC用 メモリ DDR4 3200 PC4-25600 16GB x 2枚 (32GB) 288Pin 1.2V CL22 SP032GBLFU320F22
¥6,480
値引き¥6,320 (49%)
ASIN:B08K8P41DJ
Crucial(クルーシャル) PRO (マイクロン製) デスクトップ用メモリ 16GBX2枚 DDR4-3200 メーカー制限付無期限保証CP2K16G4DFRA32A【国内正規代理店品】
¥8,061
値引き¥1,619 (17%)
ASIN:B0C29R9LNL
シリコンパワー デスクトップPC用 メモリ DDR3 1600 PC3-12800 8GB x 2枚 (16GB) 240Pin 1.5V CL11 Mac 対応 SP016GBLTU160N22
¥2,371
値引き¥1,109 (32%)
ASIN:B0094P98BY
【Amazon.co.jp限定】CORSAIR DDR4-3200MHz 2022限定モデル デスクトップPC用 メモリ VENGEANCE LPX シリーズ 32GB [16GB×2枚] CMK32GX4M2C3200C18
¥7,969
値引き¥4,000 (33%)
ASIN:B09QPWRWLY
シリコンパワー デスクトップPC用メモリ DDR4-2666(PC4-21300) 16GB×2枚 288Pin 1.2V CL19 SP032GBLFU266X22
¥6,480
値引き¥800 (11%)
ASIN:B09W1BGMGV
シー・エフ・デー販売 CFD販売 CFD Standard デスクトップ用 メモリ DDR4 3200 (PC4-25600) 16GB×2枚 288pin DIMM 相性保証 W4U3200CS-16G
¥6,873
値引き¥663 (9%)
ASIN:B0BB21KR4K
CORSAIR DDR4-3200MHz デスクトップPC用 メモリ VENGEANCE LPX シリーズ 32GB [16GB×2枚] CMK32GX4M2E3200C16
¥8,669
ASIN:B07RW6Z692
CORSAIR Corsair DDR4-3200MHz デスクトップPC用 メモリ VENGANCE RGBシリーズ 32GB [16GB×2枚] ホワイトCMW32GX4M2E3200C16W
¥11,469
ASIN:B08S9BLC36
【Amazon.co.jp限定】CORSAIR DDR5-6000MHz デスクトップPC用メモリ VENGEANCE DDR5シリーズ (PC5-48000) Intel XMPメモリキット 32GB ブラック [16GB×2枚] CMK32GX5M2E6000C36
¥12,969
値引き¥3,000 (19%)
ASIN:B0BZHW15KF
ComfyUIでコントロールネットの基本的な使い方
まずは標準のコントロールネットの使い方を見ていきましょう。コントロールネットに必要なノードはAdd Node > conditioning > controlnet
にあるノードとAdd Node > loaders
にある「Load ControlNet Model」を使っていきます。
コントロールネットモデルのダウンロード
コントロールネットを使うにはそれぞれのモードに対応したモデルが必要です。ここではコントロールネットの開発者が公開しているV1.1用モデルを紹介します。
一度にすべてのモデルをダウンロードする必要はないので、まずは後ほど使用するcontrol_v11p_sd15_scribble.pth
とcontrol_v11p_sd15_scribble.yaml
をダウンロードしてComfyUIのディレクトリ内のComfyUI/models/controlnet
に置きましょう。
今回紹介したモデルの他にもSD1.5/SDXL用モデルがあります。前回の記事にて詳しく紹介しているので興味のある方はそちらを参照ください。
コントロールネットグラフの基本
コントロールネットグラフは基本的にはポジティブ・ネガティブプロンプトとサンプラーの間に入りコンディショニングを変更しています。
コントロールネットを適応させるノードとして「Apply ControlNet」と「Apply ControlNet (OLD)」がありますが、「Apply ControlNet (OLD)」はdeprecationになっているので「Apply ControlNet」を使いましょう。
あとはモデルを読み込む為の「Load ControlNet Model」が必要となります。
プリプロセッサーについて
ComfyUIのプリプロセッサーは標準インストールに含めるとデータが巨大になるため、カスタムノードとして別途インストールする必要があります。
インストール方法はComfyUI ManagerのCustom Nodes ManagerでComfyUI's ControlNet Auxiliary Preprocessors
を検索してインストールしてください。
カスタムノードについては下記のページで詳しく解説しているので参照ください。
A1111 WebUIのControl Typeの様なテンプレートはないので、マニュアルで組み合わせる必要があります。各プリプロセッサーの機能は前回の記事「Control Typeについて」にて紹介しているのでそちらを参照してください。
ノードの使い方はすべてを解説はしていませんが、後ほど紹介する使用例を参考にしてください。
公式のワークフローの解説
それでは公式のワークフロー例をダウンロードしてラフ画からイラストを生成してみましょう。
リンク先のページの「Scribble ControlNet」にあるワークフローの画像をダウンロードしてComfyUIにドラッグ アンド ドロップするか、Loadボタンより読み込んでください。また、インプット画像も後ほど使いますのでダウンロードしておきましょう。
読み込みが完了したら「Load Checkpoint」ノードのckpt_nameより、お好きなモデルを読み込んでください。
続いて「Load ControlNet Model」ノードにコントロールネットモデルを読み込みます。今回はScribbleを使うのでcontrol_v11p_sd15_scribble.pth
を選択してください。
「Load Image」に先ほどダウンロードしたサンプル画像を読み込みます。
以上で設定は完了です。「Queue Prompt」をクリックして生成をしてみましょう。
公式のScribble ControlNet Examplesを改良してみる
ここからは公式のScribble ControlNet Examplesをもう少し実用的なControlNetワークフローに改良してみようと思います。以下に組み込みたいリストを纏めました。
- SDXLモデルで生成。
- 生成画像を横長にしたいのでインプット画像を調整する。
- Clip skipを適応させる。
- LoRAを導入して「Zoot Detailer XL」を適応させる。
- 品質向上のためネガティブ エンベディングの「negativeXL_D」を実装。
- 生成品質が良くないのでセカンドパスを実装。
それでは順を追って説明します。
インプット画像の調整:
今回のカスタムで生成画像をSDXLサイズにするために512×512サイズのインプット画像を1216×832サイズの真ん中に配置しようと思います。
「Load Image」の後に「ImageCompositeMasked」を追加してsourceに繋ぎましょう。続いて「EmptyImage」を配置してIMAGEアウトをdestinationに繋ぎます。
「Empty Latent Image」と「EmptyImage」の大きさを揃えたいのでそれぞれのwidth/heightをノードの右クリック メニューよりConvert width/height to inputでwidth/height値を外部化しましょう。「Primitive」を2つ配置してそれぞれwidth/heightに接続します。また、コントロールネットに送る画像の確認のために「ImageCompositeMasked」のIMAGEアウトを「Preview Image」に繋ぎます。
- ImageCompositeMasked:image > ImageCompositeMasked
- EmptyImage:image > EmptyImage
- Primitive:utils > Primitive
- Preview Image:image > Preview Image
Clip skip / LoRAの適応:
「Load Checkpoint」のCLIPアウトに「CLIP Set Last Layer」を繋ぎ、「CLIP Set Last Layer」のCLIPアウトに「Load LoRA」も繋ぎます。「Load LoRA」のCLIPアウトは2つの「CLIP Text Encode (Prompt)」に繋いでください。そして、「Load Checkpoint」のMODELアウトは「Load LoRA」に繋ぎそこから「KSampler」に繋ぎます。
- CLIP Set Last Layer:conditioning > CLIP Set Last Layer
- Load LoRA:loaders > Load LoRA
Seedの共有化:
KSamplerノードの右クリック メニューよりConvert seed to inputでSeed値を外部化します。seedインプットの●をドラッグすると選択できるノード一覧が出てくるので「Primitive」を選択してください。
- Primitive:utils > Primitive
Apply ControlNetのアップデート:
サンプルに使っている「Apply ControlNet (OLD)」はdeprecationになっているので新しい「Apply ControlNet」に差し替えます。
「Apply ControlNet」を配置したらposivive/negativeにそれぞれの「CLIP Text Encode (Prompt)」を繋ぎ、control_netに「Load ControlNet Model」を繋ぎましょう。最後に「ImageCompositeMasked」のIMAGEアウトをimageに繋ぎます。vaeは繋がなくても問題ありません。
- Apply ControlNet:conditioning > controlnet > Apply ControlNet
セカンドパスの実装:
セカンドパスの為に画像を拡大します。「VAE Decode」の後に「Upscale Image By」を繋ぎましょう。
サイズ調整した画像をlatent imageに変換する為に「VAE Encode」で変換します。
1回目のKSamplerを選択状態にしてCtrl + c
でコピーします。そして、Ctrl + Shift + v
でインプットを引き継いだままコピーできるので、繋がったまま希望する位置へ持っていきましょう。
位置が決まれば先ほどの「VAE Encode」で変換したLATENTを2回目のKSamplerのlatent_imageインプットに繋ぎます。
ポジティブプロンプトの「CLIP Text Encode (Prompt)」をCtrl + Shift + v
でコピーして2回目のKSamplerのpositiveに繋ぎ下記のアップスケール用プロンプトに書き換えましょう。
very detailed, intricate details, ultra detailed, masterpiece, best quality
- Upscale Image By:image > upscaling > Upscale Image By
- VAE Encode:latent > VAE Encode
- KSampler:sampling > KSampler
- CLIP Text Encode (Prompt):conditioning > CLIP Text Encode (Prompt)
以上でScribble ControlNet Examplesの改良版が完成しました。完成後のワークフローはPatreonで無料公開していますので参考にしてください。
改良したScribble ControlNet Examplesを使ってみる
チェックポイント モデルの選択:
「Load Checkpoint」のckpt_nameでモデルを指定しましょう。今回はSDXLモデルAnythingXL_xl
を使用します。モデルに関してはお好きなモデルを使用しても問題ありませんが、パラメーターをモデルに対して少し調整する必要があります。
Clip skipの設定:
A1111 WebUIでいうところのClip skip: 2にしたいので「CLIP Set Last Layer」のstop_at_clip_layerを-2
に設定します。
LoRAの読み込み:
「Load LoRA」のlora_nameでLoRAモデルを選択しましょう。ディテールを出したかったのでZoot Detailer XL
を読み込んでいます。パラメーターはデフォルトのまま使用します。
VAEの読み込み:
「Load VAE」のvae_nameでVAEモデルのsdxl.vae.safetensors
選択しましょう。
オフィシャルのVAEより軽い「madebyollin/sdxl-vae-fp16-fix」を使っています。下記のリンクより「sdxl.vae.safetensors」ダウンロードしてください。
インプット画像の設定:
「Load Image」にインプット画像を読み込ませましょう。公式のワークフローにあるサンプル画像を読み込みます。
「Empty Latent Image」と「EmptyImage」につながっている「Primitive」のwidthを1216
heightを832
に設定します。
「ImageCompositeMasked」でSDXLモデルに対応する大きさに変更しましょう。xを354
yを160
に設定してインプット画像を中央に配置します。
プロンプトの変更:
今回使用するモデルに合わせてプロンプトを追加します。下記のプロンプトをポジティブ・ネガティブそれぞれに上書きしましょう。
ポジティブプロンプトmasterpiece, best quality, white dress, (solo) girl (flat chest:0.9), (fennec ears:1.1) (fox ears:1.1), (blonde hair:1.0), messy hair, sky clouds, standing in a grass field, (chibi), blue eyes
nude, (hands), text, error, cropped, (worst quality:1.2), (low quality:1.2), normal quality, (jpeg artifacts:1.3), signature, watermark, username, blurry, artist name, monochrome, sketch, censorship, censor, (copyright:1.2), extra legs, (forehead mark) (depth of field) (emotionless) (penis)
今回使用している「Anything XL」の品質修飾タグとしてmasterpiece, best quality
を追加しています。また、テストで生成しているところ裸の画像が生成されていたので、ポジティブプロンプトにwhite dress
ネガティブプロンプトにnude
を追加しています。
ネガティブ エンベディングの適応:
ネガティブ エンベディングの「negativeXL – D」を適応したいのでネガティブプロンプトの先頭に下記のプロンプトを追加します。
embedding:negativeXL_D,
negativeXLをお持ちでない方は、下記のリンクよりダウンロードして\ComfyUI\models\embeddings
に置きましょう。
コントロールネットの設定:
コントロールネットモデルはxinsir氏が公開しているSDXL用のScribbleモデルcontrolnet-scribble-sdxl-1.0
を使用します。(※公式が紹介している「kohya_controllllite_xl_scribble_anime」はエラーで使えませんでした。)下記のリンクよりdiffusion_pytorch_model.safetensors
をダウンロードしてxinsir-controlnet-scribble-sdxl-1.0.safetensors
の様にに分かりやすいファイル名に変更して\ComfyUI\models\controlnet
ディレクトリに置きましょう。
「Apply ControlNet」のstrengthは影響力が強かったので0.50
に設定します。start_percentとend_percentはデフォルトのまま使用します。
1stパスの設定:
stepsを標準的な20
に設定します。
cfgはデフォルトではコントラストが高かったので、少し下げて5.0
に変更しましょう。
samplerはお好みで問題ありませんがdpmpp_2m
を選択して、schedulerはkarras
を使います。
アップスケールの設定:
「Upscale Image By」でアップスケールの設定をしましょう。今回の例ではSDXLなのであまり大きくしなくて良いのでupscale_methodをlanczos
に設定してscale_byを1.50
にします。
2ndパスの設定:
ステップ数を上げて仕上がりを良くしたいところでしたが上げてもあまり変わらなかったので20
のまま使います。
プロンプトをあまり強調させない為にCFGを3.0
に設定しましょう。
サンプラーは好みで選んでも問題ありませんが、今回は1st Passと同じdpmpp_2m
とkarras
の組み合わせにしています。
書き込み量を増やしたいのでDenoising strengthを0.60
に設定しましょう。
生成:
以上で設定は完了なので、「Queue Promt」ボタンで生成しましょう。
生成結果コントロールネットの使用例
ここかからはA1111 WebUIに近いワークフローを紹介します。インプット画像からコントロールネットに適した画像に変換する為にカスタムノードの「ComfyUI’s ControlNet Auxiliary Preprocessors」は必須になりますので、インストールしましょう。また、2ndパスに送る画像を任意にするために「Image Chooser」も使っています。
ポーズの参照
ポーズの参照はDensePose Estimatorを使って人物を解析してSDXLモデルを使って生成しています。複数のコントロールネットの適応例も使っています。まずはPatreonからダウンロードしてみましょう。
ワークフローの解説Basic Info
- Load Checkpoint:Checkpointモデルを読み込みましょう。例では
animagineXLV31_v31
を使います。 - CLIP Set Last Layer:A1111 WebUIでいうところのClip skip: 2にしたいのでstop_at_clip_layerを
-2
に設定しましょう。 - Load LoRA:LoRAを読み込みます。今回はディテールを出す
add-detail-xl
をつかいます。strength_modelを2.00
にしてさらにディテールを出しましょう。 - Primitive-Seeds:KSamplerに使うSeedを外部化してこのノードで共有しています。
- CLIP Text Encode (Prompt)-Positive:ポジティブプロンプトはスケーターと背景のプロンプトを入力しています。
- CLIP Text Encode (Prompt)-Negative:ネガティブプロンプトはあまり入れ過ぎずシンプルにしましょう。
- Empty Latent Image:今回の生成はSDXLモデルを使うので適したサイズの
1344x768
に設定しています。
Load Image
まずはUnsplashからお借りした🔗昼間にスケートボードのトリックを披露する男性を読み込みましょう。
読み込みが完了したらスケーターをマスクしたいのでノードの右クリックメニューからOpen in MaskEditorを選択してスケーターをマスクします。
Mask
マスクを今回生成する大きさに変更する為のグラフになります。
- Convert Mask to Image:マスクを編集するには一度Imageに変更する必要があるのでこのノードで変換しましょう。
- Enchance And Resize Hint Images:生成サイズに変換します。大きさはImage Compositionグループにある「Generation Resolution From Latent」で摘出したサイズを適応させています。
- Invert Image:スケーターを抜き出したいのでマスクイメージの白黒を反転させましょう。
- ImageBlur:マスクの境界線をスムーズにしたいのでブラーをかけます。
- Convert Image to Mask:最後にイメージからマスクに変換します。
Image Composition
インプット画像は縦長なのですが、生成したいサイズは横長にしたいと思います。このグラフでサイズ変更して、さらにマスクを使ってスケーターを貼り付けましょう。
- Enchance And Resize Hint Images:生成サイズに変換します。「Generation Resolution From Latent」で摘出したサイズを適応させましょう。
- Generation Resolution From Latent:LatentImageの大きさを摘出しています。
- Join Image with Alpha:リサイズしたインプット画像からマスクを使って抜き出します。
- Preview Image:抜き出した画像の確認のために設置しています。
Preprocess
コントロールネットに適応した画像にするために変換しています。
- DensePose Estimator:インプット画像からDensePoseを生成します。
- AnyLine Lineart:インプット画像からLineartを生成します。今回は
lineart_realstic
を使用しています。 - Preview Image:各プリプロセッサーの確認のために設置しています。
ControlNet
コントロールネットを複数適応する場合はこのグラフの様に設置します。
- Load ControlNet Model-Densepose:DensePoseをSDXLで使うために
jschoormans-controlnet-densepose-sdxl.safetensors
を使います。以下のリンクよりdiffusion_pytorch_model.safetensorsをダウンロードしてjschoormans-controlnet-densepose-sdxl.safetensors
の様に分かりやすい名前に変更します。 - Apply ControlNet-Densepose:DensePoseを適応します。strengthを
0.70
に設定して少しウェイトを弱めます。背景を彩画するためにstart_percentを0.050
にしています。 - Load ControlNet Model-Lineart:スケーターのラインアートを参照する為に
xinsir-controlnet-scribble-sdxl-1-0.safetensors
を使います。以下のリンクよりdiffusion_pytorch_model.safetensors(V2でも問題ありません)をダウンロードしてxinsir-controlnet-scribble-sdxl-1-0.safetensors
の様に分かりやすい名前に変更します。 - Apply ControlNet-Lineart:スケーターをアーティスティックに彩画したいのでウェイト少し下げた
0.90
にします。ココでも背景を彩画するためにstart_percentを0.100
にしています。そして、全体にもプロンプトを反映させたいのでend_percentを0.900
にしています。
1stPass
ほとんどデフォルトですが、cfgを5.0
サンプラーをdpmpp_2m
スケジューラーはkarras
にしています。
Preview Chooser
1stPassで生成された画像確認のために導入しています。結果に満足すれば「Progress selected image as restart」ボタンで先に進めます。
Upscale
今回は「ImageScaleToTotalPixels」を使ってアップスケールしています。大きさは3.00
メガピクセルにしています。
2ndPass
1stPassとほとんど同じにしています。denoiseを0.40
にして新たな書き込み量を調整しています。
ポーズの参照の解説は以上になります。
生成結果生成画像の細密化
SDXLモデルでTileを使って細密化をします。このワークフローではカスタムノードの「Tiled Diffusion & VAE for ComfyUI」を使いますのでインストールしておきましょう。まずはPatreonからダウンロードしてみましょう。
ワークフローの解説Basic Info
ワークフローの基本情報がまとめられています。
- Marge Checkpoints:チェックポイントモデルをマージします。詳しくは次の項目で解説します。
- CLIP Set Last Layer:A1111 WebUIでいうところのClip skip: 2にしたいのでstop_at_clip_layerを
-2
に設定します。 - Load LoRA:LoRAを読み込みます。今回はディテールを出す
add-detail-xl
をつかいます。strength_modelを3.00
に設定し、さらに書き込み量を増やしています。 - Empty Latent Image:今回の生成はSDXLモデルを使うので適したサイズの
1344x768
に設定しています。 - Primitive-Seed:KSamplerに使うSeedを外部化してこのノードで共有しています。
- CLIP Text Encode (Prompt)-Positive:特別なことはしていませんが、中世の城下町の市場に立つ少女のプロンプトです。
- CLIP Text Encode (Prompt)-Negative:ネガティブプロンプトの「negativeXL_D」を使っています。あとは目の瞳孔がピンクのイラストが生成されていたので
heart pupils
を使っています。
Marge Checkpoints
チェックポイントモデルをマージしたい時のグラフになります。「ModelMergeSimple」を使ってマージしています。CLIPはベース・サブの好きな方を使いましょう。
- Load Checkpoint-base:ベースになるチェックポイントモデルになります。
fiamixXL_v40.safetensers
を使います。 - Load Checkpoint-sub:サブになるチェックポイントモデルになります。少しだけアニメ調に近づけたかったので
AnythingXL_xl.safetensers
を使います。今回はコチラのClipを使います。 - ModelMergeSimple:チェックポイントモデルをマージします。retioは1.00でmodel1(base)が100%になるので
0.85
に設定して少しだけサブの要素を追加しています。 - Save Checkpoint:マージしたチェックポイントモデルを保存したい場合はコチラのノードを使います。
1stPass
ほとんどデフォルトですが、cfgが4.0
、サンプラーをeuler
スケジューラーはbeta
にしています。
Preview Chooser
1stPassで生成された画像確認のために導入しています。結果に満足すれば「Progress selected image as restart」ボタンで先に進めます。
Upscale
- Load Upscale Model:アップスケーラーモデルを読み込みます。今回は
4x-foolhardy_Remacri.pth
を使用します。 - Upscale Image (using Model):アップスケーラーモデルを使ってアップスケールします。
- ImageScaleToTotalPixels:指定したピクセルで画像で拡大/縮小します。縦横比は維持されます。
Preprocess
「TTPlanet Tile GuidedFilter」を使ってコントロールネット用に変換します。resolutionを1024
にしています。VRAMが少ない方はデフォルトの512
または768
で使用します。
ControlNet
- Load ControlNet Model:SDXL用のTileモデル「ttplanetSDXLControlnet_v20Fp16.safetensors」を使っています。
- Apply ControlNet:あまり影響力はありませんが、end_percentで仕上がりを調節できます。今回は平均的な
0.500
で使用します。この値が高すぎると書き込み量が減り、コントラストの高いイラストが生成されます。2ndPassのdenoiseとのバランスで書き込み量を調整します。
Tiled Diffusion
- Tiled Diffusion:Tiled Diffusionのタイルサイズを設定します。今回は
1024
で使用します。VRAMが少ない方はデフォルトの768
または512
で使用します。 - Tiled VAE Encode:TileのLatentを作成します。こちらも
1024
で使用します。この値もVRAMが少ない方は下げましょう。
2ndPass
コチラもほとんどデフォルトですが、cfgを7.0
サンプラーをeuler
スケジューラーはbeta
にしています。denoiseで書き込み量を調整します。今回は0.40
に設定します。
Tiled VAE Decode
Tiled VAE Decodeを使ってデコードします。コチラもVRAMが少ない方はtile_sizeを下げましょう。
生成画像の細密化の解説は以上になります。
生成結果ハイスペックマシンをお持ちの方はUpscaleグループの「ImageScaleToTotalPixels」にあるmegapixelsを6.00
や8.00
で試してみるのも良いでしょう。
生成された8.00メガピクセル(3824 x 2184ピクセル)を見てみたい方は下記のGooleDriveからダウンロードしてみましょう。
まとめ
今回はComfyUIでのControlNetの使用方法をご紹介しました。A1111 WebUIと比較すると、ControlNetにはコントロールタイプのようなテンプレートがないため、少し複雑に感じるかもしれません。しかし、使いこなせば生成プロセスを細かくコントロールできます。
また、今回は紹介しませんでしたが、公式が紹介しているT2I-Adapterを使用することで、さらに高速に生成することが可能です。さらに、AI動画にControlNetを使用したい場合は、カスタムノードの「ComfyUI-Advanced-ControlNet」を利用することをオススメします。
玄人志向 NVIDIA GeForce RTX4060 搭載 グラフィックボード GDDR6 8GB 搭載モデル 【国内正規品】 GG-RTX4060-E8GB/SF
¥42,409
値引き¥7,894 (16%)
ASIN:B0CG69V3H6
MSI GeForce RTX 3060 VENTUS 2X 12G OC グラフィックスボード VD7553
¥40,980
値引き¥4,444 (10%)
ASIN:B08WPRMVWB
ASUSTek NVIDIA RTX3060 搭載 Axial-techファンと2スロット設計 DUAL-RTX3060-O12G-V2
¥46,627
ASIN:B097P6C9HJ
MSI GeForce RTX 4060 Ti VENTUS 2X BLACK 8G OC グラフィックスボード VD8517
¥63,736
値引き¥6,769 (10%)
ASIN:B0C5B4XNWR
MSI GeForce RTX 4070 SUPER 12G VENTUS 2X OC/A PCIe4.0 2スロット・2ファン搭載 省スペース グラフィックスカード VD8751
¥97,800
値引き¥10,388 (10%)
ASIN:B0CRZ67KXX
GIGABYTE NVIDIA RTX3050 搭載 グラフィックボード GDDR6 6GB【国内正規代理店品】 GV-N3050OC-6GL
¥27,800
値引き¥6,039 (18%)
ASIN:B0CVSGRV4G
GIGABYTE NVIDIA GeForce RTX4060 搭載 グラフィックボード GDDR6 8GB【国内正規代理店品】 GV-N4060D6-8GD
¥44,364
ASIN:B0CS2B592J
玄人志向 NVIDIA GeForce RTX3060 搭載 グラフィックボード GDDR6 12GB GALAKURO GAMINGシリーズ 【国内正規代理店品】 GG-RTX3060-E12GB/OC/DF
¥52,000
ASIN:B08XMC4QJ1
MSI GeForce RTX 4070 VENTUS 2X E 12G OC 2ファン コンパクトサイズ グラフィックスカード VD8664
¥93,919
ASIN:B0CHVP7QGC
ASUS GeForce RTX 3050 LP BRK OC Edition 6GB GDDR6 ビデオカード / RTX3050-O6G-LP-BRK 国内正規流通品
¥30,800
ASIN:B0CXPBVJD3