以前の投稿「Build a Pro Deep Learning Workstation… for Half the Price」では、Lambda や Bizon といった企業の構築済みリグのほぼ半分のコストで、部品を購入してプロ品質の深層学習リグを構築するためのあらゆる詳細を共有しました。 この投稿は Reddit で拡散し、その後数週間のうちに、Lambda は 4 GPU ワークステーションの価格を約 1200 ドル引き下げました。
これは、ディープ ラーニングをより身近にするための良いスタートですが、もしあなたが 11,250 ドル以上ではなく、7000 ドルを使いたいなら、次の方法を紹介しましょう。 それが、ここで紹介するものです。 この 4 GPU ディープ ラーニング リグのコンポーネントの説明、ベンチマーク、および追加のオプションについては、前の投稿を確認してください。
この投稿の目標は、最先端の 4 GPU ディープ ラーニング リグをできるだけ安いコストで構築するために購入すべきパーツを正確にリストすることです。 前回の投稿では、選択肢が多すぎるというフィードバックに基づいて、各パーツについて最良の選択肢のみをリストアップしています。 私はマルチ GPU リグの 3 つのバリエーションを構築しましたが、ここで紹介するものは、サーマルスロットリングなしで、最高のパフォーマンスと信頼性を最も安いコストで提供します。
14000 ドル (各 7000 ドル) でこれらのリグを 2 台構築するためのすべてのパーツの購入を示すレシートを添付しました。
- どのパーツを購入するか
- 4 RTX 2080 Ti GPU (2000ドル以下の最速GPU、数年間はおそらく)
- Rosewill Hercules 1600W PSU(最安1600W電源)
- 1TB m.2 SSD (ディープラーニングでの超高速データロード用)
- 20スレッドCPU(シングルスレッド高速化にはAMDよりインテル選択)
- X299 マザーボード(このマザーボードは4GPUをフルサポート)
- ケース(高エアフローでGPUを冷却)
- 3TBハードディスク(定期的にアクセスしないデータやモデル用)
- 128GB RAM (RAMが多いほどGPUからディスクへのボトルネックが減る)
- CPUクーラー(このクーラーはケースのエアフローを妨げない)
- Lambdaの4GPUワークステーションとの比較
- オペレーティング システムとパフォーマンス
どのパーツを購入するか
私はすべて NeweggBusiness を介してオンラインで注文しましたが、どのベンダー (Amazon など) でもかまいません。 もし、近くにマイクロセンターの店舗があれば、実店舗で購入するとCPUの価格が安いことが多いです。 税金を払う必要がない場合は払わないでください(例:非営利団体や教育機関)。 NeweggBusinessもAmazonも非課税証明書を受け付けています。 この4GPUリグを2台購入した際の領収書を見る。
以下は各コンポーネントです:
4 RTX 2080 Ti GPU (2000ドル以下の最速GPU、数年間はおそらく)
Gigabyte RTX 2080 Ti Turbo 11GB, $1280 (04/16/2019)
These 2-PCI-slot blower-style RTX 2080 Ti GPU also will work:
1.RTX2080TIのGPUを使用する場合、RTX2080TIを使用する場合、RTX2080TIを使用する場合、RTX2080TIを使用する場合、GPUを使用する必要があります。 ASUS GeForce RTX 2080 Ti 11G Turbo Edition GD、1209ドル(2019/03/21)
2. ZOTAC Gaming GeForce RTX 2080 Ti Blower 11GB、$1299 (03/21/2019)
Rosewill Hercules 1600W PSU(最安1600W電源)
Rosewill HERCULES 1600W Gold PSU、$209 (03/21/19)
1TB m.2 SSD (ディープラーニングでの超高速データロード用)
HP EX920 M.2 1TB PCIe NVMe NAND SSD、150ドル(2019/04/16)
20スレッドCPU(シングルスレッド高速化にはAMDよりインテル選択)
Intel Core i9-9820X Skylake X 10-Core 3.3Ghz、850ドル(19年03月21日)
X299 マザーボード(このマザーボードは4GPUをフルサポート)
ASUS WS X299 SAGE LGA 2066 Intel X299, 492ドル.26 (03/21/19)
ケース(高エアフローでGPUを冷却)
Corsair Carbide Series Air 540 ATX Case, 115ドル(2019/04/16)
3TBハードディスク(定期的にアクセスしないデータやモデル用)
Seagate BarraCuda ST3000DM008 3TB 7200 RPMです。 $75 (04/16/2019)
128GB RAM (RAMが多いほどGPUからディスクへのボトルネックが減る)
CORSAIR Vengeance 16GB DRAMを8スティック搭載しています。 640ドル(2019/04/16)
CPUクーラー(このクーラーはケースのエアフローを妨げない)
Corsair Hydro Series H100i PRO Low Noise, $130 (04/16/2019)
Lambdaの4GPUワークステーションとの比較
この7000ドルの4GPUリグは、Lambdaの11250ドルの4GPUワークステーションに似ています。 唯一の違いは、(1) 10 コア CPU の代わりに 12 コア CPU を使用していることと、(2) ホットスワップ ドライブ ベイ ($50) が含まれていることです。
オペレーティング システムとパフォーマンス
私が使用している OS は Ubuntu Server 18.04 LTS です。 Cuda 10.1 に TensorFlow (conda を使用してインストール) と PyTorch (conda を使用してインストール) を使用しています。 これらのマシンの複数を、4 つの GPU すべてで 100% の GPU 使用率で、問題やサーマルスロットリングなしに 1 か月以上トレーニングしました。
- Relative positioning of GPUs for optimal speed.(英語版のみ)。
- マルチ GPU ディープラーニング マシンを構築する方法。
- ディープラーニングのためのRTX 20シリーズGPUのベンチマーキング。