NVIDIA H200/B100チップの注文は強力であり、TSMCの3/4NM生産能力はフル容量に近いとニュースが報告しています
AI年次会議であるNvidia GTCは、3月17日に米国で西洋の時間に開催されます。市場は、H200とB100が市場をつかむために事前にリリースされると推定しています。H200と新世代B100は、それぞれTSMCの4NMおよび3NMプロセスを採用することが理解されています。H200は第2四半期に発売され、B100がチップレットデザインアーキテクチャを採用し、生産のために注文されたと噂されています。法定代理人は、NVIDIAには強い注文があり、TSMCの3NMおよび4NMの生産能力はほぼ完全に負荷がかかり、手術の第1四半期は弱くないと指摘しました。
TSMCの高度なプロセスを占めるNVIDIAの新世代のチップ注文の問題に関して、TSMCは、生産能力プロセスが以前の法的声明に記載されているコンテンツに依然として従っており、それ以上は説明されないと述べました。
報告によると、Nvidia BlackwellシリーズのB100は、市場で次世代のNvidia GPU武器と見なされています。TSMCの3NMテクノロジーを使用して最初に構築されることに加えて、チップレットおよびCowos-L形式でパッケージ化された最初のNVIDIA製品でもあり、高出力消費と熱散逸の問題、単一カードの効率、およびクリスタルチューブ密度を解決します。第1四半期に発売されたAMDのMI300シリーズを上回ると推定されています。
サーバーメーカーのDellは、Nvidiaの今後の人工知能(AI)GPU Blackwellを明らかにしました。これは、最大1000Wの消費電力を持ち、以前の世代のチップから40%増加し、Dellに革新的なエンジニアリングを使用してこれらのGPUを冷却する必要があります。
現在の市場ニュースによると、NVIDIA B200は現在のH100製品よりも強力なコンピューティングパフォーマンスを持っていますが、その消費電力も驚くべきものであり、H100と比較して最大1000Wに達すると予想されます。NVIDIAのH200チップは、ホッパーアーキテクチャとHBM3E高帯域幅メモリにより、業界で最も強力なAIコンピューティングチップと見なされます。B100チップのコンピューティング能力がH200の少なくとも2倍であるため、H100の4倍であるため、B200のコンピューティングパフォーマンスはさらに強力になると推定されています。
TSMCの高度なプロセスは引き続き完全にロードされており、TSMCの容量利用率は2月に90%を超えており、人工知能(AI)の需要は変わらないままです。サプライチェーンによると、AIや高性能コンピューティング(HPC)などのアプリケーションは、消費者製品と比較して単一のウェーハで生成されたチップの数の4分の1しか生成できず、生産と製造をより困難で複雑にします。安定した大量生産を達成するTSMCの能力は、チップ業界にとって非常に重要です。TSMCは現在、スマートフォンと同等のHPC/AIアプリケーションプラットフォームからの収益の43%を占めています。