すべて表示

英語版を公式バージョにしてください戻る

ヨーロッパ
France(Français) Germany(Deutsch) Italy(Italia) Russian(русский) Poland(polski) Czech(Čeština) Luxembourg(Lëtzebuergesch) Netherlands(Nederland) Iceland(íslenska) Hungarian(Magyarország) Spain(español) Portugal(Português) Turkey(Türk dili) Bulgaria(Български език) Ukraine(Україна) Greece(Ελλάδα) Israel(עִבְרִית) Sweden(Svenska) Finland(Svenska) Finland(Suomi) Romania(românesc) Moldova(românesc) Slovakia(Slovenská) Denmark(Dansk) Slovenia(Slovenija) Slovenia(Hrvatska) Croatia(Hrvatska) Serbia(Hrvatska) Montenegro(Hrvatska) Bosnia and Herzegovina(Hrvatska) Lithuania(lietuvių) Spain(Português) Switzerland(Deutsch) United Kingdom(English)
アジア太平洋地域
Japan(日本語) Korea(한국의) Thailand(ภาษาไทย) Malaysia(Melayu) Singapore(Melayu) Vietnam(Tiếng Việt) Philippines(Pilipino)
アフリカ、インド、中東
United Arab Emirates(العربية) Iran(فارسی) Tajikistan(فارسی) India(हिंदी) Madagascar(malaɡasʲ)
南アメリカ /オセアニア
New Zealand(Maori) Brazil(Português) Angola(Português) Mozambique(Português)
北米
United States(English) Canada(English) Haiti(Ayiti) Mexico(español)
05/30/2024で公開されています

nvlinkに立ち向かう?Intel、AMD、Microsoft、Broadcom Form ualinkなどのテクノロジーの巨人

Intel、Google、Microsoft、Metaを含む8人のハイテク大手が、データセンター内のAIアクセラレータチップを接続するコンポーネントの開発をガイドするために、Ualinkプロモーショングループと呼ばれる新しい業界グループを設立しています。


Ualinkプロモーションチームは木曜日に設立されると発表され、そのメンバーにはAMD、HP Enterprise、Broadcom、Ciscoも含まれます。このグループは、サーバーでますます多くのAIアクセラレータチップを接続するための新しい業界標準を提案しています。広い意味で、AIアクセラレータは、GPUからAIモデルのトレーニング、微調整、および動作を加速するためのカスタマイズされたソリューションに設計されたチップです。

「業界には、すぐに前進できるオープンな基準が必要であり、複数の企業がオープン形式でエコシステム全体に価値を追加できるようにします。」AMDデータセンターソリューションのゼネラルマネージャーであるフォレストノロッドは、水曜日のブリーフィングで、「業界にはイノベーションが速いペースで迅速に行われることを可能にする基準が必要です」と述べています。

提案された標準の最初のバージョンであるUalink 1.0、最大1024 AIアクセラレータは、単一のコンピューティングPOD -GPUのみに接続されます。(グループは、PODをサーバー内の1つまたは複数のラックとして定義します。)Ualink 1.0は「オープン標準」に基づいており、AMDの無限アーキテクチャが含まれています。AIアクセラレータ間の追加メモリの直接負荷と保存を可能にし、既存の相互接続仕様と比較して、全体的に速度を向上させ、データ送信の遅延を削減できます。

グループは、第3四半期にアライアンス、Ualink Allianceを作成して、Ualink基準の将来の発展を監督すると述べました。Ualink 1.0は、同時期にAllianceに参加する企業に提供され、Ualink 1.1の帯域幅更新仕様が高くなります。2024年の第4四半期に開始される予定です。

Ualink製品の最初のバッチは「今後数年で」発売されるとノロッドは述べた。

これまでで最大のAIアクセラレータメーカーであるNvidiaは、80%から95%の推定市場シェアを持つ、グループのメンバーのリストに明らかに存在しません。Nvidiaはこれについてコメントすることを拒否しました。しかし、このチップメーカーが競合技術に基づいた仕様のサポートに熱心でない理由を理解することは難しくありません。

第一に、Nvidiaは、データセンターサーバー内のGPUに独自の独自の相互接続テクノロジーを提供します。同社は、競合テクノロジーに基づいて基準をサポートする意思がない場合があります。

次に、Nvidiaが計り知れない強さと影響力のある地位から動作するという事実が生まれます。

Nvidiaの最新の会計四半期(2025年第1四半期)では、AIチップの売上を含むデータセンターの売り上げは、前年同期と比較して400%以上増加しました。Nvidiaが現在の開発軌道を継続している場合、今年のある時点でAppleを上回り、世界で最も価値のある企業になります。

したがって、簡単に言えば、Nvidiaが参加したくない場合、参加する必要はありません。

Ualinkに貢献していない唯一のパブリッククラウドの巨人であるAmazon Web Services(AWS)については、さまざまな内部アクセラレータハードウェアの取り組みを減らしているため、待機モードにある可能性があります。また、クラウドサービス市場の制御に依存しており、顧客にほとんどのGPUを提供したNvidiaに反対する戦略的意義を見ていないこともあります。

AWSはTechCrunchのコメントリクエストに応答しませんでした。

実際、Ualinkの最大の受益者は、AMDとIntelを除いて、Microsoft、Meta、およびGoogleのように見えます。彼は、Nvidia GPUを購入するために数十億ドルを費やして雲を駆動し、成長するAIモデルを訓練しています。誰もが、AIハードウェアエコシステムで過度に支配的であると考えているサプライヤーを取り除きたいと考えています。

Googleには、AIモデルをトレーニングおよび実行するためのカスタムチップ、TPU、およびAxionがあります。AmazonにはいくつかのAIチップファミリがあります。マイクロソフトは昨年、マイアとコバルトの競争に参加しました。メタはアクセラレータシリーズを改善しています。

一方、Microsoftとその緊密なパートナーOpenaiは、将来のコバルトとマイアチップスを装備するAIモデルをトレーニングするために、少なくとも1,000億ドルをスーパーコンピューターに費やす予定です。これらのチップはそれらを結び付けるために何かが必要です - おそらくそれはualinkになるでしょう。
0 RFQ
ショッピングカート (0 Items)
まだコンテンツはありません
比較リスト (0 Items)
まだコンテンツはありません
フィードバック

あなたのフィードバックは重要です!Allelcoでは、ユーザーエクスペリエンスを重視し、継続的に改善するよう努めています。
、フィードバックフォームを通じて意見を共有してください。時間内に返信します。
Allelcoを選択していただきありがとうございます。

タイトル
Eメール
備考
検证コード
[ファイル]をドラッグまたはクリックします
ファイルをアップロードします
タイプ:.xls、.xlsx、.doc、.docx、.jpg、.png、および.pdf。
最大ファイルサイズ:10MB