【ハードウェア】NVIDIA、データセンター向けGPU市場でシェア98% AI性能が明暗分ける

1: ななしのAIさん 2024/02/05(月) 22:30:28.29
NVIDIAがデータセンター向けGPU市場で98%のシェアを独占していることが判明、AI性能が明暗を分ける結果に

 膨大な処理能力を要するAIの普及により、大企業がこぞって演算力の高いGPUの確保に奔走しており、特にAI処理のパフォーマンスに強みを持つNVIDIAの製品は世界的に品薄となっています。
 AI分野での優位性が追い風となり、2023年のデータセンター向けGPU市場におけるNVIDIAのシェアが98%に達したとの調査結果が公開されました。

 Analysts Estimate Nvidia Owns 98% of the Data Center GPU Market | Extremetech
 https://www.extremetech.com/computing/analysts-estimate-nvidia-owns-98-of-the-data-center-gpu-market

(以下略、続きはソースでご確認ください)

Gigazine 2024年02月05日 14時00分
https://gigazine.net/news/20240205-nvidia-gpu-market/

4: ななしのAIさん 2024/02/05(月) 22:56:51.70
性能以前に初期からnVidia対応が圧倒的に先行してた印象

6: ななしのAIさん 2024/02/05(月) 23:01:31.25
>>4
単なるGPUパフォーマンスはAMDの方が上らしい

5: ななしのAIさん 2024/02/05(月) 23:00:47.38
AI性能とかわけわからない説明じゃなくて

CUDAというソフトウェアを提供したことでGPUがその名の通りのグラフィック処理だけじゃなく一般的な計算の並列化を可能にした
この並列化計算を多用するAI処理に貢献した
CUDA相当の技術は他社は提供できていない

んではないの?

13: ななしのAIさん 2024/02/06(火) 09:29:20.22
>>5
違う、AMDにもCUDAに相当するOCPというライブラリが提供されてる。
一方AMDにはNvidia V100とかA100に相当するAI用GPUのラインが欠如してる

18: ななしのAIさん 2024/02/06(火) 10:01:27.77
>>5
>>13
CUDAのオープン規格はクロノス・グループが策定したOpenCL
NVIDIAが2011年にGeForce GTX480を出した時から存在する

所詮、CUDAもAppleのMetalも一過性のもんだ

NVIDIAはCUDAもOpenCLもDirectComputeも切り捨てて
OpenACCに全振りしたが
一方、AMDやIntelはOpenMP 5で行く
2022年6月に世界記録を塗り替えたスパコンOLCF-5は
AMDのMI250X GPUを使っている

8: ななしのAIさん 2024/02/06(火) 02:36:05.77
例は悪いかもしれないが富岳で実装したようなAI特化の浮動小数点や整数配列演算ユニットとAPI群を用意すればNVIDAに固執する必要ないのでは?
特許云々は別として他の開発企業なら容易に参入できると思うんだが、寡占状態でデファクトスタンダードの強みなんだろうか

14: ななしのAIさん 2024/02/06(火) 09:43:37.37
もうGPUじゃなくて、AIPUと呼んだ方がいい

15: ななしのAIさん 2024/02/06(火) 09:44:59.47
PCでAI系やりたい人は、NVIDIA一択状態だからな
Radeonじゃ、動かないソフトが大量にある

21: ななしのAIさん 2024/02/06(火) 12:19:14.79
GPUが下火になりそうで
CUDAとかでHPC向けでもがいてたら
暗号資産ブームが来て
AIブームが来て
生成AIブームが来て
遥か上空に飛んでいっちゃった
ってイメージ

25: ななしのAIさん 2024/02/06(火) 14:30:58.71
まぁあれよ…
DirextX10とかCUDAが出てきた当時は
汎用的な演算できんの?
単精度とか16bit?それってw
画像処理ぐらいにしか使えなくな~い?
って言われてた訳だからな
その後、倍精度も使える様になったけど遅くね?
処理限られるんじゃね?的状態から
>>21であっと言う間に変わっちゃったモンな…

23: ななしのAIさん 2024/02/06(火) 13:37:43.21
GPUでAIというのが邪道と思えてならない。こんな状況が続くのは,やはり今のAIが単なる技術開発の域を出ていないからとちゃうんか?

24: ななしのAIさん 2024/02/06(火) 14:23:44.10
CUDAで書かれたAIアプリはnvidia製でしか動かない訳だから(CUDAはnvidia社製品)、そーなる

>>23
GPUが、昔言われていた数1000の演算処理を同時にこなせる超並列マシン(SIMDだけど)の具体化で
AI処理と言うか、行列(テンソルだけど)処理に向いてるってだけの話だぞ

しかも、元々ゲーム向けだったから
科学技術演算向けスパコンみたいに高精度演算だけに拘って作られたモノでは無いので
精度めっちゃ悪いけどウルトラ超高速!って演算も可能なので
科学技術演算専用に作られたスパコンを寄せ付けないのだ…

39: ななしのAIさん 2024/02/06(火) 18:49:39.58
>>24
おまえ無知で物凄い間違いしてるけど
AIのディープラーニングには倍精度は不要だし単精度か半精度で行ける
NVIDIAは最初にGeForce Titanを出した時は倍精度演算に特化したが
すぐにAIの需要に気がついて倍精度捨てて単精度を強化した

43: ななしのAIさん 2024/02/06(火) 20:36:56.10
GPU利用の生成AIの学習能力は、グラフィックメモリの容量が最大容量。
つまり現行では80GB、次世代機では141GBということになる。
何兆トークンとか持つことになると、ここがネックになってくる。

これは処理速度は大きく劣るが、CPU利用タイプの生成AIの方が学習容量は大きく持てるということになる。
学習内容はJSONで持ったりするようであり、テキストデータベースでの容量ということになるだろう。

62: ななしのAIさん 2024/03/12(火) 14:38:39.60
結果論でいえば、IntelはItaniumで時間と資源を大いに無駄にした。
そうしてNvidiaのGPUに対抗してXeonPhiを出したが、結局それも時間と資源の無駄だった。
もちろんチャレンジをしなければ失敗はしないのだが。

引用元:https://anago.2ch.sc/test/read.cgi/scienceplus/1707139828/