虹裏img歴史資料館

ここでは虹裏imgのかなり古い過去ログを閲覧することができます。新しいログはこちらにあります

23/07/07(金)17:43:18 >ソフト... のスレッド詳細

削除依頼やバグ報告は メールフォーム にお願いします。個人情報、名誉毀損、侵害等については積極的に削除しますので、 メールフォーム より該当URLをご連絡いただけると助かります。

画像ファイル名:1688719398540.png 23/07/07(金)17:43:18 No.1075852982

>ソフトバンクに補助金 約53億円 生成AI開発支援で 経産省 >ソフトバンクは、独自の生成AIの開発を目指して新会社をことし3月に設立し、およそ200億円を投じて開発に必要なスーパーコンピューターを整備することにしていて、経済産業省はおよそ53億円を補助します。 >会社では補助金を活用して、アメリカのエヌビディア製のAI向けの高性能な半導体を採用する方針で、国内トップクラスの計算処理能力を確保するとしています。 https://www3.nhk.or.jp/news/html/20230707/k10014121611000.html どんなパソコンなんだろ

1 23/07/07(金)17:44:20 No.1075853275

日本のこういうのは桁が二つは足りない記事ばっかりで悲しくなるな

2 23/07/07(金)17:44:36 No.1075853353

スパコンなら専用設計じゃない?

3 23/07/07(金)17:45:06 No.1075853487

パソコンて

4 23/07/07(金)17:46:06 No.1075853742

ケース超デカいんだろうな

5 23/07/07(金)17:48:04 No.1075854289

たぶんx86 CPUとNIVIDIA H100の組み合わせだろうけど Arm使ったDGX GH200が欲しい!

6 23/07/07(金)17:48:54 No.1075854499

桁二つって2兆円のスパコンは高すぎるわ

7 23/07/07(金)17:56:34 No.1075856835

>桁二つって2兆円のスパコンは高すぎるわ スパコンってどこもそんなもんじゃね?

8 23/07/07(金)17:58:38 No.1075857491

イーロンは100億投資してH100を1万台近く確保だったから その二倍目指すんかね

9 23/07/07(金)18:02:37 No.1075858679

元マイニング工場がAI用にリソース貸し出すよって記事を見てなるほどなと思った

10 23/07/07(金)18:04:14 No.1075859182

HPC用GPUが奪い合い状態だな

11 23/07/07(金)18:05:00 No.1075859423

目論見通りARM売ってんびぢあの筆頭株主になれてればもっとフットワーク軽かったんだろうけどな

12 23/07/07(金)18:05:37 No.1075859594

>元マイニング工場がAI用にリソース貸し出すよって記事を見てなるほどなと思った マイニング工場が持ってるようなグラボってRTX3080じゃね 推論ならともかく学習では全く役に立つと思えぬ

13 23/07/07(金)18:14:15 No.1075862184

熊本のTMSC工場も100億ぐらいだった気がする

14 23/07/07(金)18:15:01 No.1075862419

>イーロンは100億投資してH100を1万台近く確保だったから >その二倍目指すんかね 今発注してるところはH100を2万台のところが1番多いって話聞いたな 1番多いところが4万台って先月言われてた

15 23/07/07(金)18:16:34 No.1075862858

GPUプラットフォームならそんなもんじゃね スパコンとはまた趣が違う気がする まあこのレベルのをグーグルが3つも4つも持ってるのはそのとおりではある

16 23/07/07(金)18:19:57 No.1075863853

>熊本のTMSC工場も100億ぐらいだった気がする 熊本の賃金水準跳ね上げたそうだし頑張って欲しい

17 23/07/07(金)18:24:44 No.1075865347

DGX GH200使ったクラスタのフルスペックが富嶽の倍の性能と聞いた

18 23/07/07(金)18:27:54 No.1075866407

>日本のこういうのは桁が二つは足りない記事ばっかりで悲しくなるな なぜすぐバレるウソを付くのか?

19 23/07/07(金)18:32:46 No.1075867969

>>熊本のTMSC工場も100億ぐらいだった気がする >熊本の賃金水準跳ね上げたそうだし頑張って欲しい ごめん最初10億ぐらいの補助金で最終的にいろんなところから兆円集めたはず

20 23/07/07(金)18:35:07 No.1075868707

謎の半導体メーカー

21 23/07/07(金)18:35:55 No.1075868968

>DGX GH200使ったクラスタのフルスペックが富嶽の倍の性能と聞いた あれ1EFLOPS出るのはAI性能でって言ってるからおそらく倍精度浮動小数点演算じゃなくて8ビット整数演算か良くて半精度浮動小数点演算の話なんじゃね 富嶽で0.5EFLOPSなのは倍精度浮動小数点演算のときの値であって8ビット整数なら4EFLOPS半精度なら2EFLOPSくらい出るしむしろ富嶽の1/4~半分くらいの性能だと思うんだが

22 23/07/07(金)18:42:06 No.1075871061

推論は8bit整数でもできるけど学習には32bit浮動小数点数が必要なんだっけ?

23 23/07/07(金)18:45:29 No.1075872085

AI需要がこれだけあるんだからグラボ安くならないわけだ 今後値上げするのも分かる

24 23/07/07(金)18:47:33 No.1075872768

グラボが欲しいならnVidiaの株を買ってその利益で買うといい

25 23/07/07(金)18:47:48 No.1075872850

>推論は8bit整数でもできるけど学習には32bit浮動小数点数が必要なんだっけ? どっちも行けるよ 今もう4bitもある

26 23/07/07(金)18:49:19 No.1075873344

>推論ならともかく学習では全く役に立つと思えぬ メモリ容量は確かに重要だけど8gbでも普通に使えるのに何でそう思ったのか

27 23/07/07(金)18:50:38 No.1075873787

アップル並みにお金かけたらな

28 23/07/07(金)18:53:04 No.1075874551

コンシューマー向けのライン削ってHPC用増産するんかね

29 23/07/07(金)18:53:06 No.1075874563

>どっちも行けるよ >今もう4bitもある えっ4bitで学習を?

30 23/07/07(金)18:56:29 No.1075875590

>メモリ容量は確かに重要だけど8gbでも普通に使えるのに何でそう思ったのか 流石に本格的な規模のモデル扱うのは無理だろう VRAM8Gだとllama 7B用のLoRAが精々じゃね

31 23/07/07(金)18:59:41 No.1075876638

なんの学習かで必要なメモリ量変わるけど画像生成の学習で8GBはもうギリギリを通り越して無理レベルだぞ

32 23/07/07(金)19:04:31 No.1075878574

GPU並列化もご存じないのか? 確かにテクはいるけど

33 23/07/07(金)19:06:07 No.1075879220

ホモ嫌いで2月に更迭されたおっさんが今はいるんだってな経産省 スピード復帰で

34 23/07/07(金)19:06:42 No.1075879445

>GPU並列化もご存じないのか? >確かにテクはいるけど 滅茶苦茶遅くなるからクラウドの計算資源借りる場合は尚更まともな専用のインスタンス借りた方が安上がり

35 23/07/07(金)19:08:05 No.1075880012

NVDA売るの我慢しとけばよかったのに俺の馬鹿!

36 23/07/07(金)19:08:10 No.1075880040

>滅茶苦茶遅くなるからクラウドの計算資源借りる場合は尚更まともな専用のインスタンス借りた方が安上がり 値段によるとしか言いようがないだろ… ColabとかもうまともにGPU当たらんから安いなら使うぞ俺なら

37 23/07/07(金)19:10:27 No.1075880924

>なんの学習かで必要なメモリ量変わるけど画像生成の学習で8GBはもうギリギリを通り越して無理レベルだぞ そもそも画像だけじゃないし並列当たり前に使ってんのにメモリ容量だけにこだわるのは想像力足りなさすぎ

38 23/07/07(金)19:11:21 No.1075881232

現時点で最高水準のLLMの学習に使うのが目的なら 最高のGPUをあるだけかき集める必要がありそう

39 23/07/07(金)19:11:30 No.1075881284

>滅茶苦茶遅くなるからクラウドの計算資源借りる場合は尚更まともな専用のインスタンス借りた方が安上がり ちょっと何言ってるのか 専用インスタンスって何? クラウドのGPUインスタンスじゃないのかそれ

40 23/07/07(金)19:12:44 No.1075881682

速度足らんって完全に別々に分散で学習できるやつもあるよ 一瞬LLMしか考えてないのかと思ったけど画像云々とかもケチつけてるし本当意味わからん…

41 23/07/07(金)19:14:12 No.1075882139

>値段によるとしか言いようがないだろ… >ColabとかもうまともにGPU当たらんから安いなら使うぞ俺なら 学習時にVRAM消費抑えるためにCPUオフロード使うと普通に数倍から10倍の時間かかるから 数日~月単位で回すような言語モデルの学習用途だとまず割に合わんよ だからAlpacaのLoRA公開してる人でもほとんどがA100のインスタンス使ってる

42 23/07/07(金)19:15:11 No.1075882517

AWSの話だろうけどA100だからって別に学習専用インスタンスじゃねえぞ

43 23/07/07(金)19:15:14 No.1075882523

で税金投入して作ったLLMはオープンにするの?

↑Top