![fukabori.fm artwork](https://is3-ssl.mzstatic.com/image/thumb/Podcasts113/v4/99/e7/31/99e7315f-c575-d8c6-09aa-b49dae5f1a95/mza_17233519440010280853.jpg/100x100bb.jpg)
107. LLMをゼロから作るということ w/ Takahiro Omi
fukabori.fm
Japanese - November 14, 2023 22:00 - 38 minutes - ★★★★★ - 2 ratingsTechnology fukabori Homepage Download Apple Podcasts Google Podcasts Overcast Castro Pocket Casts RSS feed
Previous Episode: 106. 提供者としてクラウドネットワークを作るということ w/ y.kajiura
Next Episode: 108. Azure Functions チームでの開発方法やマネージャの役割 w/ sandayuu
話したネタ
どのような大規模言語モデルと作ったのか?特徴は何か?
データセットに何を使ったのか?
日本語と英語とのバランスは?
最終的なToken数は?
事前学習モデルを作りたいとして、何から考えるのか?
ノイズのクリーニングと、その方法
今回活用したモデルアーキテクチャ(Llama)
前回のアーキテクチャは GPT-NeoX
今回の学習環境は?
AWS Trainum 32コア x 16ノード
学習にかかった時間は?
学習時に大変だったこと・上手くいかなかったことは?
学習中のチェックポイントとは何か?
なぜ、Token生成が速いのか?
手元でLLMを動かすときの一番のネックは?
bit数を落とすFineTuning
Tokenizerとは何か?
日本語の単語区切りはどのように考えるのか?
今回のLLM作成のTokenizerは何を使ったのか?
ビジネスドメインでのLLM評価
ストックマーク株式会社のRecruitページ