LLM

日本語性能トップクラスの LLM・Sarashina2-70B の公開

LLM

SB Intuitionsの李凌寒、高瀬翔です。 日本語に強い大規模言語モデル(LLM)Sarashina2-70Bを公開しました。 国内でフルスクラッチで学習をしたLLMの中では、大規模な70Bパラメータを持ち、日本語性能もトップクラス、かつオープンな MIT ライセンスで公開さ…

Sarashina の性能評価

SB Intuitions の 岡 照晃、李 凌寒、水本 智也、柴田 知秀 です。 本記事では Sarashina の性能評価について解説します。 Sarashina は SB Intuitions で開発している日本語の大規模言語モデル(Large Language Model; LLM)です。 LLM の学習は一般に事前…

大規模な日本語の事前学習言語モデルSarashina1・2の公開

LLM

概要 SB Intuitionsの清野舜,李凌寒,高瀬翔です。 弊社では高品質な日本語大規模言語モデルの構築に取り組んでいます。 大規模言語モデルの構築は理論的にも経験的にもまだまだ発展途上の領域であり,学術界・産業界の日本語大規模言語モデルの研究開発促…