ELYZAは、同社が提供する大規模言語モデル「ELYZA LLM for JP」シリーズの最新モデルとして、Metaの「Llama 3」をベースとした700億パラメータの「Llama-3-ELYZA-JP-70B」と80億パラメータの「Llama-3-ELYZA-JP-8B」を開発し、性能を公開した。
- Llama-3-ELYZA-JP-70B:Metaの「Llama-3-70B」をベースに追加の学習(日本語追加事前学習・指示学習)を実施して開発したモデル。APIサービスや共同開発プロジェクトなどを通し、さまざまな形態で、企業向けに提供予定
- Llama-3-ELYZA-JP-8B:Metaの「Llama-3-8B」をベースに事後学習(日本語追加事前学習・指示学習)を実施して開発したモデル。一般公開しており、研究および商業目的での利用が可能
【関連記事】
・NEC、製造業のナレッジ継承に関わる課題解決を支援 LLMを活用した製造現場の支援システムを開発
・プレイド、AI支援開発「KARTE Craft」にサイトホスティング機能Craft Sitesを追加
・セキュア、NVIDIAのGPUを活用したAI学習モデルの開発をスタート 小売業界の人手不足を解決