ELYZAの曽根岡侑也代表(写真左)とKDDIの髙橋誠社長(写真右)。
撮影:石井徹
KDDIは3月18日、日本語向け生成AIエンジンを開発するスタートアップ・ELYZA(イライザ)に出資すると発表した。
4月1日を目処にKDDIが43.4%、KDDI傘下のDX関連会社・KDDI Digital Divergenceが10.0%のELYZA株式を取得し、連結子会社化する。出資額は非公開だが、3月18日の発表会に登壇したKDDIの髙橋誠社長は「3桁いかない2桁億円の後半ぐらい」と表現した。
4月以降には、ELYZAの開発する大規模言語モデル(LLM)を、企業向けにAPI(サービスやアプリ間でデータを連携する仕組み)で提供するサービスを展開する予定だ。
ELYZAはKDDIとの提携により研究開発を加速し、金融や小売りなどの業種に特化したLLMや、LLMを活用したSaaSの開発も進める。
スタートアップを育てる「スイングバイIPO」を目指す
ELYZAは東京大学松尾研究室発のスタートアップだ。
撮影:石井徹
ELYZAは東京大学・松尾豊研究室出身の曽根岡侑也代表が設立したAIスタートアップだ。
KDDIは、スタートアップ企業を子会社化して成長させ、最終的に上場させる「スイングバイIPO」という手法で、ELYZAの成長を目指す。
このスイングバイIPOによって、KDDIは産業機器向け通信事業を手掛ける連結子会社・ソラコムを3月26日に東京証券取引所グロース市場へ新規上場させる見込み(2月20日に上場承認済み)で、KDDIにとっては実績のある手法と言える。
複数の業界で「スイングバイIPO」を使っているKDDI。
出典:KDDI
KDDIのELYZAに対する出資金額は100億円未満だが、事業の成長に合わせて段階的に出資額を拡大する方針。髙橋氏によると「会社の事業価値は当然、3桁億円の価値がある」と述べている。
18日の発表会に登壇したELYZA代表の曽根岡氏は、KDDIからの出資を受け入れた背景について「KDDIが持つ計算基盤と拡販力も理由だが、本当の決め手は企業カルチャーの親和性にある」とした。
「(KDDIは)スタートアップに対等に歩みよって、リソースの提供を申し出たばかりでなく、スイングバイIPOという手段まで提案していただいた。本当に素敵な会社さんだと魅力を感じたことが第一の理由だ」(曽根岡氏)
KDDIはELYZAとの提携に合わせて、生成AI開発を積極化させる方針を発表している。
中期的には生成AI開発のためのGPUサーバーを集積したデータセンターの設置も進める。投資は1000億円規模を見込む。この計算資源はLLMの構築や、LLMを活用するアプリケーションの提供のために利用する。
短期間でLLMを開発するELYZAの手法
ELYZAはMetaなどのアメリカのLLMを改良して、日本語に特化したLLMを開発している。
撮影:石井徹
ELYZAにとって、このタイミングでの資金調達は成長のために欠かせない状況だった。LLMの開発や運用には大量の計算資源と資本が必要となるためだ。
生成AIの構築には大まかに「事前学習」と「Post-Training(事後学習)」という2つの段階がある。
事前学習は、AIが日本語や英語といった言語の使い方を習得する段階で、Post-Trainingは特定の状況に回答をするLLMへチューニングする段階を指す。
このうち、事前学習は特に大量の計算資源を必要とする。
「(Metaの開発する)LLaMAのようなLLMをフルスクラッチで開発する場合、大規模な事前学習が必要となる。『NVIDIA A100 GPU』(300万円超のグラフィックボード)を1000台用意して、1カ月強計算させ続けて、1つのLLMが制作できるかどうかだ。
OpenAIやMetaのような企業は、これを10回、20回と試行している。資金も期間も必要で、スタートアップ企業の規模ではとても太刀打ちできない」(曽根岡氏)
これに対して、ELYZAは公開されている既存のLLMを日本語に最適化させる手法をとっており、比較的に低コストとなる。
「Post-Trainingは1週間~2週間で完了する。反復する期間が短い分、多くの試行錯誤ができる」(曽根岡氏)
「ELYZA-japanese-Llama-2-70b」は、現在ウェブサイトで誰も試すことができる。
撮影:石井徹
なお、ELYZAが3月12日に公開した、Llama2をベースに日本語に最適化させたLLM「ELYZA-japanese-Llama-2-70b」は、産業総合研究所のスーパーコンピューター「ABCI」の計算資源の20%を2カ月間占有して開発している。
ELYZA-japanese-Llama-2-70bは、現時点で日本語では国内屈指の性能を備えており、例えばChatGPTの無料版を駆動させているLLM「GPT-3.5」に匹敵する機能を有するとしている。
ELYZA-japanese-Llama-2-70bのベンチマーク結果。
撮影:石井徹
既存のLLMを改良する「Linux型」で、競合キャリアに対抗
KDDIがスタートアップと組み、生成AIを開発を進める背景には、競合他社の動きがある。
ソフトバンクはLLMを開発する子会社・SB Intuitionsを2023年に設立。NVIDIAと提携し、LLMの学習向けでは国内最大級の計算基盤を確保して3900億パラメーターのLLMを開発中。2024年度中の完成を目指している。
NTTは軽量で日本語に特化した70億パラメーターのLLM「tsuzumi」を開発。4月には130億パラメーターの「中型版tsuzumi」も公開し、商用利用を開始する方針だ。
KDDIの髙橋誠社長。
出典:KDDI
髙橋氏は、ELYZAの手法を「Linux型のLLM開発」と表現する。
これはオープンなデータやモデルを改良して開発する手法をオープンソースOSの「Linux(リナックス)」になぞらえた比喩だ。
ソフトバンクやNTTの取り組みを「Windows型」(髙橋氏)とも表現し、垂直統合モデルでLLMを開発する手法と比べてコストやスピード感で差別化していく。