
楽天AIの最前線:効率的な日本語LLMでパーソナライズされたAIを実現するMaksim Tkachenko氏の挑戦
楽天のフロンティアリサーチ部門を率いるMaksim Tkachenko氏は、日本語に特化した高効率な大規模言語モデルの開発を通じて、AIと日常生活の深い統合を目指しています。70以上のサービスを持つ楽天エコシステムの豊富なデータを活用し、ユーザーの行動パターンや嗜好を理解することで、よりパーソナライズされたAI体験の実現に取り組んでいます。将来的には、長期記憶を持つAIエージェントが、ユーザーの過去の会話や行動を記憶し、記念日のリマインダーから贈り物の提案まで、コンシェルジュのようなサービスを提供することを目指しています。
急速に進化するAI業界の最前線で
大規模言語モデル(LLM)は、急速に進化する人工知能の世界において最前線に立つ技術です。これらの強力なモデルはAIを動かすエンジンであり、私たちがテクノロジーと関わる方法を根本から変えています。AIが単なるツールではなく、知的な力の増幅器となる未来が約束されているのです。
楽天では、研究者チームが既成概念にとらわれない発想と画期的なイノベーションを活用して、LLM開発の限界を押し広げています。彼らの目標は、革新的なアーキテクチャを活用してユーザーのニーズを理解し、日常生活に深く統合される、高効率なモデルを作り出すことです。
この絶え間ない挑戦を率いているのが、楽天フロンティアリサーチ部門のジェネラルマネージャーであるMaksim「Max」Tkachenko氏です。彼のAIへの道のりは、自然言語処理(NLP)への魅力から始まりました。それは、流動的な人間の言語を、数学という厳格な構造を通じてコンピュータに説明するという、繊細なダンスのようなものでした。
数学的精密さを言語処理に応用する
「言語というのは非常に流動的な概念です」とMax氏は説明します。「しかし、実際には多くの構造を加えることができます。そして、そこが本当に興味深いところなのです。では、言語の流動性を数学の厳密性でどのように説明するのか?この疑問が、私が博士課程で言語処理の研究を進める中で、ずっと私を駆り立ててきました」
現在、楽天の野心的なLLMイニシアチブを統括する立場にありながらも、Max氏はLLMの背後にある中核原則に明確な焦点を当て続けています。「言語処理は常に変化し続けてきた研究分野です。現在は言語モデルがあります。これらのモデルを訓練するとき、それは単にモデルに名詞とは何か、その後に動詞が続かなければならないと教えることを意味するわけではありません。しかし、以前はそうでした。今では、人間の言語がどのように機能するかをAIモデルに説明する必要はありません。むしろ、大量のテキストのコレクションを与えて、それがどのように機能するかを理解するよう挑戦させることができるのです」
「このようにして、AIモデルはシンプルなタスクを実行することで学習します。それは、シーケンス内の次の単語を予測することです」と彼は説明します。「この一見単純なプロセスが、AIが人間の言語を使ってかなり知的なことを行えるようにする機械を訓練する、非常に効果的な方法であることが証明されました」
LLMの訓練プロセスは、二つの重要な段階で展開されます。最初の段階では、モデルが言語の固有の構造と動作を学習します。「それはパート1に過ぎません」とMax氏は明確にします。「パート2では、言語モデルにどのように機能し、特定のタスクにどのようにアプローチするかを示します。これは、英語の文とその日本語訳のペアや、電子メールの書き方の例など、注釈付きデータをモデルに提供することで達成されます。このプロセスを通じて、LLMはアノテーターをシミュレートすることを学び、幅広いタスクを実行し、より指示的なコミュニケーションを行う能力を開発します」
楽天のユニークな強み:データが豊富なエコシステム
Max氏は2022年に楽天に入社し、当初は機械翻訳に焦点を当てていました。しかし、ChatGPTのような使いやすくアクセスしやすい生成AI技術の出現は、AI業界にとって分水嶺の瞬間であり、彼がLLM開発に焦点を移す絶好の機会となりました。
現在、彼は楽天独自の強力なモデルの訓練と最適化に専念するチームを統括しています。これは大きな貢献の可能性を秘めた基本的な役割であり、戦略的ビジョンと深い専門知識の両方が必要とされます。「言語モデル開発プロセス全体の監督には、アーキテクチャの設計選択を含む複数の側面が含まれます」と彼は説明します。「データとアノテーションをどのように収集するかについて考える必要があります」
電子商取引、金融、通信など70以上のサービスを含む多様な楽天エコシステムは、この取り組みにおいて大きな優位性を提供します。このユニークなポジショニングについて議論する際、Max氏は高いレベルから始めます。「少し立ち戻って、言語モデルにおける知能とは正確に何かを定義してみましょう。知能は、さまざまな小さなタスクのセットを通じて定義できます。これらのタスクをさまざまな垂直領域に分類できます」
「各ドメインについて、この特定の垂直領域、それが電子商取引であれ銀行業であれ、その中で知能を達成するためにどのような種類のタスクを解決したいかを考える必要があります。そして、垂直領域を蓄積していくにつれて、それらを複数のドメインにわたって一般化する知的な機械に集約します。この点で、楽天は非常に多くのビジネスにおいて垂直タスクを理解し対処し、一般知能をさらに発展させるためのユニークな立場にあると思います」
ユーザーのプライバシーを保護しながらユーザー行動データを活用する能力は、もう一つの重要な差別化要因です。「開発に使用される膨大な量のデータにアクセスし、理解を得ることもできます。このデータとドメイン知識は、私たち自身がビジネスを運営することから得られます」とMax氏は述べました。「たとえば、購入パターンを分析して、カスタマージャーニーにおいて特定の製品が互いにどのように関連しているかをよりよく理解できます。この洞察により、LLMにおけるパーソナライゼーションを強化し、より関連性の高い推奨とカスタマイズされたインタラクションを可能にします」

パーソナライズされたメモリーと生涯にわたる会話を目指して
リーダーとして、Max氏はチームのLLM開発に対して明確な目標を設定し、野心的な中核ミッションを掲げています。「私たちは、コミュニケーションのコンテキストを理解し、日本語の文化的ニュアンスを理解し、パーソナライズされた体験を提供する、最高クラスの日本語大規模言語モデルを提供することを目指しています」この包括的な目標は、積極的なイノベーション、最先端の研究の常なる探求、特定のビジネス垂直領域にLLMを適合させるための戦略的なアーキテクチャ決定を通じて追求されています。
チームの主要業績評価指標(KPI)について尋ねられたとき、Max氏は単なる立ち上げの速度ではなく、アウトプットに焦点を当てることを強調します。「私たちのLLM KPIはパフォーマンスベースです」と彼は述べました。「基本的に、さまざまなコンテキストでどれだけ正確にコミュニケーションできるか、パーソナライゼーションがどれだけ正確かを見ています」これは、すべてのインタラクションにおける品質と関連性へのコミットメントを強調しています。
この議論で繰り返し登場するテーマであるパーソナライゼーションの概念は極めて重要です。それは単にLLMが使用する言語についてだけではなく、ユーザーの意図を深く理解し、一致させる能力についてです。Max氏は明確な例を提供します。「夕食の注文についてAIアシスタントと話しているが、好みの料理や配達時間を指定していない場合、チャットボットは明確な質問をします。しかし、システムがすでにあなたのお気に入りのレストラン、食事制限、または通常の注文時間を知っている場合、最小限のやり取りで完璧な食事を即座に提案できます」
以前のインタラクションを「記憶する」この能力は極めて重要です。Max氏は、長期記憶を持つ知的エージェントの可能性について、説得力のある絵を描きます。「たとえば、1年前に記念日が近づいていて贈り物を探しているとあなたが言及したとします。なぜこの詳細を記憶し、事前にあなたに思い出させる言語モデルを持つことができないのでしょうか?」
彼は、AIエージェントが記念日が近づいていることを伝え、贈り物を推奨し、前回何を買ったかを伝えて同じものを再び贈ることを避けることができるシナリオを想像しています。この「メモリー」は、旅行からショッピングまで、生活のさまざまな側面でAIエージェントがユーザーのニーズを予測するコンシェルジュのような体験を可能にするため、パーソナライゼーションにとって非常に重要な鍵であると彼は主張します。
未来は長いコンテキストとアーキテクチャのイノベーション
Max氏と彼のチームは、特にアーキテクチャ設計と訓練方法において、エキサイティングな開発を探求しています。Rakuten 2.0モデルは、Mixture of Experts(MoE)アーキテクチャを利用しています。チームは、強化されたパーソナライズされた体験を提供する、特定のビジネス垂直領域に適したLLMを開発するという目標を達成するために、常にイノベーションを続けています。
今後、Max氏はLLMがユーザーとの生涯にわたる会話をサポートできるようにすることに焦点を当てています。これには、非常に長いコンテキストの処理が含まれます。これは、さらに深いレベルのパーソナライゼーションと継続的なインタラクションを解き放つ可能性のある重大な課題です。楽天はまた、速度、コスト、アクセシビリティの観点から、すべての要件とリソースの考慮事項を満たすために、モデルの包括的なポートフォリオをさらに発展させています。
現在、楽天のLLMには、一般的な世界知識のためのRakuten AI 2.0、より高速でリソース効率の高いRakuten AI 7B、そしてエッジまたはモバイルデバイスでオフライン実行が可能な小規模言語モデル(SLM)であるRakuten AI 2.0 miniが含まれています。
「それらはすべて同じ体験を提供します」とMax氏は述べます。「違いは微妙です。小さいモデルは、より高速である一方で、保存できる情報の量には当然制限があります。すべてのモデルが安全なチャット体験を提供しますが、その世界知識は異なります。現時点では、より大きなRakuten AI 2.0は、物理学などのトピックに関する複雑な質問に答えることができる、はるかに広範な理解を持っていますが、小さいモデルは、より焦点を絞ったタスクに適しています」
このような実用的でニュアンスのあるアプローチを取ることで、楽天は広大で多様なエコシステム内の各特定のアプリケーションに最も効果的で効率的なLLMを開発およびデプロイできます。
Max氏と彼のチームがLLM分野でイノベーションを加速させ、データが豊富な楽天エコシステムを活用し、パーソナライゼーションの限界を押し広げるにつれて、私たちはAIエージェントが賢いだけでなく、私たちを覚えており、積極的に私たちのニーズを満たす未来にますます近づいています。
Inside Rakuten AI: Maksim Tkachenko on the path to personalized AI with efficient Japanese LLMs
https://rakuten.today/blog/inside-rakuten-ai-maksim-tkachenko-on-the-path-to-personalized-ai-with-efficient-japanese-llms.html
