【CEATEC 2024】10/18に登壇決定「社会実装の加速に向けたGENIACの今後の取り組み」について

 経済産業省の基調講演で、生成AIに関するパネルディスカッションを開催

 カスタマーサポートをエンパワーメントするカラクリ株式会社(東京都中央区:代表取締役CEO 小田志門、以下カラクリ)は、10月18日(金)に幕張メッセで開催される「CEATEC 2024」内にて、経産省の基調講演「社会実装の加速に向けたGENIACの今後の取り組み」のパネルディスカッションに、カラクリCPOの中山が登壇します。カラクリは2024年10月10日に、経済産業省及びNEDOが協力して実施する生成AI開発支援プログラム「GENIAC(Generative AI Accelerator Challenge)」に採択されており、本講演ではプロジェクト内の基盤モデル開発のご紹介とパネルディスカッションに参加いたします。

■登壇内容

経済産業省と国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)は、生成AIの開発力強化に向けたプロジェクト「GENIAC」において、基盤モデルの開発に必要な計算資源の提供支援の第2期と、ユニークなデータに基づく開発と利活用を通じて得たデータをさらなるAIの高度化に繋げていく好循環の構築に向けたデータ実証を行います。カラクリは「日本のカスタマーサポートのための高品質AIエージェントモデルの開発」を実施し、国内市場において100万人が従事するといわれているコールセンター市場への生成AIの実装を加速してまいります。10月18日(金)14時40分からの本講演では、当社基盤モデルのご紹介およびユーザー企業から見たモーダル・領域の可能性についてお話する予定です。

会場:幕張メッセ 201会議室 201会議室 社会課題を考える DX ガバメント/政策 
日時:2024-10-18 14:40 – 16:00
URL:https://www.ceatec.com/ja/conference/detail.html?id=2788

■国内最高性能を獲得した「KARAKURI LM」について

「KARAKURI LM」は、カラクリが開発する大規模言語モデル(LLM)シリーズの総称です。2023年9月にAWS LLM開発支援プログラムに採択されたことを機に、LLM開発に着手いたしました。2024年1月に国産オープンモデルで最高性能を獲得した700億パラメータLLM「KARAKURI LM 70B v0.1」を発表し、これまでの計3モデル(いずれも国産オープンモデルでトップクラスの性能)を公開しております。GENIACでは、日本のカスタマーサポートに特化したベンチマークの構築、日本のカスタマーサポートに特化したエージェントモデルの構築の2つを実施する予定です。

▼各モデルの主な実績・特徴

発表モデル学習方法
2024年1月国産オープンモデルで最高性能※1の700億パラメータLLM「KARAKURI LM 70B v0.1」Llama2 70B をベースとして継続事前学習・SFT自社で作成したCS特化の独自データを使用アラインメントに SteerLM を使用AWS Trainium で約 800 万円分の学習(GPU と比較して半額程度)
5月世界初※2・AWS Trainium※3でMoEモデル※4の学習に成功「KARAKURI LM 8x7B Chat v0.1」Swallow MX 8x7B をベースとしてSFT70Bよりも多くのデータセットでSFT実施アラインメントに SteerLM を引き続き使用AWS Trainium で約 30 万円分の学習
6月国産モデルで初めて※5AIエージェント※6として使える「KARAKURI LM 8x7B Instruct v0.1」Swallow MX 8x7B をベースとしてSFTAIエージェントとしての利用を想定したデータセットも含めてSFT実施アラインメントに SteerLM を引き続き使用AWS Trainium で約 75 万円分の学習

▼詳細

カラクリの生成AIの取り組み:https://ad.karakuri.ai/generative-ai
KARAKURI LMについて:https://ad.karakuri.ai/karakuri-lm
技術blog:https://medium.com/karakuri


※1 カラクリ社調べ(2024年1月モデル公開時点・オープンソースおよびインターネットで情報公開されている国産LLMとして)
※2 カラクリ社調べ(2024年5月モデル公開時点・オープンソースおよびインターネットで情報公開されているLLMとして)
※3 AWS Trainium は、AWS が 1,000 億件以上のパラメータモデルの深層学習 (DL) トレーニングを行うために専用に構築された機械学習 (ML) チップです。
※4  MoEモデルはGPT-4などでも採用されていると言われている方式で、複数の専門家(エキスパート)とそれらの専門家の意見を組み合わせる方法を表す機械学習モデルです。複雑なデータや問題に対して高い精度を達成することができ、総パラメータ数を増やしつつ、それに伴う計算量の増加を抑えることができることから、LLMが巨大化していく中で必須と言われています。
※5 カラクリ社調べ(2024年6月調査・オープンソースおよびインターネットで情報公開されている国産LLMとして)
※6  AIエージェントとは、生成AIを活用した、自律的にタスクを実行するソフトウェアのことを指します。これらのエージェントは、検索エンジンやデータベースを始めとした外部のツールを活用し、ユーザーの代わりに様々な作業を遂行します。

会社概要

カラクリは「FriendlyTechnology」というビジョンを掲げ、大規模言語モデル(LLM)のカスタマーサポートへの実用化を目指して事業を展開しています。2018年からはトランスフォーマーモデルであるBERTの研究を開始し、2022年からはGPTを含む大規模言語モデルの研究に取り組んでいます。また当社のSaaS事業で提供するカスタマーサポート向けAIシリーズは、高島屋、SBI証券、セブン-イレブン・ジャパン、星野リゾートなど、各業界のトップ企業に選ばれ続けています。2018年にはICCサミットの「スタートアップ・カタパルト」で入賞し、2020年に「Google for Startups Accelerator」、2023年に「AWS LLM開発支援プログラム」、2024年に経産省の「GENIAC」に採択されました。また、Meta社で開催された完全招待制の生成AI開発者会議にも参加するなど、ビックテックからも注目を集めています。

住所〒104-0045 東京都中央区築地2-7-3 Camel 築地 II 5F
設立2016年10月3日
代表者代表取締役CEO 小田 志門
事業内容カスタマーサポート特化型AI「KARAKURI」シリーズの開発・提供・運営など
URLhttps://karakuri-ai.co.jp/

▶ 本件に関するお問い合わせ先

カラクリ株式会社: 広報 堀之内
E-mail: pr@karakuri.ai