ローカルLLMを使いこなす入門ガイド!「KARAKURI LM10本ノック」をテックブログで公開

「5クリックで動かす方法」や「function callingの最適活用」などTips満載

カスタマーサポートDXを推進するカラクリ株式会社(本社:東京都中央区、代表取締役CEO:小田 志門、以下「カラクリ」)が開発する大規模言語シリーズ「KARAKURI LM」の公式Tipsを、カラクリが運営する「KARAKURI Techblog」で6月28日より順次公開することをお知らせします。「KARAKURI LM」は、国産オープンモデルの中で最高性能を獲得している大規模言語モデルで、これまでに3つのモデルを公開しております。「日本語に強い」「無料」「ローカルLLMなので、プライバシーを気にせず利用できる」点などをご評価いただき、AITuberや小説執筆などクリエイターの方々をはじめとする皆さまにご利用いただいております。日本国内の生成AI活用を促進していくため、この度「KARAKURI LM」をもっと使いやすくするTipsなどの公式見解を技術ブログとして公開することを決定いたしました。

■KARAKURI LMとは

「KARAKURI LM」は、カラクリが開発する大規模言語(LLM)シリーズの総称です。学習に使うデータさえ質が高ければ、中小企業でもベンチャーでも独自のデータセットをもとに国際的競争力を持つAIモデルを開発可能だということを証明するため、さまざまなシリーズ開発に着手しています。

【公開しているモデルについて】

モデル名特徴
KARAKURI LM 70B Chat v0.1
https://huggingface.co/karakuri-ai/karakuri-lm-70b-v0.1
国産オープンモデル最高性能の700億パラメーターLLM
2023年9月に「AWS LLM 開発支援プログラム」に採択いただき、本モデルの開発に着手。2024年1月に国産オープンモデルとして最高性能を獲得しております。
KARAKURI LM 8x7B Chat v0.1
https://huggingface.co/karakuri-ai/karakuri-lm-8x7b-chat-v0.1
世界初・AWS TrainiumでMoEモデルの学習に成功
総パラメータ数467億、推論時のアクティブパラメータ数129億の大規模言語モデルです。第一弾に続き、トレーニングコストを最大50%削減できるといわれているAWS Trainiumを活用しており、開発費用は30万円です。
KARAKURI LM 8x7B Instruct v0.1
https://huggingface.co/karakuri-ai/karakuri-lm-8x7b-instruct-v0.1
国産モデル初・AIエージェントとして使えるLLM
Function callingとRAGに対応。外部ツールを活用できる点という特徴を持つため「業界・企業特有のタスクのプログラミング」にも活用可能です。

■テックブログ「KARAKURI LM10本ノック」について

2024年1月に「KARAKURI LM 70B Chat v0.1」を公開して以来、多くの方々にKARAKURI LMを活用いただいております。「KARAKURI LM」の日本語の強さ・無制限に利用できるローカルLLMの利便性・プライバシー、セキュリティ面の安心から、AITuberや小説執筆などのクリエイティブなユースケースから、機密情報のRAG(検索拡張生成)まで、多種多様な用途にご利用いただいております。カラクリはFriendlyTechnologyをモット―にしており、もっとAIを身近に感じていただける世の中を実現していきたいと考えております。そこで「やさしく使えるローカルLLM・No.1」を目指し、カラクリのデータサイエンティストが「KARAKURI LM」をより多くの環境で使えるヒントを、順次公開いたします。

【KARAKURI 10本ノック 予告】

タイトル概要
KARAKURI LMを触ってみよう読めば、ほんの5クリックで「KARAKURI LM」 を無料で動かす体験ができる!手順を公開いたします。
KARAKURI LM ならではの機能、属性パラメータ(SteerLM) 解説KARAKURI LM「だけ」(現時点、国産のLLMで)が備える「属性パラメータ」機能について詳しく解説します。
LLMを動かすのに必要なメモリ量の見積もり方ローカルLLMを動かす環境を整える上で必ず壁となるメモリの問題。どんな環境を用意すればどれくらいのモデルが動かせるのか、丁寧に解説します。
KARAKURI LM で function calling 実践KARAKURI LM「だけ」(現時点、国産のLLMで)が備える function calling の能力を最適に活用する方法をご案内します。
自動プロンプト最適化でKARAKURI LM をチューニングしてみようLLMの性能を最大限に引き出す「自動プロンプト最適化」技術は、KARAKURI LM を始めとするローカルLLMでは特に重要となります。その具体的なやり方をご紹介します。

※上記の内容は予告なく変更する可能性がありますのでご了承ください。

【blog執筆者 プロフィール】

会社概要

カラクリは「カスタマーサポートをエンパワーメントする」をブランドパーパスに掲げ、大規模言語モデル(LLM)のカスタマーサポートへの実用化を目指した事業を展開しています。2018年よりtransformerを用いた言語モデルBERTを、2022年からはGPTを含めた大規模言語モデルの研究を実施。主力ビジネスである高精度AIチャットボット「KARAKURI chatbot」は、高島屋、SBI証券、セブン-イレブン・ジャパン、SmartHRなど各業界のトップランナーに選ばれつづけています。2018年のICCサミット「スタートアップ・カタパルト」に入賞、2020年に「Google for Startups Accelerator」に採択、2023年に「AWS LLM 開発支援プログラム」に採択されました。

住所〒104-0045 東京都中央区築地2-7-3 Camel 築地 II
設立2016年10月3日
代表者代表取締役CEO 小田 志門
事業内容カスタマーサポート特化型AI「KARAKURI」シリーズの開発・提供・運営など  
URLhttps://about.karakuri.ai/

▶ 本件に関するお問い合わせ先

カラクリ株式会社: 広報 堀之内
E-mail: pr@karakuri.ai