arrow-up icon
Image

企業が自社のLLM (大規模言語モデル)
当たり前に使っている世界を実現する

高効率開発基盤

フィックスターズの強みである「高速化技術」を活かし、企業が自社向けLLMを
世界最高レベルのコストパフォーマンスで開発できるプラットフォームの開発を進めています

企業の自社LLM活用に克服が必要なコスト問題

生成系AIやLarge Language Models (LLM) の企業活用が増えてきていますが、その普及にはいくつかのハードルが存在します。

  • ハードウェアの価格の高騰と需要の過多により、企業が自前で計算資源を確保することが困難
  • 各社のニーズに特化した知識や精度を継続的に改善していく運用が必要であるものの、LLMの学習には莫大な計算資源と長い時間が必要で、そのコストが嵩む

そこで我々は、軽量HWで短時間のLLM学習と推論が高いコストパフォーマンスで実現できる計算基盤を、さくらインターネットのハイエンドGPUクラウドサービスの上で提供します。フィックスターズの強みであるソフトウェア高速化・軽量化技術と、さくらインターネットの豊富なクラウドインフラ運⽤技術を組み合わせることで、「企業が自社のLLMを当たり前に使っている世界の実現」に積極的に貢献します。

フィックスターズ
ソフトウェア高速化・軽量化技術
icon
さくらインターネット
豊富なクラウドインフラ運⽤技術

わたしたちのLLM開発基盤について

各社の独自知識を持った
専用のLLM AIアプリケーション開発のための高効率SDK + GPUクラウド

フィックスターズでは、さくらインターネットと共同で、各社の独自知識を持った専用LLMを高効率で開発・運用できる基盤の研究開発を進めています。この開発基盤では、さくらインターネットが提供するハイエンドGPUクラウドと、フィックスターズの高速化技術を活用した高効率なSDKが組み合わされた統合環境の提供を目指しています。

Image
Checkmark icon
専用LLM
特定のナレッジベースを組み込むことで、特定のドメインや知識領域に特化した専用のLLMにカスタマイズできます
Checkmark icon
実行環境
フィックスターズの強みであるソフトウェア高速化・軽量化技術*とSDK開発力が最大限活用され、軽量HWで短時間のLLM学習と推論ができます。
Checkmark icon
GPUクラウド
さくらインターネットが提供するハイエンドGPUクラウドを活用します

* 高速化事例はこちらをご覧ください

LLM開発基盤のさらに詳しい情報についてはお問い合わせください

お問い合わせ

専用LLMを使ったAIアプリケーションの例

icon
技術サポートボット

ITや特定の技術分野に特化した知識を持つLLMを使用し、技術サポートやトラブルシューティングのアシストをします。

icon
社内知識検索エンジン

独自LLMが膨大な社内ドキュメントを理解し、従業員の質問に対して適切な情報を提供します。

icon
ドキュメント生成ツール

社内の報告書やプレゼンテーション資料、契約書などを自動生成し、重要な項目やリスクを自動で識別します。

このほかにも、一般公開されているLLMアプリケーションでは難しい、各社独自のナレッジを組み込んだ専用LLMアプリケーションを作ることができます。詳しくはご相談ください。

お問い合わせ

開発者紹介

Image

吉藤 尚生 LLM R&D Center 開発責任者

2013年フィックスターズ入社。ChainerMNの開発支援やOpenFOAMの高速化など、車載機器やモバイル向けの組み込み開発からスパコンでの科学技術計算まで幅広い分野とハードウェアでの、ソフトウェア高速化事業に従事。2023年よりLLM事業推進室を立ち上げ研究開発を開始。

開発者メッセージ

"現在の生成AI/LLM技術を、実社会に浸透させ、特にそれぞれの企業に自社の業務で活用してもらうためには、まだまだ多くの課題があります。一方で、日本国内の状況を見るとようやく基礎研究が始まったばかりです。
このような基礎研究と並行して、実社会応用も考えていかなければ、LLM技術の発展スピードに日本社会が取り残されてしまうかもしれません。
今回、私は、フィックスターズや私自身がこれまで積み上げてきた「最新の研究成果を貪欲に取り入れながら企業の実利活用に貢献」できる高速化やSDK開発の実績を根として、今度は「誰もが日々の業務でLLM技術の恩恵を受けられる世界を実現する活動」に飛び込みました。
そのような未来を皆さまと一緒に創っていくため、まずは基礎となるLLM開発基盤を整備していきます。"

Avatar
三木 聡

株式会社フィックスターズ
代表取締役社長

メッセージ

"生成AIが急激に進歩していくだろうこれからの10年。
資本力のある大企業だけでなく、多くの組織に生成AIの恩恵を届けたい。
そのためには、学習・推論共にますますの「高速化」が求められます。
「高速化」を生業にして20年のフィックスターズが今後の生成AIを「高速化」します。
世界最高効率の地球環境にも優しい生成AIプラットフォームをフィックスターズが作って行きます。
"

プロジェクトメンバー募集中

私たちと一緒に、高効率なLLM学習基盤の研究開発を通じて、企業が自社のLLMを当たり前に使っている世界を実現しませんか?

icon
LLMを各社専用にカスタマイズすることに貢献できる方
実際の顧客課題を用いて、各企業が自社向けにLLMを領域特化させるための方法論の研究および開発と、開発基盤へのフィードバック
  • 基盤LLMを各社の要望や制度に合わせて特化させる手法(ファインチューンなど)の最新研究を調査&精度評価
  • 実顧客のデータを用いて実際に専用LLMを開発&継続的改善
  • 上記の結果を開発基盤側へフィードバック
icon
事業者向けLLMの学習や推論環境を整備・高速化することに貢献できる方
実運用が想定されている規模のLLMとサーバ等環境において、最も効率が良くなるようにフレームワーク等を設定し、使いやすい形で提供する方法論の研究および開発
  • 想定されるサーバ等環境に特化した場合に最適なモデル規模や手法の調査・処理時間評価
  • 実顧客が使いやすい形で提供するための開発基盤アーキテクチャ研究設計から開発実装まで

関連情報

LLM基盤開発に関するご質問・ご相談

お問い合わせ