arrow-up icon
Image

企業が自社のLLM (大規模言語モデル)
当たり前に使っている世界を実現する

高効率開発基盤

フィックスターズの強みである「高速化技術」を活かし、企業が自社向けLLMを
世界最高レベルのコストパフォーマンスで開発できるプラットフォームを提供しています。

企業の自社LLM活用のために必要な「効率化」

生成系AIやLarge Language Models (LLM) の企業活用が増えてきていますが、その普及にはいくつかのハードルが存在します。

  • 各社のニーズに特化した知識や精度を継続的に改善していく必要がある一方で、LLMの開発には莫大な計算資源と長い時間が必要である
  • ハードウェアや人材の需要過多により、企業が自前でLLM開発資源を潤沢に確保することが困難

そこで我々は現在、LLMの学習と推論が高いコストパフォーマンスで実現できる開発基盤の実現に向けて、さくらインターネットと共同で研究開発を進めています。フィックスターズの強みであるソフトウェア高速化・軽量化技術と、さくらインターネットの豊富なクラウドインフラ運⽤技術を組み合わせることで、「企業が自社のLLMを当たり前に使っている世界の実現」に積極的に貢献します。

フィックスターズ
ソフトウェア高速化・軽量化技術
icon
さくらインターネット
豊富なクラウドインフラ運⽤技術

高効率なLLM用の開発基盤を提供します

各社の独自知識を持った
専用のLLMを開発するための高効率SDK +高品質GPUクラウド

フィックスターズでは、各社の独自知識を持った専用LLMを高効率で開発・運用できる基盤の研究開発を進めています。この開発基盤では、フィックスターズの高速化技術を活用したSDKを中心とするソフトウェアが、さくらインターネットが提供するGPUサーバを始めとするハードウェアと一体となり、LLMのための高効率開発基盤を構成しています。

Image
Checkmark icon
専用LLM
特定のナレッジベースを組み込むことで、特定のドメインや知識領域に特化した専用のLLMにカスタマイズできます
Checkmark icon
ソフトウェア
フィックスターズの強みであるソフトウェア高速化・軽量化技術*とSDK開発力が最大限活用され、大規模かつ長時間のLLM学習と推論が実行できます。
Checkmark icon
ハードウェア
さくらインターネットが提供するハイエンドGPUクラウドを活用します

* 高速化事例はこちらをご覧ください

LLM開発基盤のさらに詳しい情報についてはサービス紹介ページをご覧ください

Fixstars K4サービス紹介

専用LLMを使ったAIアプリケーションの例

icon
技術サポートボット

ITや特定の技術分野に特化した知識を持つLLMを使用し、技術サポートやトラブルシューティングのアシストをします。

icon
社内知識検索エンジン

独自LLMが膨大な社内ドキュメントを理解し、従業員の質問に対して適切な情報を提供します。

icon
ドキュメント生成ツール

社内の報告書やプレゼンテーション資料、契約書などを自動生成し、重要な項目やリスクを自動で識別します。

このほかにも、一般公開されているLLMアプリケーションでは難しい、各社独自のナレッジを組み込んだ専用LLMアプリケーションを作ることができます。詳しくはご相談ください。

お問い合わせ

開発者紹介

Image

吉藤 尚生 LLM R&D Center 開発責任者

2013年フィックスターズ入社。ChainerMNの開発支援やOpenFOAMの高速化など、車載機器やモバイル向けの組み込み開発からスパコンでの科学技術計算まで幅広い分野とハードウェアでの、ソフトウェア高速化事業に従事。2023年よりLLM事業推進室を立ち上げ研究開発を開始。

開発者メッセージ

"現在の生成AI/LLM技術を、実社会に浸透させ、特にそれぞれの企業に自社の業務で活用してもらうためには、まだまだ多くの課題があります。一方で、日本国内の状況を見るとようやく基礎研究が始まったばかりです。
このような基礎研究と並行して、実社会応用も考えていかなければ、LLM技術の発展スピードに日本社会が取り残されてしまうかもしれません。
今回、私は、フィックスターズや私自身がこれまで積み上げてきた「最新の研究成果を貪欲に取り入れながら企業の実利活用に貢献」できる高速化やSDK開発の実績を根として、今度は「誰もが日々の業務でLLM技術の恩恵を受けられる世界を実現する活動」に飛び込みました。
そのような未来を皆さまと一緒に創っていくため、まずは基礎となるLLM開発基盤を整備していきます。"

Avatar
三木 聡

株式会社フィックスターズ
代表取締役社長

メッセージ

"生成AIが急激に進歩していくだろうこれからの10年。
資本力のある大企業だけでなく、多くの組織に生成AIの恩恵を届けたい。
そのためには、学習・推論共にますますの「高速化」が求められます。
「高速化」を生業にして20年のフィックスターズが今後の生成AIを「高速化」します。
世界最高効率の地球環境にも優しい生成AIプラットフォームをフィックスターズが作って行きます。
"

プロジェクトメンバー募集中

私たちと一緒に、高効率なLLM学習基盤の研究開発を通じて、企業が自社のLLMを当たり前に使っている世界を実現しませんか?

icon
LLMを各社専用にカスタマイズすることに貢献できる方
実際の顧客課題を用いて、各企業が自社向けにLLMを領域特化させるための方法論の研究および開発と、開発基盤へのフィードバック
  • 基盤LLMを各社の要望や制度に合わせて特化させる手法(ファインチューンなど)の最新研究を調査&精度評価
  • 実顧客のデータを用いて実際に専用LLMを開発&継続的改善
  • 上記の結果を開発基盤側へフィードバック
icon
事業者向けLLMの学習や推論環境を整備・高速化することに貢献できる方
実運用が想定されている規模のLLMとサーバ等環境において、最も効率が良くなるようにフレームワーク等を設定し、使いやすい形で提供する方法論の研究および開発
  • 想定されるサーバ等環境に特化した場合に最適なモデル規模や手法の調査・処理時間評価
  • 実顧客が使いやすい形で提供するための開発基盤アーキテクチャ研究設計から開発実装まで

関連情報

LLM開発基盤に関するご質問・ご相談

お問い合わせ