当社はCookieを使用して、お客様が当社のWebサイトでより良い体験を得られるようにしています。引き続き閲覧する場合は、当社のプライバシーポリシーに同意したことになります。
フィックスターズの強みである「高速化技術」を活かし、企業が自社向けLLMを世界最高レベルのコストパフォーマンスで開発できるプラットフォームの開発を進めています
生成系AIやLarge Language Models (LLM) の企業活用が増えてきていますが、その普及にはいくつかのハードルが存在します。
そこで我々は、軽量HWで短時間のLLM学習と推論が高いコストパフォーマンスで実現できる計算基盤を、さくらインターネットのハイエンドGPUクラウドサービスの上で提供します。フィックスターズの強みであるソフトウェア高速化・軽量化技術と、さくらインターネットの豊富なクラウドインフラ運⽤技術を組み合わせることで、「企業が自社のLLMを当たり前に使っている世界の実現」に積極的に貢献します。
フィックスターズでは、さくらインターネットと共同で、各社の独自知識を持った専用LLMを高効率で開発・運用できる基盤の研究開発を進めています。この開発基盤では、さくらインターネットが提供するハイエンドGPUクラウドと、フィックスターズの高速化技術を活用した高効率なSDKが組み合わされた統合環境の提供を目指しています。
* 高速化事例はこちらをご覧ください
LLM開発基盤のさらに詳しい情報についてはお問い合わせください
ITや特定の技術分野に特化した知識を持つLLMを使用し、技術サポートやトラブルシューティングのアシストをします。
独自LLMが膨大な社内ドキュメントを理解し、従業員の質問に対して適切な情報を提供します。
社内の報告書やプレゼンテーション資料、契約書などを自動生成し、重要な項目やリスクを自動で識別します。
このほかにも、一般公開されているLLMアプリケーションでは難しい、各社独自のナレッジを組み込んだ専用LLMアプリケーションを作ることができます。詳しくはご相談ください。
2013年フィックスターズ入社。ChainerMNの開発支援やOpenFOAMの高速化など、車載機器やモバイル向けの組み込み開発からスパコンでの科学技術計算まで幅広い分野とハードウェアでの、ソフトウェア高速化事業に従事。2023年よりLLM事業推進室を立ち上げ研究開発を開始。
"現在の生成AI/LLM技術を、実社会に浸透させ、特にそれぞれの企業に自社の業務で活用してもらうためには、まだまだ多くの課題があります。一方で、日本国内の状況を見るとようやく基礎研究が始まったばかりです。 このような基礎研究と並行して、実社会応用も考えていかなければ、LLM技術の発展スピードに日本社会が取り残されてしまうかもしれません。 今回、私は、フィックスターズや私自身がこれまで積み上げてきた「最新の研究成果を貪欲に取り入れながら企業の実利活用に貢献」できる高速化やSDK開発の実績を根として、今度は「誰もが日々の業務でLLM技術の恩恵を受けられる世界を実現する活動」に飛び込みました。 そのような未来を皆さまと一緒に創っていくため、まずは基礎となるLLM開発基盤を整備していきます。"
株式会社フィックスターズ代表取締役社長
"生成AIが急激に進歩していくだろうこれからの10年。 資本力のある大企業だけでなく、多くの組織に生成AIの恩恵を届けたい。 そのためには、学習・推論共にますますの「高速化」が求められます。 「高速化」を生業にして20年のフィックスターズが今後の生成AIを「高速化」します。 世界最高効率の地球環境にも優しい生成AIプラットフォームをフィックスターズが作って行きます。"
私たちと一緒に、高効率なLLM学習基盤の研究開発を通じて、企業が自社のLLMを当たり前に使っている世界を実現しませんか?
フィックスターズでは、LLM開発基盤プロジェクトで働くエンジニアを募集しています。
夏のプログラミング・シンポジウム 2023(テーマ:LLMを使ったプログラミングとAIの未来)に登壇しました。
フィックスターズが大規模言語モデル(LLM)開発環境を高速化するための研究開発に着手