募集要項
- 募集背景
- 増員
- 仕事内容
-
★☆2016年設立のAI×SaaSベンチャー!業界の中でも先進的な”自然言語処理”技術を用いて企業の組織・文化をDXします!☆★【現状の課題】
【高い成長性:シリーズB・10億円の資金調達済み、IPOを目指…
国産LLM・VLMの自社開発を進める中で、推論・モデル軽量化などの性能最適化がボトルネックとなっています。
既存のフレームワークやGPU構成に依存しない、高速・安定・安価な基盤を構築することが急務です。
研究開発レベルの知見をプロダクトとして成立させる実装力を持つエンジニアを求めています。
【業務内容】
自社プロダクトで活用する大規模言語モデル(LLM)およびマルチモーダルモデル(VLM)の推論・学習の高速化を担当します。
製品開発チームやリサーチチームと協働しながら、実際のプロダクトに最適な形で技術を落とし込んでいただきます。
■具体的な業務内容
・LLM/VLM推論パイプラインの最適化(高速化・省メモリ化・分散処理)
・モデル圧縮、量子化、蒸留などによる軽量化手法の検討と実装
・推論基盤の設計(モデル並列・パイプライン並列・ロードバランシング)
・推論時間・コストの定量的改善に向けた性能計測と最適化サイクルの運用
※変更の範囲:開発関連業務
【チーム構成】
PaaSユニット
事業責任者(CEO)1名
プロダクトマネージャー 1名
【開発環境】
[組織体制]
<PaaSエンジニアチーム>
・プロダクトマネージャー1名
・フロントエンドエンジニア1名
・バックエンドエンジニア1名
・機械学習エンジニア3名
[開発言語]
TypeScript、Vue.js 、Node.js、Python
[コンテナ]
Docker
[IaC]
Terraform
[クラウド]
AWS, Azure
【ポジションの魅力】
・国産LLMを自社でフルスクラッチ開発している希少な環境
・研究成果を“動くプロダクト”として社会に届ける技術開発ができる
・OSSや論文に還元できるほどの技術的挑戦を実務で経験可能
・LLM/VLM領域の先端研究者と密に協働できる
【関連資料】
・Stockmark LLM特設LP
https://llm.stockmark.co.jp/
・業務AIの実装支…
- 応募資格
-
- 必須
-
※いずれか必須
・PyTorchやTensorFlowなどを用いたLLM/VLMの実装・最適化経験
・CUDA、NCCL、TensorRT、ONNX Runtimeなどを活用したGPU最適化知識
・モデル推論のパフォーマンス改善・メモリ削減の実務経験
・分散学習・推論に関する基礎理解(Data Parallel, Model Parallelなど)
・Python/C++などでの性能チューニング経験
- 歓迎
- 応募資格をご覧下さい
- フィットする人物像
- 応募資格をご覧下さい
- 雇用形態
- 正社員
- 勤務地
- 東京都港区南青山1丁目12-3 LIFORK MINAMI AOYAMA S209
- 勤務時間
- 10:00~19:00
- 年収・給与
- 755万円~1305万円
- 休日休暇
- 完全週休二日(土日) 祝日、有給休暇(入社時に付与)、年末年始休暇(6日)
