募集要項
- 仕事内容
-
【募集背景】
2026年1月に発足した当部署では、「Legal Brain エージェント」や「クラウドサイン」など、複数のプロダクトでAI活用を急加速させています。
AI/MLの価値は、モデルを作って終わりではなく、いかに高い精度を維持したまま安定して動かし続け、継続的に改善できるかにかかっています。特にLLM活用の普及に伴い、評価手法の複雑化やデータの鮮度管理が極めて重要な課題となっています。
プロダクトの現場に寄り添い、MLライフサイクル(開発・評価・デプロイ・モニタリング)の自動化・高度化を通じて、具体的なビジネス成果を最大化させるバックエンドエンジニアを募集します。
【職務詳細】
■プロダクトへのMLライフサイクル実装
・各プロダクトチームと連携し、AI/ML機能のデプロイパイプラインおよび推論インフラの設計・構築
・現場のニーズに合わせた、LLMアプリケーション(RAG等)の継続的改善を支える仕組みの実装
■高度な評価・モニタリング基盤の開発
・複雑化するAI出力に対する評価パイプライン(LLM-as-a-judge等)の自動化
・RAGや検索機能の精度評価を継続的に行うためのパイプライン構築
・推論精度、レイテンシ、コスト、およびデータドリフトの監視・可視化体制の構築
■全社共通のAI基盤コンポーネントの提供
・プロダクト横断で利用可能なLLMオーケストレーションや、検索基盤の運用
・開発環境の標準化を通じた、機械学習エンジニアおよびプロダクト開発者のリードタイム短縮
■SRE・インフラチームとの連携
・全社インフラ方針に基づいた、セキュアかつスケーラブルなAI/MLシステム・検索システムの構築
・コスト最適化やパフォーマンスチューニングの実行
【開発環境】
■言語・フレームワーク
バックエンド: Python / FastAPI
機械学習: Python / scikit-learn など
LLM: LangChain, LangGraph, Langfuse
■技術基盤
インフラ: AWS (ECS, Lambda, S3, Redis, SES, SNS, SQS, ELB, etc.)
データベース: Au
- 応募資格
-
- 必須
-
【必須経験・スキル】
■パブリッククラウド(AWS/GCP/Azure)を用いたインフラ構築・運用経験
■CI/CDツール(GitHub Actions, CircleCI等)を用いた開発プロセスの自動化経験
■Docker / Kubernetes 等のコンテナ技術の実務経験
■Python または Go 等を用いたソフトウェア開発経験
■機械学習システムのライフサイクル(学習・評価・推論)に対する基礎知識
【歓迎経験・スキル】
■データ基盤、ML基盤等の開発・運用経験
■LLMアプリケーションの運用、および評価パイプラインの構築経験
■Terraform / CloudFormation 等の IaC によるインフラ管理経験
■サービスKPI監視や分散トレーシング(Datadog, OpenTelemetry等)の導入経験
■大規模トラフィックに耐えうるマイクロサービスの設計・運用経験
【求める人物像】
■現場の痛みに対する想像力がある方
プロダクトチームが何に困っているかを察知し、技術で解決することを楽しめる方。
■「自動化」への執着心がある方
手作業によるミスや遅延を嫌い、徹底的に仕組み化を進めたい方。
■越境するマインドセットを持つ方
インフラの知識を持ちつつ、機械学習エンジニアのドメイン(モデル評価やデータ処理)にも深く関心を持ち、チームを繋ぐ役割を担える方。
- 雇用形態
- 正社員
- 勤務地
- 東京都
- 年収・給与
- 1003~1805万円
