募集要項
- 仕事内容
-
【業務内容】
■データ分析基盤の作成
・大規模データの収集、変換、保存を行うためのデータパイプラインの設計/実装
・ETLプロセスの最適化と自動化を通じて、データ処理の効率化を図る
・データの可視化や分析を支援するためのインフラストラクチャの構築
■データ連携システムの構築
・複雑なエンタープライズ環境におけるデータ連携システムの設計/実装
・APIやメッセージングキューを活用したリアルタイムデータ連携の実現
・異なるシステム間でのデータ統合と同期を効率的に行うためのソリューションの提供
■データベース管理
・RDBMS、NoSQL、Data Warehouseを活用したデータベースの設計/運用
・データの整合性とセキュリティを確保し、パフォーマンスを最適化
・データベースのバックアップとリカバリ戦略の策定と実施
- 応募資格
-
- 必須
-
【必須条件】
・コンピュータサイエンスや関連分野の学士号/修士号、または同等の実務スキル
・クラウドプラットフォーム (AWS, GCP, Azure いずれか) や
コンテナ技術 (Docker, Kubernetes) の利用経験
・データエンジニアリングの実務経験
→データパイプラインの設計/実装経験(3年以上)
→RDBMS、NoSQL、Data Warehouseの運用経験
・アルゴリズム/データ構造などCS基礎への深い理解とハンズオンでの実装能力
→Python、SQLなどを用いたデータ処理の経験
スクリプト言語を用いたデータ処理の自動化経験
・データベース管理能力
→データベースの設計、運用、最適化の経験
データベースのパフォーマンスチューニングの経験
・データ品質管理の経験
→データのクレンジングや正規化、データ品質向上のためのプロセス設計経験
・セキュリティ意識→データセキュリティに関する知識と実践経験
・LLM / AI 領域への強い興味、および最新技術を追い続ける探究心
・日本語 (Fluent) : プロダクト開発において齟齬なく議論を行えるレベル
- 歓迎
-
【歓迎条件】
・AIモデルの学習データの管理/作成経験
→AIモデルのトレーニングに必要な
データセットの準備や管理の経験
・AI/ML、チャットボット、生成系 AI、NLP、
エージェントフレームワークなどの開発/研究経験
・ビッグデータ技術の知識
→Hadoop、Sparkなどのビッグデータ処理技術の知識
・大規模データ環境下での分散システムや
パフォーマンス最適化の経験
・多国籍環境での実務経験
- 雇用形態
- 正社員
- 勤務地
- 新宿区
- 勤務時間
- 10:00~19:00/※8時間
- 年収・給与
- 600万円~1200万円 ※提示年収は、今までのご経験や選考の中でのご評価によって決定いたします。最低年収を下回る可能性もございますので、あらかじめご了承ください。
- 待遇・福利厚生
- SO付与制度あり、書籍購入補助(半期 30,000円まで)、リフレッシュ手当(毎月 5,000円まで)、部活動手当(毎月5,000円まで)、家賃手当(同社指定の駅を対象とし毎月30,000円まで)、シャッフルランチ/ディナー(四半期に一度ランチ1,000円まで、ディナー5,000円まで)、資格取得支援制度、英語学習支援制度(業務に必要な場合のみ)、リフレッシュ休暇制度(3年間継続勤務した社員へ毎年付与される特別休暇 2日)、定期健康診断(年1回)、従業員持株会、敷地内禁煙(屋外に喫煙場所設置)
- 休日休暇
- 土曜日,日曜日,祝日/完全週休二日制(土日祝)、年次有給休暇、夏季休暇(3日)、年末年始休暇(12月31日~1月3日)、慶弔休暇
- 選考プロセス
-
書類選考 → 面接(2~3回)→ 内定
※最終面接までにSPIの受験とリファレンスチェックをご対応いただきます
