募集要項
- 募集背景
- 事業拡大に伴う人員不足解消のため
- 仕事内容
-
■AI活用を見据えたデータ構造の意思決定を担う■フルリモート可能■裁量◎■データが「増えても・変わっても・AIに使われても」壊れないように、
データ基盤の構造設計のための意思決定を行っていただきます。
■データの流れ(収集~蓄積~加工~提供~活用)を俯瞰し、
将来の拡張・変更・AI活用まで見据えたターゲットアーキテクチャを設計
■コアとなるデータモデル(概念/論理/物理)、ID設計、
履歴管理(SCD等)、イベントスキーマ、共通ディメンションを定義
■指標の意味(セマンティック)を統一し、再利用可能な設計への落とし込み
■スキーマ進化戦略(後方互換、バージョニング、デプリケーション)と
運用ルールの策定
■品質基準(正確性、整合性、鮮度、完全性)と
検知(テスト/アラート)を設計し、データSLO/SLIとして運用に組み込み
■学習/推論で必要なデータの粒度・履歴・ラベル・特徴量の設計方針の整備
■オフライン/オンライン両面で「同じ意味のデータ」を提供できるように、
基盤・契約(Data Contracts)を設計
===========-========
◎AI/分析/プロダクト横断で活用されるデータ基盤を
ゼロベースから設計できる、影響範囲の大きいポジション。
◎単なる基盤運用に留まらない上流から関与可能。
◎PdM・ML・Platformと密に連携し、
事業成長とAI活用を支える中核エンジニアとして活躍できます。
【業務内容変更の範囲】
同社業務全般
- 応募資格
-
- 必須
-
【必須】
■データパイプライン(ETL/ELT)の設計・実装経験
■SQL/Pythonでのデータ処理の実務経験
■クラウドDWH(BigQuery/Redshift等)の運用経験
■AIコーディングアシスタントの活用経験
【尚可】
■データエンジニアリング経験2年以上
■ワークフローエンジン(Airflow/Dagster等)の運用経験
■リアルタイムデータ処理(Kafka/Pub/Sub等)の経験
■dbt/Dataformの導入・運用経験
■データ品質テスト(Great Expectations等)の実装経験
- 歓迎
- ※活かせる経験については上記「応募資格」欄に併記しております
- フィットする人物像
- ・全体最適で“構造の意思決定”ができ、変更に強い設計と運用を両立できる方
- 雇用形態
-
雇用形態:正社員
契約期間:無期
試用期間:有(3ヶ月)
- 勤務地
-
東京都渋谷区宇田川町3-5 Spark SHIBUYA 10階
JR山手線「渋谷」駅から徒歩5分
勤務地変更の範囲:本社及び全国の事業場、支社、営業所
- 勤務時間
- フレックスタイム制(コアタイム:11時00分~17時00分)
- 年収・給与
-
年収:753万~1008万程度
月給制:月額628000円
給与:■経験、スキル、年齢を考慮の上、同社規定により優遇
賞与:無
昇給:年2回
- 待遇・福利厚生
-
慶弔見舞金、リフレッシュワーケーション合宿、英会話費用50%支給(サービス指定)、おやつ・ドリンク無料(水、コーヒー、お茶、紅茶)、書籍購入(1ヶ月に2冊まで補助)
喫煙情報:屋内原則禁煙(喫煙室あり)
- 休日休暇
- 完全週休2日制(土・日)、祝日、夏季休暇、年末年始休暇
- 選考プロセス
-
書類選考→一次面接→最終面接→内定
※状況により変更になる場合あり
