募集要項
- 仕事内容
- ■業務概要 全社のデータを統合し、社内のデータ利活用を促進するデータ基盤チームのデータエンジニアとして、ログ収集、ETL処理、DWH構築などのデータ基盤構築の責務を担っていただきます。 ■具体的な業務 分析要件に必要なテーブル、ログの定義設計 AWS Glue Job(Spark) を利用したETL処理の設計開発 Airflowを利用したデータパイプラインの開発運用 効率的なデータ活用を推進するための中間テーブル設計 Amazon SageMakerを利用したデータ分析 現状のチーム体制 プロダクトオーナー/データエンジニア スクラムマスター
- 応募資格
-
- 必須
- 【必須要件】 ・データウェアハウス及び、データマート向けのETLを開発した経験 ・AWS/GCP/Azureのいずれかを利用した経験 ・複数人でチームを組みサービス開発をした経験 ・基礎的なプログラミングスキル 【歓迎要件】 ・Pythonの利用経験 ・HadoopやSparkなどを利用し、ログなどを処理する大規模なデータ処理の開発経験 ・BigQuery、Amazon Redshift、Snowflake でテラバイト級のデータを多く格納する大規模な分析環境の構築経験 ・サービスチームのNSM、KPI策定などの課題をヒアリングし、自身でデータ分析して課題解決した経験
- 雇用形態
- 正社員
- 勤務地
- 東京都中央区
- 年収・給与
- 700~1000万円
- 休日休暇
- 慶弔休暇 年末年始 夏期休暇 有給休暇 アニバーサリー休暇 バースデー休暇