募集要項
- 仕事内容
-
【データ基盤構築エンジニア】AWS x Databricks でデータの価値を最大化。散らばったデータを統合し、AI活用の未来を支えるエンジニアを募集!
【仕事概要】
■データ活用におけるお客様の様々な問題に対して、クラウドサービスを組み合わせたソリューションを提案
■AWS および Databricks を用いたモダンなデータレイクハウスの構築・運用
■Python / TypeScript を用いたデータパイプライン( ETL / ELT )の実装
■AI分析・可視化を加速させるためのデータマネジメント環境の整備
【具体的な業務内容】
同社の仕事は、AWS や Databricks などのクラウドネイティブな技術を駆使して、お客様の「データ活用基盤」を構築・運用することです。 現在、多くの企業で「データが各所に散らばり、AI活用や迅速な意思決定が妨げられている」という課題に直面しています。それらを解決するために、以下の原則に基づいた基盤づくりを行います。
(1)データ統合の自動化: 手作業を排し、スケーラブルなパイプラインを構築する
(2)Databricks による統一環境: 構造化・非構造化データを一元管理し、処理を高速化する
(3)AIフレンドリーな設計:分析者が即座にAI学習や可視化(BI)に取り組める環境を作る
(4)IaC(Infrastructure as Code)の徹底:AWS CDK / Terraform 等を活用し、基盤そのものをコードで管理する
(5)セキュリティとガバナン:多層防御とデータガバナンスを両立させる
これまでの「サーバー管理」や「単なるDB構築」に費やしていたリソースを、「いかにデータを価値ある形に変えるか」という本質的な課題に集中させます。 ビジネスの変化に即応し、最新のAI/機械学習ニーズに応えられるデータアーキテクチャを設計・実装・運用します。
【この仕事でできること】
『データ基盤』を単なる貯蔵庫ではなく、『ビジネスの羅針盤』へと昇華させる開発を経験できます!
AWS のマネージドサービスと Databricks を組み合わせ、データの収集から加工、そして AI による予測や可視化までを一気通貫で手がけることで、データエンジニアとしての市場価
- 応募資格
-
- 必須
-
【必須経験・スキル】
■プログラム開発経験(Python または TypeScript) 3年以上
■AWS / Google Cloud/ Azure のいずれかを利用した開発経験
■SQL を用いたデータの抽出・加工に関する基礎知識
※データエンジニア未経験の方でも、サーバーレス開発やバックエンド開発の経験があり、データ基盤領域に挑戦したい意欲のある方は歓迎します。
【歓迎経験・スキル】
■Databricks または Apache Sparkを用いたデータ処理の実装経験
■dbt を用いたデータモデリングおよび変換処理の実装経験
■AWS CDK や TerraformなどのIaCツールを用いたインフラ構築経験
■DWH(Snowflake, BigQuery, Redshift 等)の設計・運用経験
■RAG や Machine Learning に対する技術知見、設計・構築経験
■BIツール(Amazon Quick, Tableau, Power BI 等)を用いたデータの可視化経験
■以下の資格保有者
- AWS Certified Data Engineer - Associate
- Databricks Certified Data Engineer Associate
- 雇用形態
- 正社員
- 勤務地
- 東京都
- 年収・給与
- 600~850万円
