募集要項
- 仕事内容
-
【業務内容】
ビッグデータの基盤にはGoogleクラウドを主軸としサブシステムにはAWSを部分的に採用した構成をとっており、日々進化するクラウドサービスをキャッチアップし最適な構成に随時進化し続けています。
今後もさらに安定してバージョンアップやスケーラビリティ・パフォーマンス改善を重ねるため、その開発の中核を担っていただくバックエンド/データエンジニアを募集しております。
プラットフォームを構成するビッグデータ基盤におけるテレビ視聴に関するビッグデータの収集、データレイクからデータウェアハウス/データマートまでのワークフローの開発・運用をお任せします。
ご自身のアイディア・工夫をカジュアルに提案しプロダクトに反映していただける環境であり、
単純に作るのではなく価値を提供することを重視していますので、裁量を持って様々な工程のご経験を積んでいただけます。
具体的には、ご入社後、
・ビッグデータを処理するワークフロー・ELTの実装
・急激なスパイクにも耐えうるインフラの運用・保守及び改善
・システム自動化の推進やパフォーマンス改善
・基盤としての運用改善(構成管理/CI/CDなど)
上記はほんの1例に過ぎずスケールの大きい様々な開発に携わっていただけます。
またチームとしては失敗を恐れずに新しい手法・技術を積極的に取り入れてアイデアを実現しグロースさせるスタンスですので、様々なご経験を積んでいただける環境となっております。
【分析環境】
主要開発技術:Googleクラウド環境でのワークフロー開発
開発言語:Python, JavaScript, SQL
ローカル環境 : Macbook Pro(13inc, Corei7, 16GB), Docker, docker-compose
クラウドプラットフォーム : Googleクラウド(BigQuery, Dataform, Workflows, CloufdFunctions, CloudRun)
データウェアハウス : BigQuery
コミュニケーションツール:Slack
エンジニアの人数:12名程度(業務委託含む)
開発手法:アジャイル(一部ウォーターフォール)
開発支援ツール・環境:GitHub,
- 応募資格
-
- 必須
-
【必須要件】
・Pythonを利用した開発経験
・SQLを使ったDBプログラミングの開発経験
・Googleクラウド、AWS等のパブリッククラウドを利用したサービス開発・運用経験
・Gitなどのソースコード管理ツールの使用経験
【歓迎要件】
・AirflowやDigDag、Azkabanなどのワークフロー管理ツールの利用経験
・DevOps系の知識や経験
・高負荷対策・パフォーマンスチューニングに関する知識や経験
・Docker、k8sなどのコンテナ環境での開発経験
・DMPサービスなどのプロダクト開発経験
・社内・受託問わず分析基盤の構築・運用経験
【求める人物像】
・スケールの大きなビッグデータ開発経験を積みたい方
・ビッグデータやTVコンテンツに興味がある方
・新しい技術に関心を持ち、技術に対して積極的に継続して取り組むことが出来る方
・エンタメ企業で働きたい、テレビが好きな方
【求めるマインド】
・自発的にチーム内でのコミュニケーションを図れる
・新しい技術についての情報収集や技術検証が苦にならない
・社外の方とも積極的にコミュニケーションを取り、周囲と協力しながらプロジェクトを進めるのが好きな方
・ビジネス視点で考え研究・開発するのが好きな方
- 雇用形態
- 正社員
- 勤務地
- 東京都
- 年収・給与
- 500~700万円