募集要項
- 仕事内容
-
DRE(Data Reliability Engineering)グループの中でSREのプラクティスを活用し、
データドリブンな意思決定や機械学習を活用したプロダクト等データが必要な全ての事象に対して信頼性の高いデータを提供する、
拡張性が高いデータ収集基盤を構築、運用に加えて、データ基盤を活用したデータ活用を通じたビジネス価値の創出を担っていただきます。
【業務詳細】 :・データ活用を推進するための課題発見・解決
・各種データソースからのデータ収集・加工
・GoogleCloud(BigQuery)を用いたテーブル設計・運用
・データ収集基盤のSLO, SLIの定義・保守
・データ分析ツールoの管理・運用
・各種設計に対する適切なドキュメンテーション など
【技術スタック】:<開発言語>Python、Shell Script、LookML など
<ツール> Embulk、Digdag、dbt、BigQuery、trocco、fivetran、Redash・Looker Studio、Terraform・Looker 等
【扱うデータ】 :アプリユーザーや企業ユーザーのアクセスログ、募集内容に関する情報、マッチングに関する情報、
レビューや評価情報や、アプリインストールなどの広告効果に関わるデータ、問い合わせに関するデータ、
営業活動情報のデータ、企業ユーザーからいただいた各種データ上記のようなデータを扱っております。
- 応募資格
-
- 必須
-
・プログラミング言語による、web系開発の実務経験
・独力で手を動かして、一部分だけでなくシステム全体の開発が出来る
・同時に、全体における自分の作業領域を客観的に理解した上で適切な設計が出来る
・DB and/or DWHの構築・運用経験
・Gitを用いたチーム開発経験
・クラウドにおける開発経験(特にGCP、もしくはAWS)
・CLIによるインフラ構築やIaCの開発・運用経験(特にTerraformの経験)
・CI/CDを用いた自動化の経験
【ソフトスキル】
・タイミーのMissionへの共感
・Slack, Google Meetなどを活用したリモートワークの経験
・3名以上でのプロジェクトの進行経験
・既存プロジェクトに参加し、サービス内容やソースコードのキャッチアップをした経験
・建設的かつロジカルな議論を通して意思決定をできる
・チーム内外、他部署との円滑なコミュニケーションができる
- 歓迎
-
・スクラムの理解
・Dockerを始めとしたコンテナ関連技術の利用経験
・dbtの経験
・Looker, Redash, Tableauなどの
BIツールの運用経験
・機械学習を組み込んだシステムの構築・運用の経験
・DX(Developer Experience)の
継続的改善ができる方
・OSSの公開、コントリビュートの経験
・課題発見~ヒアリング~要件定義~仕様策定の経験
- 雇用形態
- 正社員
- 勤務地
- 港区
- 勤務時間
- 10:00~19:00/※8時間
- 年収・給与
- 700万円~1000万円 ※提示年収は、今までのご経験や選考の中でのご評価によって決定いたします。最低年収を下回る可能性もございますので、あらかじめご了承ください。
- 待遇・福利厚生
- 従業員持株会(従業員が自社株を購入できる制度※持株会への加入が必要)、ダブルタイミーデイ(社員がタイミーアプリを利用して働いた場合、報酬額を上乗せ※上限有り)、書籍購入(業界知識を深めるに必要な書籍を会社が購入)、セミナー費用補助(業務に必要なセミナー参加費を補助)、部活動(趣味などを通じて交流できるよう、活動に応じて費用を補助)、チームビルディング(チームのコミュニケーションの活性化に向け、一定の予算を好きに利用できる※1人当たり5,000円/月)、結婚祝い金(結婚した従業員に祝い金を支給) 等
- 休日休暇
- 土曜日,日曜日,祝日/完全週休2日制(土・日・祝日)、リラックス休暇(年次有給休暇とは別に、入社初日に年5日分、その後1年ごとに5日分付与される有給休暇)、年次有給休暇、年末年始休暇、慶弔休暇、産前産後休暇 等
- 選考プロセス
-
書類選考 ⇒ 1次面接 ⇒ 2次面接 ⇒ 最終面接 ⇒ 内定
※上記プロセスは変更となる可能性がございます。
※選考中にリファレンスチェックをご依頼する場合がございます。
