募集要項
- 仕事内容
-
《業務内容》
クライアント企業が抱える複雑なデータ課題を、最先端の技術とコンサルティング力で解決へと導きます。
▽具体的には
■クライアントのビジネス課題を理解し、データ分析基盤の設計・構築・運用を行います
■大規模データの収集、加工、蓄積、処理を行うための最適なデータパイプラインを構築します
■データ分析チームと連携し、分析しやすいデータ環境を提供します
■将来的にはデータ分析業務にも携わり、データに基づいた意思決定を支援します。
■予測モデルの構築と評価(売上予測、顧客離反予測、需要予測などのモデルを開発し、その精度を評価)
《開発環境/ツール》
■データ保管プラットフォーム・処理基盤ツール
AWS, Azure, Google (GCP),Snowflake,MongoDB, HBase, Cassandra,Databricks, Spark, Hadoop
■データ分析・活用ツール・言語
Tableau, PowerBI,Dataiku, SAS,GraphQL
■データ連携ツール
React
《キャリアパス》
コンサルタントとしてシニアマネージャー・ディレクターへとプロモーションすることはもちろんのこと、
同社は事業会社としての側面も持っており、ご要望に応じて、新規事業の立ち上げや事業拡大に携わることが可能です。
※事業会社出身で非IT職だった方でも入社2年で200万円以上の年収UPを実現しております◎
《部門風土》
■代表・マネージャーの直下でご経験を積むことが可能です
■会社全体として新しいテクノロジーを取り入れることに積極的であり新技術の提案が容易
■チャレンジを称賛する文化がある
■ベンチャー企業ならではのウェットなコミュニケーションが可能
- 応募資格
-
- 必須
-
【必須経験・スキル】
■データ分析会社やデータ分析プラットフォーム会社でのデータアナリティクスの経験
■データ可視化ツール、ETLツール、データ分析ツール(Tableau/PowerBI/Dataiku/SASなど)の使用経験
■クラウド環境(AWS/Azure/Google)による基盤構築経験
■DatabricksやSnowflakeの導入・利用経験
■NoSQLデータベースの経験(MongoDB、HBase、Cassandraなど)
■エンタープライズ向けフルスタックなサービスの開発経験(GraphQL、React)
■分散処理や大規模データのハンドリング経験(Spark、 Hadoopなど)
■API設計・開発、テストフレームワーク、パッケージ化などのソフトウェアエンジニアリングの経験
■GithubやSlack、Confluenceなどの効率化ツールを用いて、プロジェクト進捗や課題管理、会議のファシリテーションなどのPMOをした経験
【歓迎経験・スキル】
■大規模データ処理技術(Hadoop、Spark等)の使用経験
■クラウドプラットフォーム(AWS、GCP、Azure)でのデータ分析経験
■深層学習フレームワーク(TensorFlow、PyTorch等)の使用経験
- 雇用形態
- 正社員
- 勤務地
- 東京都
- 年収・給与
- 600~1400万円
