その他、技術系(IT・Web・通信系)
フルリモート勤務/データプラットフォームエンジニア(AIプラットフォーム/データ基盤/DBA)
の転職・求人情報はすでに掲載終了しております。(掲載期間12月9日~12月22日)
※ 掲載時の募集要項はページ下部よりご確認いただけます。
他の方はこんな求人もチェックしています
ミドルの転職では、各専門分野のコンサルタント6194人が紹介する325979件の転職情報を掲載しています。
希望条件で探す
職種、勤務地、年収などを組み合わせて探すことができます。
掲載時の募集要項(掲載期間:2024/12/09 ~ 2024/12/22)
その他、技術系(IT・Web・通信系)
フルリモート勤務/データプラットフォームエンジニア(AIプラットフォーム/データ基盤/DBA)
募集要項
仕事内容
-
<主な業務内容>
・マルチテナント大規模Hadoop、Trinoの提供
・Hadoop、Trinoにおける高可用性と高性能の両立
・計算リソース割り当ての分析、最適化手法の開発
・パブリッククラウドを活用したハイブリッド構成の検討
応募資格
-
- 必須
-
■必要な経験/スキル
ーーーーーーーーーーーーーーーー
【AIプラットフォーム領域】
・Kubernetes、Dockerを使ったミドルウエアやサービスの開発と運用の経験
・Go、Java、Pythonでのコーディングスキル(できれば複数が望ましい)
・プロフェッショナルが多い環境下で、自律自走して業務遂行するスキル
【データ基盤領域】
・プラットフォームやインフラの設計構築、運用経験
・JavaまたはPythonでのコーディングスキル
【DBA(データウェアハウス)領域】
・Teradata、Oracle、Redshift等のDBA経験
・TeradataやExadata等アプライアンスの運用経験、またはRedshiftで複数インスタンスを運用した経験
- 歓迎
-
■あると望ましい経験/スキル
ーーーーーーーーーーーーーーーー
【AIプラットフォーム領域】
・機械学習のシステム開発やプログラムの実装経験
・Google Cloud Platform、Amazon Web ServicesでのAI開発経験
・Kubernetes管理者認定(CKA)
・Kubernetesアプリケーション開発者認定(CKAD)
【データ基盤領域】
・Hadoop、Spark、Hive、Trinoの使用経験
・Kubernetes、Dockerの使用経験
・Google Cloud Platform、Amazon Web Services、Azureなどのパブリッククラウドの使用経験
・オープンソースへの積極的な貢献をした経験
【DBA(データウェアハウス)領域】
・TBクラス、または数十億件のテーブルを扱うクエリチューニング経験(データウェアハウス全体としては数10TB~数PBのデータ量を想定)
・Redshift等のクラウドネイティブなデータベース経験
・Hadoopのクエリエンジン経験(Hive、Trino、Spark等)
・Talend等のETLツールやAmazon EMRを利用したデータ処理経験
・Tableau等のBIツールの利用に適したテーブル実装経験
・SQL、Python、Java、シェル等でのコーディングスキル
雇用形態
-
正社員
勤務地
-
東京、大阪、福岡
年収・給与
-
・600~1000万
会社概要
社名
-
非公開
事業内容・会社の特長
-
社内のデータサイエンティスト向けに、機械学習のためのサービスやツールを提供し、AIプラットフォームを実現するための仕組み作りを目指しています。
本領域ではAIプラットフォームを実現するためのサービスやツールの開発、それらの保守・運用を担当いただきます。
また、利用方法に関する問い合わせ対応や、要望への対応、利用促進活動も行っていただきます。
に会員登録すると…
- 1あなたの希望にマッチした「新着求人情報」が届きます。
- 2仕事が忙しくても、コンサルタントからの「スカウト」を待てます。
- 3「気になるリスト」などの便利な機能を使えるようになります。