データエンジニア募集|Trinoを用いたデータクリーンサービスETL開発・運用支援

基本情報

案件名
データクリーンサービスETL業務開発・運用支援プロジェクト
業界
IT/データ分析サービス
職種
データエンジニア
使用言語
Trino、Python、SQL
報酬(単価)
55万円~65万円
雇用形態
業務委託(フリーランス)
勤務地
東京都千代田区
開発環境
Trino、Python、SQL、Hadoop、Digdag、Embulk、Linux、AWS、Git、Jira
精算
160h
契約期間
長期
勤務時間
10:00~19:00
その他
・リモートワークメイン(必要に応じて出社あり)
・ビジネスカジュアルでの勤務が可能
・複数名体制での参画(リーダー・メンバー構成も歓迎)

案件概要

データクリーンサービスにおけるETL業務の移管と運用支援、および機能改修を担うプロジェクトです。
既存の外部委託業務を内製化し、データ品質向上と効率的なデータ活用基盤の構築を目指します。
データエンジニアとして、運用引継ぎから改善提案まで幅広く貢献できるポジション。

応募する LINEで相談する
迷っていてもOK・条件確認だけでも大丈夫です。

案件内容

本案件では、データクリーンサービスにおけるETL業務の内製化を推進するため、
外部委託先からの運用引継ぎと、既存システムの改修・改善業務に携わっていただきます。
データ品質の維持向上と、より効率的なデータ処理基盤の構築がミッションです。
具体的には、既存ETL処理の現状把握から始まり、TrinoやPythonを用いたデータパイプラインの最適化、
新たなデータソースへの対応、そして安定稼働のための運用体制構築まで、一連のプロセスを担当します。
データエンジニアとして、技術的な知見を活かし、データ活用の最大化に貢献できるやりがいのあるポジションです。
・外部委託中のETL業務の現状分析と運用引継ぎ
・Trino、Pythonを用いたETL処理の設計、開発、改修
・データパイプラインの監視、障害対応、パフォーマンスチューニング
・DigdagやEmbulkを活用したワークフロー管理の改善
・Hadoopなどの分散処理技術を用いた大規模データ処理基盤の運用支援
・関係部署との連携による要件定義支援、技術的な課題解決

必須スキル

【必須スキル】
・Trinoに関する知識または実務経験
・Pythonまたはその他のプログラミング言語を用いた開発経験
・データエンジニアまたはアナリティクスエンジニアとしての実務経験(3年以上目安)
【歓迎スキル】
・DigdagおよびEmbulkの利用経験
・Hadoopなどの大規模データ分散処理技術を用いた業務経験
・クラウド環境(AWS, GCP, Azureなど)でのデータ基盤構築・運用経験
【求める人物像】
・主体的に課題を発見し、解決策を提案できる方
・新しい技術やツールに対して積極的に学習する意欲のある方
・チームメンバーや関係者と円滑なコミュニケーションが取れる方

この案件、気になったら今のうちに。
「応募するか迷う」も歓迎。まずは条件だけ確認でもOK。