データエンジニア募集|Trinoを用いたデータクリーンサービスETL開発・運用支援
基本情報
- 案件名
- データクリーンサービスETL業務開発・運用支援プロジェクト
- 業界
- IT/データ分析サービス
- 職種
- データエンジニア
- 使用言語
- Trino、Python、SQL
- 報酬(単価)
- 55万円~65万円
- 雇用形態
- 業務委託(フリーランス)
- 勤務地
- 東京都千代田区
- 開発環境
- Trino、Python、SQL、Hadoop、Digdag、Embulk、Linux、AWS、Git、Jira
- 精算
- 160h
- 契約期間
- 長期
- 勤務時間
- 10:00~19:00
- その他
- ・リモートワークメイン(必要に応じて出社あり)
・ビジネスカジュアルでの勤務が可能
・複数名体制での参画(リーダー・メンバー構成も歓迎)
案件概要
データクリーンサービスにおけるETL業務の移管と運用支援、および機能改修を担うプロジェクトです。
既存の外部委託業務を内製化し、データ品質向上と効率的なデータ活用基盤の構築を目指します。
データエンジニアとして、運用引継ぎから改善提案まで幅広く貢献できるポジション。
案件内容
本案件では、データクリーンサービスにおけるETL業務の内製化を推進するため、
外部委託先からの運用引継ぎと、既存システムの改修・改善業務に携わっていただきます。
データ品質の維持向上と、より効率的なデータ処理基盤の構築がミッションです。
具体的には、既存ETL処理の現状把握から始まり、TrinoやPythonを用いたデータパイプラインの最適化、
新たなデータソースへの対応、そして安定稼働のための運用体制構築まで、一連のプロセスを担当します。
データエンジニアとして、技術的な知見を活かし、データ活用の最大化に貢献できるやりがいのあるポジションです。
・外部委託中のETL業務の現状分析と運用引継ぎ
・Trino、Pythonを用いたETL処理の設計、開発、改修
・データパイプラインの監視、障害対応、パフォーマンスチューニング
・DigdagやEmbulkを活用したワークフロー管理の改善
・Hadoopなどの分散処理技術を用いた大規模データ処理基盤の運用支援
・関係部署との連携による要件定義支援、技術的な課題解決
必須スキル
【必須スキル】
・Trinoに関する知識または実務経験
・Pythonまたはその他のプログラミング言語を用いた開発経験
・データエンジニアまたはアナリティクスエンジニアとしての実務経験(3年以上目安)
【歓迎スキル】
・DigdagおよびEmbulkの利用経験
・Hadoopなどの大規模データ分散処理技術を用いた業務経験
・クラウド環境(AWS, GCP, Azureなど)でのデータ基盤構築・運用経験
【求める人物像】
・主体的に課題を発見し、解決策を提案できる方
・新しい技術やツールに対して積極的に学習する意欲のある方
・チームメンバーや関係者と円滑なコミュニケーションが取れる方