データエンジニア募集|データクリーンサービスETL開発・運用支援

基本情報

案件名
大手企業向けデータクリーンサービスにおけるETL業務の開発・運用支援
業界
IT/データ分析・Webサービス
職種
データエンジニア
使用言語
Trino、Python、SQL
報酬(単価)
55万円~65万円
雇用形態
業務委託(フリーランス)
勤務地
東京都千代田区
開発環境
Trino、Python、AWS、S3、Athena、Git、Jira、Digdag、Embulk
精算
160h
契約期間
長期
勤務時間
10:00~19:00
その他
・リモートワークメイン(必要に応じて出社あり)
・服装はビジネスカジュアル
・複数名体制での募集(リーダー・メンバーなど柔軟な提案が可能)

案件概要

大手企業が提供するデータクリーンサービスにおいて、外部委託されていたETL業務の内製化に伴う運用引継ぎと機能改修を支援するプロジェクトです。データエンジニアとして、TrinoやPythonを活用し、データパイプラインの安定稼働と品質向上に貢献いただきます。

応募する LINEで相談する
迷っていてもOK・条件確認だけでも大丈夫です。

案件内容

本案件では、大手企業が提供するデータクリーンサービスにおけるETL業務の内製化プロジェクトに参画いただきます。これまで外部に委託していたデータ抽出・変換・ロード(ETL)プロセスを社内体制へ移行するにあたり、既存システムの運用引継ぎと、今後のサービス拡張を見据えた機能改修が主なミッションとなります。データ品質の維持向上と、効率的なデータ処理基盤の構築に貢献していただく重要なポジションです。具体的には、TrinoやPythonを用いたETL処理の開発・改善、データパイプラインの監視・運用、障害発生時の対応など、幅広い業務に携わっていただきます。データエンジニアとしての専門知識を活かし、安定したデータ供給を支えることで、ビジネスの意思決定を強力にサポートしていただきます。
・既存ETL処理の運用引継ぎとドキュメント整備
・TrinoおよびPythonを用いたETL処理の改修・新規開発
・データパイプラインの監視、障害発生時の原因究明と復旧対応
・データ品質管理およびパフォーマンス改善提案
・関連部署との連携による要件定義支援

必須スキル

【必須スキル】
・Trinoに関する知識または実務経験
・Pythonまたはその他のプログラミング言語を用いた開発経験
・データエンジニアまたはアナリティクスエンジニアとしての実務経験
【歓迎スキル】
・DigdagおよびEmbulkの利用経験
・Hadoopなどの大規模データ分散処理技術を用いた業務経験
・クラウド環境(AWS, GCP, Azureなど)でのデータ基盤構築・運用経験
【求める人物像】
・主体的に課題解決に取り組める方
・新しい技術やツールへの学習意欲が高い方
・チームメンバーと円滑なコミュニケーションが取れる方

この案件、気になったら今のうちに。
「応募するか迷う」も歓迎。まずは条件だけ確認でもOK。