Pythonデータエンジニア募集|自社プラットフォーム向けデータ解析システム開発
基本情報
- 案件名
- 自社プラットフォーム向けデータ解析システム開発支援
- 業界
- IT/Webサービス
- 職種
- データエンジニア
- 使用言語
- Python、SQL、Spark
- 報酬(単価)
- 60万円~80万円
- 雇用形態
- 業務委託(フリーランス)
- 勤務地
- フルリモート
- 開発環境
- Databricks、Azure Blob Storage、Azure Data Factory、Python、SQL、Spark、Git、Jira
- 精算
- 140h-180h
- 契約期間
- 2026年2月~長期
- 勤務時間
- 10:00~19:00
- その他
- ・フルリモート勤務可能(地方在住者も歓迎)
・自社プラットフォームの成長に直接貢献できるやりがいのあるポジション
案件概要
自社プラットフォームサービスにおけるデータ解析システムの開発支援を行う案件です。
Databricksを活用したデータパイプラインの設計からテストまで一貫して担当し、データに基づいた意思決定を支援する重要な役割を担います。
案件内容
自社プラットフォームの成長を加速させるため、データ解析システムの開発に携わっていただきます。
具体的には、Databricksを基盤としたデータレイク・データウェアハウスの構築、ETL/ELT処理の実装、データ品質管理、および関連するデータパイプラインの設計・構築・運用が主な業務となります。
ビジネス部門やプロダクト開発チームと密に連携し、要件定義から設計、実装、テストまでの一連の開発工程を担当することで、サービスの改善と新規機能開発に貢献します。
データドリブンな文化を推進し、技術的な専門知識を活かしてデータ活用を最大化する役割が期待されます。
・Databricksを用いたデータ解析システムの設計、開発、テスト
・Azure Blob StorageやAzure Data Factoryを活用したデータパイプラインの構築と運用
・データ収集、加工、集計、可視化のためのETL/ELT処理の実装
・データ品質の維持・向上に向けた監視体制の構築と改善提案
・プロジェクト関係者との要件定義、仕様調整、ドキュメント作成
・分散処理基盤(Spark、Hadoop、Kafka等)を用いた大規模データ処理の実装
必須スキル
【必須スキル】
・SQL、Python、Sparkを用いたデータ処理の実務経験
・データパイプラインの構築・運用経験
・要件定義、基本設計、詳細設計、テスト設計の実務経験
・プロジェクト関係者と円滑なコミュニケーションが取れるドキュメント作成能力
【歓迎スキル】
・Databricksの実務経験
・BigQueryやSnowflakeなどクラウドDWHの実務経験
・AWS、Azure、GCPいずれかのクラウドプラットフォームの実務経験
・システムアーキテクトや開発チームリーダーとしての経験
【求める人物像】
・データ活用に強い関心を持ち、主体的に課題解決に取り組める方
・新しい技術やツールに対して積極的に学習し、業務に取り入れられる方
・チーム内外と連携し、円滑なコミュニケーションを通じてプロジェクトを推進できる方