Pythonデータエンジニア募集|自社プラットフォーム向けデータ解析システム開発

基本情報

案件名
自社プラットフォーム向けデータ解析システム開発支援
業界
IT/Webサービス
職種
データエンジニア
使用言語
Python、SQL、Spark
報酬(単価)
60万円~80万円
雇用形態
業務委託(フリーランス)
勤務地
フルリモート
開発環境
Databricks、Azure Blob Storage、Azure Data Factory、Python、SQL、Spark、Git、Jira
精算
140h-180h
契約期間
2026年2月~長期
勤務時間
10:00~19:00
その他
・フルリモート勤務可能(地方在住者も歓迎)
・自社プラットフォームの成長に直接貢献できるやりがいのあるポジション

案件概要

自社プラットフォームサービスにおけるデータ解析システムの開発支援を行う案件です。
Databricksを活用したデータパイプラインの設計からテストまで一貫して担当し、データに基づいた意思決定を支援する重要な役割を担います。

応募する LINEで相談する
迷っていてもOK・条件確認だけでも大丈夫です。

案件内容

自社プラットフォームの成長を加速させるため、データ解析システムの開発に携わっていただきます。
具体的には、Databricksを基盤としたデータレイク・データウェアハウスの構築、ETL/ELT処理の実装、データ品質管理、および関連するデータパイプラインの設計・構築・運用が主な業務となります。
ビジネス部門やプロダクト開発チームと密に連携し、要件定義から設計、実装、テストまでの一連の開発工程を担当することで、サービスの改善と新規機能開発に貢献します。
データドリブンな文化を推進し、技術的な専門知識を活かしてデータ活用を最大化する役割が期待されます。
・Databricksを用いたデータ解析システムの設計、開発、テスト
・Azure Blob StorageやAzure Data Factoryを活用したデータパイプラインの構築と運用
・データ収集、加工、集計、可視化のためのETL/ELT処理の実装
・データ品質の維持・向上に向けた監視体制の構築と改善提案
・プロジェクト関係者との要件定義、仕様調整、ドキュメント作成
・分散処理基盤(Spark、Hadoop、Kafka等)を用いた大規模データ処理の実装

必須スキル

【必須スキル】
・SQL、Python、Sparkを用いたデータ処理の実務経験
・データパイプラインの構築・運用経験
・要件定義、基本設計、詳細設計、テスト設計の実務経験
・プロジェクト関係者と円滑なコミュニケーションが取れるドキュメント作成能力
【歓迎スキル】
・Databricksの実務経験
・BigQueryやSnowflakeなどクラウドDWHの実務経験
・AWS、Azure、GCPいずれかのクラウドプラットフォームの実務経験
・システムアーキテクトや開発チームリーダーとしての経験
【求める人物像】
・データ活用に強い関心を持ち、主体的に課題解決に取り組める方
・新しい技術やツールに対して積極的に学習し、業務に取り入れられる方
・チーム内外と連携し、円滑なコミュニケーションを通じてプロジェクトを推進できる方

この案件、気になったら今のうちに。
「応募するか迷う」も歓迎。まずは条件だけ確認でもOK。