PySparkデータエンジニア募集|金融機関向けデータ分析システム統合支援|50〜70万円
基本情報
- 案件名
- 金融機関向けデータ分析システム統合支援
- 業界
- 金融機関
- 職種
- データエンジニア
- 使用言語
- Python (PySpark) Shell
- 報酬(単価)
- 50万円~70万円
- 雇用形態
- 業務委託(フリーランス)
- 勤務地
- 東京都千代田区
- 開発環境
- AWS (Glue, S3) Python PySpark Shell Git Jira
- 精算
- 140h~180h
- 契約期間
- 長期
- 勤務時間
- 10:00~19:00
- その他
- ・リモートワーク併用(週3~4日程度のリモート勤務が可能)
・上位リーダー配下での開発チームメンバーとしての参画
・SASからAWS/Pythonへのモダナイゼーション案件
案件概要
金融機関の既存SAS資産をAWS GlueとPython(PySpark)を用いて再構築するプロジェクトです。開発チームの一員として、詳細設計以降の開発工程を担当いただきます。データ分析基盤のモダナイゼーションに貢献し、最新技術を用いたシステム構築に携われる機会です。
案件内容
金融機関における既存のSAS資産を、最新のクラウド技術であるAWS GlueとPython(PySpark)を活用して再構築する大規模なデータ分析システム統合支援プロジェクトです。本案件は、データ分析基盤のモダナイゼーションを目的としており、レガシーシステムからモダンなクラウドネイティブ環境への移行を推進します。開発チームの一員として、詳細設計以降のフェーズを担当し、データパイプラインの構築やETL処理の実装、データ連携基盤の整備など、多岐にわたる業務に携わっていただきます。
具体的な業務内容は以下の通りです。
・既存SAS資産の分析とAWS Glue、Python(PySpark)への移行設計
・詳細設計に基づいたデータ変換処理(ETL)の開発と実装
・AWS Glueを用いたデータパイプラインの構築と運用
・PySparkを用いた大規模データ処理ロジックの開発
・Shellスクリプトを用いた各種バッチ処理や運用スクリプトの作成
・開発したシステムのテスト、デバッグ、品質保証
・システム運用におけるパフォーマンスチューニングや改善提案
・上位リーダーの指示のもと、開発チームメンバーとしてプロジェクトに貢献
・関係部署との連携、技術的な課題解決に向けたコミュニケーション
このプロジェクトは、金融機関のデータ活用を加速させる重要な取り組みであり、最新のデータ分析技術に触れながら、大規模システムの再構築に貢献できる貴重な経験を積むことができます。データ分析基盤やETL系の開発経験をお持ちの方には、特にマッチ度の高い案件です。
必須スキル
必須スキル:
・PySparkを用いた開発経験
・Shellスクリプトの作成および運用経験
・システム開発における詳細設計以降の工程経験
・AWSサービス(特にGlue)の利用経験
歓迎スキル:
・Pythonを用いた開発経験
・データ分析基盤の構築やETL処理に関する経験
・関係者と円滑に連携できる高いコミュニケーション能力
求める人物像:
・新しい技術や環境への学習意欲が高い方
・チームでの開発に積極的に貢献できる方
・課題解決に向けて自律的に行動できる方