Pysparkエンジニア募集|金融機関向けデータ分析システム統合支援
基本情報
- 案件名
- 金融機関向けデータ分析基盤のモダナイゼーション支援/詳細設計~開発
- 業界
- IT/金融(銀行・証券・保険)
- 職種
- データエンジニア
- 使用言語
- Python、PySpark、Shell
- 報酬(単価)
- 50万円~70万円
- 雇用形態
- 業務委託(フリーランス)
- 勤務地
- 東京都23区
- 開発環境
- AWS(Glue, S3, EC2)、Python、PySpark、Shell、Git
- 精算
- 140h~180h
- 契約期間
- 長期
- 勤務時間
- 10:00~19:00
- その他
- ・リモート併用(週3~4日リモート)
・データ分析基盤のモダナイゼーションに携われる
・長期的なキャリア形成が可能な案件
案件概要
金融機関の既存SAS資産をAWS GlueとPython(PySpark)で再構築するモダナイゼーションプロジェクトです。開発チームの一員として、詳細設計から開発、テストまでの一連の工程を担当し、データ分析基盤の刷新に貢献いただきます。
案件内容
金融機関のデータ分析基盤刷新プロジェクトにおいて、既存のSAS資産をAWS GlueとPython(PySpark)を活用して最新のクラウドネイティブな環境へ移行する業務に携わっていただきます。このプロジェクトは、レガシーシステムのモダナイゼーションを通じて、より高速で柔軟なデータ処理能力と分析環境を構築することを目的としています。開発チームの一員として、上位リーダーの指示のもと、詳細設計から実装、テスト、デプロイまでの一連の開発工程を担当し、高品質なデータパイプラインの構築に貢献します。特に、大規模データの処理やETL処理の最適化、パフォーマンスチューニングなどが主な業務となります。また、既存システムの調査や影響分析も行い、円滑な移行を支援します。
・既存SAS資産の調査およびAWS Glue/Python(PySpark)への移行設計支援
・詳細設計に基づいたデータ変換(ETL)処理の実装および単体テスト
・Shellスクリプトを用いたジョブ管理や自動化スクリプトの開発
・AWS環境におけるデータパイプラインの構築と運用支援
・開発チーム内でのコードレビューや技術的な課題解決への貢献
・関係部署との連携、進捗報告、課題管理
必須スキル
【必須スキル】
・PySparkを用いた開発経験
・Shellスクリプトを用いた開発経験
・システム開発における詳細設計以降の工程経験
・AWSサービス(特にGlue、S3、EC2など)の利用経験
【歓迎スキル】
・Pythonを用いた開発経験
・データ分析基盤やETL処理の開発経験
・SASからAWS/Pythonへのモダナイゼーション経験
・関係者と円滑に連携できるコミュニケーション能力
【求める人物像】
・新しい技術や環境への適応意欲が高い方
・自律的に課題解決に取り組める方
・チームでの開発に積極的に貢献できる方