PySparkデータエンジニア募集|金融機関向けデータ分析システム統合支援|50〜70万円

基本情報

案件名
金融機関向けデータ分析システム統合支援
業界
金融機関
職種
データエンジニア
使用言語
Python (PySpark) Shell
報酬(単価)
50万円~70万円
雇用形態
業務委託(フリーランス)
勤務地
東京都千代田区
開発環境
AWS (Glue, S3) Python PySpark Shell Git Jira
精算
140h~180h
契約期間
長期
勤務時間
10:00~19:00
その他
・リモートワーク併用(週3~4日程度のリモート勤務が可能)
・上位リーダー配下での開発チームメンバーとしての参画
・SASからAWS/Pythonへのモダナイゼーション案件

案件概要

金融機関の既存SAS資産をAWS GlueとPython(PySpark)を用いて再構築するプロジェクトです。開発チームの一員として、詳細設計以降の開発工程を担当いただきます。データ分析基盤のモダナイゼーションに貢献し、最新技術を用いたシステム構築に携われる機会です。

応募する LINEで相談する
迷っていてもOK・条件確認だけでも大丈夫です。

案件内容

金融機関における既存のSAS資産を、最新のクラウド技術であるAWS GlueとPython(PySpark)を活用して再構築する大規模なデータ分析システム統合支援プロジェクトです。本案件は、データ分析基盤のモダナイゼーションを目的としており、レガシーシステムからモダンなクラウドネイティブ環境への移行を推進します。開発チームの一員として、詳細設計以降のフェーズを担当し、データパイプラインの構築やETL処理の実装、データ連携基盤の整備など、多岐にわたる業務に携わっていただきます。
具体的な業務内容は以下の通りです。
・既存SAS資産の分析とAWS Glue、Python(PySpark)への移行設計
・詳細設計に基づいたデータ変換処理(ETL)の開発と実装
・AWS Glueを用いたデータパイプラインの構築と運用
・PySparkを用いた大規模データ処理ロジックの開発
・Shellスクリプトを用いた各種バッチ処理や運用スクリプトの作成
・開発したシステムのテスト、デバッグ、品質保証
・システム運用におけるパフォーマンスチューニングや改善提案
・上位リーダーの指示のもと、開発チームメンバーとしてプロジェクトに貢献
・関係部署との連携、技術的な課題解決に向けたコミュニケーション
このプロジェクトは、金融機関のデータ活用を加速させる重要な取り組みであり、最新のデータ分析技術に触れながら、大規模システムの再構築に貢献できる貴重な経験を積むことができます。データ分析基盤やETL系の開発経験をお持ちの方には、特にマッチ度の高い案件です。

必須スキル

必須スキル:
・PySparkを用いた開発経験
・Shellスクリプトの作成および運用経験
・システム開発における詳細設計以降の工程経験
・AWSサービス(特にGlue)の利用経験
歓迎スキル:
・Pythonを用いた開発経験
・データ分析基盤の構築やETL処理に関する経験
・関係者と円滑に連携できる高いコミュニケーション能力
求める人物像:
・新しい技術や環境への学習意欲が高い方
・チームでの開発に積極的に貢献できる方
・課題解決に向けて自律的に行動できる方

この案件、気になったら今のうちに。
「応募するか迷う」も歓迎。まずは条件だけ確認でもOK。