データエンジニア募集|AWS/GCPデータ基盤構築|100〜110万円
基本情報
- 案件名
- データ基盤構築案件(AWS × GCP)
- 業界
- 出版社向けWebサービス運営企業
- 職種
- データエンジニア
- 使用言語
- Python (PySpark)
- 報酬(単価)
- 100万円~110万円
- 雇用形態
- 業務委託(フリーランス)
- 勤務地
- 東京都千代田区
- 開発環境
- AWS、GCP、BigQuery、AWS Glue、PySpark、Terraform、Git、Jira
- 精算
- 140h-180h
- 契約期間
- 長期
- 勤務時間
- 10:00~19:00
- その他
- ・ 服装は自由です
・ 落ち着いた環境で開発に集中できます
・ 最新のクラウド技術に触れる機会が豊富です
案件概要
出版社向けWebサービス運営企業でのデータ基盤構築案件です。AWSとGCPを組み合わせたマルチクラウド環境で、サービス運用やビジネス分析、出版社支援に資するデータ活用基盤を構築します。データの信頼性向上とアーキテクチャ設計方針の策定にも深く関与し、データドリブンな意思決定を支援する重要な役割を担っていただきます。
案件内容
出版社向けWebサービス運営企業において、データ基盤の構築と運用に携わっていただきます。本プロジェクトは、AWSとGCPを組み合わせたマルチクラウド環境で、サービス運用、ビジネス分析、そして出版社支援といった多岐にわたるデータ活用ニーズに応えるための強固な基盤を構築することを目的としています。データドリブンな意思決定を加速させ、ビジネス成長に貢献する重要な役割を担っていただきます。CTOやリードエンジニアと密に連携し、データ基盤全体のアーキテクチャ設計方針の策定にも深く関与できるため、技術的な知見を深めながら、プロジェクトをリードする経験を積むことが可能です。データの信頼性を高めるためのテスト自動化にも注力し、高品質なデータ提供を実現します。
具体的な業務内容は以下の通りです。
・ AWSおよびGCP環境におけるデータレイク、データウェアハウスの設計・構築
・ AWS Glue(PySpark)を用いたETLパイプラインの開発とパフォーマンスチューニング
・ BigQueryを活用したデータ分析基盤の構築と最適化
・ TerraformによるIaC(Infrastructure as Code)の実践とマルチクラウド環境での適用
・ データの品質保証のためのテスト戦略立案と自動化実装
・ データガバナンスの確立とデータセキュリティ対策の実施
・ 既存システムのデータ移行計画の策定と実行支援
・ サービス運用チームやビジネス部門との連携によるデータ活用要件のヒアリングと具現化
・ データ基盤の監視、運用、トラブルシューティング
必須スキル
必須:
・ AWS 環境でのインフラ構築・運用経験(S3 / IAM / VPC など)
・ GCP での構築経験(特に BigQuery と IAM/ネットワーク設定)
・ AWS Glue(PySpark)での ETL 開発・パフォーマンスチューニング
・ Terraform による IaC 実践(マルチクラウド or 複数環境)
歓迎:
・ データモデリングやデータガバナンスに関する知識と実践経験
・ データ分析ツール(Looker Studioなど)との連携経験
・ 大規模データ処理におけるパフォーマンスチューニング経験
・ アジャイル開発プロセスでのプロジェクト参画経験
求める人物像:
・ 新しい技術やツールに対して積極的に学習し、業務に取り入れられる方
・ チームメンバーと円滑なコミュニケーションを取りながら、主体的に業務を進められる方
・ データ活用に対する強い関心と、ビジネス貢献への意欲をお持ちの方
・ 課題解決に向けて自ら考え、提案し、実行できる方