データエンジニア募集|AWS/GCPデータ基盤構築|100〜110万円

基本情報

案件名
データ基盤構築案件(AWS × GCP)
業界
出版社向けWebサービス運営企業
職種
データエンジニア
使用言語
Python (PySpark)
報酬(単価)
100万円~110万円
雇用形態
業務委託(フリーランス)
勤務地
東京都千代田区
開発環境
AWS、GCP、BigQuery、AWS Glue、PySpark、Terraform、Git、Jira
精算
140h-180h
契約期間
長期
勤務時間
10:00~19:00
その他
・ 服装は自由です
・ 落ち着いた環境で開発に集中できます
・ 最新のクラウド技術に触れる機会が豊富です

案件概要

出版社向けWebサービス運営企業でのデータ基盤構築案件です。AWSとGCPを組み合わせたマルチクラウド環境で、サービス運用やビジネス分析、出版社支援に資するデータ活用基盤を構築します。データの信頼性向上とアーキテクチャ設計方針の策定にも深く関与し、データドリブンな意思決定を支援する重要な役割を担っていただきます。

応募する LINEで相談する
迷っていてもOK・条件確認だけでも大丈夫です。

案件内容

出版社向けWebサービス運営企業において、データ基盤の構築と運用に携わっていただきます。本プロジェクトは、AWSとGCPを組み合わせたマルチクラウド環境で、サービス運用、ビジネス分析、そして出版社支援といった多岐にわたるデータ活用ニーズに応えるための強固な基盤を構築することを目的としています。データドリブンな意思決定を加速させ、ビジネス成長に貢献する重要な役割を担っていただきます。CTOやリードエンジニアと密に連携し、データ基盤全体のアーキテクチャ設計方針の策定にも深く関与できるため、技術的な知見を深めながら、プロジェクトをリードする経験を積むことが可能です。データの信頼性を高めるためのテスト自動化にも注力し、高品質なデータ提供を実現します。
具体的な業務内容は以下の通りです。
・ AWSおよびGCP環境におけるデータレイク、データウェアハウスの設計・構築
・ AWS Glue(PySpark)を用いたETLパイプラインの開発とパフォーマンスチューニング
・ BigQueryを活用したデータ分析基盤の構築と最適化
・ TerraformによるIaC(Infrastructure as Code)の実践とマルチクラウド環境での適用
・ データの品質保証のためのテスト戦略立案と自動化実装
・ データガバナンスの確立とデータセキュリティ対策の実施
・ 既存システムのデータ移行計画の策定と実行支援
・ サービス運用チームやビジネス部門との連携によるデータ活用要件のヒアリングと具現化
・ データ基盤の監視、運用、トラブルシューティング

必須スキル

必須:
・ AWS 環境でのインフラ構築・運用経験(S3 / IAM / VPC など)
・ GCP での構築経験(特に BigQuery と IAM/ネットワーク設定)
・ AWS Glue(PySpark)での ETL 開発・パフォーマンスチューニング
・ Terraform による IaC 実践(マルチクラウド or 複数環境)
歓迎:
・ データモデリングやデータガバナンスに関する知識と実践経験
・ データ分析ツール(Looker Studioなど)との連携経験
・ 大規模データ処理におけるパフォーマンスチューニング経験
・ アジャイル開発プロセスでのプロジェクト参画経験
求める人物像:
・ 新しい技術やツールに対して積極的に学習し、業務に取り入れられる方
・ チームメンバーと円滑なコミュニケーションを取りながら、主体的に業務を進められる方
・ データ活用に対する強い関心と、ビジネス貢献への意欲をお持ちの方
・ 課題解決に向けて自ら考え、提案し、実行できる方

この案件、気になったら今のうちに。
「応募するか迷う」も歓迎。まずは条件だけ確認でもOK。