オンラインコミュニティの企画・構築・運用を一気通貫でサポートするコミュニティプラットフォーム「commmune」のシニアデータエンジニアを募集します。
コミューンのデータエンジニアは「全社のデータガバナンスを整えて会社の成長に貢献」するために、データプラットフォームの運用開発を推進していただきます。
スタートアップの100~300人のフェーズですが、すでにマルチプロダクト展開、US事業も展開しており、事業横断的なデータプラットフォームを開発するチャンスもあります。
業務内容
データエンジニアの同僚と協力して以下の領域でバリューを発揮いただきたいです。
- アプリケーションログやテーブルデータ生成の方針作り
- データ収集基盤のSLO, SLIの定義・保守
- マルチプロダクト環境におけるデータプラットフォームの最適化
- 各種データソースのデータ収集・加工
- GCP、dbtを用いたテーブル設計・運用
チームの特色
- データサイエンティスト、データエンジニア、データアナリスト(インターン)が所属するデータチームにデータエンジニアとして所属していただきます。
- これまで数人のメンバーで広域のデータ業務を行なっておりましたが、1年で3倍ほどにチームが急拡大しタイトルごとに専門領域を定めてチームとして本格始動したばかりの立ち上げフェーズです。
- 在籍中のデータエンジニアはETL処理やdbtを用いたSQL周りの最適化に専門性があるアナリティクスエンジニア領域が得意なメンバーが多いです。本求人ではソフトウェアエンジニアとやり取りをして、インフラ寄り、データの上流の設計まで推進できる方を募集します。
- メガベンチャーなど出身の経験豊富なメンバーが集まっておりモダンで分析しやすいデータプラットフォームの用意、データアナリスト経験のあるデータサイエンティストが在籍、データチームのManagerがデータアナリストのバックボーンがある、プロダクトオーナー兼データヘッドがデータサイエンティストのバックボーンがあるなどデータアナリストが意思決定の支援のための分析に集中できて働きやすい環境になっていると思います。
このポジションの魅力/キャリアパス
データのプロフェッショナルが集まる勢いのある組織でデータエンジニアリングをリードすることができるポジション。
- マルチプロダクト&複数地域に跨るモダンなデータプラットフォームを新規に構築できる
コミューンは一定の経験があるデータエンジニアが新しくデータプラットフォームを構築するのにこれ以上ない環境があります。アナリティクスエンジニアが入社してから2年経過するくらいのタイミングで立ち上げ期です。そのため新しい取り組みをいくつも実行できます。一方でスタートアップ特有の何も整備できていなくて大変という問題にも対処しており、BigQueryテーブルのDataLake-DataWareHouse-DataMart層の切り分け、汎用的なデータマートの作成、dbtの導入、データカタログの準備、DMBOKのアセスメントの実施など将来のチーム化を見据えた準備を進めていたので、すぐにモダンな手法を実践できてます。さらにUS事業、マルチプロチプロダクトなども展開しているため、組織の柔軟性のあるフェーズで視野の広いスケールするデータプラットフォーム作りが求められる点が魅力的です。
- Single Source of Truth(信頼できる唯一の情報源)なデータパイプライン作りに挑戦できる
社内のデータは流通されておりデータエンジニアが取得する前の上流のデータ生成や各部の分析レポーティングなどデータエンジニアの手の届かないところでデータの品質が保証できなくなるケースが発生しがちです。コミューンでは全社のデータの流通全体をスコープにきちんと体制とルールを作りデータ品質を担保できるパイプラインを構築することに挑戦しております。
- データを起点とした価値創出をする「データプロダクト作り」に貢献できる
コミューンではデータとAI関連への技術に積極的に投資をしており、データプラットフォームを品質担保して社内の意思決定に使うだけでなく、プロダクトの体験の重要なポイントをデータの力で解決していけるようなデータプロダクトとしての機能をどんどん展開していきたいです。プロダクトにおける価値を生み出すことから逆算してどうデータプラットフォームを育てていくか。というこれからのトレンドになるアプローチに挑戦できます。
Requirements
【必須スキル】
以下から3つ以上該当するスキルや経験があること
- 事業会社のデータエンジニア業務経験3年以上
- Webアプリケーション開発経験1年以上
- エンジニアチームをリードした経験1年以上
- 大規模サービスのアプリケーションログの設計経験
- Airflow や Digdag などのワークフロー エンジンを使用した ETL システムの経験
- AWS、GCPなどのクラウドでの開発経験
【歓迎スキル】
- dbtやtroccoなどのETLツールの経験
- DataLake-DataWareHouse-DataMartを構成していくかの理解
- データの民主化やSingle Source of Truthやドメイン駆動データ設計への理解
- DMBOKのデータマネジメントへの理解
- データベース (RDBMS/NoSQL)、ネットワーキング、Linux、監視システム、ロギング、運用、SLO/SLA に関する知識と経験
- US事業やマルチプロダクトも見据えたデータプラットフォームの開発への興味
- ビジネスレベルの英会話力
【求める人物像】
- コミューンのVision/Mission/Valueに共感いただける方
- オーナーシップを持って業務に取り組み、業務遂行まで諦めない姿勢
- 高い学習意欲をもち、不足する知識を自発的な情報収集で補うことができる方
- 業務遂行のために他組織や横断プロジェクトを動かすことができるコミュニーション能力と主体性がある方
- 新しい課題や変化に対してこれまでのやり方に固執せず柔軟に対応できる方
技術スタック
データ関連
GCP(Big Query etc)/ dbt cloud / trocco / redash / Looker Studio / Colab Pro / Vertex AI
**ソフトウェアエンジニア
**TypeScript / React / Next.js / Node.js / Express / Flutter / GCP
その他ツール
- ソースコード管理: GitHub
- プロジェクト管理: JIRA
- ドキュメント: Notion
- チャット: Slack
Benefits
雇用形態
- 正社員
- 試用期間3ヶ月
- 本採用時の条件変更なし
勤務地
- 本社:東京都品川区西五反田4‐31‐18 目黒テクノビル2F
- 不動前駅徒歩2分/五反田駅徒歩12分
勤務時間
- フレックス制度(コアタイム:11:00-16:00)
- リモート勤務可(月1日のオフィス出社日有)
休日・休暇
- 土日・祝日・慶弔休暇・年末年始/夏季休暇付与実績あり
- 年次有給休暇(法定通り入社半年経過時に10日付与)
- 入社時休暇(有給休暇として入社時に5日付与)
- シックリーブ(有給休暇として入社時より年あたり10日付与)
給与
- 能力・経験を考慮し、当社規定のランク毎の給与テーブルに応じて決定
- 昇格・昇給は四半期に一度
その他待遇、福利厚生
- 交通費支給
- 社会保険完備(関東ITソフトウェア健康保険組合)
- 書籍購入、セミナー参加負担
- Win/Macどちらでも貸与
- リファラルインセンティブ制度
- 健康診断、インフルエンザ予防接種
- commmuneをご契約頂いている企業様のサービス・商品購入の費用補助