logo

무신사

Data Engineer
구분
무신사
직군
Data
직무
Data Engineer
경력사항
경력 5년 이상
고용형태
정규직
근무지
무신사 오피스 성수대한민국 서울특별시 성동구 성수동2가 277-47, 무신사 성수
원격근무 가능

[무신사 테크 ​소개]

팀 ​무신사 ​테크 조직은 ​혁신의 원동력이자 변화를 선도하는 ​핵심 ​기술 조직입니다. ​고객과 입점 브랜드가 ​각자의 고유한 ​개성을 ​자유롭게 표현할 ​수 ​있도록, ​데이터와 기술을 기반으로 ​한 ​개인화된 경험을 제공합니다. ​무신사 ​테크는 ​새로운 도전을 두려워하지 ​않으며, 항상 ​새로운 ​영역에서의 성공을 ​꿈꿉니다.

무신사는 ​한국을 ​넘어 글로벌 시장에서도 ​경쟁력 있는 ​서비스를 선보이고자 OCMP(One Core Multi Platform)를 구축하고 있습니다. 이를 통해 전체 비즈니스의 폭발적 성장을 지원하며 무신사 테크는 끊임없는 도전과 혁신으로 고객에게 더 나은 가치를 제공하고자 합니다.



[팀 소개]

데이터 플랫폼 팀은 데이터 기반의 의사결정이 조직의 표준이 되도록 안정적이고 확장 가능한 데이터 인프라를 구축하고 운영합니다.

CDC 파이프라인, 사용자 행동 이벤트, 서드파티 데이터 등 다양한 소스로부터 데이터를 수집하고 이를 기반으로 비즈니스에 즉시 활용 가능한 데이터마트와 핵심 지표 테이블을 구축합니다. 또한, 수집된 모든 데이터의 품질을 보장하고 누구나 데이터를 쉽게 찾고 활용할 수 있는 디스커버리 플랫폼을 운영합니다. 데이터 저장소에 대한 체계적인 권한 관리를 통해 사용자들이 안전하고 신뢰할 수 있는 데이터에만 접근하도록 데이터의 전 과정을 책임지는 핵심적인 역할을 수행합니다.


[담당 업무]

  • 데이터가 안정적으로 수집, 저장, 처리될 수 있도록 GCP, AWS(EKS, EMR, MSK 등), Databricks 기반의 데이터 인프라를 구축하고 운영합니다.
  • 인프라 비용을 최적화하고 리소스를 효율적으로 관리하여 지속 가능한 플랫폼을 만듭니다.
  • CDC, Appsflyer, Amplitude 등 다양한 소스로부터 데이터를 수집하고 분석하기 좋은 형태로 가공하여 제공하는 데이터 파이프라인을 구축 및 운영합니다.
  • 수집된 데이터의 품질을 점검하고 안정적인 데이터 파이프라인을 보장하기 위한 모니터링 시스템을 구축 및 운영합니다.
  • 세분화된 접근 제어 정책을 수립하고 운영합니다.
  • 개인정보 데이터를 식별, 분류하고 암호화, 마스킹 등 데이터 보호 방안을 적용합니다.
  • 서비스 수준 레벨을 설정하고 이를 탐지하기 위한 모니터링 시스템을 관리합니다.


[자격 요건]

  • SQL, Python을 활용하여 복잡한 데이터를 추출하고 가공하는 데 능숙하신 분
  • Workflow Manager(Airflow, Prefect 등)를 사용하여 데이터 파이프라인을 구축하고 운영해본 경험이 있으신 분
  • DB, Third-party, Log, Streaming 등 다양한 데이터 소스로부터 데이터를 수집하고 처리해본 경험이 있으신 분
  • 클라우드 플랫폼(GCP, AWS) 중 1개 이상을 사용하여 데이터 인프라를 운영해본 경험이 있으신 분
  • 컨테이너 기반(GKE/EKS) 서비스의 아키텍처 설계 및 개발 경험이 있으신 분


[우대 사항]

  • Databricks 기반 환경에서의 개발 및 운영 경험이 있으신 분
  • Databricks, BigQuery, Snowflake 등 데이터 웨어하우스의 성능 최적화 경험이 있으신 분
  • 데이터 품질 플랫폼(Great Expectations, Soda, dbt test 등) 도입 및 운영 경험이 있으신 분
  • 데이터 디스커버리 플랫폼(OpenMetadata, Datahub, Amundsen 등) 운영 또는 활용 경험이 있으신 분
  • 데이터 파이프라인에 대한 서비스 수준 레벨을 설정하고 모니터링 시스템을 구축 및 운영해본 경험이 있으신 분
  • Unity Catalog 등을 활용하여 세분화된 데이터 접근 제어를 도입하고 운영해본 경험이 있으신 분


[지원 서류]

  • 이력서(필수) / 포트폴리오(선택)
  • (참고) 이력서/포트폴리오 작성 팁

이력서/포트폴리오에는 왜 해당 문제를 해결해야 했는지, 어떤 전략을 세웠는지, 어떤 성과가 있었는지 등에 대한 문제 정의, 문제 해결, 성과에 대한 전반적인 내용을 담아주세요. 프로젝트의 성공과 실패를 떠나, 1차 면접에서 인터뷰어와 심도있는 이야기를 나눌 수 있도록 프로젝트의 이해도가 높은 이력서로 구성해주세요. (프로젝트별 기여도 표시)


[근무 조건]

  • 정규직


[전형 절차]

  • 접수 기간 : 상시지원
  • 전형 절차 : 서류 전형 - 1차 인터뷰 - 2차 인터뷰 - 처우 협의 - 최종합격
  • 진행 상황에 따라 전형은 변동될 수 있습니다.
  • 문의사항 : [email protected]


[기타 사항]

  • 본 채용은 수시 진행으로 우수 인재 채용 시 마감될 수 있습니다.
  • 최종 합격자는 3개월간의 수습기간이 적용되며, 해당 기간 중 급여는 100% 지급됩니다.
  • 입사지원 서류에 허위사실이 발견될 경우, 채용확정 이후라도 채용이 취소될 수 있습니다.
공유하기
Data Engineer

[무신사 테크 ​소개]

팀 ​무신사 ​테크 조직은 ​혁신의 원동력이자 변화를 선도하는 ​핵심 ​기술 조직입니다. ​고객과 입점 브랜드가 ​각자의 고유한 ​개성을 ​자유롭게 표현할 ​수 ​있도록, ​데이터와 기술을 기반으로 ​한 ​개인화된 경험을 제공합니다. ​무신사 ​테크는 ​새로운 도전을 두려워하지 ​않으며, 항상 ​새로운 ​영역에서의 성공을 ​꿈꿉니다.

무신사는 ​한국을 ​넘어 글로벌 시장에서도 ​경쟁력 있는 ​서비스를 선보이고자 OCMP(One Core Multi Platform)를 구축하고 있습니다. 이를 통해 전체 비즈니스의 폭발적 성장을 지원하며 무신사 테크는 끊임없는 도전과 혁신으로 고객에게 더 나은 가치를 제공하고자 합니다.



[팀 소개]

데이터 플랫폼 팀은 데이터 기반의 의사결정이 조직의 표준이 되도록 안정적이고 확장 가능한 데이터 인프라를 구축하고 운영합니다.

CDC 파이프라인, 사용자 행동 이벤트, 서드파티 데이터 등 다양한 소스로부터 데이터를 수집하고 이를 기반으로 비즈니스에 즉시 활용 가능한 데이터마트와 핵심 지표 테이블을 구축합니다. 또한, 수집된 모든 데이터의 품질을 보장하고 누구나 데이터를 쉽게 찾고 활용할 수 있는 디스커버리 플랫폼을 운영합니다. 데이터 저장소에 대한 체계적인 권한 관리를 통해 사용자들이 안전하고 신뢰할 수 있는 데이터에만 접근하도록 데이터의 전 과정을 책임지는 핵심적인 역할을 수행합니다.


[담당 업무]

  • 데이터가 안정적으로 수집, 저장, 처리될 수 있도록 GCP, AWS(EKS, EMR, MSK 등), Databricks 기반의 데이터 인프라를 구축하고 운영합니다.
  • 인프라 비용을 최적화하고 리소스를 효율적으로 관리하여 지속 가능한 플랫폼을 만듭니다.
  • CDC, Appsflyer, Amplitude 등 다양한 소스로부터 데이터를 수집하고 분석하기 좋은 형태로 가공하여 제공하는 데이터 파이프라인을 구축 및 운영합니다.
  • 수집된 데이터의 품질을 점검하고 안정적인 데이터 파이프라인을 보장하기 위한 모니터링 시스템을 구축 및 운영합니다.
  • 세분화된 접근 제어 정책을 수립하고 운영합니다.
  • 개인정보 데이터를 식별, 분류하고 암호화, 마스킹 등 데이터 보호 방안을 적용합니다.
  • 서비스 수준 레벨을 설정하고 이를 탐지하기 위한 모니터링 시스템을 관리합니다.


[자격 요건]

  • SQL, Python을 활용하여 복잡한 데이터를 추출하고 가공하는 데 능숙하신 분
  • Workflow Manager(Airflow, Prefect 등)를 사용하여 데이터 파이프라인을 구축하고 운영해본 경험이 있으신 분
  • DB, Third-party, Log, Streaming 등 다양한 데이터 소스로부터 데이터를 수집하고 처리해본 경험이 있으신 분
  • 클라우드 플랫폼(GCP, AWS) 중 1개 이상을 사용하여 데이터 인프라를 운영해본 경험이 있으신 분
  • 컨테이너 기반(GKE/EKS) 서비스의 아키텍처 설계 및 개발 경험이 있으신 분


[우대 사항]

  • Databricks 기반 환경에서의 개발 및 운영 경험이 있으신 분
  • Databricks, BigQuery, Snowflake 등 데이터 웨어하우스의 성능 최적화 경험이 있으신 분
  • 데이터 품질 플랫폼(Great Expectations, Soda, dbt test 등) 도입 및 운영 경험이 있으신 분
  • 데이터 디스커버리 플랫폼(OpenMetadata, Datahub, Amundsen 등) 운영 또는 활용 경험이 있으신 분
  • 데이터 파이프라인에 대한 서비스 수준 레벨을 설정하고 모니터링 시스템을 구축 및 운영해본 경험이 있으신 분
  • Unity Catalog 등을 활용하여 세분화된 데이터 접근 제어를 도입하고 운영해본 경험이 있으신 분


[지원 서류]

  • 이력서(필수) / 포트폴리오(선택)
  • (참고) 이력서/포트폴리오 작성 팁

이력서/포트폴리오에는 왜 해당 문제를 해결해야 했는지, 어떤 전략을 세웠는지, 어떤 성과가 있었는지 등에 대한 문제 정의, 문제 해결, 성과에 대한 전반적인 내용을 담아주세요. 프로젝트의 성공과 실패를 떠나, 1차 면접에서 인터뷰어와 심도있는 이야기를 나눌 수 있도록 프로젝트의 이해도가 높은 이력서로 구성해주세요. (프로젝트별 기여도 표시)


[근무 조건]

  • 정규직


[전형 절차]

  • 접수 기간 : 상시지원
  • 전형 절차 : 서류 전형 - 1차 인터뷰 - 2차 인터뷰 - 처우 협의 - 최종합격
  • 진행 상황에 따라 전형은 변동될 수 있습니다.
  • 문의사항 : [email protected]


[기타 사항]

  • 본 채용은 수시 진행으로 우수 인재 채용 시 마감될 수 있습니다.
  • 최종 합격자는 3개월간의 수습기간이 적용되며, 해당 기간 중 급여는 100% 지급됩니다.
  • 입사지원 서류에 허위사실이 발견될 경우, 채용확정 이후라도 채용이 취소될 수 있습니다.