logo

무신사

MLOps Engineer
구분
무신사
직군
Engineering
직무
MLOps Engineer
경력사항
경력 5년 이상
고용형태
정규직
근무지
무신사 오피스 성수대한민국 서울특별시 성동구 성수동2가 277-47, 무신사 성수

[무신사 테크 ​소개]

팀 ​무신사 ​테크 조직은 ​혁신의 원동력이자 변화를 선도하는 ​핵심 ​기술 조직입니다. ​고객과 입점 브랜드가 ​각자의 고유한 ​개성을 ​자유롭게 표현할 ​수 ​있도록, ​데이터와 기술을 기반으로 ​한 ​개인화된 경험을 제공합니다. ​무신사 ​테크는 ​새로운 도전을 두려워하지 ​않으며, 항상 ​새로운 ​영역에서의 성공을 ​꿈꿉니다.

무신사는 ​한국을 ​넘어 글로벌 시장에서도 ​경쟁력 있는 ​서비스를 선보이고자 OCMP(One Core Multi Platform)를 구축하고 있습니다. 이를 통해 전체 비즈니스의 폭발적 성장을 지원하며 무신사 테크는 끊임없는 도전과 혁신으로 고객에게 더 나은 가치를 제공하고자 합니다.



[팀 소개]

무신사·29CM·글로벌 플랫폼의 AI 인프라를 통합하고, 모델의 실험부터 배포까지 전 과정을 자동화하는 핵심 팀입니다. EKS 기반 하이브리드 클러스터와 실시간 추론 서버를 직접 설계·운영하며, ML Engineer와 함께 대규모 트래픽과 GPU 인프라 환경에서도 안정적인 ML 서비스 제공을 책임집니다. Terraform, Argo CD, MLflow 등 최신 기술을 활용해 재현 가능하고 효율적인 MLOps 체계를 구축합니다.

단순한 배포 자동화를 넘어, 표준화·거버넌스 체계 수립과 보안·운영 정책 설계까지 포함된 전략적 역할을 수행합니다. 빠르게 성장하는 커머스 AI 인프라의 핵심 구조를 함께 만들어갈 동료를 기다립니다.


[담당 업무]

  • AI 인프라를 구축 및 운영합니다.
  • AI 인프라 고도화를 위한 EKS 클러스터 및 하이브리드 노드(On-Prem 연동)를 구축 및 운영합니다.
  • 클러스터 가용성 확보 및 비용 최적화를 위한 리소스 스케줄링/오케스트레이션을 설계합니다.
  • AI 실시간 추론 서버 구축 및 메트릭/로그 수집 체계를 확립합니다.
  • MLOps 파이프라인을 설계 및 구축합니다.
  • MLOps 시스템 구축, 파이프라인 설계 및 배포 관리합니다.
  • ML 모델용 CI/CD 파이프라인 및 GitOps 기반 선언형 배포 체계를 구축 (Argo CD, FluxCD 등 활용)합니다.
  • Model Registry 시스템 설계 및 적용 (e.g MLflow)합니다.
  • 모델 파이프라인의 통합 및 dockerization, 재현성 확보 및 성능 테스트를 자동화합니다.
  • 무신사·29CM·글로벌 플랫폼 간 AI/ML 인프라 표준화 및 거버넌스 체계를 수립합니다.


[자격 요건]

  • Infrastructure as Code: Terraform 또는 CDKTF 기반 Infrastructure as Code 구현 경험을 가지신 분
  • 멀티/하이브리드 환경 운영 능력 포함
  • 컨테이너 오케스트레이션: Kubernetes, Docker를 활용한 컨테이너 환경 운영 경험이 있으신 분
  • 클라우드 플랫폼: AWS EKS 등 클라우드 관리형 서비스 운영 경험이 있으신 분
  • GitOps CI/CD: Argo CD, FluxCD, GitOps 기반 CI/CD 운영 경험이 있으신 분
  • 모델 버전 관리: MLflow 또는 유사 도구로 모델 버전 관리 시스템 구축 경험이 있으신 분
  • ML 모델 파이프라인: ML 모델 파이프라인 설계·운영 실무 경험 (Sagemaker 제외)이 있으신 분


[우대 사항]

  • 오케스트레이션: Apache Airflow, Kubeflow 등 오케스트레이션 툴 구축 경험이 있으신 분
  • 모델 모니터링: 실시간 서빙 환경에서 모델 성능 모니터링 및 drift 탐지환경 구축 경험이 있으신 분
  • Feature Store: Feature store 구축 경험이 있으신 분
  • ML 거버넌스: ML 거버넌스, 규제 대응 (보안, 데이터 프라이버시) 경험이 있으신 분
  • 플랫폼 표준화: 대규모 플랫폼 표준화, 팀 제도 설계 참여 경험이 있으신 분
  • 성능 테스트: Stress Test 경험이 있으신 분
  • 대규모 트래픽: MAU 100만 이상 트래픽 핸들링 경험이 있으신 분
  • GPU 인프라: DataCenter GPU(e.g A100, H100, H200) 운영 경험이 있으신 분
  • 고급 네트워킹: eBPF‑기반 네트워크 제어, 정책 적용 및 관찰 기능을 포함한 컨테이너 네트워킹 깊은 이해가 있으신 분
  • 커널 수준 트래픽 감시, L4~L7보안 정책 설계, 그리고 문제 발생 시 디버깅 및 분석 경험을 보유하신 분


[지원 서류]

  • 이력서(필수) / 포트폴리오(선택)
  • (참고) 이력서/포트폴리오 작성 팁

이력서/포트폴리오에는 왜 해당 문제를 해결해야 했는지, 어떤 전략을 세웠는지, 어떤 성과가 있었는지 등에 대한 문제 정의, 문제 해결, 성과에 대한 전반적인 내용을 담아주세요. 프로젝트의 성공과 실패를 떠나, 1차 면접에서 인터뷰어와 심도있는 이야기를 나눌 수 있도록 프로젝트의 이해도가 높은 이력서로 구성해주세요. (프로젝트별 기여도 표시)


[근무 조건]

  • 정규직


[전형 절차]

  • 접수 기간 : 상시지원
  • 전형 절차 : 서류 전형 - 과제전형 - 1차 인터뷰 - 2차 인터뷰 - 처우 협의 - 최종합격
  • 진행 상황에 따라 전형은 변동될 수 있습니다.
  • 문의사항 : [email protected]


[기타 사항]

  • 본 채용은 수시 진행으로 우수 인재 채용 시 마감될 수 있습니다.
  • 최종 합격자는 3개월간의 수습기간이 적용되며, 해당 기간 중 급여는 100% 지급됩니다.
  • 입사지원 서류에 허위사실이 발견될 경우, 채용확정 이후라도 채용이 취소될 수 있습니다.
공유하기
MLOps Engineer

[무신사 테크 ​소개]

팀 ​무신사 ​테크 조직은 ​혁신의 원동력이자 변화를 선도하는 ​핵심 ​기술 조직입니다. ​고객과 입점 브랜드가 ​각자의 고유한 ​개성을 ​자유롭게 표현할 ​수 ​있도록, ​데이터와 기술을 기반으로 ​한 ​개인화된 경험을 제공합니다. ​무신사 ​테크는 ​새로운 도전을 두려워하지 ​않으며, 항상 ​새로운 ​영역에서의 성공을 ​꿈꿉니다.

무신사는 ​한국을 ​넘어 글로벌 시장에서도 ​경쟁력 있는 ​서비스를 선보이고자 OCMP(One Core Multi Platform)를 구축하고 있습니다. 이를 통해 전체 비즈니스의 폭발적 성장을 지원하며 무신사 테크는 끊임없는 도전과 혁신으로 고객에게 더 나은 가치를 제공하고자 합니다.



[팀 소개]

무신사·29CM·글로벌 플랫폼의 AI 인프라를 통합하고, 모델의 실험부터 배포까지 전 과정을 자동화하는 핵심 팀입니다. EKS 기반 하이브리드 클러스터와 실시간 추론 서버를 직접 설계·운영하며, ML Engineer와 함께 대규모 트래픽과 GPU 인프라 환경에서도 안정적인 ML 서비스 제공을 책임집니다. Terraform, Argo CD, MLflow 등 최신 기술을 활용해 재현 가능하고 효율적인 MLOps 체계를 구축합니다.

단순한 배포 자동화를 넘어, 표준화·거버넌스 체계 수립과 보안·운영 정책 설계까지 포함된 전략적 역할을 수행합니다. 빠르게 성장하는 커머스 AI 인프라의 핵심 구조를 함께 만들어갈 동료를 기다립니다.


[담당 업무]

  • AI 인프라를 구축 및 운영합니다.
  • AI 인프라 고도화를 위한 EKS 클러스터 및 하이브리드 노드(On-Prem 연동)를 구축 및 운영합니다.
  • 클러스터 가용성 확보 및 비용 최적화를 위한 리소스 스케줄링/오케스트레이션을 설계합니다.
  • AI 실시간 추론 서버 구축 및 메트릭/로그 수집 체계를 확립합니다.
  • MLOps 파이프라인을 설계 및 구축합니다.
  • MLOps 시스템 구축, 파이프라인 설계 및 배포 관리합니다.
  • ML 모델용 CI/CD 파이프라인 및 GitOps 기반 선언형 배포 체계를 구축 (Argo CD, FluxCD 등 활용)합니다.
  • Model Registry 시스템 설계 및 적용 (e.g MLflow)합니다.
  • 모델 파이프라인의 통합 및 dockerization, 재현성 확보 및 성능 테스트를 자동화합니다.
  • 무신사·29CM·글로벌 플랫폼 간 AI/ML 인프라 표준화 및 거버넌스 체계를 수립합니다.


[자격 요건]

  • Infrastructure as Code: Terraform 또는 CDKTF 기반 Infrastructure as Code 구현 경험을 가지신 분
  • 멀티/하이브리드 환경 운영 능력 포함
  • 컨테이너 오케스트레이션: Kubernetes, Docker를 활용한 컨테이너 환경 운영 경험이 있으신 분
  • 클라우드 플랫폼: AWS EKS 등 클라우드 관리형 서비스 운영 경험이 있으신 분
  • GitOps CI/CD: Argo CD, FluxCD, GitOps 기반 CI/CD 운영 경험이 있으신 분
  • 모델 버전 관리: MLflow 또는 유사 도구로 모델 버전 관리 시스템 구축 경험이 있으신 분
  • ML 모델 파이프라인: ML 모델 파이프라인 설계·운영 실무 경험 (Sagemaker 제외)이 있으신 분


[우대 사항]

  • 오케스트레이션: Apache Airflow, Kubeflow 등 오케스트레이션 툴 구축 경험이 있으신 분
  • 모델 모니터링: 실시간 서빙 환경에서 모델 성능 모니터링 및 drift 탐지환경 구축 경험이 있으신 분
  • Feature Store: Feature store 구축 경험이 있으신 분
  • ML 거버넌스: ML 거버넌스, 규제 대응 (보안, 데이터 프라이버시) 경험이 있으신 분
  • 플랫폼 표준화: 대규모 플랫폼 표준화, 팀 제도 설계 참여 경험이 있으신 분
  • 성능 테스트: Stress Test 경험이 있으신 분
  • 대규모 트래픽: MAU 100만 이상 트래픽 핸들링 경험이 있으신 분
  • GPU 인프라: DataCenter GPU(e.g A100, H100, H200) 운영 경험이 있으신 분
  • 고급 네트워킹: eBPF‑기반 네트워크 제어, 정책 적용 및 관찰 기능을 포함한 컨테이너 네트워킹 깊은 이해가 있으신 분
  • 커널 수준 트래픽 감시, L4~L7보안 정책 설계, 그리고 문제 발생 시 디버깅 및 분석 경험을 보유하신 분


[지원 서류]

  • 이력서(필수) / 포트폴리오(선택)
  • (참고) 이력서/포트폴리오 작성 팁

이력서/포트폴리오에는 왜 해당 문제를 해결해야 했는지, 어떤 전략을 세웠는지, 어떤 성과가 있었는지 등에 대한 문제 정의, 문제 해결, 성과에 대한 전반적인 내용을 담아주세요. 프로젝트의 성공과 실패를 떠나, 1차 면접에서 인터뷰어와 심도있는 이야기를 나눌 수 있도록 프로젝트의 이해도가 높은 이력서로 구성해주세요. (프로젝트별 기여도 표시)


[근무 조건]

  • 정규직


[전형 절차]

  • 접수 기간 : 상시지원
  • 전형 절차 : 서류 전형 - 과제전형 - 1차 인터뷰 - 2차 인터뷰 - 처우 협의 - 최종합격
  • 진행 상황에 따라 전형은 변동될 수 있습니다.
  • 문의사항 : [email protected]


[기타 사항]

  • 본 채용은 수시 진행으로 우수 인재 채용 시 마감될 수 있습니다.
  • 최종 합격자는 3개월간의 수습기간이 적용되며, 해당 기간 중 급여는 100% 지급됩니다.
  • 입사지원 서류에 허위사실이 발견될 경우, 채용확정 이후라도 채용이 취소될 수 있습니다.