MLOps를 통한 AI 모델 개발 및 배포 효율화 : 데이터 시계열 분석 사례

July 9, 2025 박우근 조회수 2,072

시계열 분석용 AI 모델을 개발하기 위해 전처리 및 훈련 단계를 자동화하는 MLOps 파이프라인을 구축한 경험을 소개합니다.

들어가며

안녕하세요, 삼성전자 DA 사업부 Data Intelligence Lab의 박우근입니다. 이번 포스팅에서는 DA 사업부의 HRM 데이터를 활용해 시계열 분석 기반의 AI 모델을 개발하고, 이를 효율적으로 운영하기 위해 MLOps 환경을 구축한 경험을 소개하고자 합니다. 

HRM 이란?

HRM(Home appliance Remote Management) 시스템은 생활가전 기기의 운행 및 동작 데이터를 수집하여 이를 진단 및 분석에 활용할 수 있도록 지원하는 데이터 기반 관리 시스템입니다.

저희는 이 HRM 데이터를 활용해 기기의 동작 패턴을 분석하고 이상 동작이 감지될 경우 SmartThings 홈케어 서비스 및 Push Message를 통해 사용자에게 알려주는 AI 모델을 개발 및 운영하고 있습니다.

MLOps 구축의 필요성

AI 모델 개발은 데이터 전처리, 모델 훈련, 평가, 배포 등의 단계로 이루어지며, 각 단계에서 성능 튜닝과 코드 개선을 비롯한 작업을 반복적으로 수행해야 합니다. 특히, 시간 순서대로 수집되는 방대한 시계열 기기 데이터를 빠르게 분석하고 전처리하며 효율적으로 모델을 훈련하기 위해서는 이러한 반복 작업을 자동화할 수 있는 MLOps 환경 구축이 중요했습니다. 이를 통해 전체 개발 프로세스의 효율성을 높일 수 있습니다.


이에 따라, 저희는 기기 데이터를 활용한 시계열 분석 AI 모델을 보다 체계적으로 개발하고 운영하기 위해 MLOps 파이프라인 구축 작업을 진행했습니다. AWS EMR, AWS SageMaker, MLFlow와 같은 클라우드 기반 도구를 사용해 데이터 전처리부터 모델 훈련, 평가, 배포까지의 전 과정을 자동화하고, 이를 실제 프로덕션 환경까지 배포할 수 있는 통합 파이프라인을 구축했습니다. 자세한 구축 과정은 다음과 같습니다.


  • AWS EMR을 사용한 데이터 전처리

MLOps 파이프라인의 첫 단계는 데이터 전처리입니다. 기기 데이터는 내부적으로 구조화되어 있지만, Time Window에 따라 특성을 추출해 모델에 전달해야 하므로 모델 훈련을 위해 데이터를 전처리하는 과정이 필수적입니다. 또한 데이터에 포함된 Noise를 임의적으로 제거하여 모델에 데이터가 전달되기 전에 Data cleaning 작업을 수행해야 합니다. 전처리 작업을 효율적으로 수행하기 위해 AWS EMR이 사용됩니다.



  • 전처리 프로세스

MLOps 파이프라인에서 데이터 전처리는 다음과 같은 단계로 진행됩니다.


1. 전처리용 Docker 이미지 생성: 데이터 형태 변환과 결측치, 이상치, 불일치를 처리하는 전처리 스크립트를 작성합니다. 또한 해당 스크립트를 포함하는 Docker 이미지를 생성하여 AWS ECR에 저장한 후 AWS EMR에서 해당 이미지를 사용할 수 있도록 합니다.

2. 데이터 수집: AWS S3에서 AWS EMR로 데이터를 수집할 수 있게 준비합니다.

3. 데이터 변환: AWS EMR을 사용한 대용량 데이터 처리 작업을 통해, 전처리된 데이터를 생성하고 AWS S3에 저장합니다.

AWS EMR을 사용하면 대규모 데이터도 효율적으로 전처리할 수 있습니다.  


  • AWS SageMaker를 사용한 모델 훈련

데이터가 전처리되면 다음 단계는 AI 모델을 훈련하는 것입니다. 모델 구축 및 훈련을 진행하는 데 AWS SageMaker가 사용됩니다.


 

  • 훈련 프로세스

모델 훈련 프로세스는 다음과 같은 단계로 진행됩니다.


1. 모델 훈련용 Docker 이미지 생성: 시계열 분석에 적합한 딥러닝 아키텍처를 선택하고 훈련을 위한 스크립트를 준비합니다. 해당 스크립트를 포함한 Docker 이미지를 생성하여 AWS ECR에 저장합니다.  

2. 훈련 데이터 준비: 전처리된 데이터를 AWS S3에서 활용할 수 있도록 준비합니다.

3. 모델 훈련: SageMaker의 Training Job을 사용하여 모델 훈련을 진행합니다. 훈련된 모델은 Precision, Recall과 같은 지표를 사용하여 평가됩니다.  


  • MLFlow를 통한 모델 성능 비교

개발 과정에서 여러 모델 버전을 관리하는 것은 성능을 추적하는 데 중요합니다. 이를 위해 MLFlow가 파이프라인에 통합됩니다.  

 


  • 성능 관리 프로세스 

실험  추적: 각 훈련 실행은 모델 버전, 매개변수, 지표, 출력과 함께 기록됩니다.


  • Docker와 AWS Lambda를 통한 배포

MLOps 파이프라인의 마지막 단계는 훈련된 모델을 프로덕션 환경에 배포하는 것입니다. 이를 위해 전처리 스크립트, 훈련된 모델, 추론 로직을 하나의 Docker 이미지로 결합합니다.  



  • 배포 프로세스

모델 배포는 다음과 같은 단계로 진행됩니다.


1. 추론 스크립트 개발: 입력 데이터를 전처리하고 훈련된 모델을 사용해 예측 결과를 생성하는 스크립트를 작성합니다.  

2. Docker 이미지 생성: 전처리 스크립트, 훈련된 모델, 추론 스크립트를 하나의 Docker 이미지로 패키징합니다.  

3. AWS Lambda에 배포: 생성된 Docker 이미지를 AWS Lambda에 배포하여 Serverless 환경에서 자동 확장되도록 설정합니다.  

이렇게 설정하면 서버를 수동으로 관리할 필요가 없고 운영 오버헤드가 줄어듭니다.


  • MLOps 접근 방식의 이점

MLOps 파이프라인 구축을 통해 다음과 같은 이점을 얻을 수 있었습니다. 


1. 확장성: AWS EMR 및 SageMaker와 같은 클라우드 기반 도구를 사용하여 필요에 따라 리소스를 유연하게 확장할 수 있습니다.  

2. 관리성: MLFlow를 통해 실험 결과와 모델을 손쉽게 비교할 수 있습니다.  

3. 효율성: 데이터 처리, 모델 훈련, 배포를 자동화하여 반복적인 수작업을 줄이고 개발 기간이 단축됩니다.  

4. 비용 효율성: AWS Lambda에서의 Serverless 배포는 사용량에 따라 동적으로 확장되므로 인프라 비용이 최소화됩니다.  

마무리하며

시계열 데이터 진단용 AI 모델을 개발하면서 효율성과 관리성을 극대화하기 위해 MLOps 파이프라인을 자동화했습니다. 이러한 자동화 과정을 통해 모델 실험과 업무 진행 속도가 크게 향상되었고 반복적인 작업에 소요되는 시간을 줄여 업무 전반의 효율성도 눈에 띄게 개선되었습니다. 하지만 여기서 만족하지 않고 앞으로도 지속적인 개선과 고도화를 통해 파이프라인의 안정성과 유연성을 더욱 강화하고, 업무 효율성을 높이기 위해 노력하고자 합니다.

감사합니다. 




저자

박우근

Data Intelligence Lab(DA)

이메일 문의하기