VITO CI/CD 변천사 #1 | 손스케일링

VITO CI/CD 변천사 #1 | 손스케일링

안녕하세요. 리턴제로에서 서버팀을 맡고있는 Castor입니다. 저희가 서비스를 런칭한지 2년이 넘었는데요. 그동안 VITO 서비스를 안정권에 올려 놓느라 저희 팀의 기술블로그를 적을 시간과 정신이 없었어요. 이제부터는 리턴제로팀의 자랑스런 기술력에 대한 글들을 적기위해서 모지라지만 제가 이렇게 첫 삽을 뜨게 되었습니다.

첫 글로 저희 VITO 서비스의 CI/CD 변천사에 대해서 시리즈로 출발하겠습니다.

많은 스타트업들이 그러하듯이 VITO 또한 서비스를 준비하고, 런칭하고, 운영하고, 키워 나가는 과정 속에서 시스템의 많은 변화가 있었는데요.

VITO 서비스를 준비하던 2020년 초부터 서비스를 키워 나가면서 일어났던 CI/CD의 변화를 적어보려고 합니다.

VITO 서비스의 이해

VITO 서비스는 크게 일반적인 API 서비스 부분과 음성파일을 문자로 변환시키기 위해서 여러개의 처리 서비스를 묶어서 부르는 Sommers라는(ML) 부분으로 나뉘어져 있습니다.

API 서비스와 ML서비스

먼저 유저가 문자로 변환을 원하는 파일을 API서버를 통해서 upload하게되면 해당
음성파일을 리턴제로에서 독자 개발한 Sommers라는 전사시스템으로 전송하게 됩니다.

전사 (轉寫)[명사]
1. 글이나 그림 따위를 옮기어 베낌.
2. 말소리를 음성 문자로 옮겨 적음.

Sommers는 여러 서비스로 구성된 파이프라인을 지나 변환된 문자를 VITO앱으로 다시 돌려주는 역할을 하고있습니다.

서비스의 시작

서비스를 오픈하는 시점에 CI/CD를 어떻게 구성 해야하는지는 상당한 고민거리를 안겨줍니다. 단순히 AWS EC2의 auto scale을 활용해서 template화 시켜야 할지, 처음부터 k8s를 잘 셋팅해서 할지, 아니면 아에 모든것을 손으로 컨트롤 하면서 운영할지 고민을 할 수 밖에 없죠. 왜냐면 초기에는 사용자가 몇명 안될 것이고, 이 사용자들이 어떻게 늘어날 지 예측하기 힘드니까요

저희는 처음 구성은 개발자가 즉각적으로 대응 하기 쉬운 형태로 배포 시스템을 구성 하기로 했습니다. 바로 손스케일링이죠. 손스케일링을 하려다보니 직접적으로 시스템을 파악하기 쉽고 인스턴스 내부에 직접 접근해서 여러가지 설정들을 수동으로 바꿀 수 있는 구조가 필요했습니다. 그래서 저희는 ECS나 EKS같은 Cloud service를 구성하지 않고 서버들을 직접적으로 투입하고 빼는 작업을 Jenkins의 pipeline이 AWS cli 명령이나 Ansible script로 실행하게 되었습니다. 이렇게 하면 이슈가 있는 서버에 콘솔로 바로 접근해서 어떤 일들이 일어나고있는지 빠르게 파악할 수 있었기 때문입니다. 사실 바꿔 말하면 Cloud service에 익숙치 않았다고 해야겠죠.😂

초기 VITO 배포 시스템

AutoScale의 기준

Sommers 시스템은 4~5개의 서비스를 묶어서 지칭하는 서비스명입니다. 그래서 각 구간별로 투입되어야 하는 서버의 스팩과 투입되는 대수가 상이합니다. 또 어떤 구간에서는 GPU를 쓰지 않는 구간도 있기 때문에 하나의 서비스를 구성하는데 있어서 어떤 구간에서 밀리고 있는지 파악하고 해당 구간만 적절하고 빠르게 늘려주면 아주 아름다운 AutoScale이 완성이 될것이라고 상상했습니다. 왜냐면 간단히 생각하면 그냥 MicroService Architecture와 다를게 없었거든요. 하지만 현실은 상상과 달랐습니다.

Sommers 시스템의 특수성 — 서비스 투입시간.

Sommers 시스템은 GPU가 사용되기 때문에 GPU instance인 g4 instance를 주로 사용하고 있는데요. 음성처리에서 많이 쓰이는 Kaldi, TensorFlow(이하 tf)들도 모두 GPU를 사용합니다. 일반적인 CPU instance들은 scale out시에 수초~1분정도안에는 scale out이 완료되고 docker image를 load하고 서비스에 투입이 됩니다. 하지만 Sommers 시스템들은 모두 warm up과 model을 로딩하는데 5분에서 어떨때에는 30분까지도 딜레이가 생겼습니다.

그렇기에 트래픽이 몰리거나 통화녹음 파일이 많은 헤비유저가 녹음파일을 대량으로 업로드 할 경우에는 속절없이 30분가까이는 큐가 차는 모습을 지켜보고있어야 했습니다.

안정적으로 유지중인 전사요청 대기 큐
AutoScle이 적절하게 따라가지 못할 때 대기 큐

Sommers 시스템의 특수성 — System지표

보통의 Scale in/out은 cpu, memory, network사용량등을 보고 결정을 하게 되는데 GPU를 사용하는 Sommers의 GPU 지표는 언제나 100%에 육박해있습니다.

언제나 빨간 GPU Utilization

그렇기에 시스템 지표를 통해서는 scale in/out에 대한 기준을 잡을수가 없습니다. 결국은 문자변환을 기다리는 큐가 얼마나 차 있느냐를 보고 미리 scale out을 해야지 이후 몰려오는 전사요청을 처리할 수 있게 됩니다.

EPM(Enqueue Per Minute)

처음에는 Sommers의 각 서비스들의 각각의 대기큐를 보면서 밀리는 서비스가 생기면 해당 서비스만 추가로 투입하고 빼는 형태로 구성했습니다.

예를 들자면 음성 파일을 처리하는 Sommers pipeline이 A->B->C->D 서비스로 구성되어있다면 B구간에서 밀려서 큐가 찬다고 해서 B만 늘리면 B가 해소되면서 동시에 C가 밀리고 C를 늘리면 또 D가 밀려버립니다.

결국 트래픽이 많을 때 각 구간별로 세세하게 scale하는것이 의미가 없어졌습니다. 그래서 저희는 각 서비스의 최적의 비율을 정해서 해당 비율을 하나의 Set으로 부르고, RabbitMQ에 enqueue되는 양을 1분마다 측정해서 해당 측정치를 EPM으로 불렀습니다. 그리곤 EPM이 특정 구간에 도달하면 하나의 Set씩 통째로 scale in/out 하도록 구성하였습니다.

Container Ochestration의 시대로

이렇게 직접 저희가 scale되는 것들을 운영하다보니 점점 Jenkins의 Groovy script, Ansible script가 복잡해져가고 운영 코스트가 증가하기 시작했습니다. 그렇게 백엔드 개발자 두명이서 고군분투 중일때 저희 팀의 구원자 Owen(Choi Geonu)이 입사를 하게 됩니다. 저희 배포 시스템의 복잡성을 탄식하시던 Owen은 배포 시스템을 뒤엎기로 결정하십니다.

이렇게 지저분한 배포시스템이라니!

Container Ochestration의 시대로 넘어가는 다음 블로그를 기대해주세요. 😄


저희 리턴제로팀은 언제나 좋은 개발자를 귀하게 모시고 있습니다.
로켓을 타고 우주로 도약하실 분들은 채용에 많은 관심 부탁드립니다.


Great! You’ve successfully signed up.

Welcome back! You've successfully signed in.

You've successfully subscribed to 기업을 위한 음성 AI - 리턴제로 blog.

Success! Check your email for magic link to sign-in.

Success! Your billing info has been updated.

Your billing was not updated.