본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

Title Page

ABSTRACT

Contents

Ⅰ. Introduction 10

Ⅱ. Background and Related Work 15

1. Autoscaling mechanism of Kubernetes 15

2. Knative runtime and its auto-scaler 18

Ⅲ. Benchmarking Overview 21

1. Aim and Scope 21

2. Custom metrics related to autoscaling 23

3. Benchmark suites and workload specification 25

Ⅳ. Evaluation and Implications 28

1. Correlation between auto-scaling and the initial resource allocation of pods 30

2. Auto-scaling efficiency depending on scaling threshold 40

3. Auto-scaling behavior of HPA depending on base resource metrics 47

Ⅴ. Selecting a default autoscaling policy: HPA vs KPA 53

1. Comparison of auto scaling performances in HPA and KPA with their default metrics 53

2. Miscellaneous : FaaS deployment breakdown 59

Ⅵ. Conclusion 62

References 63

논문 개요 70

TABLE 1. Detailed specification of deployed functions 27

TABLE 2. Knative's key process to ready a pod 60

FIGURE 1. Typical FaaS architecture and system components utilizing Knative on Kubernetes 18

FIGURE 2. An overview of FaaS environmental setup for function deployment and invocation 25

FIGURE 3. (a) Comparison of the scaling process with different threshold settings (b) Comparison of the Number of [200] responses (c)... 31

FIGURE 4. (a) Comparison of the scaling process with different initial pod resource settings (b)Comparison of the Number of [200] responses... 35

FIGURE 5. (a) Comparison of the scaling process with different threshold settings (b) Comparison of the Number of [200] responses (c)... 43

FIGURE 6. (a) Comparison of the scaling process (b) Comparison of the Number of [200] responses (c) comparison of the overall latency distribution 49

FIGURE 7. (a) Concurrency level of 80 (b) Concurrency level of 600 55

FIGURE 8. (a) Trends in response according to concurrency level(1~100) (b) Trends in SLA of HPA (c) Trends in SLA of KPA 58

FIGURE 9. (a) Trends in response according to concurrency level(100~600) (b) Trends in SLA of HPA (c) Trends in SLA of KPA 58

FIGURE 10. Time spent on pod ready process 61

초록보기

 최근 서버리스 컴퓨팅 기술의 혁신으로 클라우드 네이티브 애플리케이션을 쉽고 유연하게 관리할 수 있게 되었다. 이러한 서버리스 아키텍처를 활용하는 다양한 패러다임 중 하나인 Function-as-a-Service(FaaS) 컴퓨팅 모델을 통해 개발자는 비용 효율적으로 컴퓨터화된 서비스의 핵심 논리에 더 집중할 수 있게 되었다. 이 때 인프라 관리 문제를 해결하려는 개발자의 요구를 수용하기 위해 Managed Service Provider(MSP)는 자동 확장 기능을 갖춘 컨테이너 조정 역할을 수행한다. 일반적으로 FaaS 플랫폼은 컨테이너 오케스트레이션 및 Knative와 같은 런타임 환경을 제공하는 서버리스 백엔드 솔루션을 사용하여 컨테이너화된 서비스에 대한 리소스 관리 기능을 활용한다. 그러나 관련된 지침의 부족과 자동 확장 구성 옵션의 다양성 때문에 MSP는 다양한 클라이언트의 Service Level Objectives(SLO)를 충족하는 데 어려움을 겪고 있다. 본 논문은 쿠버네티스의 자동 스케일링과 FaaS 워크로드 성능 간의 관계를 탐구하고 최첨단 자동 스케일링 도구인 HPA 및 KPA를 사용하여 적절한 자동 스케일링 로직을 설정하는 방법을 시연하기 위한 측정 연구를 수행한다.