ceph로 데이터 날려보면서 계속 배우고 있네요. 이번에 배운것은.. RBD pool을 erasure code로 사용하면서 발생 했습니다. 결론부터 말하자면 복구 성능 이슈로 RBD pool을 erasure code로 사용하면 안됩니다. 어떤 환경에서 사용중이었는지 설명해주세요. 저는 proxmox 머신 3대를 clustering하여 사용하고 있습니다.proxmox의 ceph도 사용 중입니다.당연히 vm 부팅에 사용되는 가상디스크 이미지는 mirror된 풀에 저장되어있습니다. 왜 disk 이미지가 저장되는 RBD pool을 erasure…
언제 추가 된 문서인지 모르겠으나, 오늘 cloudflare 관련 작업 중 이런 문서를 찾았습니다. https://developers.cloudflare.com/cloudflare-one/connections/connect-networks/deploy-tunnels/deploy-cloudflared-replicas/#deploy-a-load-balancer 바로 고가용성입니다. High Availability를 지원하기 전 이 전에는 하나의 tunnel token으로 cloudflared를 여러개 구동하면 두번째로 실행한 cloudflared는 에러가 발생 되었습니다. 따라서 모든 vm마다 서로 다른 cloudflare tunnel을 구현할 수 밖에 없었죠. 게다가 kubernetes나 docker swarm 처럼 클러스터링 되어 서비스를 제공하는 환경에서조차…
제목부터 강렬합니다.지금 매우 기분이 나쁩니다…다시는 경험하지 않기 위해, 다른 분들도 겪지 않도록 하기 위해 글을 쓰게 되었습니다. replication 3 vs erasure code 2k+1m 사실 ec에도 여러가지 모드(?)가 있긴 하더군요. 하지만 오로지 k와 m을 설정하는 jerasure 플러그인만 홈페이지에 설명 되어있습니다. 저는 두가지가 같다고 생각했습니다.host 한개가 다운되면 문제 없고, 2개 다운되면 접근이 불가능해지죠. 단지 성능이 낮아지고, 사용…
ssd와 HDD가 모두 존재할 때, HDD의 성능을 향상 시켜보려고 합니다. File의 inode 정보는 data에 저장됩니다. 먼저, Ceph의 FileSystem(이하 fs)에는 metadata와 data가 존재합니다.metadata는 당연히 ssd에 넣으셨겠죠.하지만 문제는 data입니다. 저는 당연히 inode 같은 메타 정보는 ceph FS의 metadata에 저장되는 줄 알았습니다. 하지만 CEPH 공식 문서의 CREATE A CEPH FILE SYSTEM 게시물에 다음과 같은 내용이 있습니다. The data…
배경 설명을 드리자면, Rancher와의 통합을 위해 Fleet으로 CD(Continuous Delivery)를 시험해봤습니다.하지만 apiServerURL을 바꿔도 Rancher UI 주소로 변경되고, 가끔은 인증서 문제도 발생하고 하여 CD가 작동하지 않는 문제가 있었습니다. 그래서 ArgoCD를 이용했었는데, github의 rancher/fleet을 보니 apiServerURL 값을 어디서 가져오는지 소개되고 있더군요.따라해보니 잘되는 것 같아서 이렇게 글을 작성하게 되었습니다. 과거에는 문제가 발생하면 Fleet을 구성할 때부터 안되는 것이 아니라 구성…
제목이 의문문이죠?맞습니다. 컨테이너 OS는 가상이 아닙니다. 최근에 Kubernetes와 함께 가상 OS라는 마케팅 용어가 등장했습니다. 일부 관점에서 Container에는 OS가 없을 수 있습니다.하지만 Container에 OS가 존재하는데, 그 OS가 가상의 OS다. 라고 하는 것은 틀린 말입니다. 먼저 용어 정리부터 해야겠습니다. OS와 kernel OS는 Operating System의 약자로, 한국어로는 운영체제라고 합니다. 운영체제의 구성요소로는 크게 두개로 볼수 있습니다.Kernel과 System Application입니다.Application은 한국어로…