분산 스토리지 벤치마킹: linstor (drbd) vs ceph
정말 오랜만에 글을 쓰게 되었습니다.회사 업무와 건강 문제로 너무나도 바쁜 나날이 지났습니다. xcp-ng와 linstor (oxstor) proxmox와 xcp-ng를 비교하던 중 xostor라는 분산 스토리지 솔루션에 대해서 알게되었습니다.아직은 베타지만, 공식적으로 지원 예정이라고 하기에 조금 알아봤어요. linxtor의 장점과 단점 조사해본 장점은 성능이었습니다.장점이자 단점으로는 Linux Kernel에 포함되지 않았다는 것이죠. xcp-ng를 설치해보시면, kernel 버전이 매우 낮다는 것을 알수 있습니다.25년 1월 기준으로…
ceph 사용시 절대 하면 안되는 것: RBD pool을 erasure code로 만드는 것.
ceph로 데이터 날려보면서 계속 배우고 있네요. 이번에 배운것은.. RBD pool을 erasure code로 사용하면서 발생 했습니다. 결론부터 말하자면 복구 성능 이슈로 RBD pool을 erasure code로 사용하면 안됩니다. 어떤 환경에서 사용중이었는지 설명해주세요. 저는 proxmox 머신 3대를 clustering하여 사용하고 있습니다.proxmox의 ceph도 사용 중입니다.당연히 vm 부팅에 사용되는 가상디스크 이미지는 mirror된 풀에 저장되어있습니다. 왜 disk 이미지가 저장되는 RBD pool을 erasure…
ceph 구성기
안녕하세요오랜만에 인사드립니다.최근에 회사 일이 너무 바쁜 나머지.. 제가 한 일들을 잘 기록해내지 못했네요. 제목에서 알 수 있듯이, 이번에는 ceph를 구성해봤습니다이 전에는 gluster를 사용했었는데, 왜 ceph로 바꿨는지 장단점을 비교해보고ceph 구성 과정을 적어보려고 합니다. 이유는 안보시고 바로 구성 방법으로 가셔도 좋아요. Ceph로 변경한 이유 변경한 이유를 알아보기 전에 이전에는 glusterFS를 사용한 이유를 알려드릴께요 glusterFS를 사용한 이유: 낮은…