/에러 해결 /ComfyUI 'CUDA out of memory' 에러 해결법

ComfyUI 'CUDA out of memory' 에러 해결법

🔧 에러 해결✓ Verified📅 2026. 2. 20.👁 1,247👍 38

광고 — 본문 상단 배너

구글 애드센스 표시 (18+ 도메인에선 무효화됨)

증상

CUDA out of memory 에러가 발생하며 이미지 생성이 중단됩니다.

원인

1. 모델 크기 대비 VRAM 부족

SDXL 모델은 최소 6GB VRAM이 필요합니다. SD 1.5 모델은 4GB에서도 동작합니다.

2. 배치 사이즈가 너무 큼

배치 사이즈를 1로 낮추면 VRAM 사용량이 크게 줄어듭니다.

3. 다른 프로그램이 GPU 점유

브라우저, 게임 등이 GPU 메모리를 사용 중일 수 있습니다.

해결 단계

  • 모델 변경: SDXL → SD 1.5 또는 경량 모델 사용

  • 배치 사이즈 축소: 1로 설정

  • 해상도 낮추기: 1024x1024 → 768x768 또는 512x512

  • --lowvram 플래그: ComfyUI 실행 시 python main.py --lowvram 사용

  • FP16 모드: --fp16-vae 추가로 VAE 메모리 절약

  • 다른 프로그램 종료: GPU를 사용하는 프로그램을 모두 닫기
  • 실패 시 대안

  • CPU 모드로 전환: --cpu (매우 느리지만 동작)

  • Google Colab 등 클라우드 GPU 사용

  • VRAM이 큰 GPU로 업그레이드 고려
  • 환경별 참고

    GPUVRAM권장 모델최대 해상도
    ---------------------------------
    RTX 306012GBSDXL1024x1024
    RTX 3060 Ti8GBSDXL (lowvram)768x768
    GTX 16606GBSD 1.5512x512
    RTX 409024GBSDXL + LoRA2048x2048

    ❓ 자주 묻는 질문

    lowvram 모드를 쓰면 품질이 떨어지나요?
    품질에는 영향이 없습니다. 다만 생성 속도가 약간 느려질 수 있습니다.
    VRAM 8GB인데 SDXL을 돌릴 수 있나요?
    --lowvram 플래그와 FP16 모드를 함께 사용하면 가능합니다. 해상도는 768x768 이하로 제한하는 것이 안정적입니다.

    광고 — 본문 하단 배너

    구글 애드센스 표시 (18+ 도메인에선 무효화됨)

    이 글이 도움이 되었나요?

    💡 수정 제안 / 내 환경에서 테스트

    이 문서에 오류가 있거나, 다른 환경에서 테스트한 결과가 있다면 알려주세요.