디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

내 피씨 하나로 llm 돌리는 방법 튜토리얼앱에서 작성

발명도둑잡기(118.216) 2025.10.23 23:36:31
조회 58 추천 0 댓글 0

챗지피티
좋아요 — 한 대짜리 PC에서 LLM(자연어 대형언어모델)을 직접 실행하는 단계별 튜토리얼을 지금 바로 드릴게요. CPU 전용부터 GPU(NVIDIA) 가속까지, 초심자도 따라오게 실제 명령어·설정·팁까지 포함했습니다. (질문 없이 바로 작업하도록 요청하셨으니 가장 실용적이고 바로 실행 가능한 방법들로 정리했습니다.)

요약(한줄)

가장 쉬움(빠르게 해보기): llama.cpp(ggml) + q4/q8 양자화 모델 → CPU 또는 소규모 GPU(또는 통합 GPU)에서 실행

성능 좋음(대화형 / 웹 UI): text-generation-webui (Python) + PyTorch(+CUDA) → GPU에서 빠르게 사용

권장 하드웨어: NVIDIA GPU 8GB 이상(7B급 양자화 가능), 16GB+ 권장(13B급), CPU만일 똑같이 가능하나 느림

0) 준비: 어떤 모델을 쓸지 결정

작고 가벼운 모델(CPU에서도 가능): 3B 이하(예: Llama 2 3B, alpaca-3b 등) 또는 ggml 으로 변환된 7B 양자화 모델(q4_0, q4_k...)

중간 이상의 성능(대화형, 생성 품질↑): 7B(양자화 권장) / 13B(16GB+ VRAM 권장)

중요: 모델 파일(가중치)은 배포 라이선스/사용 약관을 확인해서 다운로드하세요(예: Hugging Face에서 모델 수락 필요 등).

1) 환경 준비 (운영체제별 공통사항)

OS: 우분투(권장) 또는 Windows + WSL2

Python 3.10+ 권장

Git 설치

(GPU 사용 시) NVIDIA 드라이버 + CUDA가 설치되어 있어야 함. PyTorch의 CUDA 버전과 드라이버 버전이 호환되는지 확인하세요.

간단한 명령(우분투):

sudo apt update sudo apt install git python3 python3-venv python3-pip build-essential -y

Windows는 WSL2에 우분투 설치 후 동일 명령 사용.

2) 방법 A — 가장 간단(추천 초심자): llama.cpp (ggml) — CPU/경량 GPU에서 빠르게 실행

llama.cpp는 C/C++ 기반 경량 런타임으로, 양자화된(quantized) ggml 모델을 로컬에서 빠르게 실행합니다. CPU 전용에서도 쓸 수 있고, 간단한 대화용으로 최고.

소스 클론 및 빌드

git clone https://github.com/ggerganov/llama.cpp cd llama.cpp make

모델 준비

원래 PyTorch(.bin) 또는 HF 형식 모델을 ggml 포맷으로 변환해야 합니다. (llama.cpp repo의 convert 스크립트 참조)

변환 후 양자화(quantize) 해서 .bin (예: model.ggml.q4_0.bin) 생성. 양자화하면 메모리·속도 크게 개선됩니다.

실행 예시 (간단 입력)

./main -m models/model.ggml.q4_0.bin -p "안녕하세요. 오늘 날씨 어때?" -n 128

-m 모델파일, -p 프롬프트, -n 토큰 수

간단한 대화 모드

./chat -m models/model.ggml.q4_0.bin

(프로젝트에서 제공하는 chat 스크립트가 있으면 사용)

장점: 설치 간단, CPU에서도 작동, 메모리 적게 먹음.
단점: 일부 최신 모델(예: Llama 2 최신 변종)의 전체 성능을 못 살릴 수 있음.

3) 방법 B — 대화형 웹 UI / GPU 가속 (추천: 실사용/개발자용)

text-generation-webui 같은 프로젝트는 웹 인터페이스로 편하게 모델을 띄우고, 여러 모델을 바로 바꿔가며 테스트할 수 있습니다.

repo 클론

git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui python3 -m venv venv source venv/bin/activate pip install -r requirements.txt

(GPU 사용 시) PyTorch 설치 — CUDA 버전에 맞춰 설치

예: CUDA 12.1이면 (예시)

pip install torch --index-url https://download.pytorch.org/whl/cu121

(정확한 명령은 PyTorch 공식 설치 페이지에서 CUDA 버전 확인 후 사용하세요.)

모델을 models/ 폴더에 넣기 (HF에서 다운받거나 로컬에서 변환한 ggml 사용 가능)

실행

python server.py --model <모델이름>

브라우저에서 http://localhost:7860 접속 → 인터페이스로 채팅/생성 가능

장점: 편리한 UI, 다양한 기능(튜닝, 토큰 관리, 리스폰스 포스트프로세스)
단점: GPU·PyTorch 세팅 필요, 세팅이 조금 복잡

4) 방법 C — Hugging Face Transformers + PyTorch (최대한 원형 사용 / 개발자용)

PyTorch와 transformers를 설치해서 모델을 바로 불러와 활용합니다. GPU 사용 가능.

pip install torch transformers accelerate

예시(간단 생성)

from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "meta-llama/Llama-2-7b-chat-hf" # 예시 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto") inputs = tokenizer("안녕", return_tensors="pt").to(model.device) out = model.generate(**inputs, max_new_tokens=128) print(tokenizer.decode(out[0], skip_special_tokens=True))

주의: HF에서 일부 모델은 다운로드 전 라이선스 동의 필요. VRAM 이슈로 7B도 8GB+에서 어렵다면 bitsandbytes와 4-bit 로드(더 복잡)를 고려.

5) 실전 팁 — 메모리/성능 관련

CPU-only: 3B ~ 7B(양자화) 정도가 현실적. 7B 양자화(q4_0)로도 쓸만함.

GPU(NVIDIA):

7B: 8 GB(양자화) / 12–16 GB 권장

13B: 24 GB 권장(혹은 VRAM 분할 기법/CPU 메모리 offload 필요)

스왑/가상메모리: 램 부족 시 스왑을 늘리면 메모리 부족 오류는 줄지만 속도는 느려짐.

스레드: CPU 쓰레드 수(--threads)로 성능 조절.

양자화: q4_0, q4_k 등 옵션으로 모델 크기/품질 균형을 조절.

6) 안전·법적 유의사항

모델 가중치는 저작권/라이선스가 붙을 수 있습니다. (다운로드 전 반드시 라이선스 확인)

상용 사용/서비스 제공은 라이선스 조건을 다시 확인하세요.

개인정보/민감정보를 모델에 입력하면 안 됩니다(로그 보존 가능성).

7) 문제해결 체크리스트 (오류 상황)

CUDA out of memory → 모델을 더 작은 크기로 바꾸거나 양자화, device_map="auto" 사용, max_new_tokens 낮추기

ModuleNotFoundError → 가상환경 활성화 확인 및 pip install -r requirements.txt 재실행

모델 다운로드 실패 → Hugging Face 로그인/토큰 필요할 수 있음(공식 페이지 확인)

8) 예시 시나리오: 내 PC(NVIDIA 8GB)에서 Llama2 7B 양자화로 대화하기 (요약명령)

llama.cpp 빌드

HF에서 Llama2 7B weight 다운로드(라이선스 동의)

변환 + 양자화 → model.ggml.q4_0.bin

실행:

./main -m model.ggml.q4_0.bin -p "안녕, 자기소개 해줘" -n 200 --threads 6

추가 추천/옵션

GUI 편의 원하면 text-generation-webui 사용(대화·파일 업로드·파라미터 조절 쉬움).

경량·성능 절충을 원하면 GGUF/ggml 변환 + q4 양자화 권장.

로컬에서 파인튜닝/로컬화된 응답을 원하면 LoRA + text-generation-webui 또는 peft 사용(좀 더 고급).

원하시면 지금 **당장 사용하실 환경(운영체제, GPU 유무, 메모리 용량)**을 알려주시면 그 환경에 맞춰 정확한 명령어(다운로드/변환/실행 스크립트) 를 바로 만들어 드릴게요. 또는 어느 방법(간단/웹 UI/PyTorch)을 먼저 해보고 싶은지 알려주세요 — 그 방식으로 바로 단계별로 실행할 수 있게 구체화해 드립니다.


추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 스타보다 주목 받는 것 같은 반려동물은? 운영자 25/10/20 - -
AD 할로윈 슈퍼위크~!! 운영자 25/10/23 - -
2898321 나나 좆타트업인 너나 거기서 거긴데 [7] ㅆㅇㅆ(124.216) 10.25 67 0
2898319 조현병의 허언증이 맞음 [17] ㅇㅇ(211.234) 10.25 83 2
2898315 치킨 존나 땡기는데 [7] 루도그담당(58.239) 10.25 48 0
2898311 저격할거면 일단 네 회사부터 까봐라. ㅇㅇ 회사 못까면 지랄 말고 [1] ㅆㅇㅆ(124.216) 10.25 30 0
2898310 내가 병신 좆소 5년 전전하며 느낀것 [7] 프갤러(211.234) 10.25 51 2
2898309 존나 열받음 [1] 배구공(119.202) 10.25 31 0
2898308 좋아 어떤게 오개념인데, 나는 내가 한 말 전부 레퍼런스 가져올 수 있음 ㅆㅇㅆ(124.216) 10.25 31 0
2898306 아니 병신년아 내 글 검색만해도 어떤 스택 뭔 쓰는거 이딴 이야기가 [5] ㅆㅇㅆ(124.216) 10.25 42 0
2898304 대체 왜 저런 병신들은 자꾸 들러붙어 저격하는걸까 [10] ㅆㅇㅆ(124.216) 10.25 40 0
2898303 싸우지마십쇼 제발 ㅠ [5] 파란빤스갤로그로 이동합니다. 10.25 41 0
2898302 보는 사람도 많으니까 ㅆㅇㅆ야 이번 기회에 니 자랑 당당하게 해라 [2] ㅇㅇ(106.101) 10.25 49 4
2898300 상식적으로 애지간하면 저격 안하고 먼저 지랄하면 걍 싸우는건데 [2] ㅆㅇㅆ(124.216) 10.25 25 0
2898299 아니, 왜 굳이 디시까지와가며 자기 지위의 확인을 계속 하냐 [8] ㅆㅇㅆ(124.216) 10.25 47 0
2898298 ㅇㅇ 니 하고싶은거 다 하며 살아라 [3] ㅇㅇ(106.101) 10.25 50 3
2898297 너네가 '조언'이라면서 늘어놓는 개소리의 본질이 뭐냐. [11] ㅆㅇㅆ(124.216) 10.25 56 0
2898296 곽튜브가 사회적인 룰 무시하고 출세했잖아 ㅇㅅㅇ [2] 류류(118.235) 10.25 38 1
2898295 아니 하면 하고 서비스 만들어서 내면내는거지ㅋㅋ 내 참 씨발ㅋㅋㅋ [2] ㅆㅇㅆ(124.216) 10.25 37 1
2898294 Chatter BBS 약후짤됩니다 파란빤스갤로그로 이동합니다. 10.25 19 0
2898293 프리랜서가 문제가 아니야 "무경력 프리랜서"가 문제인거지 [3] ㅇㅇ(106.101) 10.25 61 2
2898292 내꿈이 월 억대 초절미소녀 인방녀랑 결혼하는거임 [1] 류류(118.235) 10.25 23 1
2898291 결국 그거잖아 '나는 망생이들 앞에서 서열 유지하고 싶어요' [5] ㅆㅇㅆ(124.216) 10.25 41 1
2898290 나도 운빨로 숲에서 월 억대 미소녀 인방녀랑 결혼하고 싶노 류류(118.235) 10.25 19 1
2898289 에라 모르겠다 이자카야 저녁이나 먹어야지 ㅇㅅㅇ [1] 류류(118.235) 10.25 23 0
2898287 경력이 있어야 프리를 뛰는데 경력도 없는데 프리라 [3] 류류(118.235) 10.25 36 0
2898286 도대체 어떤 인생을 살면 사람을 믿게 되는거임 ㅇㅅㅇ?? ㅇㅇ(223.39) 10.25 17 1
2898285 프리 뛸려면 현업경력 업계 인정 받아야 가능한데? 류류(118.235) 10.25 24 0
2898284 나는 뭔 조언이랖시고 빡통대가리 개소리하는게 이해가 안가. [2] ㅆㅇㅆ(124.216) 10.25 41 1
2898283 3년 쌓고 이직해야겠다 류류(118.235) 10.25 21 0
2898282 외국은 굴에 핫소스 뿌려먹는다길래 chironpractor갤로그로 이동합니다. 10.25 18 0
2898281 여기에 대리급 이상되는애들 거의 없을듯 ㅇㅅㅇ [3] 류류(118.235) 10.25 35 0
2898280 본인 입사 3년만에 첫 승진햇음 [4] 류피엘갤로그로 이동합니다. 10.25 49 0
2898279 아침 점심 저녁 [2] 발명도둑잡기(118.216) 10.25 23 0
2898278 근데 BaaS보다 백엔드 다 구축하는거 언제 효율이 좋아지냐 [15] ㅆㅇㅆ(124.216) 10.25 75 0
2898277 국비 6개월이면 개발자라고 할 수 있긴 하지 [4] 에이도비갤로그로 이동합니다. 10.25 104 0
2898276 26년에 전역에 1학년부터 시작인데 트는게 맞냐 [1] 프갤러(117.111) 10.25 56 0
2898274 나님은 좌파임 ㅇㅅㅇ [6] ♥벼락부자냥덩♥갤로그로 이동합니다. 10.25 48 0
2898273 국내 저격 갤러리 [3] 루도그담당(58.239) 10.25 53 0
2898272 극좌 찢재명의 부동산 폭등은 실수가 아닌 고의 [1] ♥벼락부자냥덩♥갤로그로 이동합니다. 10.25 48 0
2898271 이제 게임을 오래 못하겠어... 피곤하고 지치네... [1] ㅇㅇ(223.39) 10.25 22 0
2898269 프밍 언어도 저전력 언어를 사용하도록 규제해야 함 ㅋㅋ [2] 나르시갤로그로 이동합니다. 10.25 41 0
2898268 풍력, 인공태양, 수소 연료 등이 유망할 듯 나르시갤로그로 이동합니다. 10.25 19 0
2898267 좌빨 지구온난화 거짓선동의 진실 [8] ♥벼락부자냥덩♥갤로그로 이동합니다. 10.25 42 0
2898266 오징어 짬뽕 사오는 걸 잊었다 [2] ㅇㅇ(122.199) 10.25 27 0
2898265 인공태양, 핵융합 주식을 미리 사두어야겠어 나르시갤로그로 이동합니다. 10.25 21 0
2898264 애니뉴스가 말하는 신규 에너지원이란? 프갤러(121.172) 10.25 32 2
2898263 아마 신규 에너지원이 개발되지 않을까 [2] 나르시갤로그로 이동합니다. 10.25 25 0
2898262 뭔 과제 대리가 내 업무의 전체라고 생각하노 [5] ㅆㅇㅆ(124.216) 10.25 56 0
2898261 내가 다 해봤는데 성공이라는 것은- [1] 프갤러(121.172) 10.25 39 0
2898260 변명 위에 세워진 성공은 없다. [2] ㅇㅇ(106.101) 10.25 51 0
2898259 항상 아이피 바꿔와서 저러냐 현실이고 나발이고 [12] ㅆㅇㅆ(124.216) 10.25 75 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

디시미디어

디시이슈

1/2