디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

내 피씨 하나로 llm 돌리는 방법 튜토리얼앱에서 작성

발명도둑잡기(118.216) 2025.10.23 23:36:31
조회 66 추천 0 댓글 0

챗지피티
좋아요 — 한 대짜리 PC에서 LLM(자연어 대형언어모델)을 직접 실행하는 단계별 튜토리얼을 지금 바로 드릴게요. CPU 전용부터 GPU(NVIDIA) 가속까지, 초심자도 따라오게 실제 명령어·설정·팁까지 포함했습니다. (질문 없이 바로 작업하도록 요청하셨으니 가장 실용적이고 바로 실행 가능한 방법들로 정리했습니다.)

요약(한줄)

가장 쉬움(빠르게 해보기): llama.cpp(ggml) + q4/q8 양자화 모델 → CPU 또는 소규모 GPU(또는 통합 GPU)에서 실행

성능 좋음(대화형 / 웹 UI): text-generation-webui (Python) + PyTorch(+CUDA) → GPU에서 빠르게 사용

권장 하드웨어: NVIDIA GPU 8GB 이상(7B급 양자화 가능), 16GB+ 권장(13B급), CPU만일 똑같이 가능하나 느림

0) 준비: 어떤 모델을 쓸지 결정

작고 가벼운 모델(CPU에서도 가능): 3B 이하(예: Llama 2 3B, alpaca-3b 등) 또는 ggml 으로 변환된 7B 양자화 모델(q4_0, q4_k...)

중간 이상의 성능(대화형, 생성 품질↑): 7B(양자화 권장) / 13B(16GB+ VRAM 권장)

중요: 모델 파일(가중치)은 배포 라이선스/사용 약관을 확인해서 다운로드하세요(예: Hugging Face에서 모델 수락 필요 등).

1) 환경 준비 (운영체제별 공통사항)

OS: 우분투(권장) 또는 Windows + WSL2

Python 3.10+ 권장

Git 설치

(GPU 사용 시) NVIDIA 드라이버 + CUDA가 설치되어 있어야 함. PyTorch의 CUDA 버전과 드라이버 버전이 호환되는지 확인하세요.

간단한 명령(우분투):

sudo apt update sudo apt install git python3 python3-venv python3-pip build-essential -y

Windows는 WSL2에 우분투 설치 후 동일 명령 사용.

2) 방법 A — 가장 간단(추천 초심자): llama.cpp (ggml) — CPU/경량 GPU에서 빠르게 실행

llama.cpp는 C/C++ 기반 경량 런타임으로, 양자화된(quantized) ggml 모델을 로컬에서 빠르게 실행합니다. CPU 전용에서도 쓸 수 있고, 간단한 대화용으로 최고.

소스 클론 및 빌드

git clone https://github.com/ggerganov/llama.cpp cd llama.cpp make

모델 준비

원래 PyTorch(.bin) 또는 HF 형식 모델을 ggml 포맷으로 변환해야 합니다. (llama.cpp repo의 convert 스크립트 참조)

변환 후 양자화(quantize) 해서 .bin (예: model.ggml.q4_0.bin) 생성. 양자화하면 메모리·속도 크게 개선됩니다.

실행 예시 (간단 입력)

./main -m models/model.ggml.q4_0.bin -p "안녕하세요. 오늘 날씨 어때?" -n 128

-m 모델파일, -p 프롬프트, -n 토큰 수

간단한 대화 모드

./chat -m models/model.ggml.q4_0.bin

(프로젝트에서 제공하는 chat 스크립트가 있으면 사용)

장점: 설치 간단, CPU에서도 작동, 메모리 적게 먹음.
단점: 일부 최신 모델(예: Llama 2 최신 변종)의 전체 성능을 못 살릴 수 있음.

3) 방법 B — 대화형 웹 UI / GPU 가속 (추천: 실사용/개발자용)

text-generation-webui 같은 프로젝트는 웹 인터페이스로 편하게 모델을 띄우고, 여러 모델을 바로 바꿔가며 테스트할 수 있습니다.

repo 클론

git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui python3 -m venv venv source venv/bin/activate pip install -r requirements.txt

(GPU 사용 시) PyTorch 설치 — CUDA 버전에 맞춰 설치

예: CUDA 12.1이면 (예시)

pip install torch --index-url https://download.pytorch.org/whl/cu121

(정확한 명령은 PyTorch 공식 설치 페이지에서 CUDA 버전 확인 후 사용하세요.)

모델을 models/ 폴더에 넣기 (HF에서 다운받거나 로컬에서 변환한 ggml 사용 가능)

실행

python server.py --model <모델이름>

브라우저에서 http://localhost:7860 접속 → 인터페이스로 채팅/생성 가능

장점: 편리한 UI, 다양한 기능(튜닝, 토큰 관리, 리스폰스 포스트프로세스)
단점: GPU·PyTorch 세팅 필요, 세팅이 조금 복잡

4) 방법 C — Hugging Face Transformers + PyTorch (최대한 원형 사용 / 개발자용)

PyTorch와 transformers를 설치해서 모델을 바로 불러와 활용합니다. GPU 사용 가능.

pip install torch transformers accelerate

예시(간단 생성)

from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "meta-llama/Llama-2-7b-chat-hf" # 예시 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto") inputs = tokenizer("안녕", return_tensors="pt").to(model.device) out = model.generate(**inputs, max_new_tokens=128) print(tokenizer.decode(out[0], skip_special_tokens=True))

주의: HF에서 일부 모델은 다운로드 전 라이선스 동의 필요. VRAM 이슈로 7B도 8GB+에서 어렵다면 bitsandbytes와 4-bit 로드(더 복잡)를 고려.

5) 실전 팁 — 메모리/성능 관련

CPU-only: 3B ~ 7B(양자화) 정도가 현실적. 7B 양자화(q4_0)로도 쓸만함.

GPU(NVIDIA):

7B: 8 GB(양자화) / 12–16 GB 권장

13B: 24 GB 권장(혹은 VRAM 분할 기법/CPU 메모리 offload 필요)

스왑/가상메모리: 램 부족 시 스왑을 늘리면 메모리 부족 오류는 줄지만 속도는 느려짐.

스레드: CPU 쓰레드 수(--threads)로 성능 조절.

양자화: q4_0, q4_k 등 옵션으로 모델 크기/품질 균형을 조절.

6) 안전·법적 유의사항

모델 가중치는 저작권/라이선스가 붙을 수 있습니다. (다운로드 전 반드시 라이선스 확인)

상용 사용/서비스 제공은 라이선스 조건을 다시 확인하세요.

개인정보/민감정보를 모델에 입력하면 안 됩니다(로그 보존 가능성).

7) 문제해결 체크리스트 (오류 상황)

CUDA out of memory → 모델을 더 작은 크기로 바꾸거나 양자화, device_map="auto" 사용, max_new_tokens 낮추기

ModuleNotFoundError → 가상환경 활성화 확인 및 pip install -r requirements.txt 재실행

모델 다운로드 실패 → Hugging Face 로그인/토큰 필요할 수 있음(공식 페이지 확인)

8) 예시 시나리오: 내 PC(NVIDIA 8GB)에서 Llama2 7B 양자화로 대화하기 (요약명령)

llama.cpp 빌드

HF에서 Llama2 7B weight 다운로드(라이선스 동의)

변환 + 양자화 → model.ggml.q4_0.bin

실행:

./main -m model.ggml.q4_0.bin -p "안녕, 자기소개 해줘" -n 200 --threads 6

추가 추천/옵션

GUI 편의 원하면 text-generation-webui 사용(대화·파일 업로드·파라미터 조절 쉬움).

경량·성능 절충을 원하면 GGUF/ggml 변환 + q4 양자화 권장.

로컬에서 파인튜닝/로컬화된 응답을 원하면 LoRA + text-generation-webui 또는 peft 사용(좀 더 고급).

원하시면 지금 **당장 사용하실 환경(운영체제, GPU 유무, 메모리 용량)**을 알려주시면 그 환경에 맞춰 정확한 명령어(다운로드/변환/실행 스크립트) 를 바로 만들어 드릴게요. 또는 어느 방법(간단/웹 UI/PyTorch)을 먼저 해보고 싶은지 알려주세요 — 그 방식으로 바로 단계별로 실행할 수 있게 구체화해 드립니다.


추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 영포티룩도 멋지게 소화할 것 같은 40대 스타는? 운영자 25/10/27 - -
AD 할로윈 슈퍼위크~!! 운영자 25/10/23 - -
2898005 공부하지 말고 재난지원금으로 살아라. 넥도리아(223.38) 10.24 48 0
2898001 [대한민국] 캄보디아 사건을 토대로 알아보는 대한민국의 미래 프갤러(121.172) 10.24 40 1
2898000 근데 너네 어디가서 나이 밝힐때 [7] 루도그담당(58.239) 10.24 75 0
2897999 이런건 박정희가 잘했는데 [2] chironpractor갤로그로 이동합니다. 10.24 85 1
2897998 오예 무두절이다 cvs.갤로그로 이동합니다. 10.24 26 0
2897997 내 여자친구 사진인데 어떠니? [1] ㅁㅁ갤로그로 이동합니다. 10.24 84 0
2897996 Ada 프로그래밍: 8. 함수형 프로그래밍 나르시갤로그로 이동합니다. 10.24 42 1
2897995 Ada 프로그래밍: 7. 객체 지향 프로그래밍 나르시갤로그로 이동합니다. 10.24 42 1
2897994 [인텔] 인공지능 인재교육 (~11/3) 프갤러(14.32) 10.24 191 0
2897993 오랜만에 러스트가 또 승리했다. 프갤러(218.154) 10.24 62 2
2897992 [대한민국] 권력의 속성 프갤러(121.172) 10.24 43 0
2897991 냥덩이 개인비리 많지 않을까? 발명도둑잡기(39.7) 10.24 40 0
2897990 ai때매 프로그해밍 공부하기 좋은시대 같다 [5] ㅇㅇ(106.101) 10.24 169 2
2897989 요즘 지피티로 디버깅하면 걍 존나 빨리끝나네… [2] 깃깃갤로그로 이동합니다. 10.24 102 0
2897988 냥덩아 정치말고 [2] 개멍청한유라갤로그로 이동합니다. 10.24 85 0
2897986 노예들 욕하는새끼 특 ) 머스크openai등 재벌들이 노예짓하는건 타이밍뒷.통수한방(1.213) 10.24 51 1
2897985 자러간다 ㅇㅅㅇ [2] 헤르 미온느갤로그로 이동합니다. 10.24 66 0
2897984 가장 어려운 과목이 끝나서 다시 올리는 BBS 파란빤스갤로그로 이동합니다. 10.24 53 0
2897983 세상 영원한게 없음 chironpractor갤로그로 이동합니다. 10.24 109 0
2897980 가짜 폭포..ㅇㅅㅇ [1] 헤르 미온느갤로그로 이동합니다. 10.24 50 0
2897978 태연 ㅇㅅㅇ 헤르 미온느갤로그로 이동합니다. 10.24 49 0
2897976 하루 한 번 헤르미온느 찬양 헤르 미온느갤로그로 이동합니다. 10.24 64 0
2897975 고맙습니다..ㅇㅅㅇ [2] 헤르 미온느갤로그로 이동합니다. 10.24 62 0
2897972 gpt에게 피상속액 상한제에 대해 물어봄 chironpractor갤로그로 이동합니다. 10.24 52 0
2897971 사회주의라는 정답을 놔두고 잡기술 써봐야 소용 없습니다. [4] 프갤러(27.177) 10.24 73 0
2897968 피상속액 상한제 어떰? chironpractor갤로그로 이동합니다. 10.24 39 0
2897967 개인 서버 인프라 요소 [2] 프갤러(211.234) 10.24 66 0
2897966 이제 nginx에 https만 붙이면 내 서버 인프라 구축은 끝날듯 프갤러(211.234) 10.24 57 0
2897965 llm 빠들의 흔한 착각. '코딩은 도구다. 본질은 문제해결' 프갤러(110.8) 10.24 84 1
2897963 경력 포트폴리오 자소서 좃까고 취뽀아자아자링딩동갤로그로 이동합니다. 10.24 69 0
2897962 나도 갤질 너무 오래하니까 장점만 있는건 아닌가봐 [8] chironpractor갤로그로 이동합니다. 10.24 82 1
2897961 RAG를 만들어봤는데 RAG는 본질적으로 LLM에 종속된 기술이라 [3] ㅆㅇㅆ(124.216) 10.24 90 0
2897960 해외쪽 사람들이랑 이야기해보면서 느끼는거 사람 감정은 비슷한듯 ㅆㅇㅆ(124.216) 10.24 75 0
2897958 최근에 느낀건데 여기서 이야기해봤자 대부분은 형편없어서 토론이라는게 [1] ㅆㅇㅆ(124.216) 10.24 99 2
2897957 작업하다가 궁금해서 느낀건데 이제는 LLM없이 코드 못짜겠더라 [3] ㅆㅇㅆ(124.216) 10.24 88 0
2897956 책 읽으면서 느끼는건데 코드짜다보면 어느순간 전능감 같은 감정들지 않냐 [1] ㅆㅇㅆ(124.216) 10.24 75 0
2897952 생활코딩 저 유튜버는 왜 저러는거임?? [4] 프갤러(121.153) 10.24 142 0
2897951 뭐냐 학생 가르쳐주고 왔는데 루도그담당(58.239) 10.24 69 0
2897950 중학생 질문 있습니다. [3] ㅇㅇ(211.184) 10.24 70 0
2897949 나는 내가 넘 불쌍하고 슬퍼... 진짜 너무 불쌍해... ㅇㅇ(223.38) 10.24 53 0
2897948 나님 투자계획 세움 ㅇㅅㅇ [4] 따당갤로그로 이동합니다. 10.24 116 1
2897947 난 이런 맥주가 좋아. 탄산이 단 하나도 빠지지 않은 맥주. [1] ㅇㅇ(223.38) 10.23 57 0
2897946 8급공무원 실수령 알려준다 ㅇㅇ(218.149) 10.23 75 0
2897945 저녁 발명도둑잡기(118.216) 10.23 39 0
2897944 부모님 지방 가셨는데 발명도둑잡기(118.216) 10.23 46 0
내 피씨 하나로 llm 돌리는 방법 튜토리얼 발명도둑잡기(118.216) 10.23 66 0
2897942 자바 ㅈ같은거 한번씩 보고가라. [4] 저스트두잇이여(211.108) 10.23 110 0
2897941 신입인데 nhn dooray 붙으면 감? ㅇㅇ(118.235) 10.23 58 0
2897940 c언어 함수에서 막힌다 시발 [5] 프갤러(121.153) 10.23 88 0
2897939 기안84 수상한 건 [2] 프갤러(211.210) 10.23 139 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

디시미디어

디시이슈

1/2