디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

내 피씨 하나로 llm 돌리는 방법 튜토리얼앱에서 작성

발명도둑잡기(118.216) 2025.10.23 23:36:31
조회 70 추천 0 댓글 0

챗지피티
좋아요 — 한 대짜리 PC에서 LLM(자연어 대형언어모델)을 직접 실행하는 단계별 튜토리얼을 지금 바로 드릴게요. CPU 전용부터 GPU(NVIDIA) 가속까지, 초심자도 따라오게 실제 명령어·설정·팁까지 포함했습니다. (질문 없이 바로 작업하도록 요청하셨으니 가장 실용적이고 바로 실행 가능한 방법들로 정리했습니다.)

요약(한줄)

가장 쉬움(빠르게 해보기): llama.cpp(ggml) + q4/q8 양자화 모델 → CPU 또는 소규모 GPU(또는 통합 GPU)에서 실행

성능 좋음(대화형 / 웹 UI): text-generation-webui (Python) + PyTorch(+CUDA) → GPU에서 빠르게 사용

권장 하드웨어: NVIDIA GPU 8GB 이상(7B급 양자화 가능), 16GB+ 권장(13B급), CPU만일 똑같이 가능하나 느림

0) 준비: 어떤 모델을 쓸지 결정

작고 가벼운 모델(CPU에서도 가능): 3B 이하(예: Llama 2 3B, alpaca-3b 등) 또는 ggml 으로 변환된 7B 양자화 모델(q4_0, q4_k...)

중간 이상의 성능(대화형, 생성 품질↑): 7B(양자화 권장) / 13B(16GB+ VRAM 권장)

중요: 모델 파일(가중치)은 배포 라이선스/사용 약관을 확인해서 다운로드하세요(예: Hugging Face에서 모델 수락 필요 등).

1) 환경 준비 (운영체제별 공통사항)

OS: 우분투(권장) 또는 Windows + WSL2

Python 3.10+ 권장

Git 설치

(GPU 사용 시) NVIDIA 드라이버 + CUDA가 설치되어 있어야 함. PyTorch의 CUDA 버전과 드라이버 버전이 호환되는지 확인하세요.

간단한 명령(우분투):

sudo apt update sudo apt install git python3 python3-venv python3-pip build-essential -y

Windows는 WSL2에 우분투 설치 후 동일 명령 사용.

2) 방법 A — 가장 간단(추천 초심자): llama.cpp (ggml) — CPU/경량 GPU에서 빠르게 실행

llama.cpp는 C/C++ 기반 경량 런타임으로, 양자화된(quantized) ggml 모델을 로컬에서 빠르게 실행합니다. CPU 전용에서도 쓸 수 있고, 간단한 대화용으로 최고.

소스 클론 및 빌드

git clone https://github.com/ggerganov/llama.cpp cd llama.cpp make

모델 준비

원래 PyTorch(.bin) 또는 HF 형식 모델을 ggml 포맷으로 변환해야 합니다. (llama.cpp repo의 convert 스크립트 참조)

변환 후 양자화(quantize) 해서 .bin (예: model.ggml.q4_0.bin) 생성. 양자화하면 메모리·속도 크게 개선됩니다.

실행 예시 (간단 입력)

./main -m models/model.ggml.q4_0.bin -p "안녕하세요. 오늘 날씨 어때?" -n 128

-m 모델파일, -p 프롬프트, -n 토큰 수

간단한 대화 모드

./chat -m models/model.ggml.q4_0.bin

(프로젝트에서 제공하는 chat 스크립트가 있으면 사용)

장점: 설치 간단, CPU에서도 작동, 메모리 적게 먹음.
단점: 일부 최신 모델(예: Llama 2 최신 변종)의 전체 성능을 못 살릴 수 있음.

3) 방법 B — 대화형 웹 UI / GPU 가속 (추천: 실사용/개발자용)

text-generation-webui 같은 프로젝트는 웹 인터페이스로 편하게 모델을 띄우고, 여러 모델을 바로 바꿔가며 테스트할 수 있습니다.

repo 클론

git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui python3 -m venv venv source venv/bin/activate pip install -r requirements.txt

(GPU 사용 시) PyTorch 설치 — CUDA 버전에 맞춰 설치

예: CUDA 12.1이면 (예시)

pip install torch --index-url https://download.pytorch.org/whl/cu121

(정확한 명령은 PyTorch 공식 설치 페이지에서 CUDA 버전 확인 후 사용하세요.)

모델을 models/ 폴더에 넣기 (HF에서 다운받거나 로컬에서 변환한 ggml 사용 가능)

실행

python server.py --model <모델이름>

브라우저에서 http://localhost:7860 접속 → 인터페이스로 채팅/생성 가능

장점: 편리한 UI, 다양한 기능(튜닝, 토큰 관리, 리스폰스 포스트프로세스)
단점: GPU·PyTorch 세팅 필요, 세팅이 조금 복잡

4) 방법 C — Hugging Face Transformers + PyTorch (최대한 원형 사용 / 개발자용)

PyTorch와 transformers를 설치해서 모델을 바로 불러와 활용합니다. GPU 사용 가능.

pip install torch transformers accelerate

예시(간단 생성)

from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "meta-llama/Llama-2-7b-chat-hf" # 예시 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto") inputs = tokenizer("안녕", return_tensors="pt").to(model.device) out = model.generate(**inputs, max_new_tokens=128) print(tokenizer.decode(out[0], skip_special_tokens=True))

주의: HF에서 일부 모델은 다운로드 전 라이선스 동의 필요. VRAM 이슈로 7B도 8GB+에서 어렵다면 bitsandbytes와 4-bit 로드(더 복잡)를 고려.

5) 실전 팁 — 메모리/성능 관련

CPU-only: 3B ~ 7B(양자화) 정도가 현실적. 7B 양자화(q4_0)로도 쓸만함.

GPU(NVIDIA):

7B: 8 GB(양자화) / 12–16 GB 권장

13B: 24 GB 권장(혹은 VRAM 분할 기법/CPU 메모리 offload 필요)

스왑/가상메모리: 램 부족 시 스왑을 늘리면 메모리 부족 오류는 줄지만 속도는 느려짐.

스레드: CPU 쓰레드 수(--threads)로 성능 조절.

양자화: q4_0, q4_k 등 옵션으로 모델 크기/품질 균형을 조절.

6) 안전·법적 유의사항

모델 가중치는 저작권/라이선스가 붙을 수 있습니다. (다운로드 전 반드시 라이선스 확인)

상용 사용/서비스 제공은 라이선스 조건을 다시 확인하세요.

개인정보/민감정보를 모델에 입력하면 안 됩니다(로그 보존 가능성).

7) 문제해결 체크리스트 (오류 상황)

CUDA out of memory → 모델을 더 작은 크기로 바꾸거나 양자화, device_map="auto" 사용, max_new_tokens 낮추기

ModuleNotFoundError → 가상환경 활성화 확인 및 pip install -r requirements.txt 재실행

모델 다운로드 실패 → Hugging Face 로그인/토큰 필요할 수 있음(공식 페이지 확인)

8) 예시 시나리오: 내 PC(NVIDIA 8GB)에서 Llama2 7B 양자화로 대화하기 (요약명령)

llama.cpp 빌드

HF에서 Llama2 7B weight 다운로드(라이선스 동의)

변환 + 양자화 → model.ggml.q4_0.bin

실행:

./main -m model.ggml.q4_0.bin -p "안녕, 자기소개 해줘" -n 200 --threads 6

추가 추천/옵션

GUI 편의 원하면 text-generation-webui 사용(대화·파일 업로드·파라미터 조절 쉬움).

경량·성능 절충을 원하면 GGUF/ggml 변환 + q4 양자화 권장.

로컬에서 파인튜닝/로컬화된 응답을 원하면 LoRA + text-generation-webui 또는 peft 사용(좀 더 고급).

원하시면 지금 **당장 사용하실 환경(운영체제, GPU 유무, 메모리 용량)**을 알려주시면 그 환경에 맞춰 정확한 명령어(다운로드/변환/실행 스크립트) 를 바로 만들어 드릴게요. 또는 어느 방법(간단/웹 UI/PyTorch)을 먼저 해보고 싶은지 알려주세요 — 그 방식으로 바로 단계별로 실행할 수 있게 구체화해 드립니다.


추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 영포티룩도 멋지게 소화할 것 같은 40대 스타는? 운영자 25/10/27 - -
AD 할로윈 슈퍼위크~!! 운영자 25/10/23 - -
2898036 AI에게 질문을 변경해서 소모되는 전력량을 구해 봤다. 프갤러(121.172) 10.24 41 0
2898035 저녁은 오코노미야끼에 맥주해야지 류류(118.235) 10.24 36 0
2898034 로리뷰지 빠는짤 올리니까 짤림 [3] 류류(118.235) 10.24 74 0
2898032 AI는 얼마나 많은 전기를 잡아 먹을까? 프갤러(121.172) 10.24 46 0
2898027 [대한민국] 연구주제 : AI 와 에너지 프갤러(121.172) 10.24 46 0
2898026 ❤✨☀⭐⚡☘⛩나님 시작합니당⛩☘⚡⭐☀✨❤ ♥벼락부자냥덩♥갤로그로 이동합니다. 10.24 44 0
2898025 [대한민국] Truth Social 트럼프 부정선거 언급 프갤러(121.172) 10.24 37 0
2898024 계속 새로운거 공부하면 수명 연장된다는 것이 현실성없는 것이 [3] 프갤러(220.85) 10.24 93 2
2898023 EDA 표준 워크플로를 가르쳐준 그때 당시 교수님이 그립네. ㅆㅇㅆ(124.216) 10.24 52 0
2898022 이런 글귀 어때보여? [1] ㅁㅁ갤로그로 이동합니다. 10.24 63 0
2898021 옛날부터 생각하는데 데이터 프로그래밍 과제는 ㅆㅇㅆ(124.216) 10.24 42 0
2898020 이런 글귀 어때보여? ㅁㅁ갤로그로 이동합니다. 10.24 41 0
2898018 최근에 충격먹은 몇가지 [2] ㅆㅇㅆ(124.216) 10.24 98 0
2898017 옛날이면 자세하게 설명해줬는데 요새는 외주 받을때 설명을 자세히 [2] ㅆㅇㅆ(124.216) 10.24 82 0
2898016 오늘부터 모바일 네이버좀 안들어가야겟다 [7] 헬마스터갤로그로 이동합니다. 10.24 93 0
2898015 졸업과제로 병신같은거 하나 만들엇는데 조언좀해줄사람? [4] 꿈의연봉(119.195) 10.24 89 0
2898013 상상 [1] 발명도둑잡기(39.7) 10.24 72 0
2898011 자산 부동산 쏠림과 수도권 과밀화가 위험한 이유 [6] chironpractor갤로그로 이동합니다. 10.24 65 0
2898009 아침 점심 발명도둑잡기(39.7) 10.24 36 0
2898008 기안84씨 이토준지에 미쳐있더라 [3] 헬마스터갤로그로 이동합니다. 10.24 98 0
2898007 여러분 이거 먹는 계절이에요. 하나씩 사드새요 [3] ㅇㅇ(223.38) 10.24 89 3
2898006 [대한민국] 연구주제 : AI 와 에너지 프갤러(121.172) 10.24 40 0
2898005 공부하지 말고 재난지원금으로 살아라. 넥도리아(223.38) 10.24 52 0
2898001 [대한민국] 캄보디아 사건을 토대로 알아보는 대한민국의 미래 프갤러(121.172) 10.24 42 1
2898000 근데 너네 어디가서 나이 밝힐때 [7] 루도그담당(58.239) 10.24 76 0
2897999 이런건 박정희가 잘했는데 [2] chironpractor갤로그로 이동합니다. 10.24 88 1
2897998 오예 무두절이다 cvs.갤로그로 이동합니다. 10.24 28 0
2897997 내 여자친구 사진인데 어떠니? [1] ㅁㅁ갤로그로 이동합니다. 10.24 86 0
2897996 Ada 프로그래밍: 8. 함수형 프로그래밍 나르시갤로그로 이동합니다. 10.24 46 1
2897995 Ada 프로그래밍: 7. 객체 지향 프로그래밍 나르시갤로그로 이동합니다. 10.24 46 1
2897994 [인텔] 인공지능 인재교육 (~11/3) 프갤러(14.32) 10.24 206 0
2897993 오랜만에 러스트가 또 승리했다. 프갤러(218.154) 10.24 65 2
2897992 [대한민국] 권력의 속성 프갤러(121.172) 10.24 46 0
2897991 냥덩이 개인비리 많지 않을까? 발명도둑잡기(39.7) 10.24 42 0
2897990 ai때매 프로그해밍 공부하기 좋은시대 같다 [5] ㅇㅇ(106.101) 10.24 171 2
2897989 요즘 지피티로 디버깅하면 걍 존나 빨리끝나네… [2] 깃깃갤로그로 이동합니다. 10.24 104 0
2897988 냥덩아 정치말고 [2] 개멍청한유라갤로그로 이동합니다. 10.24 88 0
2897986 노예들 욕하는새끼 특 ) 머스크openai등 재벌들이 노예짓하는건 타이밍뒷.통수한방(1.213) 10.24 54 1
2897985 자러간다 ㅇㅅㅇ [2] 헤르 미온느갤로그로 이동합니다. 10.24 73 0
2897984 가장 어려운 과목이 끝나서 다시 올리는 BBS 파란빤스갤로그로 이동합니다. 10.24 56 0
2897983 세상 영원한게 없음 chironpractor갤로그로 이동합니다. 10.24 114 0
2897980 가짜 폭포..ㅇㅅㅇ [1] 헤르 미온느갤로그로 이동합니다. 10.24 51 0
2897978 태연 ㅇㅅㅇ 헤르 미온느갤로그로 이동합니다. 10.24 49 0
2897976 하루 한 번 헤르미온느 찬양 헤르 미온느갤로그로 이동합니다. 10.24 66 0
2897975 고맙습니다..ㅇㅅㅇ [2] 헤르 미온느갤로그로 이동합니다. 10.24 64 0
2897972 gpt에게 피상속액 상한제에 대해 물어봄 chironpractor갤로그로 이동합니다. 10.24 54 0
2897971 사회주의라는 정답을 놔두고 잡기술 써봐야 소용 없습니다. [4] 프갤러(27.177) 10.24 74 0
2897968 피상속액 상한제 어떰? chironpractor갤로그로 이동합니다. 10.24 40 0
2897967 개인 서버 인프라 요소 [2] 프갤러(211.234) 10.24 67 0
2897966 이제 nginx에 https만 붙이면 내 서버 인프라 구축은 끝날듯 프갤러(211.234) 10.24 62 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

디시미디어

디시이슈

1/2