[DeepSeek] Ollama 활용하여 로컬에서 DeepSeek 모델 서비스 만들기
·
Coding/DeepSeek
1. Ollama 설치Ollama는 로컬에서 LLM을 실행할 수 있는 경량화된 프레임워크입니다. 먼저 Ollama를 설치해야 합니다.① MacOS (Homebrew)brew install ollama② Linux (Debian/Ubuntu)curl -fsSL https://ollama.com/install.sh | sh③ Windows1. ollama 공식 사이트(https://ollama.com/)에 접속한다. OllamaGet up and running with large language models.ollama.com2. 사이트에 접속 후 Download 버튼을 클릭한다. 3. Download for Windows 버튼을 클릭한다.2. DeepSeek 모델 다운로드 및 실행Ollama는 여러 오픈소..
[DeepSeek] Deepseek-V3 를 로컬 환경에 구성하는 방법
·
Coding/DeepSeek
DeepSeek-V3 모델을 로컬 환경에 구성하는 방법은 다음과 같습니다. 공식 문서나 허깅페이스 허브를 기반으로 한 일반적인 단계를 안내드리며, GPU 사용을 권장합니다 (대규모 언어 모델의 경우 리소스 요구 사항이 높음).1. 필수 조건하드웨어:GPU (NVIDIA, CUDA 11.8+ 호환) + VRAM 16GB+ (모델 크기에 따라 다름)또는 CPU (속도가 매우 느릴 수 있음)저장공간: 모델 가중치 파일 용량 확인 (예: 10~50GB)OS: Linux 권장 (Windows/macOS는 추가 설정 필요)2. 설치 단계2.1 의존성 설치# Python 3.9+ 설치 (conda 추천)conda create -n deepseek python=3.9conda activate deepseek# 필수 라..