
[DeepSeek] Ollama 활용하여 로컬에서 DeepSeek 모델 서비스 만들기
·
Coding/DeepSeek
1. Ollama 설치Ollama는 로컬에서 LLM을 실행할 수 있는 경량화된 프레임워크입니다. 먼저 Ollama를 설치해야 합니다.① MacOS (Homebrew)brew install ollama② Linux (Debian/Ubuntu)curl -fsSL https://ollama.com/install.sh | sh③ Windows1. ollama 공식 사이트(https://ollama.com/)에 접속한다. OllamaGet up and running with large language models.ollama.com2. 사이트에 접속 후 Download 버튼을 클릭한다. 3. Download for Windows 버튼을 클릭한다.2. DeepSeek 모델 다운로드 및 실행Ollama는 여러 오픈소..