언어모델 LLM/모델 및 프레임워크

ollama 소개 및 WSL 환경 설정

General AI 2024. 7. 6. 16:46
728x90
반응형

ollama 소개 및 WSL 환경 설정

안녕하세요! ollama 블로그 강좌 시리즈에 오신 것을 환영합니다. 이번 1강에서는 ollama의 기본 개념을 소개하고, WSL Ubuntu 22.04 환경에서 ollama를 설치하고 설정하는 방법을 알아보겠습니다.

ollama 소개 및 WSL 환경 설정

1. ollama란 무엇인가?

ollama는 대규모 언어 모델(LLM)을 로컬 환경에서 쉽게 실행할 수 있게 해주는 오픈소스 플랫폼입니다. 주요 특징은 다음과 같습니다:

  • 다양한 LLM 모델 지원
  • 사용자 친화적인 인터페이스
  • 로컬 환경에서의 빠른 추론 속도
  • GPU 가속 지원

로컬 LLM 실행의 장점

  1. 개인정보 보호: 데이터가 로컬에서 처리되어 외부 서버로 전송되지 않습니다.
  2. 비용 절감: 클라우드 API 사용료가 없습니다.
  3. 커스터마이징: 모델을 자유롭게 수정하고 fine-tuning할 수 있습니다.
  4. 오프라인 사용: 인터넷 연결 없이도 사용 가능합니다.

2. 시스템 요구사항

ollama를 원활하게 실행하기 위한 권장 시스템 사양은 다음과 같습니다:

  • CPU: 최소 4코어 (8코어 이상 권장)
  • RAM: 최소 8GB (16GB 이상 권장)
  • 저장 공간: 최소 10GB 여유 공간
  • GPU: NVIDIA GPU (CUDA 지원)
  • 운영체제: Linux (우리는 WSL Ubuntu 22.04 사용)

3. ollama 설치

WSL Ubuntu 22.04 환경이 준비되었다고 가정하고, ollama를 설치해 보겠습니다.

터미널을 열고 다음 명령어를 실행하여 ollama를 설치합니다:

curl https://ollama.ai/install.sh | sh

ollama 소개 및 WSL 환경 설정

설치가 완료되면 ollama 서비스를 시작합니다:

ollama serve

새 터미널 창을 열고 ollama가 정상적으로 설치되었는지 확인합니다:

$ ollama --version
ollama version is 0.1.48

4. ollama 설치 확인하기

ollama가 올바르게 설치되었는지 확인하기 위해 간단한 질문을 실행합니다.

ollama run llama2 "Hello, how are you?"

이 명령을 실행하면 ollama가 llama2 모델을 다운로드하고 실행합니다.

5. 기본 사용법

ollama의 기본적인 사용법은 다음과 같습니다:

ollama에서 모델 다운로드는 'ollama pull [모델명]' 명령어로 간단히 수행할 수 있으며, 이는 지정된 AI 모델을 로컬 시스템에 자동으로 다운로드하고 설치합니다.

 
ollama pull llama2

ollama에서 대화형 모드 실행은 'ollama run [모델명]' 명령어를 사용하여 시작할 수 있으며, 이를 통해 사용자는 선택한 AI 모델과 실시간으로 대화하듯 상호작용할 수 있습니다.

 

ollama run llama2

ollama에서 단일 쿼리 실행은 'ollama run [모델명] "your query here"' 명령어를 사용하여 수행할 수 있으며, 이는 지정된 모델에 단일 프롬프트를 전송하고 즉시 응답을 받는 방식입니다.

 

ollama run llama2 "Explain quantum computing in simple terms.

마무리

이제 WSL Ubuntu 22.04 환경에서 ollama를 설치하고 기본적인 사용법을 익혔습니다. ollama를 통해 강력한 AI 모델을 로컬에서 쉽게 실행할 수 있게 되었습니다. 다음 강의에서는 다양한 모델을 다운로드하고 실행하는 방법, 그리고 보다 심화된 사용법에 대해 알아보겠습니다.

728x90
반응형