-
Ollama를 이용한 AI 모델 활용 실습 가이드AI 2024. 8. 8. 20:58
소개
이 실습에서는 Ollama를 사용하여 로컬 환경에서 AI 모델을 실행하고 활용하는 방법을 배웁니다. Ollama는 다양한 오픈소스 AI 모델을 쉽게 사용할 수 있게 해주는 도구입니다.
준비물
- macOS 운영 체제가 설치된 컴퓨터
- 인터넷 연결
- 터미널 사용 기본 지식
실습 단계
1. Ollama 설치하기
- 브라우저에서 https://ollama.com/download/mac 페이지를 방문합니다.
- Download for macOS 버튼을 눌러 다운로드 받습니다.
- 다운로드한 .zip 파일을 더블클릭하여 설치를 진행합니다.
2. 기본 모델 실행하기
- 터미널을 엽니다.
- 다음 명령어를 입력하여 llama3.1 모델을 실행합니다:
ollama run llama3.1
- 모델이 다운로드되고 로드될 때까지 기다립니다.
3. AI 모델과 대화하기
- 프롬프트가 나타나면 질문이나 명령을 입력합니다. 예:
인공지능의 발전이 사회에 미치는 영향에 대해 설명해주세요.
- 모델의 응답을 확인합니다.
- 계속해서 다른 질문을 해보며 모델의 능력을 탐색해봅니다.
- 대화를 종료할 때는 Ctrl + d or /bye 로 나갑니다.
4. 다른 모델 사용해보기 (선택사항)
- 사용 가능한 모델 목록을 확인합니다:실행 가능한 모델 : https://ollama.com/library
ollama list
- 다른 모델을 실행해봅니다. 예:
ollama run gemma2
5. REST API 사용하기
Ollama는 REST API를 통해 프로그래밍 방식으로 모델을 사용할 수 있습니다.
- 새 터미널 창을 엽니다.
- curl 명령어를 사용하여 API 요청을 보냅니다:
curl -X POST http://localhost:11434/api/generate -d '{ "model": "llama3.1", "prompt": "인공지능의 미래에 대해 한 문단으로 설명해주세요." }'
- API 응답을 확인합니다.
실습 과제
- llama3.1 모델을 사용하여 다음 주제에 대해 500자 에세이를 생성해보세요: "인공지능 윤리의 중요성"
- gemma2 모델을 사용하여 간단한 Python 코드를 작성해달라고 요청해보세요.
- REST API를 사용하여 모델의 응답을 파일로 저장하는 간단한 Python 스크립트를 작성해보세요.