펄플렉시카(Perplexica) git 저장소
github.com/Itz...
이 강의는 shop2school에서 광고 없이 보실 수 있는 무료 강의 입니다.
왕초보 파이썬 장고 AI 챗봇 만들기 - AI 프로젝트로 배우는 장고
www.shop2schoo...
이 강의의 **Perplexica**를 활용해 AI 기반 로컬 검색 엔진을 개발하려면, 이미 설치된 **Ollama 로컬 서버**를 기반으로 Perplexica를 설치하고 설정하는 것이 선행되어야 합니다. Perplexica는 Ollama의 모델과 상호작용하면서 AI 검색 기능을 구현하는 역할을 하므로, Ollama 서버와 Perplexica가 함께 연동될 수 있도록 환경을 설정하는 것이 중요합니다. 아직 설치가 안되신 분은 이전 동영상을 참고 하세요. • 노트북에 llama 3.1 8B, 70B...
주요 과정:
1. **Ollama 로컬 서버 설치 및 실행**:
- Ollama가 설치되어 있어야 하며, 해당 서버가 정상적으로 실행 중이어야 합니다.
- Ollama는 AI 모델(예: `gemma2` 또는 `llama3.1`)을 제공하고, Perplexica가 이를 활용해 답변을 생성하게 됩니다.
2. **Perplexica 설치 및 설정**:
- Perplexica를 설치한 후, 설정 파일에서 Ollama 서버와 통신할 수 있도록 주소를 지정합니다.
예: `OLLAMA = "host.docker.int..."`
- Perplexica는 Ollama 서버와 상호작용하여 모델을 호출하고, 검색 엔진 기능을 구현합니다.
3. **모델 설정 및 연동 확인**:
- Ollama에서 설치된 모델(Gemma2 등)을 Perplexica가 사용할 수 있도록 연동이 완료된 후, Perplexica에서 모델의 성능을 확인하고, 로컬 검색 엔진으로서 기능하는지 테스트합니다.
Негізгі бет 오라마(Ollama)와 펄플렉시카(Perplexica)를 이용한 AI 기반 로컬 검색 엔진 개발 - 왕초보 파이썬 장고 AI 챗봇 만들기
Пікірлер