저는 vscode에서 ollama 환경이 안뜨는데 poetry 외에 pyenv로 하신건지.. 그대로 따라 했는데 vs code 폴더까진 따라했거든요
@Sharpstar9
Ай бұрын
아 파워쉘에서 하니 됐네요
@pandas-data-studio
Ай бұрын
빠르게 해결하셨네요. 저는 poetry 환경에서 했습니다.
@muritzy
2 ай бұрын
아.. 환경패스 추가를 하면 되는 것이군요 ^^ 다음번에 vs code에서 Python Enviroment에서 "ollama-******-py3.11 (Python 3.11.5)" 가 찾아 지지를 않네요 ^^;; 이것만 넘어가면 끝까지 달릴 수 있을 것 같은데 ~ ^^
@pandas-data-studio
2 ай бұрын
안녕하세요. 환경변수를 추가하신 다음에 vs code를 다시 실행해 주세요. 다시 실행한 후에 파이썬 인터프리터를 찾으실 수 있을거에요^^ 한번 해보시고 잘 안되시면 댓글 남겨주세요~ 감사합니다^^
@muritzy
2 ай бұрын
덕분에 어려운 관문은 잘 통과하였습니다. ^^ 1) from langchain_community.llms import Ollama # model llm = Ollama(model="gemma:2b") # chain 실행 response = llm.invoke("지구의 자전 주기는?") response '지구의 자전 주기는 24시간 59분 30초입니다.' 2) 그 다음을 test 하였는데 from langchain_core.output_parsers import StrOutputParser # prompt + model + output parser prompt = ChatPromptTemplate.from_template("You are an expert in astronomy. Answer the question. : {input}") output_parser = StrOutputParser() ==> prompt = ChatPromptTemplate.from_template("You are an expert in astronomy. Answer the question. : {input}") 요기서 에러가 나타나는데, 문법이 틀렸는지 위 동영상 화면에서는 전체 내용이 보이지 않아서 잘 모르겠네요 ^^
Пікірлер: 10