ollama 썸네일형 리스트형 Ollama 등록된 Model 삭제 Ollama 에 등록된 Model 목록 보기#> ollama list Ollama 에 등록된 Model 삭제#> ollama rm gemma3:12b 실제 모델의 위치 - 용량 확인 ( 엄청난 용량이 ... MacOS : ~/.ollama/models/blobs 목록으로 보기 ( 1G 용량 이상의 파일 목록 )#> ls -lh | awk '$5 ~ /[0-9]+[G]/ && $5+0 >= 1 {print}' 더보기 GPT 응답 정리. Ollama API 1. /api/generate - 단건 텍스트 응답.2. /api/chat - 대화형 응답./api/generate와 /api/chat 엔드포인트의 주요 차이점.- 대화 맥락 관리:/api/generate: 단일 프롬프트에 대한 단일 응답만 생성./api/chat: 대화 이력을 관리하며, 이전 메시지들의 맥락을 고려한 응답을 생성.- 입력 형식:/api/generate: 단순한 텍스트 프롬프트를 받아서 응답./api/chat: 메시지 배열을 받으며, 각 메시지는 역할(user, assistant 등)과 내용을 포함.- 사용 사례:/api/generate: 텍스트 완성, 코드 생성, 단일 질문에 대한 응답과 같은 독립적인 작업에 적합./api/chat: 챗봇, 대화형 어시스턴트처럼 맥.. 더보기 이제 슬슬 로컬 RAG 의 모델을 Exaone3.5 로 변경해보려고 한다. 딥시크가 나온날 로컬에 이것저것 구축해서 완료한 상태이기는 한데...우선 처음 단계라 생각하고, 흐름을 적어 본다. ----이것 저것 구찮아서. 내 로컬환경과 함께 로컬 LLM 툴중에 무엇이 좋을지 AI 에게 물어 보았다. 클로드의 답변은 아래와 같다. ( GPT 도 동일 ) M3 Max를 위한 추천 Ollama를 추천합니다. 그 이유는:- Apple Silicon(M3 Max)에 최적화된 네이티브 지원- 설치와 실행이 간단함 (brew install ollama 또는 DMG 파일로 설치)- 모델 관리가 직관적 (ollama pull mistral 같은 명령어로 간단히 모델 다운로드)- 개발자 API 통합이 간단함- M3 Max의 성능을 효율적으로 활용 가능- 별도의 복잡한 환경 설정 없이도 강력한 성능.. 더보기 이전 1 다음