Tags
- 도쿄
- CS231n
- 군산
- 수요미식회
- fdr-x3000
- 오사카
- 제주도
- 대만
- 17-55
- 맛집
- 대만여행
- 전시
- 축복렌즈
- 해리포터
- 우리fis아카데미
- 건담
- 우리fisa
- 우리에프아이에스
- 축복이
- 650d
- k-디지털트레이닝
- 여행
- 카페
- 사진
- ai_엔지니어링
- SQL
- 시청
- 글로벌소프트웨어캠퍼스
- 전주
- Python
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- Today
- Total
Recent Posts
300x250
브렌쏭의 Veritas_Garage
[Continue] 로컬에서 작동하는 AI 본문
1. Ollama 설치
홈페이지에서 실행파일 형태를 받아서 사용하거나, Github 에서 원하는 형태를 받아서 사용한다. (Docker 등)
2. 로컬에서 AI 모델 다운로드, 실행
ollama run llama3.1
요즈음 핫한 라마3.1을 써보자. 오픈소스 모델인데 GPT-4o를 밟았다고 소문이 자자함
이제 로컬에서 Ollama가 실행되고 있다. 아마 localhost:14434 포트로 작동하고 있을 것이다.
만약 작동하고 있는것 같지 않다면
ollama serve
Continue 설치
일단 VS code에서 사용할 수 있도록, 범용 클라이언트를 설치한다.
Continue라는 녀석을 사용할 예정이다.
VS code 익스텐션을 설치하자
Continue 설정
{
"title": "Llama3.1:8b",
"provider": "ollama",
"model": "Llama3.1"
}
위 정보를 넣어준다.
VS code에서 Ctrl + Shift + P 를 눌러 Continue: Open config.json 을 선택한다.
"tabAutocompleteModel": {
"title": "Llama3.1:8b",
"provider": "ollama",
"model": "llama3.1-8b"
},
위 "tabAutocompleteModel" 아래에 넣어주면 된다.
Profit!
상세 영상
'[Project_하다] > [TroubleShoot_문제해결]' 카테고리의 다른 글
RSS 피드를 사용하여 Github 프론트 페이지 자동 업데이트 (1) | 2024.10.17 |
---|---|
MySQL && ELK #has not received any packets from the server (0) | 2022.04.24 |
2020420, 문제해결 (0) | 2022.04.20 |
Cannot return null.... (0) | 2022.04.18 |
나는 나는 무얼 놓쳤나 #20220411 (0) | 2022.04.12 |
Doesn't have default value.. (0) | 2022.04.11 |
Incorrect table definition; (0) | 2022.04.11 |
Comments