chat

소스 제공:

1.Git Clone

2.Chat Binary 빌드 (by make)

3.사용할 모델 내려받기

70억개의 파라미터를 가지는 alpaca 모델임 (https://huggingface.co/Sosaka/Alpaca-native-4bit-ggml/blob/main/ggml-alpaca-7b-q4.bin)

4GB 메모리 정도를 사용함

4.Chat 바이너리 실행

ggml-alpaca-7b-q4.bin는 기본 값으로 포함되어 있음

5.이것저것 질문해 봄

6.다른 모델 내려받고 적용하는 법

300억개의 파라미터를 가지는 alpaca 모델

(https://huggingface.co/Pi3141/alpaca-30B-ggml/tree/main)

32GB 메모리가 필요하다고 함

이름이 달라져서 이름을 변경하고 확인

모델을 포함해서 chat 수행함

참고: 파라미터 수 비교

그리고 이해에 도움이 되는 자료

Last updated