ㅁ 개요
O 프로젝트 소개
- 이번 글은 이전글(메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 1.구글 colab 준비하기)에 이은 3번째 글로 허깅페이스에 오픈된 AI모델 중 하나인 라마2를 사용하는 방법을 알아보겠습니다. 여기서는 허깅페이스의 라마모델에 접근할 수 있는 엑세스 토큰을 발급받는 방법과 모델사용을 위해 동의하는 방법에 대해 살펴보겠습니다.
O 허깅페이스에서 엑세스 토큰 발급 방법
0.허깅페이스에 계정이 없는 분들은 계정생성 후 미리 로그인 한 후 아래를 진행해 주시기 바랍니다.
1. 구글에서 아래와 같이 검색 후 'Hugging Face'를 클릭합니다.
2.아래 사이트에 접속합니다.
https://huggingface.co/settings/tokens
또는 내 프로필 > Settings > Access Tokens 클릭 후 'Create new token' 클릭
3.아래 순서대로 엑세스 토큰을 생성합니다.
4.생성된 엑세스 토큰을 멛모장 등에 잘 보관해 둡니다.
5. 조금전 생성한 엑세스 토큰이 잘 만들어진 것을 확인할 수 있습니다.
O 허깅페이스에서 메타의 라마 모델사용을 위해 동의하는 방법
허깅페이스에서 메타의 라마 모델을 사용하기 위해서는 기입한 나의 정보를 공유하는 것에 동의 후 일정시간이 지나고 'ACCEPTED'를 받아야 사용이 가능합니다. 아래와 같이 진행하시기 바랍니다.
1.허깅페이스 > Models 에서 사용하고 싶은 llm 모델을 선택합니다.(저는 메타의 라마를 선택했습니다.)
2. 라마 모델의 경우 나의 정보를 공유하는 것에 동의해야 합니다.(동의 ~~~~ 이런 내용이 나오는데, 캡쳐를 못했네요. 사용을 원하시면 그냥 동의 하시기 바랍니다.)
3.일정 시간이 경과되면 아래 화면과 같이 'Request Status' 컬럼에 'ACCEPTED'라고 되면 사용할 수 있는 상태가 된 것입니다.
ㅁ 정리
O 우리가 배운 내용
오늘은 여기까지이며, 위의 내용이 유익하셨다면, 광고 한번씩만 클릭 부탁드립니다.
감사합니다.
'파이썬 AI 실습 > 메타의 라마(llama) 파인튜닝(전문가GPT) 하기' 카테고리의 다른 글
메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 5. colab에서 튜닝된 모델 사용해 보기 (0) | 2024.08.18 |
---|---|
메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 4. 다운로드한 튜닝 모델파일 사용하기 (0) | 2024.08.18 |
메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 3. colab에서 모델 튜닝 및 다운로드하기 (0) | 2024.08.18 |
메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 1.구글 colab 준비하기 (0) | 2024.08.18 |
메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 0.소개 (0) | 2024.08.18 |