728x90
반응형
SMALL

파이썬 AI 실습 48

그록3로 5분만에 지구와 화성 사이를 오가는 3D 플롯 만들기

ㅁ 개요 O 프로그램 소개  - 이번 내용은 이전 내용에서 소개한 그록3를 활용한 테트리스+비주얼드 게임 만들기에 이은 2번째 시리즈로 그록3 출시 당시 2번째로 시연했던 프로그램인  지구와 화성 사이를 오가는 3D 플롯을 직접 만들어 보는 내용이며, 이것도 5분만에 완성해 보도록 하겠습니다.     1.아래 사이트에 접속 후 왼쪽 메뉴에서 'Grok' 를 클릭 합니다. https://x.com    2. 아래와 같이 'Grok3 beta'가 선택된 상태에서 "아래의 내용을 의미하는~~~"  요청 글을 입력합니다. -------------------------------------아래의 내용을 의미하는 시뮬레이션 코드를 만들어줘"지구에서 화성으로 발사된 우주선의 궤도를 3D 플롯으로 시뮬레이션하고 화성 ..

그록3로 5분만에 테트리스+비주얼드 게임만들기

ㅁ 개요 O 프로그램 소개  - 이번 내용은 약 1주일전 출시된 그록3를 활용하여 출시 당시 시연했던 테트리스+비주얼드 게임을 5분 내외로 만는 방법에 대하여 알아보겠습니다.      1.아래 사이트에 접속 후 왼쪽 메뉴에서 'Grok' 를 클릭 합니다. https://x.com    2. 아래와 같이 'Grok3 beta'가 선택된 상태에서 "테스트리와 ~~~"  요청 글을 입력합니다.   소스코드 1(12-2.py)import pygameimport random# 초기화pygame.init()# 화면 설정WIDTH, HEIGHT = 400, 600GRID_SIZE = 30GRID_WIDTH = WIDTH // GRID_SIZEGRID_HEIGHT = HEIGHT // GRID_SIZEscreen = ..

딥시크 r1 노트북에 초간단(10분만에) 설치 및 사용해 보기

ㅁ 개요 O 프로그램 소개  - 이번 내용은 최근 나온 따끈 따끈한 딥시크(DeepSeek)의 오픈소스 추론모델인 R1을 노트북(윈도우10)에 설치하여 사용하는 아주 간단한 방법에 대하여 알아보겠습니다.  아래 이전 글을 참고하시면 이해하는데 도움을 얻을 수 있습니다.-메타의 라마3 PC에 설치하기https://pagichacha.tistory.com/287  O 사전 준비 사항-윈도우 10 이상-CPU i7 이상 권장-메모리 16GB 이상 권장-GPU가 있으면 좋으나 없어도 관계없음즉, PC 또는 노트북 사양이 좋으면 좋겠으나, 좋지 않더라도 돌아는 감(단, 사양이 좋지 않으면 시간이 오래걸릴 수 있음)   O 진행 순서 진행 순서는 크게 아래와 같습니다. 1.ollama 프로그램 다운로드 및 설치 -..

GPT4ALL로 메타 라마3.1 파인튜닝 하기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 GPT4ALL이란 프로그램(llm 로컬 실행 프로그램)으로 메타의 라마3.1을 간단하게 튜닝하는 방법에 대해 알아보겠습니다.   O GPT4ALL로 메타 라마3.1 튜닝 하기   1. 아래 사이트에 접속하여 gpt4all을 다운로드 합니다.https://nomic.ai/gpt4all GPT4AllRun AI Locally: the privacy-first, no internet required LLM applicationwww.nomic.ai    2. 다운로드 한 파일을 모두 기본(디폴트)으로 설치합니다.    3. 아래 화면에서 'No'를 선택합니다.    4.설치 완료 후 프로그램을 실행하면 아래와 같이 나오는데, 여기서 왼쪽의 'Models'를 클릭합니..

Meta llama3.1 직접 다운로드 하기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 메타의 라마3.1을 직접 다운로드 하는 방법을 알아보겠습니다. 이 글을 쓰게된 이유는 라마3.1을 직접 다운로드 하는 것이 생각보다 쉽지 않아 기록으로 남겨두려고 합니다. 필요하신 분들께서는 참고하시기 바랍니다.    O 라마3.1 다운로드 방법  1. 구글에서 아래와 같이 입력 후 'Download Llama' 를 클릭합니다.  2. 아래와 같이 정보 입력 후   3. 오른쪽 하단의 'Next'를 클릭합니다.   4. 왼쪽 하단에 동의 부분에 체크한 후 'Accept and continue' 클릭합니다.  5. 아래 url은 복사 후 메모장 등에 잘 보관합니다.(나중에 다운로드 시 24시간 동안 5회까지 사용가능)'Download Instructions'를 ..

메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 5. colab에서 튜닝된 모델 사용해 보기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 이전글(메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 4. 다운로드한 튜닝 모델파일 사용하기)에 이은 6번째 마지막 글로 이전글에서 다운로드한 튜닝 모델을 사용하는데 실패하여 이번에는 구글 colab에서 colab의 자원을 이용하여 서버를 띄우고 그 서버에 접속하여 채팅하는 방법에 대하여 알아보겠습니다.  O 완성된 프로그램 실행 화면   - 최종 완성된 프로그램의 결과화면은 아래와 같습니다.아래 화면에서와 같이 코드를 실행하면 공개 url이 나오는데, 이 공개 url로 접속하면 AI챗봇 대화창이 나오고 이곳에서 ai에게 질의/응답을 하시면 되겠습니다.      ㅁ 세부 내용 O 완성된 소스 소스파일 : 소스파일 이름은 없음(그냥 전체 복사 후 구글..

메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 4. 다운로드한 튜닝 모델파일 사용하기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 이전글(메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 3. colab에서 모델 튜닝 및 다운로드하기)에 이은 5번째 글로 이전글에서 다운로드한 튜닝 모델을 사용하여 파이썬으로 ai챗봇을 만드는 방법에 대하여 알아보겠습니다.이를 응용하면 우리는 기업에서도 기업 내부자료의 유출을 걱정할 필요없이 폐쇄망(인터넷X)에서도 AI챗봇을 사용할 수 있게 되어 업무 효율성을 크게 높일 수 있을 것입니다.  O 완성된 프로그램 실행 화면   - 조각 모델들을 모두 다운로드 하였으나, 실제 구동하는데 실패하였습니다.모델을 로드하고 실행하기 위해서는 엄청난 고 사양이 필요하며, 일반 PC나 노트북에서는 사실상 불가능 합니다. ㅠㅠ   ㅁ 세부 내용 O 완성된 소스 아래..

메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 3. colab에서 모델 튜닝 및 다운로드하기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 이전글(메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 2.허깅페이스 준비하기)에 이은 4번째 글로 구글 colab에서 기본모델에 기능을 추가하는 형태의 튜닝하는 방법 및 튜닝한 파일을 구글 클라우드 서버 -> 로컬PC로 다운로드 하는 방법을 알아보겠습니다.    O 주요 내용    1. 모델 로드에 필요한 모듈을 설치해 줍니다.   2.간단한 데이터(데이터셋)를 준비합니다. 3.데이터를 로드합니다. 4.허깅페이스에 로그인 합니다.  5.라마2 모델을 로드하고 미세조정에 필요한 모듈(peft)을 설치합니다.    6.모멜을 미세 조정해 줍니다. 7.미세조정된 모델을 서버(구글 클라우드 서벗)에 저장합니다.  8.서버에 튜닝(미세조정)된 모델이 잘 만들..

메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 2.허깅페이스 준비하기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 이전글(메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 1.구글 colab 준비하기)에 이은 3번째 글로 허깅페이스에 오픈된 AI모델 중 하나인 라마2를 사용하는 방법을 알아보겠습니다. 여기서는 허깅페이스의 라마모델에 접근할 수 있는 엑세스 토큰을 발급받는 방법과 모델사용을 위해 동의하는 방법에 대해 살펴보겠습니다.    O 허깅페이스에서 엑세스 토큰 발급 방법 0.허깅페이스에 계정이 없는 분들은 계정생성 후 미리 로그인 한 후 아래를 진행해 주시기 바랍니다.   1. 구글에서 아래와 같이 검색 후 'Hugging Face'를 클릭합니다.  2.아래 사이트에 접속합니다.https://huggingface.co/settings/tokens Hugging..

메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 1.구글 colab 준비하기

ㅁ 개요 O 프로젝트 소개   - 이번 글은 이전글(메타의 라마(llama) 파인튜닝(전문가GPT) 하기 - 0.소개)에 이은 2번째 글로 모델 튜닝을 위해 구글 colab을 사용하는 방법에 대해 살펴보겠습니다.     O 주요 내용  1.구글계정으로 로그인한 상태에서 구글에서 아래와 같이 검색 후 구글 colab을 클릭합니다.  2. 'Open Colab'을 클릭 합니다.   3. colab에 접속되었고, 아래와 같이 '새 노트'를 클릭합니다.    4. 런타임 > '런타임 유형 변경' 을 클릭 합니다.  5. 구글의 전용 장치인 'TPU v2'를 선택 후 '저장'을 클릭합니다.   6. 파일의 제목을 알맞게 변경합니다. (저는 'ai모델튜닝.ipynb'로 하였습니다.)  7. 파일 > 저장 으로 저장..

728x90
반응형
LIST