플래티어 연구소 테크 블로그
    • 메뉴 닫기
    • 글작성
    • 방명록
    • 환경설정
      • 분류 전체보기 (471)
        • Ai Word 사전 (0)
        • A.I.(인공지능) & M.L.(머신러닝) (95)
          • Development Environments (9)
          • A.I. Information (14)
          • Python (6)
          • transformers (13)
          • 머신러닝 (1)
          • 딥러닝 (4)
          • 신경망 이론 (5)
          • LLM (32)
          • Agent (4)
        • DevOps와 Infra (62)
          • DevOps 일반 (22)
          • Docker Container (3)
          • Linux (2)
          • AWS EKS (16)
          • AWS (4)
          • Kubernetes On Premise (13)
          • Security (1)
          • IDC 서버 (1)
        • 검색엔진 (8)
          • Elasticsearch (5)
          • Opensearch (3)
        • 빅데이터 (31)
          • Mongo DB (4)
          • Apache Nifi (21)
          • Scala (4)
          • Apache Spark (2)
        • 네트워크 (1)
          • SSL (1)
        • Quality Assurance (3)
          • E2E Test (3)
        • Backend(Framework) (41)
          • Java (1)
          • Spring (1)
          • Spring Boot Batch (3)
          • NestJS (9)
          • NestJS 개요(공식문서 번역) (20)
          • Cache (3)
          • Rust (4)
          • Go (0)
        • Frontend (Next.js Tailwind .. (52)
          • Frameworks (6)
          • Next.js (30)
          • Typescript (1)
          • Tailwind CSS (9)
          • React.js (4)
        • Next.js 개발 가이드 (42)
          • 01. Set up (7)
          • 02. 코딩 가이드 및 필수 패키지 (9)
          • 03. 퍼블 가이드 (3)
          • 04. Data fetching (2)
          • 05. State management (3)
          • 06. Learn Next.js 공식 가이드 (18)
        • Nuxt 공식문서 번역 (96)
          • 개요 (15)
          • Directories (23)
          • Components (12)
          • Composables (21)
          • Utils (25)
        • Nuxt 개발 가이드 (13)
          • 01. Set up (9)
          • 02. 코딩 가이드 및 필수 패키지 (0)
          • 03. 퍼블 가이드 (0)
          • 04. Data fetching (3)
          • 05. State management (1)
        • Tech 공유 세미나 - 2차 (13)
        • 기타 (13)
          • IT기타 (6)
          • story (5)
          • 문정역 여기어때 (1)
    A.I.(인공지능) & M.L.(머신러닝)/transformers

    [실습] merge base model and LoRA adapter_model, Upload huggingface-hub

    Topic. Fine-tuning 후 기존 base 모델과 생성된 adapter_model 을 merge합니다. 1. huggingface login $ pip install huggingface_hub $ huggingface-cli login 1.1 허깅페이스에서 발급받은 토큰 입력 2. Base Model 가져오기 from transformers import AutoModelForCausalLM, AutoTokenizer model_pretrained_name = {base model id} path_to_lora_adapters = {adapter model path} #모델 불러오기 model = AutoModelForCausalLM.from_pretrained( model_pretrained_..

    2024. 4. 4. 16:31 / Tech엠지대표
    A.I.(인공지능) & M.L.(머신러닝)/Development Environments

    [문제해결] 머신러닝, 딥러닝 GPU 사용률이 올라가지 않는현상

    Topic. GPU 사용률이 올라가지 않는 현상을 해결합니다. 1. 개요 LLM Model Fine-tuning 중 전용 GPU 메모리 사용량만 늘어나 3D 영역은 0%로 GPU 사용률이 0% 인 현상이 발생! 2. torch 라이브러리로 사용가능한 CUDA 확인 아래 명령어로 확인해봐도 torch는 외장그래픽카드로 잘 잡고있다. print("start time : ", datetime.now()) print(torch.cuda.is_available()) print(torch.cuda.device_count()) print(torch.cuda.get_device_name(torch.cuda.current_device())) 3. 원인 바로 아래 빨간부분인 내장그래픽카드가 문제였다! 4. 해결 내장그래픽..

    2024. 3. 8. 09:51 / Tech엠지대표
    A.I.(인공지능) & M.L.(머신러닝)/Development Environments

    [실습] A.I. Pre-trained Model Fine-tuning 을 위한 환경설정(Linux Ubuntu)

    Topic. Huggingface 에 등록된 LLM 을 Base 모델로 하여 미세조정(Fine-tuning) 하기 위한 환경설정 내용을 공유합니다.* 파이썬 설치는 아래 링크에서https://x2bee.tistory.com/9 Python 설치 및 가상 환경(conda evn)Tech김백엔드, Tech막내녀석 공동작성 및 수정본 1. Python 설치 Python을 설치하는 방법은 3가지가 있다. Python 공식 홈페이지에서 설치 Anaconda 설치 Miniconda 설치 1번 공식 홈피 vs. 2번 Anaconda 1번 공식 홈x2bee.tistory.com1. Hardware InformationOS : Linux Ubuntu 18.04.6 LTS (Windows11 WSL)CPU : AMD Ry..

    2024. 1. 5. 13:54 / Tech엠지대표
    A.I.(인공지능) & M.L.(머신러닝)/딥러닝

    [이론] Hugging Face Trainer.TrainingArguments

    Topic. Trainer 의 TrainingArguments 주요 파라미터를 설명합니다. * TrainingArguments parameter type / optional / default explain cutoff_len 모델에 들어갈 시퀀스의 최대 길이를 설정합니다. Optimizer AdamW 를 주로 사용 lr_scheduler 훈련중 learning rate를 조절해주는 옵션입니다. constant(고정), linear(선형), cosine(코사인형) per_device_train_batch_size int 선택 사항 8 훈련을 위한 GPU/TPU 코어/CPU당 배치 크기입니다. per_device_eval_batch_size int 선택 사항 8 평가를 위한 GPU/TPU 코어/CPU당 배치..

    2023. 12. 18. 11:41 / Tech엠지대표
    A.I.(인공지능) & M.L.(머신러닝)/딥러닝

    [실습] LLaMA-2 Model, LoRA Fine-Tuning

    Topic. LLaMA 2 모델 NousResearch/Llama-2-13b-chat-hf 을 LoRA 방식으로 미세조정해봅시다. 1. 실습환경 구성 아래 글을 참조하여 실습환경을 구성합니다. [실습] A.I. Pre-trained Model Fine-tuning 을 위한 환경설정(Linux Ubuntu) 2. Pretrained Model, Datasets Information model_pretrained_name NousResearch/Llama-2-13b-chat-hf https://huggingface.co/NousResearch/Llama-2-13b-chat-hf data_path b-mc2/sql-create-context https://huggingface.co/datasets/b-mc2/..

    2023. 12. 12. 14:10 / Tech엠지대표
    • «
    • 1
    • »

    전체 방문자

    오늘
    어제
    전체

    테크팀 개인 블로그

    정지민
    jeong
    손성준
    son
    김해수
    sunwater
    이다운
    koala
    김백엔드
    backendkim
    채희철
    bburongE

    전체 카테고리

    • 분류 전체보기 (471)
      • Ai Word 사전 (0)
      • A.I.(인공지능) & M.L.(머신러닝) (95)
        • Development Environments (9)
        • A.I. Information (14)
        • Python (6)
        • transformers (13)
        • 머신러닝 (1)
        • 딥러닝 (4)
        • 신경망 이론 (5)
        • LLM (32)
        • Agent (4)
      • DevOps와 Infra (62)
        • DevOps 일반 (22)
        • Docker Container (3)
        • Linux (2)
        • AWS EKS (16)
        • AWS (4)
        • Kubernetes On Premise (13)
        • Security (1)
        • IDC 서버 (1)
      • 검색엔진 (8)
        • Elasticsearch (5)
        • Opensearch (3)
      • 빅데이터 (31)
        • Mongo DB (4)
        • Apache Nifi (21)
        • Scala (4)
        • Apache Spark (2)
      • 네트워크 (1)
        • SSL (1)
      • Quality Assurance (3)
        • E2E Test (3)
      • Backend(Framework) (41)
        • Java (1)
        • Spring (1)
        • Spring Boot Batch (3)
        • NestJS (9)
        • NestJS 개요(공식문서 번역) (20)
        • Cache (3)
        • Rust (4)
        • Go (0)
      • Frontend (Next.js Tailwind .. (52)
        • Frameworks (6)
        • Next.js (30)
        • Typescript (1)
        • Tailwind CSS (9)
        • React.js (4)
      • Next.js 개발 가이드 (42)
        • 01. Set up (7)
        • 02. 코딩 가이드 및 필수 패키지 (9)
        • 03. 퍼블 가이드 (3)
        • 04. Data fetching (2)
        • 05. State management (3)
        • 06. Learn Next.js 공식 가이드 (18)
      • Nuxt 공식문서 번역 (96)
        • 개요 (15)
        • Directories (23)
        • Components (12)
        • Composables (21)
        • Utils (25)
      • Nuxt 개발 가이드 (13)
        • 01. Set up (9)
        • 02. 코딩 가이드 및 필수 패키지 (0)
        • 03. 퍼블 가이드 (0)
        • 04. Data fetching (3)
        • 05. State management (1)
      • Tech 공유 세미나 - 2차 (13)
      • 기타 (13)
        • IT기타 (6)
        • story (5)
        • 문정역 여기어때 (1)

    블로그 인기글

    태그

    • #pyTorch
    • #Langchain
    • #fine-tuning
    • #검색엔진
    • #deepseek
    • #langgraph
    • #LLM
    • #Spring Boot Batch
    • #딥러닝
    • #Lora
    • #셀레니움
    • #Ai
    • #파이썬
    • #apach
    • #GPU
    • #ElasticSearch
    • #finetuning
    • #nifi
    • #이벤트리스너
    • #adapter_model.bin
    • #python
    • #HuggingFace
    • #React
    • #문제해결
    • #rag
    • #AWS EKS
    • #아파치
    • #venv
    • #nextjs
    • #나이파이
    MORE
    Powered by Privatenote Copyright © 플래티어 연구소 테크 블로그 All rights reserved. TistoryWhaleSkin3.4

    티스토리툴바