반응형

전이학습 4

PyTorch와 Transfer Learning으로 꽃 이미지 분류기 만들기

PyTorch와 Transfer Learning으로 꽃 이미지 분류기 만들기 오늘은 PyTorch와 Transfer Learning 기법을 활용하여 꽃 이미지를 분류하는 모델을 만들어보겠습니다. 다양한 꽃 사진 데이터셋을 대상으로 하며, 사전 훈련된 모델의 지식을 활용하여 빠르고 정확한 모델을 구축할 수 있습니다. 전체 과정을 단계별로 따라가시면서 실습해보시기 바랍니다. 사전 준비 PyTorch와 관련 패키지를 설치합니다. pip install torch torchvision 그리고 실습에 사용할 데이터셋을 다운로드 받습니다. 이번 예제에서는 아래 링크의 꽃 이미지 데이터셋을 활용하겠습니다. https://www.robots.ox.ac.uk/~vgg/data/flowers/102/ 데이터셋을 다운로드하여..

Vision Encoder Decoder Model 샘플 코드

Hugging Face의 VisionEncoderDecoderModel은 이미지와 텍스트를 포함한 다중 모달리티 데이터를 처리하기 위한 모델 클래스입니다. 이 모델은 이미지 인코더와 텍스트 디코더를 함께 사용하여 이미지에 대한 캡션 생성 또는 이미지와 텍스트 간의 연관 작업을 수행하는 데 사용됩니다. VisionEncoderDecoderModel은 두 개의 기본 모델을 하나의 모델로 결합한 형태입니다: 이미지 인코더 (Vision Encoder): 이미지를 특성 벡터로 인코딩하는 모델입니다. 주로 Convolutional Neural Network (CNN) 기반의 사전 훈련된 모델을 사용합니다. 이 이미지 인코더는 이미지를 의미 있는 특성 벡터로 변환하는 역할을 합니다. 텍스트 디코더 (Language..

Transformer Beam Search 란?

빔 서치(Beam Search)는 디코더가 여러 개의 후보 토큰 시퀀스를 유지하면서 최적의 시퀀스를 선택하는 기법입니다. 이를 통해 단순히 최대 확률을 갖는 단어 하나만 선택하는 대신, 여러 개의 후보를 고려하여 더 나은 텍스트를 생성할 수 있습니다. 아래는 빔 서치의 사용 방법을 간단히 설명한 것입니다: 빔 크기(Beam Size) 설정: 빔 서치에서는 각 타임 스텝마다 빔 크기라고 하는 후보 시퀀스의 개수를 설정합니다. 빔 크기가 클수록 더 많은 후보가 유지되므로 더 정확한 결과를 얻을 가능성이 높아집니다. 하지만 계산 비용도 증가하므로 적절한 빔 크기를 선택해야 합니다. 초기화: 빔 서치를 시작하기 위해 시작 토큰(예: "[CLS]")을 입력으로 사용하여 디코더를 초기화합니다. 이 시작 토큰을 통해..

Transformer hidden_states 란?

hidden_states는 트랜스포머 모델의 중요한 부분 중 하나로, 모델의 내부 상태를 나타내는 중간 표현입니다. 트랜스포머 모델은 자연어처리와 다양한 기계 학습 작업에 사용되는 매우 강력한 모델 구조입니다. 이 모델은 주로 언어 모델링, 기계 번역, 질문-답변 등의 과제에서 사용되는데, 이때 hidden_states는 매우 유용한 정보를 포함하고 있습니다. 트랜스포머 모델은 입력 시퀀스에 대해 다양한 레이어로 구성되어 있으며, 각 레이어는 입력 정보를 가공하고 추상화합니다. 각 레이어를 거치면서 모델은 토큰 간의 상호작용과 문맥 정보를 고려하여 점점 더 의미 있는 표현으로 변환합니다. hidden_states는 각 레이어에서의 중간 표현으로, 모델이 입력 시퀀스를 처리하는 과정에서 각 토큰의 표현을 ..

728x90
반응형