layout | background-class | body-class | title | summary | category | image | author | tags | github-link | github-id | featured_image_1 | featured_image_2 | accelerator | order | demo-model-link | ||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
hub_detail |
hub-background |
hub |
Inception_v3 |
Also called GoogleNetv3, a famous ConvNet trained on Imagenet from 2015 |
researchers |
inception_v3.png |
Pytorch Team |
|
pytorch/vision |
inception_v3.png |
no-image |
cuda-optional |
10 |
import torch
model = torch.hub.load('pytorch/vision:v0.10.0', 'inception_v3', pretrained=True)
model.eval()
์ฌ์ ํ๋ จ๋ ๋ชจ๋ธ๋ค์ ์ฌ์ฉํ ๋๋ ๋์ผํ ๋ฐฉ์์ผ๋ก ์ ๊ทํ๋ ์ด๋ฏธ์ง๋ฅผ ์
๋ ฅ์ผ๋ก ๋ฃ์ด์ผ ํฉ๋๋ค.
์ฆ, ๋ฏธ๋ ๋ฐฐ์น(mini-batch)์ 3-์ฑ๋ RGB ์ด๋ฏธ์ง๋ค์ (3 x H x W)
์ ํํ๋ฅผ ๊ฐ์ง๋ฉฐ, ํด๋น H
์ W
๋ ์ต์ 224
์ด์์ด์ด์ผ ํฉ๋๋ค.
๊ฐ ์ด๋ฏธ์ง๋ [0, 1]
์ ๋ฒ์ ๋ด์์ ๋ถ๋ฌ์์ผ ํ๋ฉฐ, mean = [0.485, 0.456, 0.406]
๊ณผ std = [0.229, 0.224, 0.225]
์ ์ด์ฉํด ์ ๊ทํ๋์ด์ผ ํฉ๋๋ค.
๋ค์์ ์คํ ์์ ์
๋๋ค.
# ํ์ดํ ์น ์น ์ฌ์ดํธ์์ ์ด๋ฏธ์ง ๋ค์ด๋ก๋
import urllib
url, filename = ("https://github.com/pytorch/hub/raw/master/images/dog.jpg", "dog.jpg")
try: urllib.URLopener().retrieve(url, filename)
except: urllib.request.urlretrieve(url, filename)
# ์์ ์ฝ๋ (torchvision ํ์)
from PIL import Image
from torchvision import transforms
input_image = Image.open(filename)
preprocess = transforms.Compose([
transforms.Resize(299),
transforms.CenterCrop(299),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])
input_tensor = preprocess(input_image)
input_batch = input_tensor.unsqueeze(0) # ๋ชจ๋ธ์์ ๊ฐ์ ํ๋๋๋ก ๋ฏธ๋๋ฐฐ์น ์์ฑ
# gpu๋ฅผ ์ฌ์ฉํ ์ ์๋ค๋ฉด, ์๋๋ฅผ ์ํด ์
๋ ฅ๊ณผ ๋ชจ๋ธ์ gpu๋ก ์ฎ๊น
if torch.cuda.is_available():
input_batch = input_batch.to('cuda')
model.to('cuda')
with torch.no_grad():
output = model(input_batch)
# output์ shape๊ฐ [1000]์ธ Tensor ์๋ฃํ์ด๋ฉฐ, ์ด๋ Imagenet ๋ฐ์ดํฐ์
์ 1000๊ฐ์ ๊ฐ ํด๋์ค์ ๋ํ ๋ชจ๋ธ์ ํ์ ๋(confidence)๋ฅผ ๋ํ๋
print(output[0])
# output์ ์ ๊ทํ๋์ง ์์์ผ๋ฏ๋ก, ํ๋ฅ ํํ๊ธฐ ์ํด softmax ํจ์๋ฅผ ์ฒ๋ฆฌ
probabilities = torch.nn.functional.softmax(output[0], dim=0)
print(probabilities)
# ImageNet ๋ฐ์ดํฐ์
๋ ์ด๋ธ ๋ค์ด๋ก๋
!wget https://raw.githubusercontent.com/pytorch/hub/master/imagenet_classes.txt
# ์นดํ
๊ณ ๋ฆฌ(ํด๋์ค) ์ฝ๊ธฐ
with open("imagenet_classes.txt", "r") as f:
categories = [s.strip() for s in f.readlines()]
# ๊ฐ ์ด๋ฏธ์ง์ ๋ํ top 5 ์นดํ
๊ณ ๋ฆฌ ์ถ๋ ฅ
top5_prob, top5_catid = torch.topk(probabilities, 5)
for i in range(top5_prob.size(0)):
print(categories[top5_catid[i]], top5_prob[i].item())
Inception v3๋ ํฉ์ฑ๊ณฑ ์ฐ์ฐ์ ์ ์ ํ ๋ถํดํ๊ณ ์ ๊ทน์ ์ธ ์ ๊ทํ๋ฅผ ํตํด ์ถ๊ฐ๋ ๊ณ์ฐ์ ๊ฐ๋ฅํ ํ ํจ์จ์ ์ผ๋ก ํ์ฉํ๋ ๊ฒ์ ๋ชฉํ๋ก ๋คํธ์ํฌ๋ฅผ ํ์ฅํ๋ ๋ฐฉ๋ฒ์ ๋ํ ํ์์ ๊ธฐ๋ฐ์ผ๋ก ํฉ๋๋ค. ILSVRC 2012 (ImageNet) ๋ถ๋ฅ ๋ฌธ์ ์์ ๋ณธ ๋ ผ๋ฌธ์ ๋น์ ๊ธฐ์ค์ SOTA(state of the art) ๋ชจ๋ธ๋ณด๋ค ์๋นํ ์ฑ๋ฅ ํฅ์์ ์ป์๊ณ , ๋จ์ผ ํ๋ ์ ํ๊ฐ์์ 21.2%์ top-1 ์ค๋ฅ์ 5.6%์ top-5 ์ค๋ฅ๋ฅผ ๋ฌ์ฑํ์ต๋๋ค. ์ด ๊ฒฐ๊ณผ๋ 2500๋ง๊ฐ ์ดํ์ ํ๋ผ๋ฏธํฐ์ ๋จ์ผ ์ถ๋ก ๋น 50์ต๋ฒ์ ๊ณฑ์ -๋ง์ ์ฐ์ฐ์ ๊ณ์ฐ ๋น์ฉ์ผ๋ก ๋ฌ์ฑ๋์์ต๋๋ค. ๋ํ 4๊ฐ ๋ชจ๋ธ์ ์์๋ธ(ensemble)๊ณผ ๋ค์ค-ํฌ๋กญ ํ๊ฐ(multi-crop evaluation)์ ์ด์ฉํ์ฌ, 17.3%์ top-1 ์ค๋ฅ์ 3.6%์ top-5 ์ค๋ฅ๋ฅผ ํ๊ฐ(validation) ๋ฐ์ดํฐ์ ์์ ๋ฌ์ฑํฉ๋๋ค. ์ฌ์ ํ๋ จ๋ ๋ชจ๋ธ๋ก ImageNet ๋ฐ์ดํฐ์ ์์์ ๋จ์ผ-ํฌ๋กญ ๋ฐฉ์์ผ๋ก ์ค๋ฅ ๋น์จ์ ์ธก์ ํ ๊ฒฐ๊ณผ๋ ์๋์ ๊ฐ์ต๋๋ค.
๋ชจ๋ธ ๊ตฌ์กฐ | Top-1 ์ค๋ฅ | Top-5 ์ค๋ฅ |
---|---|---|
inception_v3 | 22.55 | 6.44 |