본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.


▶ 오늘 수강 강의

VFX 및 새로운 AI 툴에 대해 배워보았다.

오늘 배운 내용

VFX Part 1. OT

  • VFX 강사님 - 6년차 캐주얼 이펙터 권현정
  • 강의 수강 목표: VFX 제작 프로젝트 Flow를 이해하고, 그 과정에서 AI를 접목 하는 방법에 익숙해지기
  • 사용하는 툴
    • Unity 6000.0.29f1 - 쉐이더 그래프가 있는 버전이면 크게 상관 없음
    • Stable Diffusion - 로컬에서 사용 가능하며, 플러그인 활용이 가능함
    • Photoshop - 이미지 편집만 가능하면 다양한 버전이나 다른 툴도 활용 가능
  • 과정 흐름
    • AI로 Resource 제작
    • 리소스를 포토샵에서 편집
    • 이펙트를 유니티 안에서 실행하고 적용하기

VFX Part 2. AI 활용 - Stable Diffusion

  • 1개의 Checkpoint(큰 용량의 .safetensors)와 여러 개의 LoRA(작은 용량의 .cpkt, .safetensors)로 이루어져 있음
  • 활용할 모델은 Civit.AI 의 모델 탭에서 구할 수 있음.
    • 필터에서 Model Types에 Checkpoint와 LoRA를 선택
    • Base Model은 Checkpoint와 LoRA가 동일해야함
    • 관심있는 모델에 들어가서 라이센스 확인
    • 강의에서 활용하는 모델 (링크1, 링크2) 다운로드 받기
  • 웹 UI 버전 (링크) 설치하기 (Window 기준 - Mac 및 Linux는 GitHub에 설치 방식 설명 참고)
    • 필수 설치 파일: Git, python > 3.10.9
    • 설치할 폴더 생성 후 해당 위치에서 터미널 열기
    • git clone git-hub-link를 통해 레포 로컬로 복사해오기
    • 설치가 끝나면 폴더 안에 webui-user.bat 파일 실행
  • 웹 UI 알아보기
    • Stable Diffusion checkpoint - 다운로드 받은 모델을 지정해줄 곳
    • txt2img - 텍스트만으로 이미지를 생성
    • img2img - 텍스트형 프롬포트 뿐만 아니라 다양한 가이드 이미지를 넣어서 좀 더 구체적인 이미지를 생성
    • Prompt - 원하는 이미지를 생성하기 위한 키워드나 문장
    • Negative Prompt - 생성하지 않았으면 하는 키워드나 문장 (Ex. VFX용으로는 person)
    • Sampling method - 그림을 생성하는 방식 (보통 Euler-A 또는 DPM++ 2M. 이건 스스로 테스트 해보)
    • Sampling steps - 생성하는 이미지의 퀄리티를 결정. 근데 너무 높은 값이면 이미지가 깨짐
    • CFG Scale - 프롬포트를 어느 정도 따를지 충실도
    • Denoising strength - 가이드 이미지를 어느 정도 따를지 충실도
    • Seed - 결과물의 랜덤성 (시작은 항상 -1)
    • Batch count/size - 프롬포트 결과물을 뽑는 이미지 참고 생성 횟수
  • 기능을 활용해서 결과물 뽑아보기
    • 이펙트용 Texture 그림은 실루엣 때문에 규격화된 이미지를 뽑고자 보통 img-2-img를 선호
    •  다운로드 받은 model 파일은 stable-diffusion 설치 폴더 → models → Stable-diffusion 폴더 안에 넣어주기
    • 설치가 끝나고 webui-user.bat 파일 실행하면 cmd 창이 실행되면서 로컬 기반 웹 창이 열림 (이 때 cmd 창을 끄면 model 선택할 때 connection time out 에러가 뜰 수 있으니 주의)
    • txt-2-img 프롬포트와 네거티브 프롬포트에 구현하고자 하는 이미지의 자세한 설명을 적어서 원하는 이미지가 나올 때까지 생성해보기.
    • 이때 원하는 이미지가 너무 안나오면, Sampling method, steps 등을 조절해보기
    • 대충 원하는 이미지가 생성됬을 경우, 이미지 하단에 Seed 값을 그대로 넣어서 비슷한 이미지 생성
    • 프롬포트는 영어로 작성해야하다보니, 힘들면 번역기나 LLM형 AI의 도움을 받는 것을 추천
    • 생성된 이미지는 저장 버튼을 통해서 저장 가능 

 나의 이야기

여태 Midjourney로 생성하다가, 로컬로 Stable Diffusion 돌려서 이미지 뽑는 것은 처음 해보는데, AI의 동작 원리를 담아낸 UI가 보여서 신기하다. 아직 이미지를 뽑아보진 않았는데, 어떤 것을 뽑을 수 있을지도 궁금하고, 다른 모델들도 궁금하다.


 시간 및 공부 인증

강의 자체는 그렇게 오래 걸리지 않았는데, 설치하면서 보느라 좀 오래 걸렸다.
 컴퓨터에 로컬로 Stable Diffusion 설치하는 것을 성공했다.

 


#패스트캠퍼스 #환급챌린지 #습관챌린지 #패스트캠퍼스후기 #습관형성 #직장인자기계발

 

패스트캠퍼스(FastCampus) 강의 둘러보러 가기 

 ↓  

https://fastcampus.info/4oKQD6b

 

11월이니까, 강의 1+1 쿠폰 이벤트 3일 앵콜💟 (~11/13 23:59) | 패스트캠퍼스

지금 온라인 강의 구매하면 강의 하나 더 쏩니다! 배움도 성장도 2배로!

fastcampus.co.kr


 

+ Recent posts