영상 편집이 대중화되면서 각종 영상편집 툴들이 생겨나고 심지어 스마트폰에도 다양한 어플들이 많아졌습니다. 누군가 괜찮은 어플 소개해 달라고 말하면 딱히 꼭 집어 하나를 추천하기가 애매한 상황이 되어버렸지요.
사용자가 어느 정도 능숙하게 다룰 때까지 해당 어플을 배울 것인지, 또는 얼마나 진지하게 해당 어플에 관해서 학습하여 익히고 사용할 것인지를 전혀 모르는 상황에서 "그냥 편한 거 하세요."라고 말할 수밖에 없는 시대에 살고 있습니다.
시대가 바뀌고 ChatGPT 같은 쌍방향 소통이 가능한 백과사전(?)이 등장하면서 지식이라는 것은 특정인의 전유물이 아니라 누군가에게나 보편적인 것이 되어버렸고, 시험을 준비하듯 달달 외우는 것은 아무런 의미도 없어졌습니다.
그러다가 대화형 인공지능이 이번에는 생성형 인공지능이라는 이름으로 이미지나 영상을 만들어내기 시작했습니다. 콘텐츠를 준비해서 밥 먹고 사는 사람에게는 정말 어처구니없는 상황이 생긴 것이죠. 내 밥그릇 다 빼앗겼다고 한탄하지 말고 시대의 흐름에 발맞춰 나갈 수밖에요.
최근 알고 지내는 대학의 모 교수님을 통해 ComfyUI에 대해서 듣고 공부하기 시작한 지 이제 일주일 정도 되어갑니다. 이전에 사용하던 생성형 인공지능보다 확실히 복잡하고 뭔가 공부하지 않으면 어렵겠다는 생각으로 일반인에서 아마추어의 단계로 넘어가는 과정입니다. 일전에 페이스북에 공개했던 "우주전사 키세스 시위대"가 3천 개 이상의 공감을 얻으면서 많은 이들이 공유해 갔었는데, 그것을 만드는 데 사용한 생성형 인공지능은 단지 영어로 서술하듯 표현하면 만들어내는 비교적 쉬운 프로그램이었습니다.
ComfyUI는 진입 장벽이 아예 다른 것 같네요. 결국 더 늦기 전에 건너왔습니다. 사용자의 입장에서도 이렇게 어려운데, 개발자들이 놀랍기만 하네요.
서론이 길었습니다. 오늘 공부한 것 간단히 정리합니다. 개인적으로 기록으로 남기는 것이 주목적이에요.
오늘은 피사체의 포즈를 바꾸는 것을 연습하다가 앵글에 따라 시선이 달라지는지 궁금해서 시도해 봤습니다. prompt에 각각 "low-angle shot", "high-angle shot", "eye level shot"를 번갈아가며 바꿔주고 결과물을 비교했습니다.
결과는, 우아... 감탄
피사체의 시선(눈동자)이 확실히 차이가 나네요. 뿐만 아니라 카메라의 앵글이 바뀌었으니 당연히 광량도 달라집니다. 얼굴에 생긴 그림자의 방향도 다르고 조금 과하기는 해도 skirt의 색상이 다르게 반사되어 화이트밸런스가 무너진 것도 표현하고 있습니다. 그리고, 미묘한 차이 이기는 한데 모델(피사체)의 상의의 가슴골의 암부(그림자)도 다르게 표현되었네요.
거창하게 서론을 꺼냈는데, 지식의 깊이가 얕아서 요기까지 하고 마무리합니다. 갈 길이 머네요. 부지런히 공부해야겠어요. 그나저나 저 모델 분 너무 예쁘네요. 후후
댓글