늦은 업데이트 죄송합니다

 

일단 도게자 박고 시작하겠습니다.

초심을 잃은 것이 아니라.. 연초라 회사 프로젝트가 하나 둘 시작되고 있네요.

업무랑 블로그를 병행하는 것이 정말 보통이 아니구나를 느끼고 있습니다.

 

https://ddalgakdesign.tistory.com/15

 

Midjourney 딸깍 활용하기 (3) 스타일 레퍼런스 --sref

저번 글(파라미터 Parameter를 활용하기)에서 이어집니다!https://ddalgakdesign.tistory.com/14 Midjourney 딸깍 활용하기 (2) 파라미터 Parameter파라미터 Parameter를 잘 활용하는 방법지난 글에 이어서, 오늘은 미

ddalgakdesign.tistory.com

이전 글에서 이어집니다.

캐릭터 레퍼런스의 활용

스타일 레퍼런스를 어떻게 활용하는 지를 배웠으니, 오늘은 캐릭터 레퍼런스를 활용하는 방법을 배워보도록 하겠습니다.

사실 굉장히 간단한 파라미터라 스타일 레퍼런스와 같이 소개드릴까 고민했었는데요.

쉽게 말해서 내가 생성하고자 하는 '캐릭터'의 특징을 유지하는 파라미터입니다.

 

 

기본적인 사용은 --cref (캐릭터 이미지의 주소) --cw(0~100)를 프롬프트 뒤에 붙여주면 됩니다.

 

자, 예시와 함께 보면서 설명드리도록 하겠습니다.

아래 캐릭터를 먼저 생성하였습니다. 

빨간 곱슬머리에 황금빛 수염을 가지고 있는 백인 남성입니다.

white male with curly red hair, with golden beard

 

위의 캐릭터의 특징을 유지하며 이미지를 생성해 보도록 하겠습니다.

일단 해당 이미지를 디스코드에 업로드해줍니다.

그리고 생성하고 싶은 이미지의 프롬프트 뒤에 해당 주소를 --cref --cw 사이에 입력해 주도록 하겠습니다.

 

먼저, 캐릭터 레퍼런스를 사용하지 않은 이미지입니다.

Prompt : A man left alone in the mars, extreme close up shot, lonely but with confident. his face is reflect in the helmet.

 

이제 캐릭터 레퍼런스를 사용하여 다시 생성해 보도록 하겠습니다.

Prompt : A man left alone in the mars, extreme close up shot, lonely but with confident. his face is reflect in the helmet. --cref (이미지 주소) --cw 50

 

보시는 바와 같이, 기존 캐릭터의 외형 특징을 유지하면서 이미지가 생성된 것을 확인할 수 있습니다.

이제 --cref 사용법은 이해하셨을 텐데요. 그럼 --cw는 무엇일까요?

--cw는 기존 스타일 레퍼런스와 같이 'character weight'의 약자입니다.

 

즉, 캐릭터의 외형 특징을 얼마나 유지할지를 결정하는 파라미터라고 보시면 됩니다.

기본은 100이고, 0에 가까워질수록 얼굴을 제외한 헤어스타일, 패션이 달라집니다. 

 

아래 이미지를 참고하시면 되겠습니다.

캐릭터의 외형 특징을 최대한 유지
얼굴을 제외한 의상의 변화

 

웹 플랫폼에서의 캐릭터 레퍼런스의 활용

저번 스타일 레퍼런스도 그렇고, 이러한 참고 이미지의 활용은 Midjourney 자체 웹 플랫폼이 훨씬 편리한데요.

웹에서 캐릭터 레퍼런스를 어떻게 활용하는지 알아보도록 하겠습니다.

방법은 놀라울 정도로 간단한데요.

 

쓰고자 하는 캐릭터를 생성하고, 이를 상단 채팅창에 드래그&드롭해줍니다.

 

첨부된 이미지 위에 커서를 가져가면 3개의 옵션이 나타나게 되는데요.

 

왼쪽부터 차례대로

1. 캐릭터 레퍼런스

2. 스타일 레퍼런스

3. 이미지 프롬프트

로 사용할 수 있습니다.

 

그럼 이제 제일 좌측의 캐릭터 레퍼런스를 눌러주고 Create를 해보도록 하겠습니다.

 

해당 레퍼런스 캐릭터를 유지하며 이미지가 생성된 것을 확인하실 수 있습니다.

이를 다시 사용하시려면 오른쪽의 섬네일 이미지를 클릭하기만 하면 됩니다.

실제 사람의 얼굴로도 사용이 가능할까요?

이 부분에 대해서는 저도 의문인데요. 어떠한 사람의 외형을 최대한 닮게 만들려면

8장 정도를 캐릭터 레퍼런스로 사용하여 제작하면 된다는 소문이 있었습니다.

다만 제 사진을 넣어봤을 때 그다지 닮게 나오진 않았습니다. Midjourney가 실제 사람의 사진은 사회적인 이슈로

알아서 거르는(?) 것일 수도 있는 것 같습니다.

 

그럼 오늘은 캐릭터 레퍼런스에 대해 알아보았습니다.

다음에는 '미드저니스러운 이미지'를 피하는 방법에 대해 알아보도록 하겠습니다.

반응형

 

Comfy UI는 쉽게 말해 Stable diffusion을 내 입맛대로 사용할 수 있는 UI라고 보면 되겠습니다.

이를 내 블로그에 하나하나 정리해볼까 했지만,

이미 너무 훌륭하게 정리해놓은 페이지가 있어 아래 링크로 대신하고자 합니다.

 

https://comfyui101.nordy.ai/106f51e2-6901-808d-912a-f8c967db6e19

 

[무료] 가장 쉽게 배우는 ComfyUI (한국어 버전)

 

comfyui101.nordy.ai

 

초보자도 하나하나 따라가면 쉽게 배울 수 있게 너무나도 잘 정리되어 있습니다.

너무나도 감사한 자료입니다.

반응형

요즘 디자이너들은 근심이 많습니다

AI 과도기와 디자인

어느 순간부터 우리의 삶 이곳저곳 AI라는 단어가 보이고, 이를 많은 서비스와 제품에서 적용하고 있는데요.

현업에서는 'AI'를 너무 피상적으로, 옛날의 'Smart'와 같은 마케팅 용어로만 남발하고 있는 경우도 많이 보았습니다.

현재 AI 툴이 너무나도 많기도 하고, 이를 정말 실질적으로 도입할 것인가에 대해서는 각 개인이 찾고 있는 실정입니다.

 

어느 한 AI툴이 시장의 포션을 지배하기 전까지는 AI 툴을 선정하고 도입하는 프로세스를 정립하지 않으면

효율성이 떨어지고 이는 곧 생산성에 영향을 미칠 것입니다.

이러한 고민을 담아 AI의 디자인 실무 활용에 대해  글을 써보고자 합니다.

AI 실무 도입에 있어서 회의적인 시각들

많은 디자이너들이 AI가 만든 결과물을 보고 조소를 보내거나 절대 실무 디자인에서 컨펌되지 않을 것이라

말합니다. 그렇게 생각하는 것이 무리도 아닌 것이 아직 AI 자체의 순수한 결과물로는 역시 뭔가 어색하고,

기존 디자인 결과물을 어색하게 흉내내거나 완성도 측면에서 떨어져 보이는 것이 사실입니다.

그러나 이것은 디자이너의 개입이 없는 순수 AI 자체적인 결과물로만 보았을 때의 시각이라고 생각합니다.

AI : 디자인.. 한다..

기존 디자인 프로세스

더블 다이아몬드 프로세스

 

디자인 과정에서 자주 언급되는 모델입니다. 아이디어를 발산하고 이를 종합하여 방향을 정하고 고도화해서

양산화하는 방식이죠. 눈으로 보면 참 간단하고 이상적인 모델이지만, 디자이너인 우리 모두 저 모델 내에서

엄청나게 많은 시간과 노력이 갈려들어가고 있음을 알 수 있습니다. 

 

예를 들어 내가 시안 A를 만들기 위해서는 요구사항을 분석하고, 수많은 기존의 레퍼런스 이미지들을 찾고,

이를 통해 stakeholder를 설득하는 과정을 거치게 됩니다. 이를 디자이너 본인이 제작을 하든 외주를 맡기 든 해서

결과물을 만드는데, 수많은 피드백을 수렴하고 반영하는 과정을 거치게 되죠.

실무 프로세스 AI 적용

발산을 더 빠르고, 더 넓게 할 수 있는 AI

 

이러한 시간과 노력의 버든을 어떻게 하면 줄일 수 있을까요?

AI는 말 그대로 사람이 생각하지 못했던 아이디어를 발산하기 참 좋은 도구입니다.

 

1. 가령 클라이언트의 요구사항을 ChatGPT를 통해 간단히 정리하고,

2. 발산의 과정에서 Midjourney로 이미지 생성을 통해 스타일 무드보드를 제작하고,

3. 고도화 작업에서 Adobe firefly와 같은 생성형 AI를 군데군데 도입한다면

 

일반 레거시 툴만을 사용했었던 이전보다 생산성의 차이는 압도적일 것입니다.

기업의 의무는 이를 시스템화하고 가이드라인을 제공하여 버든을 줄이는 것이죠.

알맞은 AI 툴을 선택하고, 이를 내제 화하며, 사용하는 데 있어서 불편함이 있다면 이를 해결해줘야 합니다.

디자이너가 디자인만 집중해서 할 수 있도록 도와줘야 하죠.

보안이니, 법무 검토니 이런 것을 최대한으로신경 쓰지 않을 수 있도록 도와줘야 합니다.

 

딸깍씨, 자꾸 이렇게 디자인할꺼야? 회사 다니기 싫어?


다만 근미래에 AI가 작업자의 영역까지 대체하게 된다면.. 조금(많이) 무서운 일이겠지요?

지피지기면 백전백승이듯이, AI를 잘 습득해서 대체할 수 없는 인력이 되는 것이 중요해질 것 같습니다.

오늘은 협업 디자인에서 AI를 어떻게 활용하면 좋을지를 고민해 보았습니다. 

글이 좋았다면 좋아요를 눌러주시고, 여러분의 의견도 알려주세요!

감사합니다.

 

ps. 2025 새해 복 많이 받으세요!

반응형

'딸깍 AI에 대한 생각' 카테고리의 다른 글

AI의 등장과 GUI의 종말  (6) 2024.12.22

저번 글(파라미터 Parameter를 활용하기)에서 이어집니다!

https://ddalgakdesign.tistory.com/14

 

Midjourney 딸깍 활용하기 (2) 파라미터 Parameter

파라미터 Parameter를 잘 활용하는 방법지난 글에 이어서, 오늘은 미드저니를 더 똑똑하게 활용할 수 있는파라미터 Parameter에 대해서 배워보도록 하겠습니다. 파라미터 Parameter란?파라미터는 일종

ddalgakdesign.tistory.com

 

 

우리가 이미지를 생성할 때 제로 베이스에서 상상해서 이미지를 만든다는 것은 굉장히 어려운 일이죠.

디자인을 할 때도 수많은 레퍼런스 이미지를 서칭 하여 이를 바탕으로 이미지를 제작하곤 합니다.

보통 디자인에선 Tone & Manner라고 하고, 이런 비슷한 이미지를 묶어 Mood board를 구성하기도 합니다.

 

Midjourney에서는 이미지를 생성할 때 기존의 이미지의 스타일을 참고할 수 있도록 해당 파라미터를 제공합니다.

이미지의 구도와 오브젝트를 최대한 유지하는 Image prompt

 

본래 Midjourney에서는 이미지를 직접 업로드해서 이를 참고하는 image prompt를 제공하고 있습니다.

프롬트트에 직접 https://이미지 주소를 붙여넣거나, 직접 채팅창에 이미지를 업로드 후

이를 다시 드래그 & 드롭해서 프롬프트 뒤에 붙여 넣어줍니다. (조금 복잡하죠?)

다만 이 방법은 이미지의 '구도'와 '형태'를 최대한 유지하여 제공하게 됩니다.

이미지의 '특징'과 '스타일'을 참고하는 --sref --sw(0~1000)

 

Image prompt와 달리 스타일 레퍼런스, --sref는 해당 이미지의 '스타일'을 참고하라고 Midjourney에 요구합니다.

이 스타일 레퍼런스는 미드저니의 꽃이라고 할 수 있겠는데요. 생성의 도구로써 어떠한 '스타일'을 참고하고\

조합할 것인가에 따라서 창의적인 이미지 생성이 무궁무진해집니다.

 

사용 방법은 다음과 같은데요, 프롬프트 뒷부분에 --sref (해당 이미지의 주소) --sw(0~1000)를 넣으면 됩니다.

sw는 style weight의 약자로, 얼만큼 스타일을 참고할 것인지에 대한 가중치라고 생각하시면 되겠습니다.

구도와 형태를 유지한 'Image prompt' vs. 스타일을 따온 '--sref parameter'

 

Image prompt와의 주요한 차이점은

이미지의 '구도와 형태를 따올 것인가' vs. 이미지의 '스타일과 느낌을 따올 것인가'

라고 생각하시면 되겠습니다.

 

스타일 레퍼런스의 활용

인물 + 배경

 

인물 + 자연광
인물 + 재질

 

스타일 레퍼런스는 예시 이미지처럼 다양하게 사용할 수 있는데요,

1. 인물과 배경을 혼합하거나

2. 인물과 빛을 혼합해서 자연광의 느낌을 낼 수 도 있습니다

3. 또는 아예 다른 재질을 혼합하여 새로운 이미지를 만들어 낼 수 있죠.

 

사실 Discord에서 이러한 파라미터와 스타일 레퍼런스를 사용하기엔 조금(많이) 불편합니다.

프롬프트 하나하나를 작성하고 그 뒤에 직접 파라미터와 이미지 주소까지 붙여야 하고, 재생성시에는 얄짤없이

하나하나 다시 작성을 해줘야하는데요. 아무리 복붙을 한다고 한들 귀찮기는 매한가지입니다.

사실, 좀 더 '딸깍'할 수 있는 방법이 있습니다.

Midjourney Web 플랫폼 활용하기

바로 프롬프트와 파라미터, 그리고 이미지를 끌어다가 사용할 수 있다

 

우리가 지금까지 Discord를 통해 힘겹게 /imagine 명령어를 소환하고 프롬프트와 파라미터를 작성하였었는데요,

Midjourney가 Web 플랫폼을 열심히 업데이트하여 편하게 사용할 수 있도록 제작하였습니다.

 

1. 제작한 이미지들을 스크롤을 통해 한눈으로 볼 수 있고,

2. 프롬프트를 클릭하면 '그대로' 프롬프트 채팅창에 복붙 됩니다.

3. 사용한 파라미터도 '딸깍' 한 번에 바로 적용됩니다.

4. 제일 중요한 이미지 레퍼런스들도 '드래그 & 드롭'으로 바로 적용됩니다.

 

Web 플랫폼을 쓰다 보면 더 이상 Discord는 쓰고 싶지 않을 정도로 편하게 만든 것을 확인할 수 있는데요.

추후 말씀드릴 Edit도 보다 편하게 사용할 수 있습니다.

코드를 통해 쉽게 이미지 스타일 레퍼런스를 사용할 수 있는 --sref (personal code)

 

Midjourney에서는 유료 플랜을 사용하는 사용자들에게 personalization이라는 기능을 제공하고 있는데요.

이를 통해 사용자가 자신만의 독창적인 스타일을 만들 수 있습니다.

 

여러 사용자들이 이러한 스타일들을 제작하고, 이를 쉽게 사용할 수 있도록 코드를 제공하고 있는데요.

스타일 레퍼런스 코드를 제공하는 유용한 사이트들을 소개해드리겠습니다.

 

https://midjourneysref.com/

 

Midjourney Prompts, SREF Codes Library and Examples

Using Midjourney style reference (sref) Codes in your prompt is beneficial for both beginners and professional creators. For beginners, these codes offer an easy way to generate images with specific styles. For professionals, sref codes provide advanced co

midjourneysref.com

https://sref-midjourney.com/

 

Midjourney --sref codes

Discover 3822 Midjourney --sref codes and style references to improve the aesthetic of your images generated using for Midjourney.

sref-midjourney.com

https://x.com/gizakdag

 

X의 Gizem Akdag님(@gizakdag)

AI Explorer, Brand Designer 📩 For inquiries: hello@gizemakdag.com

x.com

https://x.com/ciguleva

 

X의 Tatiana Tsiguleva님(@ciguleva)

Creative ambassador @perplexity_ai | Midjourney: Sharing learnings and prompts | Multidisciplinary designer | Mom of 2

x.com

 

여기까지 스타일 레퍼런스를 활용하는 방법에 대해서 알아보았는데요.

다음에는 캐릭터 레퍼런스를 활용하는 방법에 대해서 알아보도록 하겠습니다!

구독 & 좋아요는 큰 힘이 됩니다.

반응형

파라미터 Parameter를 잘 활용하는 방법

지난 글에 이어서, 오늘은 미드저니를 더 똑똑하게 활용할 수 있는

파라미터 Parameter에 대해서 배워보도록 하겠습니다.

프롬프트 + 파라미터 조합으로 사용합니다

 

파라미터 Parameter란?

파라미터는 일종의 명령어, 또는 조건이라고 생각하시면 되겠는데요.

내가 작성한 프롬프트에 해당 조건을 넣어서 구현해줘. 라고 미드저니에게 요구하는 것입니다.

키워드 뒤에 -- '파라미터' + '파라미터의 값'

 

사용 방법은 다음과 같습니다. 프롬프트 뒤에 --를 넣고 해당 파라미터, 그리고 파라미터 값을 넣으면 됩니다. 간단하죠?

이러한 파라미터는 단독으로 사용하는 것이 아닌 다양한 파라미터를 조합하여 사용이 가능합니다.

그럼 차근차근 어떤 파라미터가 있는지 확인해보도록 하겠습니다.

이미지 비율 파라미터 --ar (비율)

첫번째로 이미지의 비율을 지정할 수 있는 파라미터인 --ar 입니다.

다양한 비율을 지정할 수 있는데요. 주로 사용하는 비율은 

1:1 정방향
3:4 인물사진
2:3 사진 또는 엽서
16:9 영화
21:9 영화

 

생성하고자 하는 각 이미지에 적합한 이미지 비율을 사용하시면 되겠습니다.

재미있는 것은 '인물'을 생성하게 되면 각 이미지 비율에 따라 포즈가 변하는 것을 보실 수 있습니다.

 

사실적으로 과장없이 표현하는 --style raw

--style raw 없이 생성
--style raw 생성

 

Midjourney를 쓰다보면 이녀석이 자기 맘대로 특정한 예술 스타일을 사용하는 경우가 있는데요.

그런 경우를 방지하고 실제 인물이나 상황을 생생하게 표현하고 싶을 때 이 파라미터를 쓰면 되겠습니다.

 

제외하고 싶은 요소 --no (제외하고 싶은 요소)

A cowboy
A cowboy --no hat

 

어떤 이미지를 표현하되 특정한 요소를 제외하고 싶을 때 쓰는 파라미터입니다.

위의 이미지는 예시로 카우보이를 생성했는데요. 카우보이에는 필수적인 모자를 없애달라고

파라미터를 넣었더니 실제로 없애주는 것을 확인할 수 있습니다.

 

일본풍 애니메이션 스타일 --niji 6

A cat
A cat --niji 6

 

이미지를 일본풍의 애니메이션 스타일로 만들 때 사용합니다. 이 파라미터는 일본풍 애니메이션 이외에도

실제 인물을 만들 때 사용하기도 하는데요. 그 이유는 '다양한 구도'를 표현하기 위해 사용합니다.

 

창의적인 이미지 만들기 --s (0~1000)

A humanoid --s 100
A humanoid --s 800

 

우리가 생각하는 이미지보다 Midjourney의 상상력의 도움을 받고 싶을 때

해당 파라미터를 사용하면 조금 더 창의력 넘치는 (또는 극적인 구도의) 이미지를 생성할 수 있게 됩니다.

 

다양한 스타일 제안받기 --c (0~100)

Music festival
Music festival --c 100

 

Midjourney에서 이미지를 생성하게 되면 기본적으로 4가지 이미지를 제안받게 되는데요,

이미지들을 각각 다른 스타일로 제안받을 수 있게 도와주는 파라미터입니다.

 

여기까지 다양한 파라미터를 사용하는 방법에 대해서 알아보았는데요.

여러가지 파라미터의 조합을 통해 창의적이고 재미있는 이미지를 생성할 수 있습니다.

 

다음 글은 Midjoureny의 진정한 활용법이자 꽃,

스타일 레퍼런스 파라미터에 대해 알아보도록 하겠습니다.

반응형

키워드 기반 검색 엔진의 대표주자 구글

AI는 GUI 시대를 끝내게 될까요?

디자인 커리어의 대부분을 GUI 디자이너로 보낸 딸깍 디자이너로서는 무서운 이야기일 수밖에 없습니다.

그러나 급격히 대중화되고 있는 AI로 인한 산업의 변화는 필수적인 것이고, 그에 따른 여파를 최소화하기 위해

공부하고 대비하는 것이 가장 중요하다고 생각합니다.

 

GUI, Graphic User Interface는 스마트폰의 등장과 함께 황금기를 맞았습니다.

모바일 디바이스 화면 속의 내용과 그래픽 요소를 시각적으로 정리하여 최적화된 사용자 경험(UX)을

제공하는 것은 디자이너의 몫이였습니다. 이에 따른 디자이너의 위치와 위상도 올라갔었죠.

 

이는 전부 '키워드' 기반의 검색 엔진과 서비스들 덕이였습니다. 사용자가 머릿속으로 생각하는 키워드를 입력하고

세분화된 키워드들을 하나씩 쪼개나가다 보면 언젠가 답을 찾게 되는 형식이었죠. 

GUI 디자이너들은 이를 효율화하고 개선하는 데 집중할 수 있었습니다.

ChatGPT의 Voice mode

맥락 기반의 AI의 등장 Contextual AI

ChatGPT를 중심으로 AI가 대중화되고 있습니다.

AI는 사용자가 원하는 바의 '맥락'을 찰떡같이 읽고 해답을 제시합니다.

키워드 중심의 검색 엔진들이 첨차 뒤로 밀려나고

ChatGPT, Perplexity, Gemini 등의 AI 서비스들이 그 자리를 대체하고 있는 것이지요.

우린 정말 과도기 속에 살고있다는 생각을 하고 있습니다.

 

영리한 AI는 사용자가 말하는 바의 맥락을 파악하여 즉시 답을 제공해 줍니다.

이전의 대화를 기억하고 그에 맞는 답을 제시해주기도 하죠. 예를 들어 내가 ChatGPT에게

겨울에 프랑스 파리에 여행간다고 이야기를 해놨으면, 추후에 '좋은 숙소가 있을까?'라고 질문하면

파리 숙소를 추천해 주는 식으로 말이지요.

더 나아가 나의 성향, 경제적인 능력, 취향을 파악해서 최적화된 숙소를 추천해줍니다.

 

이런 식으로 원하는 답을 찾아가는 여정이 아닌, 즉각적으로 최적화된 답을 얻게 되지요.

이러한 방식이 점차 대중화된다면 디바이스의 '화면'을 볼 필요조차 없어지는 것입니다.

화면을 볼 필요가 없다고..? Graphic User Interface가 없다고..?!
Artificial intelligence가 아닌 Apple Intelligence

경량화되는 AI, On Device AI의 등장, 새로운 기회?

기존 AI들은 모델의 용량이 커서 클라우드 연결이 필수적이었습니다.

이로 인해 보안 문제가 대두되었고 개인의 영역에서는 분리되거나 사용이 제한되었습니다.

하지만 AI 모델들이 점차 경량화되고 디바이스 자체에 탑재(On Device)된다면 어떨까요?

 

그야말로 초개인화 AI시대, AI agent 시대가 시작됩니다. 나의 의도와 방식을 정확히 이해하고

원하는 기능을 수행해 주는 것이지요. 캘린더를 AI가 추가해 주고, 내가 까먹었을 것 같을 때 다시 알려주며,

추천까지 해주는 agent들이 생겨날 것입니다.

 

I'm sorry Dave, I'm afraid i can't do that.

 

개인적으로 여기서 디자이너들의 기회가 생겨날 수 있다고 생각합니다.

AI에 대한 본질적인 거부감이나 경계선을 희석할 수 있도록 '인간적인 면모'를 입히는 것이지요.

사람은 어디까지나 '사람다움'을 선호합니다. 시각적이든 사용자 경험 측면이든 이 간극을 줄이는 데 있어서

디자이너의 역할이 굉장히 중요해질 것이라 생각합니다.

야근한 디자이너...가 아니라 불쾌한 골짜기의 예시

오늘은 이것저것 생각해 본 것을 끄적여봤습니다.

여러분들의 생각은 어떠신가요?

반응형

'딸깍 AI에 대한 생각' 카테고리의 다른 글

현업 디자인에서의 AI 활용  (2) 2024.12.30

https://ddalgakdesign.tistory.com/11

 

AI 공모전 딸깍 도전기 (3) I2V, 영상용 이미지 만들기 1

AI로 영상을 만드는 방법은 크게 두 가지가 있습니다.  1. T2V (Text to Video) : 텍스트로 영상을 만들기2. I2V (Image toVideo) : 이미지로 영상을 만들기 저는 독특한 스타일과 최대한 일관성을 유지하면

ddalgakdesign.tistory.com

Adobe Photoshop에서 디테일 수정하기

저번 글에서 이어집니다.

I2V(Image to Video) 이미지를 만들었는데, 이미지 중 일부분만 수정하고 싶다! 라면 크게 2가지 방법이 있습니다.

 

1. Midjourney에서 제공하는 Edit 툴을 사용하기

2. Adobe Photoshop에서 Generate 기능 사용하기

 

첫 번째 방법인 Midjourney에서 Edit 툴을 사용하려면 디스코드 플랫폼이 아닌 웹 플랫폼에서 사용해야 합니다.

생성한 이미지를 클릭하면 오른쪽 아래에 'Editor'가 있는 것을 확인할 수 있는데요.

 

Editor에서는 간단한 Edit 기능들을 제공합니다.

왼쪽부터 요소 지우기, 복구하기, 스케일 지정하기, 비율 바꾸기 등을 사용할 수 있습니다.

 

하지만, 보다 더 간단하고 명료하게 딸깍 수정하는 방법을 써보도록 하겠습니다.

바로 Adobe Photoshop을 활용하는 방법인데요.

Photoshop에서 Generate 기능을 제공하고, 확대하게 되면서

어도비의 수 많은 자체 데이터베이스를 활용한 막강한 성능으로 손쉽게 디테일 등을 수정할 수 있게 되었습니다.

 

Adobe Photoshop을 사용하는 장점으로는

1. 결과물이 (상대적으로) 잘 나온다.

2. 한글 프롬프트가 먹힌다.

3. 비율 조절이 매우 쉽다

인데요, 일단 자세한 내용은 소개 페이지를 따로 제작하기로 하고,

여기서는 중요한 '수정'에만 집중해 보도록 하겠습니다.

블루투스 너도냐..?!

요 이미지에서 왕이 들고있는 칼을 없애고 싶습니다.

자 일단 포토샵을 실행해서 이미지를 불러와 줍니다.

 

이미지를 불러오게 되면 아래 '피사체 선택' '배경 제거'가 뜨는데 무시하고 왼쪽 위의 빠른 선택 도구를 선택합니다.

 

왕이 들고있는 칼을 선택해 주세요.

Alt를 눌러가며 선택 영역을 자세히 지정해 줍니다. (자세히 지정하는 것이 중요합니다!)

지정을 완료했다면 아래 자동으로 '생성형 채우기'라는 항목이 떠있습니다.

 

이제 여기에 delete라고 입력합니다. 한글로 삭제라고 적어도 상관없습니다.

손 어디갔지..?!

 

Adobe는 총 3개의 결과물을 자동으로 생성하는데요, 좌·우 화살표를 통해 각각 다른 결과물을 확인할 수 있습니다.

근데 무엇인가 이상합니다. 손이 있어야 할 위치에 손이 없는데요...

Adobe가 손까지 삭제해 버린 것을 알 수 있습니다.

어라 이게 아닌데

그 이유는 방금 '손'까지 선택했기 때문인데요.

선택영역을 '자세히' 선택하는 것이 이렇게 중요합니다.

자, 다시 칼만 선택하고 'delete'를 입력해 보도록 하겠습니다.

 

깔끔하게 칼이 사라진 것을 확인할 수 있습니다.

같은 방법으로 아래 왼쪽의 이미지들을 오른쪽 이미지처럼 수정하였습니다.

 

이렇듯 Adobe는 무엇인가를 디테일하게 삭제하거나 바꿀 때 쉽게 사용할 수 있는 툴입니다.

이제, 드디어 이미지를 가지고, 영상으로 만들어 보겠습니다!

반응형

AI로 영상을 만드는 방법은 크게 두 가지가 있습니다.

 

Kling AI 예시

 

1. T2V (Text to Video) : 텍스트로 영상을 만들기

2. I2V (Image to Video) : 이미지로 영상을 만들기

 

저는 독특한 스타일과 최대한 일관성을 유지하면서 영상을 만들고 싶으므로 I2V를 선택했습니다.

이미지 생성 툴은 Midjourney를 선택했고, 빠른 작업을 위해 디스코드가 아닌 웹 플랫폼으로 진행했습니다.

이전에 제작했던 콘티를 가지고 ChatGPT의 프롬프트 제작 봇을 통해 각 키스크린의 프롬프트를 뽑아냈습니다.

 

https://ddalgakdesign.tistory.com/6

 

ChatGPT 딸깍 활용하기 (4) 프롬프트 GPT를 만들고 활용하는 방법

지금(2024년 12월 기준) 시중에는 수많은 이미지 생성 AI 툴들이 나와있습니다.이들 모두 기본적으로 T2I(Text to Image) 방식을 사용하는데요.말 그대로 텍스트로 이미지를 묘사하라는 것입니다. 내가

ddalgakdesign.tistory.com

제작 봇 만드는 방법은 윗 글을 참고해 주세요!

주요 캐릭터의 외형을 설정하기

먼저 영상의 '일관성'을 확보하기 위해 주요 캐릭터의 외형을 설정하기로 마음먹었습니다.

AI으로 만드는 영상은 캐릭터의 외모를 유지하기가 힘든데 오히려 각 캐릭터의 특징을 부각해

시청자로 하여금 같은 캐릭터로 느껴질 수 있도록 유도하였습니다.

 

예를 들면 주인공 기사의 경우 '긴 검은 곱슬머리, 짧은 수염, 눈 밑 흉터, 파란 망토, 황금 방패'로 설정하여

시각적으로 같은 특징을 쉽게 파악할 수 있도록 했습니다.

일해라 프롬프트 노예

 

이렇게 열심히 ChatGPT가 뽑아주면, 이를 Midjourney에 넣고 --sref code와 조합하여 내가 원하는 이미지가 나오는지

확인하고, 프롬프트를 수정하거나 Image Variation을 통해 발산하는 과정을 반복해 줍니다.

 

프롬프트의 수정 보완, 또는 이미지의 Variation

 

이러한 과정의 반복을 통해 캐릭터 보드를 완성했습니다. 

 

영상의 등장인물인 기사, 용, 용이 변신한 여인, 노쇠한 왕의 외형을 정의하였고,

최대한 해당 외형을 유지하며 주요 영상의 이미지 작업을 시작하게 되었습니다.

 

만들면서 신기했던 점은, ChatGPTs가 프롬프트를 만들 때 이러한 캐릭터의 외형을 스스로 기억하고

이를 지속적으로 프롬프트에 반영한다는 점이었습니다. 기특한 녀석!

예상치 못한 난관

각 영상의 키스크린을 만들다 보면 생각만큼 원하는 이미지가 나오지 않거나, 죽어도 안 나오는 경우가 있는데요.

아래 이미지가 바로 그런 경우입니다.

 

왜 자꾸 카메라 보는건데

 

'결연한 표정으로 말을 타고 가는 기사 모습을 그려줘'를 주문했는데 Midjourney는 죽어라

카메라를 부담스럽게 그윽하게 바라보는 기사 이미지를 만들어냅니다.

이 경우 3가지의 문제점이 있을 수 있습니다.

 

1. 내가 참고하고 있는 sref code가 '인물의 정면 모습'만 학습한 스타일이라서

2. 적용하고 있는 비율의 문제

3. 프롬프트의 문제

 

2. 비율을 2:3과 같이 인물 사진에서 주로 쓰는 비율을 사용하면 발생할 수 있습니다. 이를 16:9로 수정해 보았습니다.

그리고 3. 프롬프트를 바꾸어 '완전 옆모습으로 보이도록' 수정하였습니다.

사실, 1의 sref code를 사용하지 않으면 정말 간단히 해결되는 일이지만 저는 오일 페인팅 효과를 포기할 수 없었습니다.

 

그래도 쳐다보네 독하다 독해

 

여기서 얻은 이미지를 바탕으로 'Strong variation'을 통해 그나마 카메라를 보지 않는 이미지를 얻을 수 있게 되었습니다.

이제, 드디어 모든 키스크린의 이미지가 만들어졌습니다.

 

Adobe Photoshop에서 디테일 수정하는 방법으로 이어서 설명하도록 하겠습니다.

'파란 망토를 빨간 망토로 바꿔줘'

 

반응형

https://www.youtube.com/watch?v=OGNHLc4FWwA&ab_channel=Skrillex

SKRILLEX & WOLFGANG GARTNER - THE DEVIL'S DEN

영감을 러프하게 정리하기

노래를 듣다 보면 다양한 영감이 떠오릅니다.

강렬하게 무엇인가를 찌르기도 하고, 상승하기도 하는 것 같은 느낌인데요.

떠오르는 스토리를 러프하게 적고, 이를 Scene별로 다시 정리해 보았습니다.

러프라게 적어본 Scene별 스토리

 

1분짜리 영상이니 대강 한 Scene마다 3초~4초 정도 사용해야 한다는 계산이 나옵니다.

여기에 들어갈 비주얼적인 요소를 상상하면서,

각 Scene을 만들어갈 비주얼 스타일 레퍼런스를 찾아다니기 시작했습니다.

비주얼 레퍼런스 스타일 헌팅

각 화면 키스크린을 잡을 때 Midjourney 및 sref 파라미터를 사용할 계획입니다.

그래서 sref code 레퍼런스 사이트를 뒤져 스타일들을 수집하기 시작하였습니다.

수집한 스타일 레퍼런스 이미지들

 

수집한 sref code들을 동일한 프롬프트에 적용해서 비주얼 스타일의 차이를 확인해 보았습니다.

 

적용 프롬프트 :

Medieval knight, wearing ornate armor, riding a horse, galloping across a rainy plain,
dark stormy sky, dramatic lighting, rain splashing around, dynamic motion blur,
cinematic perspective, low angle shot, realistic textures, muted colors, wet and reflective surfaces

sref code가 없는 이미지
sref code를 넣은 이미지

 

이 중에 '중세 시대'를 잘 표현할 수 있는 오일 페인팅 스타일의 중심 비주얼 스타일로 잡고

각 주요 화면의 프롬프트를 적용하여 비주얼 스타일 무드 보드를 구성하였습니다.

제작한 무드보드, 전체적으로 오일 페인팅의 느낌을 살리고자 했다

 

그럼 이제 드디어 영상용 이미지를 만드는 작업을 할 차례입니다앗!

반응형

https://fastcampus.co.kr/gala2024#track02

 

🤖총 상금 5천만 원의 주인공을 찾습니다 [2024 GALA] 패스트캠퍼스 AI 공모전 (11/20~12/15) | 패스트캠

ChatGPT 활용 사례, 생성형 AI 사용 이미지/영상, AI 서비스 기획까지 총 3가지의 모집 부문을 확인하고 당신의 능력을 공유해주세요!

fastcampus.co.kr

 

며칠 전 AI 공모전이 열린다는 소식을 블로그에 올렸었습니다.

기왕 AI를 본격적으로 공부하는 김에 공모전에 참가해 보기로 했는데요,

하지만 남은 기간은 대략 일주일. 시간이 너무 없습니다앗-!

 

공모전 참여에 의의를 두고, 너무 스트레스 안 받게 가볍게 참가하기로 했습니다.

예전 디자인 학부생 때부터 마음에 담아두었던 것을 해보기로 했는데요,

그것은 바로 뮤직비디오 만들기!

 

학부생 때 EDM이 유행했었습니다. 그때 주로 들었던 가수가 Skrillex.

강렬한 사운드가 매력적인 가수이지요.

바로 이 곡! Devil's Den의 뮤직비디오를 만들어보기로 결정했습니다앗!

 

https://www.youtube.com/watch?v=OGNHLc4FWwA&ab_channel=Skrillex

듣기만 해도 영감과 도파민이 팡팡 터지는 곡

 

하지만 첫 번째부터 난관에 부딪히고 맙니다.

공모전에서 요구하는 영상 길이는 60초. 곡 길이는 무려 4분 30초?

 

하지만 제가 누굽니까? 딸깍 디자이너, 바로 잔머리를 굴려봅니다.

바로 구글에 Audio Remix AI를 검색해 보았습니다.

 

그렇게 알게 된 사이트가 바로 Audjust.

음악 파일을 첨부하면 AI가 자동으로 해당 곡을 줄여주거나 늘리고, 이를 편집할 수도 있습니다.

Loop로도 만드는 게 가능합니다.

 

파일을 드롭하면 자동으로 분석해준다

 

트랙에서 특정 구간을 선택해서 이를 피하거나 선호하는 구간으로도 만들 수 있다

 

문제가 생겼습니다.

루프 곡은 잘 만들어주는데, 뭔가 정작 중요한 리믹스는 굉장히 어정쩡하다는 것이죠.

정말 좋은 파트를 제멋대로 넘기거나 이어지는 부분이 어색합니다.

이건 탈락이다. 큰일이다아앗-!

공모전 시작도 전에 실패의 위기에서 일단 화면이라도 구성해 보자 하는 마음에

어도비 프리미어 프로를 실행해서 꾸역꾸역 음원과 화면을 넣어보았습니다.

음원을 잘라서 넣어야 하나 심란하던 차에 오른쪽 속성 패널을 보았더니?

 

왜 이렇게 좋은 기능을 무심하게 제공하는 건데

 

너무나도 간단하게 리믹스가 가능헀습니다.

어도비 또 당신입니까..

리믹스 퀄리티도 정말 좋았습니다. 왜 이 좋은 걸 홍보를 안 하는 것일까요?

이제 음악도 해결되었겠다. 본격적인 영상 만들기 작업에 돌입해보겠습니다앗!

반응형

+ Recent posts