로그인이 필요합니다.
최근 방문한 채널이 없습니다.
등록된 채널이 없습니다.

알림

등록된 알람이 없습니다.
  • {{item.Type == 1 ? '댓글' : (item.Type == 2 ? '답글' : (item.Type == 3 ? '방명록' : '알림'))}}
    {{item.Title}}
    {{item.From}}{{item.Datetime}}
로그인
애니메이션 친목 채널, 아무나 오세요 ㅇㅅㅇ
채널 정보
글쓰기
[잡담]

Diff-SVC colab으로 학습하기

히카리
댓글 4
조회수 973
작성일시 2023.02.23 00:08
수정일시 2023.03.05 05:03

https://github.com/SWNA-P/Diff-SVC-notebooks

GitHub - SWNA-P/Diff-SVC-notebooks
Contribute to SWNA-P/Diff-SVC-notebooks development by creating an account on GitHub.
github.com

깃에서 ipynb 파일을 둘 다 받으셈 ㅇㅅㅇ

ipynb 파일이 원래 공개된게 아니고 요청해야 보내주는 파일인데, 누군가 올려주심

Diff_SVC_inference_notebook_(colab_ver_).ipynb -> 학습된 모델로 추론

Diff_SVC_training_notebook_(colab_ver_).ipynb -> 학습하기

1. 준비 작업

코랩 https://colab.research.google.com/ Diff_SVC_training_notebook_(colab_ver_).ipynb 파일 업로드

ipynb 파일이 구버전이라 다운받는 URL들이 변경된 게 있어서 수정이 필요합니다.

Step 1: Install Diff-SVC 소스보기 한 다음에

파일 다운 받는 부분의 URL를 수정해주세요.

checkpoints.zip
-> https://github.com/haru0l/Diff-SVC-notebooks/releases/download/start/checkpoints.zip

config.yaml

-> https://github.com/haru0l/Diff-SVC-notebooks/releases/download/models_24khz/config.yaml

hifigan_24k.zip

-> https://github.com/haru0l/Diff-SVC-notebooks/releases/download/models_24khz/hifigan_24k.zip

Step 3: Edit training parameters에서는 nyaru.ckpt URL 수정

nyaru.ckpt
->https://github.com/haru0l/Diff-SVC-notebooks/releases/download/models_24khz/nyaru.ckpt

2. 데이터셋 준비

TTS 데이터셋과 다르게 말을 흐리거나 그래도 상관없음.

wav 파일들을 모와서 (가수 이름).zip으로 구글 drive에 업로드하세요.

노래는 당연히 보컬만 들어가야 됩니다.

vocal extractor로 보컬만 추출해 (https://vocalremover.org/)

3. 학습

위에서부터 순서대로 실행하면 됩니다.

시키는데로 경로 설정하셈.

Step 2-A: Decompress training data은 처음 학습하는 경우에는 생략합니다.

Decompresses training data directly to diff-svc/data/binary, usable only if you already have the output files of Step 4. ㅇㅅㅇ

Use custom save directory에서 use_save_dir 체크

save_dir에 저장할 곳 지정. (/content/drive/MyDrive/diff-svc/)

/content/drive/MyDrive/ 폴더가 구글 드라이브임

Pretrain model usage에서

use_pretrain_model: 체크

pretrain_model_select: nyaru

기존 모델가지고 fine tuning(미세조정) 하겠단거임.

처음부터 학습시키면 수십시간 걸릴텐데, fine tuning하면 6시간 정도면 충분함.

데이터셋이 적을 경우 endless_ds 체크

이제 학습 고고

tensorboard 보면 학습이 진행되는것을 볼 수 있다.

audio 메뉴에서 직접 들어볼 수도 있는데

gt(ground truth)는 데이터셋 원본이고

wav을 들어보면 모델로 생성한 음성을 들을 수 있음.

loss가 떨어지지 않아도 오래 학습하면 성능이 더 좋아짐.

4. 추론

Diff_SVC_inference_notebook_(colab_ver_).ipynb 파일을 돌리면 된다 ㅇㅅㅇ

추론할때 반드시 GPU가 필요한게 아니지만, 짧은 음성파일 추론하는데 9분이나 걸렸다.

누군가 만들어둔 huggingface을 이용해도 된다.

https://huggingface.co/spaces/DIFF-SVCModel/Inference

DiffSVC Inference - a Hugging Face Space by DIFF-SVCModel
Discover amazing ML apps made by the community
huggingface.co

비밀번호가 필요한데, 비밀번호는 fuck2023arianitesshitcelebrities 이다. 

현재 암호 바뀜.


파라미터 추가 설명

· key :

→ 음성의 키를 반음 단위로 변경합니다. 그렇지 않으면 "0"이 입력되지 않으면 오류가 발생합니다. 크게 변경하면 활설 등이 붕괴 될 가능성이 있으므로 조심하십시오.

 

· pndm_speedup :

→값을 크게 하면 빨리 합성할 수 있습니다만, 50 이상으로 하면 음질이 저하하기 때문에 망설이지 않는 편이 좋습니다

 

· wav_gen :

→ 합성된 wav를 어디에 저장할지입니다.

기본값은 런타임 내에 있으므로 'test_output.wav' 앞에 '/content/drive/MyDrive/'를 붙여 GDrive에 저장하도록 변경하는 것이 좋습니다.

 

· add_noise_step :

→use_gt_mel 매개변수를 사용할 때 사용할 수 있습니다. 1로 하면 학습 음성 100%, 1000으로 하면 완전히 모델의 음성에 들립니다. 값이 300 부근이 되면, 음색이 섞여 있는 느낌이 됩니다. (이 매개 변수를 매우 낮게 설정하여 pndm_speedup 값을 줄이면 렌더링 품질이 높아지는 것 같습니다)

 

·thre:

→원음원이 깨끗하면 값을 늘릴 수 있습니다. 음질이 미묘하면 값을 줄이십시오.

※use_crepe에 체크를 넣지 않은 경우는 사용할 수 없습니다.

 

· use_crepe :

→ 체크하면 피치 계산 방법에 crepe를 사용합니다.

기본적으로는 체크를 넣으면 좋은 느낌이 됩니다. 끄면 공식 Diff-SVC 리포지토리를 사용하면 parselmouth, UtaUtaUtau는 Harvest를 사용합니다.

다만, 개인적으로는 UtaUtaUtau의 Harvest를 사용하는 것이 품질 나옵니다.

 

· use_pe :

→ 체크를 하면 메르켑스트럼에서 피치를 입력하고 끄면 원음의 F0가 사용됩니다. 기본적으로는 체크를 넣으면 좋은 느낌이 됩니다.

 

· use_gt_mel :

→체크를 넣으면 좋은 느낌이 됩니다만, 원래 음성다움은 약간 잃어버립니다. (설명에 의하면, AI에 의한 화상 생성의 image-to-image와 유사하고, 입력 음성과 타겟 음성의 혼합 음성이 된다는 것입니다)

※키 변경 기능은 사용할 수 없습니다

(분위기로서는 이런 느낌)

작성된지 3개월 이상 지난 게시글은 로그인한 사용자만 작성할 수 있습니다.



번호게시판제목글쓴이날짜조회추천
478잡담

갤럭시 마케팅팀 ㅋㅋㅋ

히카리23.03.29100
477잡담

한국은 케릭터를 못 만든다 ㅇㅅㅇ

(1)
히카리23.03.28110
476유머

블루아카이브 유저 카톡 프로필

히카리23.03.25320
474잡담

일본 기차 여행가고 싶다

히카리23.03.16180
473잡담

요즘 프리코네하는데 재밋네

히카리23.03.1270
470잡담

강서구 버튜버 서구땅 ㅋㅋㅋ

히카리23.02.231210
469잡담

꼬마야 거긴 임산부석이야.jpg

히카리23.02.23950
잡담

Diff-SVC colab으로 학습하기

(4)
히카리23.02.239732
466잡담

동해휴게소 ㅋㅋㅋ

히카리23.02.18360
465잡담

2분기 애니 기대된다 ㅇㅂㅇ

히카리23.02.18350
464유머

주유기 꽂고 출발하면 일어나는 일

히카리23.02.16400
463잡담

일본 관광 필수 회화

히카리23.02.08460
454잡담

봇치더락 넷플릭스 실사화 외톨이의 락

(2)
히카리23.01.291,1321
453잡담

딥러닝 성능 RTX 3080 vs TESLA P100

(1)
히카리23.01.23730
452잡담

코미케에서 받아온 오빠는 끝 클리어파일

(2)
히카리23.01.17771
451잡담

어제 후쿠오카 살인 사건 ㅇㅅㅇ

(3)
히카리23.01.17500
450잡담

일본 컵라면은 대부분 한국인 입맛에 안 맞음 ㅇㅅㅇ

(4)
히카리23.01.16690
449잡담

한대남가리뚝스딱스

(1)
히카리23.01.131450
447잡담

오랜만에 업비트 접속했는데

(6)
히카리23.01.08620
443잡담

이 유튜버도 코미케 다녀왔네 ㅇㅅㅇ

(5)
히카리23.01.05510
442잡담

한국 도착 ㅇㅅㅇ

(1)
히카리23.01.03320
440잡담

아사쿠사 신사 사람 너무 많다

(3)
히카리23.01.01430
439잡담

스카이트리에 있는 토리톤 스시집 후기

(1)
히카리23.01.011090
438잡담

일본 점원 특징

(2)
히카리23.01.01361
437잡담

카카오페이 일본에서도 가능 ㅇㅅㅇ

(1)
히카리23.01.01360
436잡담

일본 온지 4일차

(1)
히카리23.01.01331
435잡담

오늘 다녀온 코미케 사진 ㅇㅂㅇ

(2)
히카리(219.59)22.12.30701
434잡담

오늘 일본 출발 ㅇㅂㅇ

(3)
히카리22.12.29501
433잡담

본인 모습입니다 ㅇㅂㅇ

(2)
히카리22.12.27401
432잡담

코미케 C101 외국인 티켓 접수 시간?

히카리22.12.26650