분류 전체보기144 [Blender4.4][Window] 블렌더 카메라 설치해서 애니메이션 렌더링 하기 (RGB Video) 일단 저는 Mixamo 데이터를 써서 캐릭터 애니메이션을 렌더링해서 video 로 출력해보도록 하겠습니다.일단 Mixamo 에서 원하는 애니메이션 fbx 파일을 다운받고 블렌더에 import 해줍니다. 그럼 이제 다음과 같이 객체가 나올것...카메라는 Shift + A 눌러서 Camera 클릭하면 생성할 수 있음그리고 카메라든 객체들 클릭을 하고 N 을 누르면 오른쪽 위에 location 이랑 Rotation 나오거든요?그거 숫자들 조절해서 객체 위치나 카메라 뷰 위치나 조절하면 됩니다.아니면 layout 창에서 움직이고 싶은 물체 선택해서 G + x/y/z 셋중 어디로 움직이고 싶은지 클릭해서 해당 축으로만 움직일 수 도 있음 (ex. x 축 방향으로 객체를 움직이고 싶으면 G + x 하고 마우스로 움.. 2025. 4. 14. [Blender4.4][Window] Depth Map 추출하기 하 진짜 블렌더 너무 어렵고 복잡하고 정신 나가고 등등제가 보고 기억하려고 적습니다... Depth Map 추출하는 방법Output Properties 에서 다음과 같이 똑같이 따라 하세요... View Layer Properties 에서 Mist 체크해주기 World Properties 에서 Mist Pass 부분에서 Start 랑 Depth 알맞게 잘 거리 조절 해주기그 카메라로 부터 나오는 선이 물체를 관통할 수 있을 정도로 거리를 조절하면 될듯 그리고 오른쪽 위에서 Viewport Shading 중 Render Pass 를 Mist 로 설정하슈 Compositing 창에서 오른쪽 마우스를 클릭해서 +Add → Utilies → Normalize 클릭해서 노드 추가하면 되고그림과 같이 Mist → .. 2025. 4. 14. [Notable] Inference time vs Rendering time 1. Inference Time (추론 시간)"모델이 입력을 받아 결과(출력)를 생성하는 데 걸리는 시간"예: 이미지 한 장을 넣었을 때, 모델이 3D 아바타를 생성하는 데 걸리는 시간.보통 딥러닝 네트워크 내부 연산 (forward pass)에 해당해.예를 들어, LHM 모델이 단일 이미지로부터 3D Gaussian 아바타를 만들어내는 데 걸리는 시간이 inference time🕒 시간 범위: 수 초 ~ 수 분📍 포함 내용:이미지 입력 → 3D representation 예측네트워크 연산 및 post-processing 2. Rendering Time (렌더링 시간)"예측된 3D 데이터를 시각적으로 표현(렌더링)하는 데 걸리는 시간"예: 생성된 3D Gaussian 아바타를 화면에 포토리얼리스틱하게.. 2025. 3. 31. [Notable] NeuS (Neural Implicit Surface) https://lingjie0206.github.io/papers/NeuS/ NeuS: Learning Neural Implicit Surfaces by Volume Rendering for Multi-view ReconstructionAbstract We present a novel neural surface reconstruction method, called NeuS (pronunciation: /nuːz/, same as "news"), for reconstructing objects and scenes with high fidelity from 2D image inputs. Existing neural surface reconstruction approaches, such alingjie0206.. 2025. 3. 18. [Paper Review] SyncDreamer: Generating Multiview-Consistent Images From a Single-View Image https://arxiv.org/abs/2309.03453 SyncDreamer: Generating Multiview-consistent Images from a Single-view ImageIn this paper, we present a novel diffusion model called that generates multiview-consistent images from a single-view image. Using pretrained large-scale 2D diffusion models, recent work Zero123 demonstrates the ability to generate plausible novel views farxiv.org Abstract이 논문에서는 SyncD.. 2025. 3. 18. [Paper Review] Wonder3D: Single Image to 3D Using Cross-Domain Diffusion https://arxiv.org/abs/2310.15008 Wonder3D: Single Image to 3D using Cross-Domain DiffusionIn this work, we introduce Wonder3D, a novel method for efficiently generating high-fidelity textured meshes from single-view images.Recent methods based on Score Distillation Sampling (SDS) have shown the potential to recover 3D geometry from 2D diffusionarxiv.org 이 논문에서 제시하는 Wonder3D 는 다중 시점 일관성을 유지하는 법선 .. 2025. 3. 13. 이전 1 2 3 4 ··· 24 다음