Tutorial Blender: Usando o lock camera to view

O Blender 2.58 foi lançado alguns dias atrás com diversas correções de bugs e pequenas melhorias em termos de ferramentas, que apesar de terem sido relativamente discretas fizeram a alegria de alguns artistas 3d, sendo que estou incluso nessa lista. Uma das melhores opções que apareceram no Blender 2.58 foi a possibilidade de travar a movimentação e uma câmera apenas na 3D View em que ela está ativa. O conceito é um pouco complicado de entender sem uma demonstração visual, e foi exatamente por isso que tomei a liberdade de gravar um vídeo mostrando como o recurso funciona.

No vídeo abaixo mostro como é possível trabalhar com o recurso Lock Camera to View.

A primeira coisa que você deve estar se perguntando, é o endereço de onde fiz a cópia do modelo 3d usado no tutorial. O modelo foi copiado do BlendSwap, e caso você precise um modelo 3d para qualquer fim, até mesmo comercial, ele é um excelente repositório de material.

Bem, no vídeo você deve ter percebido o quanto o recurso de travar a visualização da câmera na viewport do Blender ajuda a controlar o enquadramento de projetos.

Os artistas mais antigos do Blender já estão até acostumados a ficar fazendo vários ajustes na cena, e modificando o enquadramento aplicando transformações na própria câmera. Com o uso desse novo recurso, podemos travar a posição da câmera em uma posição apenas, e depois ajustar o enquadramento como se fosse uma viewport normal voltada apenas para visualização, usando os controles e atalhos de zoom do Blender.

Isso deixa o processo infinitamente mais rápido, pois não é mais necessário modificar a posição da câmera para determinar o enquadramento.

É importante lembrar que esse recurso só está disponível na versão 2.58 do Blender!

Aproveitando que o assunto desse artigo é o Blender, o pessoal do portal Blender Brasil está realizando uma pesquisa para conhecer melhor os usuários do portal. Se você for leitor aqui do blog, e também visitar com freqüência o Blender Brasil, é interessante participar da pesquisa que eles estão realizando para que a administração do portal possa conhecer melhor os seus visitantes.

Essa é uma pesquisa que nunca realizei aqui no blog, e preciso fazer também, pois a coisa está grande demais e os pedidos de tutoriais e material de estudo estão se acumulando na minha caixa de entrada.

Blender pode receber solução nativa de camera tracking

Os projetos desenvolvidos pelo instituto Blender são um dos grandes chamarizes para o potencial criativo do Blender, mas também acabam alavancando o processo de desenvolvimento do sofware. Sempre que temos um desses projetos o resultado é que o Blender receber inúmeras ferramentas desenvolvidas para resolver problemas daquela produção, mas que beneficiam toda a comunidade de artistas que faz uso do software. Para o próximo Open Movie do instituto Blender isso não será diferente, mas agora o Blender dará um salto para o trabalho com live action, que é a filmagem de cenários reais e atores.

Como o próximo Open Movie irá manipular filmagem capturada com câmeras e compondo com elementos virtuais, parte da equipe que ajuda na pré-produção já está pensando em maneiras de integrar de maneira nativa alguma ferramenta que possa fazer camera tracking direto da interface do Blender. Uma das ferramentas que estão dentro do escopo é o libmv que é também de código aberto, assim como o próprio Blender. Já existe uma área no fórum Blenderartists, em que estão sendo reunidas idéias relacionadas ao processo de execução do tracking e sugestões para a interface no Blender.

blender-camera-tracking.jpg

Esse tipo de composição é possível de ser realizada com o Blender hoje em dia, mas é necessário o uso de diversas ferramentas como o Voodoo camera traker ou outra ferramenta. A fragmentação do processo é que torna tudo um pouco mais trabalhoso, e se o software responsável pela manipulação e mapeamento da câmera real estiver integrado ao Blender, tudo ficará mais simples.

Como funciona esse camera tracking?

  1. Se você nunca teve a oportunidade de trabalhar com mapeamento de câmera funciona da seguinte forma:
  2. Primeiro é necessário filmar algum ambiente ou cenário;
  3. O vídeo é processado pelo software para identificar os planos e pontos de referência;
  4. Esses pontos servem de base para gerar um mapa com as superfícies, para permitir que o artista 3d adicione elementos virtuais alinhados com os objetos do vídeo;
  5. Depois é gerada uma câmera virtual que imita os mesmos movimentos e posições da câmera real;

No final teremos uma animação com elementos virtuais em perfeito alinhamento com o que foi capturado em vídeo.

Esse tipo de procedimento pode fazer com que o Blender seja adotado como ferramenta em diversos segmentos que trabalham com montagem e efeitos, principalmente produtoras de vídeo. A solução integrada para camera tracking promete deixar o próximo Open Movie ainda mais interessante!