Olá, estou gravando essa aula duas horas depois do Midjourney lançar o seu modelo de vídeo, porque já dei uma pesquisada nessas últimas duas horas, já olhei bastante dentro do fórum deles, fiz alguns testes aqui, e eu queria passar para vocês um pouco de como se faz o vídeo dentro do Midjourney, pelo menos por enquanto, alguns truques que eu já descobri. Porque sim, temos truques, e vou falar quando recomendo usar o Midjourney ou outras coisas.
Então, vamos lá para essa aula rápida aqui que vai mostrar um pouco dessa função. Para quem não conhece, o Midjourney é um dos criadores de imagem feitos por IA mais estáveis que eu uso desde o começo, há mais de 3 anos. Sempre achei muito boa a versatilidade que ele tem com as imagens. Agora, será que com o vídeo isso também vai funcionar dessa forma? Vamos ver, né?
Basicamente, aqui a gente tem alguns exemplos de vídeos na página principal deles. Pode ver que algumas coisas são interessantes, outras nem tanto, o que é bem normal quando se cria vídeos. Mas aí, como ele funciona basicamente? Você vai entrar nessa parte de criar, só funciona dentro do site deles, tá? Não funciona de outra forma, não funciona por aplicativo, acho até que nem pela versão web no celular funciona. Então, só funciona a versão desktop site, se não me engano, é isso.
Já adianto para vocês que não vai ser o melhor criador de vídeo, mas acho que tem muita coisa interessante para a gente explorar em cima disso. Ele funciona sempre a partir de uma imagem, o que está tudo bem porque você pode gerar a imagem primeiro pelo Midjourney e depois clicar no botãozinho para animar.
Por exemplo, vou criar uma imagem aqui, vou me colocar mais pequenininho para vocês, vou criar uma imagem no formato portrait, o formato para Instagram Stories, Reels, TikTok. Vou criar uma imagem, por exemplo, de uma capivara, uma foto — a photo of a capybara as the new pope. Sei lá, como um novo Papa, não estou muito criativo hoje, estou usando coisas que já criei.
Sem querer, coloquei meu modelo de filme dos anos 90, mas tudo bem, vai aparecer como se fosse uma foto de filme dos anos 90, então vai ficar interessante, né? E aí, o que é? Você sempre parte de uma imagem. Pode ser uma imagem que você já criou. Por exemplo, se eu vier aqui nas imagens que já criei, vou buscar por “noventa”, aproveitando o tema. Posso pegar essas imagens, né?
Pode ser uma imagem que eu já criei, aí vai ser nessa partezinha para você animar imagem, eu já vou mostrar para vocês, ou pode ser a partir de uma imagem nova. Vou pegar essa daqui, não tem muito a ver com o que eu queria, mas tudo bem, está a capivara aqui como se fosse numa janela, e aí você pode simplesmente clicar nesse botão e animar ela. Não é? Isso vai ser um primeiro momento que você vai fazer a qualquer interação. Qualquer imagem que você passar por aqui, você pode clicar para animar e ela vai ser animada.
Só que existem alguns parâmetros para essa animação, como existem parâmetros para a criação de imagens no próprio Midjourney. Vou usar essa daqui agora como exemplo, vou mandar rodar de novo, vai. Enquanto esperamos, vou usar essa que já estamos usando. E quais são esses parâmetros? O parâmetro básico vai ser automático e com pouco movimento, né?
Basicamente existem parâmetros: atualmente são só de ser automático ou não, e se vai ser com pouco ou muito movimento, então low motion ou high motion. O que eles recomendam? Eles recomendam que low motion você use para coisas com mínimo movimento mesmo, ou que seja algo com slow motion, câmera lenta, ou que você não queira ter tanto risco de movimento, já que algo pode dar errado com movimentos mais rápidos.
Para high motion é mais para movimento de câmera, nessas coisas vão acontecer mais se você clicar no high motion. Sempre que eu gero, vou gerar aqui — como já gerei no low motion, agora vou gerar no high motion para a gente comparar.
Sempre que geram um vídeo novo, ele gera quatro vídeos de uma vez. São quatro vídeos de 5 segundos. Gosto disso, porque diferente dos outros criadores que geram um ou dois vídeos, aqui gera quatro vídeos e quando você coloca o mouse, já consegue comparar os quatro de uma vez. Isso eu gostei bastante no Midjourney.
De uma vez, consigo ver ali. Ah, esse daqui ficou bem melhor. Vamos já clicar para gerar em low motion e high motion, tudo no alto. Quando gero assim de forma automática, ele não pergunta o prompt para gerar o vídeo. Ele usa basicamente o mesmo prompt que usei para a imagem. Você pode ver que continua o mesmo prompt do lado.
A versão high motion demora um pouco, como qualquer criador de vídeo. Então, vou enrolar bastante vocês nessa aula para mostrar muitas criações diferentes. O que é interessante também: se você clica em Control ou Command no Mac, pode ir para frente e para trás com o mouse segurando o Command. Às vezes você quer comparar um pouco como começou o vídeo, como terminou, porque eles sempre colocam os cinco segundos juntos, o que achei bem útil.
No high motion, pode ver que tem mais tremedeira na câmera, a imagem não ajudou muito, ficou mais ou menos igual, mas a câmera treme um pouco mais. Talvez numa outra imagem a gente tenha um resultado melhor para ver a diferença entre low motion (que não tem tag) e high motion (que tem a tag).
No low motion, a capivara ficou até de pé, enfim. Já no high motion, tem movimentos de câmera, um zoom na capivara, justamente porque tem esse high motion. Tudo isso eu fiz usando automático.
Se eu quiser usar o manual, aí vou colocar o que quero de instrução para ele. Vou dar um novo prompt para a criação do vídeo a partir da imagem. Por exemplo, "the capybara opens her arms" — coloquei "her" mesmo sendo um papa.
Vou colocar no high motion também. Ele já coloca o parâmetro para a gente. Vou colocar "The capybara opens her arms", dando a instrução do que quero, para não deixar que ele faça simplesmente o que acha melhor.
Sempre que gera esses vídeos, ele está gerando em 480p. Isso é uma grande desvantagem atual do Midjourney. Claro, estamos na primeira versão, a gente tem que levar isso em conta. A primeira versão de vídeo deles é mais 480p. Para ter uma noção, o ideal seria 720p ou 1080p, que é uma qualidade típica do Instagram, por exemplo.
É uma qualidade bem abaixo de outros criadores que normalmente geram em 720p. Isso torna o trabalho um pouco difícil. Vou falar alguns outros truques para frente.
Aqui, onde pedi para ela abrir os braços, está fazendo. Ah! Outra coisa importante: cada geração de vídeo gasta basicamente a mesma quantidade de tokens que quatro upscales de imagem.
Eles ainda estão tentando diminuir isso com o tempo, mas agora colocaram uma previsão para não acabar com os servidores deles tão rápido. Então, é mais ou menos isso que eles usam.
Aqui, low motion, ela abriu os braços, não teve muito movimento de câmera, achei engraçadinho, gostei muito dessa possibilidade de ver todos eles juntos, de forma clara, com o movimento deles lado a lado, o que ajuda a comparar e fazer escolhas rápidas, né?
Agora com o high motion... essa daqui ela mandou parar tudo, enfim, achei interessante.
Outra coisa que gostei bastante nesse modelo é que você pode mandar suas imagens, qualquer imagem que você tiver. Por exemplo, imagens que fizemos até em outro criador, eu posso subir aqui — "The couple are kissing during Carnival in Brazil". Para isso, você tem que colocar sua imagem aqui como starting frame.
Sempre que você gerar vídeo, ele vai usar essa imagem como starting frame. No momento, não tem como colocar outros frames, como final, mas lembrando que estamos no começo, na primeira versão, então vamos relevar isso.
Eu acho interessante também nesse formato de criação que você consegue gerar diferentes aspectos. Como você parte de uma imagem qualquer, pode gerar no formato quadrado, 2x1, 9x16, formato de cinema, qualquer formato que quiser.
Isso é diferente, por exemplo, de um Google Veo3, que só gera vídeo no formato 9:16, 16:9 no caso. Então essa flexibilidade é muito boa para criação. A gente tem que usar algumas gambiarras para aproveitar melhor.
Outra coisa que gostei muito é que desde o começo você já pode estender o vídeo. Por exemplo, clico para estender o vídeo em modo alto ou manual.
Vou colocar umas instruções: "We the camera changes for the church, animals are watching", sei lá. "To the crowd of the church", a câmera vai mudar o foco, não sei falar inglês direito agora: "the camera focus on the church crowd", "animals are watching", por exemplo.
Isso significa que posso sempre estender o vídeo e clicar para estender, ele vai estender o vídeo em 4 segundos. Posso fazer isso 4 vezes, ou seja, começamos com 5 segundos, depois 9, 13, 17... podemos chegar até 21 segundos, se minha matemática estiver boa.
Aqui, essa imagem que joguei com "the couple are kissing during Carnival in Brazil", ficou legal, mesmo com low motion ficou bem interessante. Claro que ainda tem dificuldade com mãos e pessoas, como sempre, acho que está longe de ser o que é um Veo3 ou outros criadores de vídeo como Kling 2.1. Mas é um ótimo começo, inclusive estendi de forma automática.
Agora ele foi e voltou, que é legal, e está estendendo o que indicamos que pode ficar ruim. Já estou vendo que vai ficar ruim, mas tudo bem.
Então essa é a forma de criar vídeos dentro do Midjourney — você pode usar suas imagens, criar novas imagens por aqui, animar. Achei legal poder pegar imagens de outro projeto e, com um botão, animar, por exemplo, flores caindo e coisas do tipo.
O que achei melhor e mais interessante, além de poder ver as criações rápidas, é que está muito alinhado ao meu dia a dia — e sempre falo isso sobre várias ferramentas de inteligência artificial: elas estão muito fáceis de usar no dia a dia.
Como já crio muitas imagens pelo Midjourney, é interessante inserir e clicar no botão para animar, pelo menos para fazer testes.
Aqui não funcionou muito bem, mas tudo bem, não tem um cachorro no fundo. É sempre interessante vocês ajudarem, inclusive avaliando aqui — se não gostaram do vídeo, isso ajuda o sistema a ficar melhor e melhor.
Atualmente a limitação dos 480p, pelo que vi e testei, se você subir direto para Stories, Reels ou redes sociais, pode haver uma compressão muito forte, piorando a qualidade.
Se você colocar num editor como CapCut e exportar em 720p ou 1080p, talvez fique um pouco melhor. Foi o que testei e funcionou como uma forma de contornar. Claro que não vamos conseguir usar para vídeos maiores como no YouTube, porque quando baixamos o arquivo e vemos em tamanho maior, fica pixelado, não fica tão legal. Mas para algumas brincadeiras, no seu conteúdo do dia a dia, talvez funcione bem. Você pode pensar em formas criativas de usar. Por exemplo, ter uma tela dividida em 3 e cada parte sendo um vídeo, ajuda a driblar a qualidade.
Gostaria que vocês testassem e compartilhassem nos seus stories! Testem com algumas imagens que já tinham ou gerem uma sequência para a gente. Testem, coloquem nos seus Stories e marquem a gente para compartilhar nas redes também, tá bom?
Então, já mostrei tudo isso que foi lançado agora há pouco. Conforme surgirem novidades, vou passar para vocês.
Eles falam no roadmap deles para o futuro que vão colocar um upscale de vídeo para aumentar a qualidade, o que todo mundo já está reclamando. Daqui a pouco vai sair a versão 7.1, treinada com um novo modo de treinamento, para incrementar e atualizar mais.
Em breve teremos novidades que vocês vão saber aqui dentro do CR_IA.
Então, até a próxima aula!