Entenda quais são as ferramentas e técnicas mais atuais para a criação de vídeos com IA, com aplicações práticas que mostram como transformar imagens, textos e elementos em produções visuais de qualidade. Conheça benchmarks verdadeiros para saber quais IAs se destacam, explore recursos de swap, controle de câmera e presets e saiba como essas novidades impactam seu processo criativo e produtivo.
Escolha uma das ferramentas apresentadas (como Kling 2.0 ou Google View 2) e crie um vídeo curto combinando ao menos dois elementos separados (background e objeto/pessoa). Experimente aplicar controle de câmera e pelo menos uma transição para unir cenas diferentes. Envie seu vídeo para compartilhar resultados e aprendizados.
Fala, pessoal, bem-vindos a mais uma live aula do CR_IA. Hoje vamos falar das atualizações de IA dos últimos três meses, que foram muitas, especialmente na última semana, com o lançamento de diversas plataformas: o Google View 2, que já estava disponível para algumas pessoas e agora está disponível para todo mundo; o Runway lançando o Gen 4; o Kling lançando a versão 2.0; o Higgsfield, um modelo novo que foi recém-lançado. Também vamos falar das formas diferentes de criar com inteligência artificial para vídeo, porque as ferramentas vão mudar o tempo todo, mas as técnicas que elas vão implementando são mais importantes que as ferramentas. Claro, vamos comparar elas e trazer muitos exemplos para você que quer se aventurar na criação de vídeos com IA, beleza?
Primeiro, sobre vídeo, vamos falar de como as coisas vêm evoluindo, né? Não sei se vocês lembram, em 2023 teve aquele vídeo do Will Smith comendo espaguete, ele até fez um meme depois, mas essa era a qualidade que a gente tinha de vídeo quando começamos. Tem muitos amigos de Recife aqui, hein? Que bom que vocês estão acompanhando, Natalia.
Mas aqui a gente tinha esse vídeo horroroso, mas que já dava para entender que a IA estava entendendo. E aí agora a gente tem esse Will Smith comendo espaguete, tem até áudio nesse vídeo, mas como eu estou falando aqui, tirei, mas está bem perto, né? Dá para falar que é o Will Smith? Se você estiver muito ligado, não. É que a gente está sempre no contexto de IA, então numa aula de IA tudo é suspeito, mas eu acho que a qualidade já está bem legal, e tenho certeza que até o final do ano provavelmente a gente vai estar num nível de qualidade difícil de perceber, assim como esse para algumas pessoas já é.
Mas isso é o que a gente evoluiu nos últimos dois anos.
Eu também acho que o primeiro tem mais chances de viralizar do que o último. Esses são as seis que acho que vêm disputando a ponta e, nas últimas duas semanas, tivemos um competidor novo, que é o Higgsfield.
Quem aqui conhece o Higgsfield? Manda aí no chat só para eu entender porque eu vivo nessa bolha da IA e nunca sei se o que eu estou vendo as pessoas estão vendo. Mas o Higgsfield chegou com tudo, principalmente pela interface; a gente vai falar um pouquinho dele.
Essas são as melhores. Tem gente que vai gostar mais de uma, tem gente que vai gostar mais de outra, mas eu tenho aqui um link começando com uma das coisas mais preciosas que vou dar para vocês nessa live. É isso aqui, tá?
Não é mais sobre o que cada um acha melhor IA, mas existe agora um benchmark bem legal chamado Artificial Analysis Video Arena Leaderboard. Como funciona? Isso aqui é muito legal.
Você... cadê, cadê? Poxa, só porque eu falei, esqueci onde eu estava.
Essa é uma plataforma onde as pessoas entram e está no link aí, a Yasmin vai mandar, e aí você tem que falar o que você prefere:
Isso aqui acho que as duas são ruins, mas prefiro essa aqui, LTX. Essas duas, qual vocês preferem? Fala para mim, a da direita, né? Aí foi o Image to Video 0.2 aqui, esse da bola. É esse.
As pessoas vão votando. Tudo teste cego. Certo? Isso aqui está mais real, clean.
E aí depois tem o leaderboard baseado no voto dessa galera e a porcentagem de vezes que ele foi escolhido.
E aqui está o ranking de texto para vídeo:
Google View 2 liderando, Kling, Sora.
Acho esquisito, mas beleza.
Pica 2.0, Minimax, Kling 1.6.
Está tudo aqui, beleza? Olha o Runway aqui, bem para baixo. Image to Video, que é o que eu sempre prefiro fazer. Kling 1.6 Pro, Runway Gen 4, View 2.
Ah, Paulo, e o Kling 2.0, galera? Foi lançado ontem.
Aí ele não está aqui ainda, mas provavelmente vai estar logo depois.
Então eu sempre dou uma olhada aqui porque esses comparativos que a gente vê são meio subjetivos, mas essa lista aqui nunca vai ser, porque é sobre o gosto de várias e várias pessoas. Legal? Gostaram? Vocês já conheciam esse site? Fala para mim.
Se a gente quiser ver comparativos, a gente tem aqui a mesma imagem com o mesmo prompt comparando todas as IAs. Google View 2, LumaRay 2, que é o Dream Machine, One 2.1, que é um modelo livre, um modelo que você pode instalar no seu computador se tiver uma boa placa de vídeo, o Pixverse que está muito bem, que eu quase não uso, Kling 2.0, que é meu favorito, e o Runway Gen 4.
Eu digo que isso aqui é subjetivo porque quem trabalha com vídeo sabe que cria mais cinco versões para escolher uma. Aí vai muito de quem está escolhendo, vai muito de... Se eu faço um teste tipo: "ah, gerei duas vezes com Kling e cinco vezes com Google View", obviamente o Google View vai ter uma vantagem. Mas aqui dá para ter uma noção, dá para ver que está todo mundo ligeiramente empatado.
Me digam aí se vocês têm uma favorita dessas do comparativo. Esse vídeo é longo, então vou esperar vocês me falarem no chat. Isso aqui é uma live, interajam aí, galera, senão parece que estou sozinho.
Me digam se têm seus prediletos.
Aí tem um negócio legal que eu sinto que depende para quê?
Eu acho que o Luma Ray 2 é melhor para lidar com ilustração 2D, enquanto o Kling 2.0 eu acho que é melhor para lidar com realismo. O Runway eu gosto dos movimentos de câmera.
Hoje eu tenho usado sempre o Luma, o Runway, o Kling e agora o View 2 meio que junto. Pego uma cena, volto nos três, quatro ali; meio que na primeira vez já dá para saber quem tem chance de entregar um negócio melhor. Aí eu pego e dou uma lapidada.
Eu acho o Kling mais expressivo, Bruno. Se a galera falar que fosse usar uma só, provavelmente seria o Kling, principalmente agora com o 2.0.
Tem muito a ver também, uma coisa que eu sempre falo para vídeo: vai do que você está mais acostumado. Tem uma questão de gosto envolvida, meio câmera. A câmera tem a ver com qual você conhece mais, qual você espera mais do que for via e por aí vai.
Mas eu acho que todas essas aqui estão ali no estado da arte. Mas eu prefiro o Kling.
Tem outro site aqui, esse é brincadeira porque demorei muito para achar. Esse Tierner é um Notion onde tem todos esses vídeos aqui para você ver em melhor qualidade. Aqui na live já dá uma detonação.
A Yas vai mandar para vocês. Ele tem uma pessoa muito bondosa que sobe todos os vídeos no Notion para nós. E aí ele faz várias cenas: cena 1, cena 2 do cara.
É o que está compilado naquele vídeo só que com mais qualidade. Eles atualizam sempre, então toda vez que sai um modelo, eles colocam ali o modelo. Você tem uma chance de fazer esse benchmark. Tem 17 cenas, não, 25.
Olha só, mais um link para vocês. Se forem compartilhar, marquem a gente, marquem o CR_IA, me marquem.
Voltando para nossa apresentação. O Runway lançou o Gen 4. Se alguém testou, me contem. Já estava esperado. O Runway com a geração 3 estava bem atrás das outras IAs, e aí com a atualização do Gen 4 ele encostou em todo mundo.
Eu testei não tanto quanto deveria. Gostei dos resultados, achei que tem consistência, está mais nítido. Acho que não é melhor que o Kling, por isso eu estou usando o Kling 2.0.
Olha, o link não está abrindo. Sim, galera, espera que eu vou voltar lá no navegador.
Está aqui, é o mesmo link. Mas se não abriu, o que posso dizer? Deixa eu testar. Não abriu mesmo. Tem um caractere especial ali, Yas, depois dá uma olhada no link correto.
Mas voltemos aqui, onde estava? Kling.
Então Kling já era o melhor. Vocês veem ali no comparativo que o Kling 1.6 já está na frente, e agora saiu o 2.0. É difícil acreditar que ele não vai ficar maior ainda, ele tende a ficar na liderança.
Esse aqui é um vídeo do Kling 2.0, lançado anteontem. A galera está maluca. Se você entrar no X, é um modelo que a galera está mais falando.
Teve um vídeo bem legal com a galera da comunidade, fiquei animado porque o Kling nunca lidou muito com a comunidade - as redes sociais dele são horríveis - e eles atualizaram a interface. Ficou bem melhor, embora ainda no celular seja muito ruim, e está lidando mais com a comunidade, trabalhando com alguns criadores. Então foi bem legal, fizeram uma live.
Para mim, o Kling sempre foi o melhor modelo, parecia que ninguém trabalhava lá. Agora tem gente trabalhando, dá para ver que eles vêm forte na briga.
Aqui um comparativo da mesma imagem, mesmo prompt, só entre o Kling 2.0 e o 1.6.
Dá para sacar os upgrades em termos de acting, melhorou muito.
Foi engraçado porque eu estava trabalhando num projeto com muita dificuldade de fazer uma foto ganhar movimento real, uma foto antiga dos anos 60. E aí o Kling atualizou enquanto eu mexia, e só voltei no Kling 2.0 e foi de primeira. Ele tende a ter actings mais expressivos.
Em termos de qualidade, nitidez, está a mesma coisa - já era bom.
E aí vem o Google Veo 2. Quem já usou o Veo 2?
Até o momento, ele estava restrito para pouquíssimas pessoas, depois liberou para usar no Free Pick, onde todo mundo usava, e eu tinha a sensação que ele estava meio nerfado, meio pior do que a versão pura.
Ontem foi liberado para geral, e, através do Google, está bem confuso onde utilizar.
Eu consegui usar no Google Studio, estou até achando aqui se estou com ele aberto... não estou mais, mas ele está disponível só para quem tem o Gemini Advanced.
Deixa eu mostrar onde utilizei. Usei por esse link, que não mandei ainda para a Yasmin, mas vou mandar agora no grupo.
Google Veo está exatamente neste site, se você tiver o Gemini Advanced, que só está disponível para quem tem assinatura do Google One, que é o pacote para quem tem acho que 10 teras, se não me engano. Se você já paga o Google, consegue usar o Gemini Advanced 2 e o Google AI Studio.
No AIStudio.google.com, ele abre em chats, tem vários para você usar, inclusive o de imagem está aqui. Você vai em VideoGen e pode usar o AI Studio aqui, por exemplo, "GoPro walking in a beach." Aí você manda rodar.
Ele vai pensando.
Estou pensando em fazer um vídeo sobre ele, mostrando alguns resultados. Porque no benchmark de texto para vídeo ele é o top 1, e eu acho que os melhores filmes de AI que têm rolado têm sido feitos com Google Veo. Embora, sinceramente, todas as vezes que utilizei tive dificuldade de chegar em bons resultados, não consegui a consistência que vi várias pessoas conseguindo, mas preciso testar mais.
Marcelo deu a dica aqui: quem tem mais de 2 teras no Google One tem acesso ao Gemini Advanced, então tem acesso ao Google Veo. Aqui no modelo tem o Veo, e esse outro Veo aqui; você coloca o Expect Ratio, quantos segundos vai rolar? Aqui está o nosso resultado, ficou bem aleatório porque meu prompt foi terrível, mas ele está gerando. Qual é o problema? 720p. Para mim isso invalida um pouco usar o Google Veo comparado a outros modelos, mas acho que vão disponibilizar logo. Tem uma conversa com o Google, olha só, para entender melhor as atualizações do Google View, e aí trago aqui para vocês em primeira mão. Por que falo do Veo? Porque a galera está fazendo isso aqui.
Cadê? Peraí. Travou minha aplicação. Travou, aí é complicado. Peraí. Não tem live que não dê problema. A culpa é minha. Mas vamos chegar lá, tá bom? Quem acredita no meu potencial?
Aqui. Foi. Não sei se vocês viram...
Tem o Jason Zada, que eu acho que é o cara hoje que faz os melhores vídeos de IA do mundo. Não à toa ele falou no TED Talks. Esse é um dos vídeos dele chamados Great Pan, que conta a história de um homem, e tudo isso foi criado no Google Veo. Tem vários filmes bem legais dele, vou mandar o Instagram depois para vocês.
Ele falou no TED semana passada, acho que logo estará disponível para a gente ver.O nível de qualidade vai para um lugar muito cinematográfico, claro que tem muita pós-produção.
Outro exemplo do Google Veo é esse filme do László Gaál, que é um comercial fictício da Porsche. Não sei se vocês já viram, é bem impressionante. O nível de fluidez, iluminação, física, qualidade mesmo que esse filme tem.
Acho que aqui tem muita malandragem do cara que criou, pois é um filme que conta a história de um italiano; ele vai mudando porque passam 30 anos, às vezes está velho, às vezes novo.
É tudo muito rápido, não há nenhuma cena com mais de um segundo. Muitas vezes o personagem está de costas. Tem toda uma técnica de cinematografia para chegar nesse resultado. Não é só sobre a ferramenta, mas sobre a capacidade de contornar limitações. Eu acho que o Lars fez isso brilhantemente. Esse filme é muito legal, eu acho genial - é um filme de um minuto, um anúncio fake da Porsche. No final ele mostra um making of, o backstage, o diretor falando e a galera organizando a filmagem, o que deixa o material ainda mais interessante. Eu gostei muito de ter feito.
Mas vamos lá, mais importante que as ferramentas é a gente entender que estão surgindo novas formas de criar com IA. Por que a gente fazia... quem viu minha última aula de vídeo em dezembro sabe que eu falava que tem três formas de fazer vídeo: texto para vídeo, imagem para vídeo e vídeo para vídeo.
Agora continua um pouco assim, mas tem várias outras maneiras, e eu elenquei aqui quatro coisas para a gente falar na live:
Nos próximos 30 minutos, talvez menos, vamos falar de todas essas maneiras de utilizar IA para vídeo.
Vocês sabem que é para ficarem na live até o final, né? Porque vamos passar por todas essas técnicas.
Será que conhecem todas? Sei que tem pessoas mais experientes aqui, que bom! Mas para quem não conhece, vamos passar por todas, e quem conhece, me ajuda, me falando coisas que eu não sei.
É... um Kling desde 1.6. Você cria vídeos com elementos, coloca um background e um carro por exemplo, ele gera.
Então, coloca dois elementos, não precisa criar uma imagem ou fazer uma fotomontagem.
Gabriel, aquele do KFC é polêmico, tudo falso. Foi criado a partir de imagens copiadas de outro comercial. O cara só fez as transições, enfim. Talvez a coisa mais polêmica da IA de vídeo. Depois se tivermos o link que explica a treta, cola aqui, senão coloco depois.
Voltando aos elementos, eu fiz esses vídeos. Nunca criei essa imagem, né? Como faria antes de dezembro? Fotomontagem, né? Colocar Fernanda Torres, eu e o Oscar com a mão dela. Hoje você manda uma imagem minha, uma da Fernanda Torres, uma do Oscar e escreve um prompt explicando que tudo isso vai ser uma coisa só e consegue gerar essa cena.
Isso aqui é muito bom porque fica mais fácil gerar e evita a necessidade de fotomontagem. Um exemplo que fiz numa palestra mês passado, criei dois personagens no Midjourney e queria me desafiar a fazer um clipe só usando essas duas imagens. Era a regra: só essas duas imagens.
Aí, com essas duas imagens e vários prompts, várias cenas, criei esse clipezinho com música, tipo cena pós-créditos. Não sei se conseguem escutar. Eu fiz uma musiquinha com várias cenas todas criadas com as duas imagens, só mudando prompt: eles dançando, dançando com câmera orbital, assim e assado.
Lembrando que isso foi feito com Pika 2.0 antes das últimas atualizações, hoje já daria para fazer muito melhor. É muito louco, você cria uma coisa com IA e dois meses depois já está velha; você já quer aposentar. Esses são os exemplos de elementos. Isso é muito bom para ter consistência e tirar a necessidade de fotomontagem.
Agora, falando dos Swaps e Additions, que é a possibilidade de trocar coisas numa cena. Isso está muito legal e evoluiu muito. Mês passado eu fiz um vídeo ensinando a fazer isso no Pica, trocar uma imagem sua e trocar completamente o fundo, cadeira, o que quiser. O interessante é que você pode trocar por diversos elementos facilmente, tem um vídeo meu ensinando isso.
Aqui eu troquei uma imagem minha com o macacão do Ayrton Senna, outra com o Drake que não ficou feliz com a situação, colocamos um pinguim. Interessante, mas vamos combinar que o resultado é ok em termos de qualidade. Você não vai ser enganado por isso, vai ser surpreendido, mas está longe de ser real ou chocar. Aqui é um pinguim.
Ontem lançou o swap no Kling 2.0 com qualidade bem melhor. Eu e o Biel estávamos testando. Para quem não sabe, não trabalho sozinho, tenho dois assistentes e editores: Gabriel e Celso.
O nível de qualidade e a diferença para o vídeo anterior é enorme, muito bem ambientado. Claro que esses vídeos feitos pelas próprias IAs sempre dão uma maquiada, mas ainda assim é impressionante a possibilidade de juntar esses elementos. Além disso, você pode deletar coisas, como na cena que deletou a mulher. Testei e achei interessante.
Na página do Kling tem o release notes com todas as atualizações, mostrando o comparativo entre 1.6 e 2.0, especialmente swaps. A qualidade é muito superior. Isso dificilmente funciona numa paisagem com gente no fundo, claro, mas a qualidade está legal. Essa é a técnica de swap.
A "irmã" da técnica de swap é a técnica de adicionar, que é esse vídeo onde adiciono um panda dentro de casa - um dos meus favoritos porque amo pandas. Hoje daria para fazer ele com qualidade melhor do que eu fiz, há uns dois meses. Ainda é surpreendente, dá uma veracidade legal. A primeira vez que vi fiquei em choque, e agora, com as atualizações, ainda mais.
Vocês estão gostando, anotando?
O Hen sofreu para fazer um vídeo pobre andando a cavalo; o Kling teria que fazer isso fácil. Não sei se ele fez com texto ou imagem, mas ambos deveriam ser simples.
Eu acho texto para imagem sempre complexo, mas fazer uma imagem POV tipo GoPro de alguém andando a cavalo e gerar um vídeo, o Kling entregaria bem, mas eu faria a imagem antes. O Luma foi precursor disso, há umas três semanas lançou isso: a possibilidade de pegar uma cena e escolher 20 pré-settings de câmera (Zoom In, Zoom Out, Orbit), em vez de escrever prompt escolhe o movimento e ele faz tudo automático.
Isso diminui a necessidade técnica de entender prompt e cinematografia, e dá consistência. Já gerei facilmente 3 mil ou 5 mil cenas, e é difícil acertar de primeira. Com movimentos de câmera, os primeiros resultados já eram bem próximos do imaginado. Além disso ajuda a pensar a cena como um todo.
Uma execução disso foi um vídeo que fiz provocando fotógrafos — fiz clickbait dizendo que ia acabar com fotógrafo, para dizer que não é bem assim. Se você tem uma boa foto, consegue gerar vídeo a partir dela. Fiz esse clipe com uma única foto, muito edição, mas só usando Luma, nenhum outro IA. Não tem mistério: seleciona a foto, movimento de câmera e acabou.
O Luma estava gratuito para testar, não está mais. Agora é pago; muita gente me xingando porque falei que estava grátis e quando o vídeo foi ao ar já não estava. Mas as coisas mudam rápido, acontece. Existe uma alternativa para o Luma que dá para gerar 3 vídeos de graça, que é nada, depois fica caro. Não falei dela porque a galera não reclama que é pago; se ainda é a mais cara, complica.
O Higgsfield é um caso à parte que quero dar atenção maior porque também tem movimentos de câmera. Mesmo esquema do Luma. A qualidade é praticamente idêntica. Mas ele mais do que movimentos de câmera entrega presets. Olha só que legal, tem o Slow Shutter, foi além dos movimentos e trouxe algo que acho até mais relevante e que vai transformar bastante a forma como criamos vídeos.
O nome é terrível: Higgsfield.
Aqui mais um exemplo de movimento com o Luma, olha essa cena, fala sério, uma baita cena. Tem um movimento que não está perfeito, não é perfeito — isso é IA. A questão é lembrar do Will Smith comendo espaguete, como estava em 2023, como está agora. Estamos em 2025, como vocês acham que vamos estar em 2026, 2027?
Para fechar as técnicas e abrir para dúvidas, quero falar dos presets, que é evolução do lance da câmera. Depois falamos de keyframes.
O legal dos presets? Vou passar o link que uso como referência. iCandy não tem nada a ver com IA, na minha opinião é o melhor site para buscar referência de vídeo que existe e já existiu. Aqui traz só feedzão com as referências cinematográficas mais fodas que você pode imaginar. Só cenas, não vídeos. Está aqui para quem faz storyboard, concebe vídeo e tal. Não começo um trabalho sem dar uma olhada porque atualizam toda hora.
Por exemplo: você pega planar aéreo e vê só referências de plano aéreo. Quer close-up? Só referências de close-up, sério, não existe nada igual. Nenhum site entrega referência tão boa quanto essa. Vale ter vindo a essa live por isso.
E aí o que o Higgsfield fez? Copiou sem medo nenhum, sério. Quando olhei achei que era o mesmo dono. Deve ser, mas procurei: não é. Mas vamos lá, os caras simplesmente roubaram o site inteiro.
Bruno, se você está usando e não conhece espero que conheça o Higgsfield e me diga se concorda que os caras assaltaram o conceito do iCandy. Só diferença aqui são cores. Esse é o mundo que vivemos. Você pega uma coisa dessa, em vez de só referência, você gera vídeo nessa pegada! É só clicar em "SnorriCam Generate", colocar uma imagem ou prompt para gerar vídeo assim. Inclusive ele gera a partir de uma imagem.
Estou fazendo tanta coisa que nem sei onde tem uma imagem boa aqui. Mas isso aqui não vai dar certo, porque era para ser com duas pessoas. Mas dá para gerar a partir disso. São pré-settings de prompt. Na prática, alguém escreveu um prompt, testou várias vezes, ficou bom, cria um seed que faz as imagens saírem semelhantes.
É parecido com o que o Pika faz. Pega esse WrapFlex aqui, vamos selecionar foto do casal no safari. Ontem dei aula para agências de viagem e criava imagens. Você pode colocar um prompt, nesse caso não vamos colocar. Aí está subindo ainda, só que é lento.
Problema do Higgsfield: é lento demais na versão gratuita. Tem que querer muito.Eu não pago todas as versões, mas pago muitas para testar. Ele não vai gerar. Sabe por quê? Porque já fiz duas imagens gratuitas, só duas, nem três. Aqui estão as que criei, não vou poder criar nova.
Olha isso: coloquei um prompt me botando indicando para a tela. Tem foto. Ele sempre faz meu sorriso errado, mas é impressionante. Aqui era o Orbit. Vamos ver. Olha a referência.
Como disse, o site é bem lento, minha internet é boa. Olha lá, Orbit visão. Fala sério. A partir de uma foto, demais. Eu acho pelo menos.
Higgsfield não está nem aí para direitos autorais, nem para nada. Não só roubou o iCandy, mas pegou o trabalho de muita gente aqui. Ou você acha que aquela galera está recebendo? Provavelmente não. Mas é isso.
Eu não pago porque acho que o Luma faz parecido. Eu sou parceiro do Luma, sei disso. Testo versões antes de sair. Aqui estão os preços do Higgsfield: é bem caro comparado a outros.
Quem trabalha com vídeo tem que comprar o de 55 dólares para começar a brincadeira, para fazer 150 vídeos. No fim, é um preço razoável comparado a outros. Quando vi estava a 79 e pensei "não vai rolar."
Ainda sobre preset, quem usa o Pika? Vou pedir cupom, eles têm que me dar alguma coisa porque fiz o último vídeo e dei moral para eles. Vou mandar mensagem, seria legal dar uns free codes. Falando em preset, o Pika é o rei disso. Eu uso muito, sou creative partner do Pika. Aqui a gente não tem essa coisa de falar das melhores plataformas. Acabei de falar um monte de mal do Pika comparado ao Kling, mas ele tem coisas maravilhosas, especialmente os presets. O Pika está se tornando meio que uma rede social de IA porque eles colocam tudo que são templates.
Tipo jogar um gato e ele ficar flutuando. Você só precisa colocar um vídeo parecido, entendeu? É só sobre template, meio que o Canva da IA. Vale a pena dar uma olhada porque às vezes é só um efeito rápido. O Pika vai ser a melhor saída para você.
Beleza. E por último, as transições. Chegamos aqui, a última etapa: keyframes e transições. Essa brincadeira começou com o Luma, não sei se lembram desse vídeo, tem um ano já. Você podia conectar imagens e ele fazia transição.
A galera fez isso com memes. Tem um vídeo gigante do Blizene, quase dois minutos, juntando memes.
Aí, faz duas semanas, lançaram o Pika Transitions, uma funcionalidade bem legal. Inclusive vou postar um vídeo amanhã mostrando como fazer e fazendo experimentos legais. Acho que ficou muito bom, tem usado bastante. Basicamente você pode juntar qualquer cena.
Aqui mais um exemplo de transição. Isso é legal: tem duas imagens, primeira e segunda, bem diferentes, e aí ela cria a cena que conecta as duas. Quem quer trabalhar com animação, isso é maravilhoso. Outro exemplo é de camiseta para quem trabalha com vestuário: frente e verso. Duas imagens, não precisa nem de prompt.
Outro jeito foi o de ontem, quem viu o vídeo com a Vic? Se não viu, dá um engajamento para a gente. Vic contou um sonho que virou vídeo: ela caindo de um prédio alto com vestido longo vermelho, apareceu um gato gigante que a segurou no colo, quando olhamos para o lado vinha um tsunami, a gente foi molhado e eu apareci no meio de tubarões ferozes. O que será que isso quer dizer? Lá no fundo você apareceu, meio Aquaman, olhou para mim e falou: "Bora tomar um café?" Bora, mas antes deixa eu te contar.
Vocês viram? Diz aí se gostaram, ou se não, pode falar também. Quero ver o que o pessoal achou. Olha, o ponto todo aqui são essas transições.
Isso é o Pika Transitions. Essa aqui para cá, que absurdo! Mesma coisa. Todo ele foi feito para ter essa fluidez, que dá um grau legal no vídeo, é uma linguagem. Tsunami, que legal. Ela caindo é a transição. Mesma coisa, técnica legal que você pode usar para várias coisas.
Basicamente, era isso que queria trazer de atualizações para vocês. O mundo da IA está muito agitado. Deixa eu me ajeitar aqui para me ver e ver vocês. O mundo IA está muito agitado como sempre. A notícia é que não vai desacelerar. Tem que estar ligado.
Esse tipo de live tem como objetivo passar um geral para vocês e entender o que faz mais sentido. Testar, porque não tem como testar tudo, eu não sei se vocês trabalham com isso como eu, o Fê e a Ana. A ideia era passar por esses exemplos, inspirar vocês e já dar um parecer sobre as atualizações de ferramentas.
Se tiverem dúvidas, mandem aí, temos alguns minutinhos ainda. Tem quem gasta uma grana, Felipe. Existem algumas plataformas, alguém citou o Krea.
No Krea você paga assinatura e pode usar várias IAs de vídeo. Acaba sendo um pouco mais caro porque eles têm que ganhar alguma coisa, mas é pouca coisa. Você pode testar vários modelos. Se eu fosse pagar uma única IA de vídeo, só poderia ser uma, provavelmente essa, porque pode usar várias dentro. Só demora um pouco para chegar às funções tipo o Kling Element, esse de colocar elementos, que sai daqui a duas semanas no Krea. Eles sempre colocam novidades, inclui LUT nos prompts, dá para colocar tipo de filme, câmera, tudo que possa influenciar no estilo. Dá para pôr cenas e transições do mesmo modelo ou modelos diferentes.
De modelo, você fala de... Nesse vídeo não, porque o Kling é o Kling, mas dá para fazer fácil. Já fiz muita transição de cena real, tipo tirar um print e transicionar para cena de IA. Fiz isso no vídeo do SXSW.
Felipe, eu indico assinar o Krea, porque lá você pode testar todas, paga um mês, plano de R$ 8, testa tudo e depois vai para outra. Se estivesse começando hoje faria isso.
Sobre direitos autorais? Definitivamente, Daniel, se alguém fizer isso estará infringindo. Um ponto que vi num vídeo do James Cameron, que vou compartilhar, ele falou algo muito real: sempre haverá chance de violar direitos autorais. A única forma de combater é punindo quem publica algo que viole direitos autorais.
Podemos ver o Photoshop: se pensar lá atrás, era uma ferramenta que permitia pegar uma imagem e manipular. A Adobe nunca foi processada (ou talvez foi), mas as pessoas que publicassem violação tinham problema. Claro que a IA facilita muito, a gente tem que supervisionar, mas é menos sobre como foi criada e mais sobre impedir que ela reproduza esse tipo de material. Essa seria uma forma para termos regulamentação e banir coisas proibidas.
O Kling é sempre minha favorita, não só minha. Mostrei no começo da live um benchmark que a comunidade faz, e Kling é a primeira. Não é só eu falando, são centenas de milhares de pessoas que usam IA e concordaram, sem ser proposital, no teste cego, que essa é a melhor IA.
Muito obrigado, até a próxima. Me mandem mensagem no Insta, estou sempre de olho na DM e agradeço a atenção de todos vocês.