Cidadania

Inteligência artificial significa que qualquer pessoa pode escalar estrelas de Hollywood em seus próprios filmes

Durante anos, a única maneira de criar um filme de grande sucesso com uma estrela de Hollywood e efeitos especiais deslumbrantes era em um grande estúdio. Os gigantes de Hollywood foram os aqueles que podiam pagar milhões de dólares a celebridades e licenciar softwares sofisticados para produzir filmes elaborados e cheios de efeitos. Isso está prestes a mudar, e o público está dando uma espiada graças às ferramentas de inteligência artificial (IA) como DALL-E e Midjourney da OpenAI.

Ambas as ferramentas usam imagens retiradas da Internet e selecionam conjuntos de dados como LAION para treinar seus modelos de IA para reconstruir imagens semelhantes, mas completamente originais, usando prompts de texto. Variando de fotorrealistas a imitar os estilos de artistas famosos, as imagens de IA podem ser geradas em menos de 20 a 30 segundos, muitas vezes produzindo resultados que levariam horas humanas para serem produzidos. Por exemplo, o Ilustração de “diagrama de synthwave brilhante detalhado de um robô mecânico japonês” baixa.

Essas ferramentas pagas geralmente evitam a aparição direta de celebridades em seus passeios. Mas os usuários estão encontrando soluções com o advento do software de imagem de IA gratuito e de código aberto. O mais popular é o Stable Diffusion produzido por uma startup sediada no Reino Unido. Estabilidade.AI. A ferramenta de código aberto permite que os usuários gerem imagens originais de qualquer celebridade encontrada na Internet. Um particularmente convincente O exemplo (abaixo) mostra Bryan Cranston (liberando o mal) vestindo o traje de um jogo dos tronos personagem, colocando o ator icônico em um palco que muitos fãs poderiam apenas sonhar.

O que começou como geração de imagens de IA rapidamente se transformou em animações experimentais combinando difusão estável com ferramentas complementares gratuitas como deforo, Colaboração do GoogleS sintetizador eletrônico. Em alguns casos os plugins requerem alguma manipulação de código, YouTube, Discord e Reddit estão cheios de facilidades de interpretação tutoriais que os tornam acessíveis a quase todos. esses improvisados As animações são apenas o começo.. Vídeos originais completos de IA derivados de anúncios de texto já estão a caminho.

No início deste ano, o Google Imagem e os de Meta Fazer um vídeo Visualize ferramentas de IA que podem gerar vídeos fotorrealistas a partir de prompts de texto. versões de código aberto desses tipos de ferramentas de IA já estão sendo desenvolvidas, uma dinâmica que provavelmente levará ao mesmo tipo de conteúdo sem censura sendo produzido pela Stable Diffusion.

Se a evolução das ferramentas de vídeo de IA refletir a rápida melhoria dos geradores de imagens 2D de IA, o público poderá ver seu primeiro longa-metragem totalmente gerado por IA nos próximos um ou dois anos.

A Stable Diffusion esperava poder confiar em seus usuários

O potencial abuso de ferramentas de geração de vídeo de IA para violar os direitos de propriedade intelectual dos estúdios de Hollywood e os direitos dos atores estão entre os muitos problemas potenciais que surgirão nos próximos meses. Em breve, quase qualquer pessoa que use ferramentas de inteligência artificial poderá incluir celebridades em filmes não autorizados com tudo, desde sequências violentas a cenas sexualmente explícitas.

Teste de Criatura | Difusão estável Img2Img x EbSynth

Por exemplo, a versão de instalação geral do Stable Diffusion inclui filtros de segurança para evitar que imagens explícitas sejam geradas, mas a comunidade de código aberto rapidamente criou um código para superar essas barreiras. Embora o conteúdo sexual não seja o alvo mais popular para os aproximadamente 10 milhões de usuários do Difusão estável, há pelo menos uma comunidade Reddit com mais este 6.400 membros dedicados a explorar como usar Stable Diffusion para produzir nudez e imagens sexualmente sugestivas.

Em setembro, quando questionado publicamente sobre a possibilidade de as pessoas usarem o Stable Diffusion de maneiras potencialmente problemáticas, como na criação de pornografia, o CEO da empresa, Emad Mostaque, deu de ombros.

“Se as pessoas usam a tecnologia para fazer coisas ilegais, então a culpa é delas” mostaque twittou. “Esta é a base da sociedade liberal.” No mesmo tópico, Mostaque escreveu que “se as pessoas usam isso para copiar estilos de artistas ou violar direitos autorais, estão se comportando de forma antiética e é literalmente rastreável, pois os resultados são determinísticos”.

Conteúdo gerado por IA chega a Hollywood

Em 17 de outubro, Stability.AI recebeu um investimento de US$ 101 milhões para continuar desenvolvendo seus modelos de IA, bem como seu produto Dream Studio em desenvolvimento, uma versão paga e proprietária de seu modelo de IA que não requer as mesmas habilidades técnicas necessárias para instalar e operar o Stable Diffusion.

Mas junto com a nova avaliação de US$ 1 bilhão da Stable Diffusion veio uma aparente mudança na abordagem da Stability.AI para seus negócios. As mensagens públicas da empresa mudaram com a versão mais recente do Stable Diffusion 1.5, que a startup diz ter atraído o interesse do governo em sua ferramenta de IA gratuita que está sendo usada por milhões.

“Demos um passo atrás na Stability AI e decidimos não lançar a versão 1.5 tão rapidamente quanto lançamos os checkpoints anteriores.” escreveu Stability.AI’s diretor de informações, Daniel Jeffries, em 20 de outubro. “Ouvimos dos reguladores e do público em geral que precisamos nos concentrar mais na segurança para garantir que estamos tomando todas as medidas possíveis para garantir que as pessoas não usem o Stable Broadcast para fins ilegais ou para prejudicar as pessoas”.

Esta precaução extra da equipe Stable Diffusion pode ser bem recebida pelos estúdios de cinema e música (há uma geração de música AI ferramenta em processo) que pode ser afetada pelas ferramentas de geração de IA nos próximos meses e anos.

No entanto, o próximo filme indie estrelado por um ator favorito pode em breve ser produzido no quarto de alguém usando um gerador de vídeo de IA para criar improváveis ​​mashups de Hollywood e colocá-los na Internet, que se danem as consequências legais. Neste ponto, a questão não é Sim isso vai acontecer, mas quando.



Source link

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo