Raspe o Manual: AI Generativa

A IA generativa tomou a indústria criativa por tempestade, inundando nossas rações sociais com belas criações alimentadas pela tecnologia. Mas será que ela está aqui para ficar? E o que os criadores devem ter em mente?
Neste episódio do Scrap the Manual, a anfitriã Angelica Ortiz é acompanhada pelo colega Tecnólogo Criativo Samuel Snider-Held, especialista em aprendizagem de máquinas e IA Generativa. Juntos, Sam e Angelica respondem a perguntas de nosso público - quebrando a palavra-chave em considerações palpáveis e levando em conta - e por que abraçar a IA Generativa pode ser uma coisa boa para os criadores e marcas.
Leia a discussão abaixo ou ouça o episódio em sua plataforma de podcast preferida.
00:00
00:00
00:00
Angélica: Olá a todos. Bem-vindos ao "Scrap the Manual", um podcast em que estimulamos momentos "aha" através de discussões sobre tecnologia, criatividade, experimentação e como todos eles trabalham juntos para enfrentar desafios culturais e comerciais. Meu nome é Angelica, e hoje estou acompanhado por um anfitrião convidado muito especial, Sam Snider-Held
Sam: Ei, é ótimo estar aqui. Meu nome é Sam. Somos ambos técnicos de criação sênior da Media.Monks. Eu trabalho fora de Nova Iorque, especificamente no aprendizado de máquinas e IA Generativa, enquanto Angelica está trabalhando no escritório da Holanda com a equipe Labs.Monks.
Angélica: Para este episódio, vamos mudar um pouco as coisas e introduzir um novo segmento onde trazemos um especialista e passamos em revista alguns conceitos errados comuns sobre uma determinada tecnologia.
E, oh garoto, estamos começando com um grande: IA generativa. Você sabe, aquela que inspirou os longos pergaminhos de Midjourney, Stable Diffusion e imagens DALL-E e a tecnologia que as pessoas parecem não conseguir obter o suficiente nos últimos meses. Acabamos de abordar este tópico em nosso Relatório de Laboratório, portanto, se você ainda não verificou isso, definitivamente vá fazer isso. Não é necessário ouvir este episódio, é claro, mas ele definitivamente ajudará a cobrir a visão geral de alto nível das coisas. E também fizemos um protótipo que vai mais em profundidade sobre como nós da Media.Monks estamos investigando esta tecnologia e como ela é implementada dentro de nossos fluxos de trabalho.
Para a lista de conceitos errados que estamos quebrando ou confirmando hoje, reunimos esta lista de todo o mundo - desde diretores de arte até diretores técnicos - para obter uma variedade do que as pessoas estão pensando sobre este tópico. Portanto, vamos em frente e comecemos com o básico: O que no mundo é IA Generativa?
Sam: Sim, então a partir de um senso de alto nível, você pode pensar em modelos generativos como algoritmos de IA que podem gerar novos conteúdos com base nos padrões inerentes a seu conjunto de dados de treinamento. Portanto, isso pode ser um pouco complexo. Portanto, outra maneira de explicar isso é desde o início da revolução do aprendizado profundo, em 2012, os computadores têm se tornado cada vez melhores para entender o que está em uma imagem, o conteúdo de uma imagem. Assim, por exemplo, você pode mostrar uma imagem de um gato para um computador agora e será como, "oh sim, isso é um gato" Mas se você mostrar, talvez, uma foto de um cão, ele dirá: "Não, isso não é um gato". Aquilo é um cachorro"
Então você pode pensar nisto como um aprendizado discriminatório da máquina. É discriminatório se isso é ou não uma foto de um cachorro ou de um gato. É discriminar a que grupo de coisas esta imagem pertence. Agora com a IA Generativa, está tentando fazer algo um pouco diferente: está tentando entender o que é "gatinho". Quais são as características que definem o que constitui a imagem de um gato em uma imagem?
E uma vez que você possa fazer isso, uma vez que você tenha uma função que possa descrever "gatinho", bem, então você pode apenas experimentar essa função e transformá-la em todo tipo de novos gatos. Gatos que o algoritmo na verdade nunca viu antes, mas tem apenas esta idéia de criatividade "catness" que você pode usar para criar novas imagens.
Angélica: Eu já ouvi a IA geralmente descrita como uma criança, onde você praticamente tem que ensinar tudo. Ela parte de uma lousa em branco, mas com o passar dos anos, ela não é mais uma lousa em branco. Ela tem aprendido com todos os diferentes tipos de conjuntos de treinamento que temos dado a ela. De vários pesquisadores, de várias equipes ao longo do tempo, portanto, não é mais uma tábua em branco, mas é interessante pensar sobre o que nós, como humanos, tomamos por garantido e como: "Oh, isso é definitivamente um gato" Ou o que é um gato versus um leão? Ou um gato contra um tigre? Essas são as coisas que sabemos, mas na verdade temos que ensinar essas coisas à inteligência artificial.
Sam: Sim. Eles estão chegando a um ponto em que estão ultrapassando isso. Todos eles começaram com esta idéia de serem estes sistemas especializados. Essas coisas que só poderiam gerar imagens de gatos... só poderiam gerar imagens de cães.
Mas agora estamos neste novo tipo de paradigma de pré-treinamento generativo, onde temos estes modelos que são treinados por estas corporações massivas e eles têm o dinheiro para criar estas coisas, mas então eles muitas vezes abrem as fontes para outra pessoa, e estes modelos são na verdade muito generalizados. Eles podem muito rapidamente transformar seu conhecimento em algo mais.
Portanto, se foi treinado para gerar esta única coisa, você faz o que chamamos de "ajuste fino", onde você o treina em outro conjunto de dados para aprender muito rapidamente como gerar especificamente gatos bengaleiros ou tigres ou coisas assim. Mas isso está se aproximando cada vez mais do que queremos dos algoritmos de inteligência artificial.
Queremos que eles sejam generalizados. Não queremos ter que treinar um novo modelo para cada tarefa diferente. Portanto, estamos caminhando nessa direção. E, é claro, eles aprendem com a Internet. Portanto, qualquer coisa que esteja na internet provavelmente estará nesses modelos.
Angélica: Sim. Falando em sintonia fina, isso me lembra de quando estávamos fazendo P&D para um projeto e estávamos estudando como sintonizar a Difusão Estável para um modelo de produto. Eles queriam ser capazes de gerar esses fundos distintos, mas ter o produto sempre consistente em primeiro lugar e acima de tudo. E isso é complicado, certo? Quando se pensa em IA Generativa e se quer fazer sua própria coisa porque ou ela não sabe melhor ou não foi necessariamente muito específica nas instruções para conseguir que o produto fosse consistente. Mas agora, por causa desta afinação fina, sinto que ela está realmente tornando um produto mais viável porque então não sentimos que é esta plataforma incontrolável. É algo que poderíamos realmente aproveitar para uma aplicação que seja mais consistente do que poderia ter sido de outra forma.
Então a próxima pergunta que temos é: com todo o foco em Midjourney prompts sendo postados no LinkedIn e Twitter, a IA Generativa é simplesmente uma cara bonita? Será que é apenas para gerar imagens legais?
Sam: Eu definitivamente diria que não. Não são apenas imagens. É áudio. É texto. Qualquer tipo de conjunto de dados que você colocar nele, ele deve ser capaz de criar aquele modelo generativo naquele conjunto de dados. É apenas a quantidade de inovação no espaço é espantosa.
Angélica: O que eu acho realmente interessante sobre este campo não é apenas a rapidez com que ele avança em tão pouco tempo, mas também a implementação tem sido tão ampla e variada.
Sam: Mm-hmm.
Angélica: Então falamos em gerar imagens, gerar texto e áudio e vídeo, mas eu tinha visto que a Stable Diffusion está sendo usada para gerar diferentes tipos de espaços VR, por exemplo. Ou são processos de Difusão Estável, ou não apenas Difusão Estável... apenas diferentes tipos de modelos de IA Generativa para criar modelos 3D e ser capaz de criar todas essas outras coisas que estão fora das imagens. Há tanto avanço em um curto período de tempo.
Sam: Sim, muitas dessas coisas você pode pensar como blocos LEGO. Sabe, muitos destes modelos de que estamos falando já passaram desta generativa mudança de paradigma de pré-treinamento onde você está usando estes modelos incrivelmente poderosos treinados por grandes empresas e você os está emparelhando para fazer diferentes tipos de coisas. Um dos grandes que está impulsionando isto, veio da OpenAI, foi o CLIP. Este é o modelo que lhe permite realmente mapear textos e imagens no mesmo espaço vetorial. Assim, se você colocar uma imagem e um texto, ele entenderá que essas são as mesmas coisas de um ponto de vista muito matemático. Estas foram algumas das primeiras coisas que as pessoas pensaram: "Oh meu Deus, ele pode realmente gerar texto e parece que um humano o escreveu e é coerente e ele mesmo o faz em círculos". Ele sabe o que escreveu cinco parágrafos atrás" E assim, as pessoas começaram a pensar: "E se pudéssemos fazer isso com imagens?" E então talvez em vez de ter o texto e as imagens mapeadas para o mesmo espaço, seja texto para cantar, ou texto para modelos em 3D?
E foi assim que tudo isso começou. Você tem pessoas descendo a árvore evolutiva da IA e, de repente, alguém sai com algo novo e as pessoas abandonam aquela árvore e passam para outro ramo. E isto é o que é tão interessante nisso: Seja o que for que você faça, há uma maneira legal de incorporar a IA Generativa em seu fluxo de trabalho.
Angélica: Sim, isso me faz lembrar de outra pergunta que temos que está um pouco mais abaixo na lista, mas eu acho que se relaciona muito bem com o que você acabou de mencionar. Será que a IA Generativa vai tirar nossos empregos? Lembro-me que houve uma conversa há alguns anos, e ainda acontece hoje também, onde diziam que a indústria criativa está a salvo da IA. Porque é algo que os humanos tiram a criatividade de uma variedade de fontes diferentes, e todos nós temos maneiras diferentes de como obtemos nossas idéias criativas. E há uma coisa de solução de problemas que é apenas inerentemente humana. Mas, ao ver todas essas sugestões realmente legais sendo geradas, estamos criando coisas diferentes que vão além daquilo que teríamos pensado. O que você pensa sobre isso?
Sam: Hum, então esta é uma pergunta difícil. É realmente difícil prever o futuro dessas coisas. Será que vai ser? Eu não sei.
Gosto de pensar sobre isso em termos de "tecnologia de luz de singularidade" Então o que eu quero dizer com "tecnologia de luz singularidade" é uma tecnologia que pode anular indústrias inteiras. Aquela em que estamos pensando agora é a fotografia e o vídeo de estoque. É difícil dizer a essas empresas que elas não estão enfrentando um risco existencial quando alguém pode baixar um algoritmo que pode basicamente gerar a mesma qualidade de imagens sem uma assinatura.
E assim, se você estiver trabalhando para uma dessas empresas, você pode estar desempregado porque essa empresa vai à falência. Agora, isso vai acontecer? Eu não sei. Em vez disso, tente entender como você incorpora isso ao seu fluxo de trabalho. Acho que a Shutterstock está incorporando esta tecnologia em seu pipeline, também.
Acho que dentro da indústria criativa, devemos realmente parar de pensar que há algo que um humano pode fazer que uma IA não pode fazer. Acho que isso não vai ser uma idéia relevante num futuro próximo.
Angélica: Sim. Minha perspectiva a partir disso seria: não necessariamente vai tirar nossos empregos, mas vai evoluir a forma como abordamos nossos empregos. Poderíamos pensar em um exemplo clássico de editores de filmes onde eles tinham como que bobinas físicas para ter que cortar. E então, quando a Premiere e a After Effects se tornam visíveis, esse processo está se tornando digitalizado.
Sam: Sim.
Angélica: E depois mais e mais e mais e mais, certo? Então ainda há editores de vídeo, é que a maneira como eles abordam seu trabalho é um pouco diferente.
E a mesma coisa aqui. Onde ainda existirão diretores de arte, mas será diferente na forma como eles abordam o trabalho. Talvez seja muito mais eficiente porque eles não precisam necessariamente vasculhar a internet para se inspirar. A IA generativa poderia ser uma parte dessa descoberta de inspiração. Será uma parte da geração de maquetes e não será tudo feito por humanos. E não temos necessariamente que lamentar a perda do fato de não ser cem por cento feita por seres humanos. Será algo onde permitirá que diretores de arte, criativos, criadores de todos os tipos diferentes possam até mesmo sobrecarregar o que podem fazer atualmente.
Sam: Sim, isso é definitivamente verdade. Haverá sempre um produto que sairá da NVIDIA ou da Adobe que permite utilizar esta tecnologia de uma maneira muito amigável.
No mês passado, muitos posts em blogs trouxeram à tona um bom ponto: se você é uma empresa de jogos indie e precisa de algumas ilustrações para seu trabalho, normalmente você contrataria alguém para fazer isso. Mas esta é uma alternativa e é mais barata e mais rápida. E você pode gerar muito conteúdo no decorrer de uma hora, muito mais do que um ilustrador contratado poderia fazer.
Provavelmente não é tão bom. Mas para as pessoas com esse orçamento, nesse nível, elas podem tomar o banho de qualidade para a acessibilidade, a facilidade de uso. Há lugares onde isso pode mudar a forma como as pessoas estão fazendo negócios, que tipo de negócio elas estão fazendo.
Outra coisa é que às vezes recebemos projetos que, para nós, não temos tempo suficiente. Não é dinheiro suficiente. Se o fizéssemos, eles basicamente tirariam toda a nossa equipe de ilustração do banco para trabalhar neste único projeto. E normalmente, se uma empresa viesse até nós e nós a transmitirmos, eles iriam para outra. Mas talvez agora que estamos investindo cada vez mais nesta tecnologia, dizemos: "Ei, escute, não podemos colocar pessoas de verdade nisso, mas temos esta equipe de engenheiros AI, e podemos construir isto para você" Para nosso protótipo, isso é o que estávamos realmente tentando entender é quanto disso podemos usar agora e quais os benefícios que isso nos trará? E o benefício foi permitir que esta pequena equipe começasse a fazer coisas que as grandes equipes poderiam fazer por uma fração do custo.
Acho que essa será apenas a natureza deste tipo de aceleração. Cada vez mais pessoas vão usá-la para chegar à frente. E, por causa disso, outras empresas farão o mesmo. Então se tornará uma espécie de corrida armamentista de criatividade AI, se você quiser. Mas eu acho que as empresas que têm a capacidade de contratar pessoas que podem ir até seus artistas e dizer: "Ei, com que coisas você está tendo problemas? Que coisas você não quer fazer? Que coisas demoram muito tempo?" E então eles podem olhar para toda a pesquisa que está surgindo e dizer: "Ei, sabe de uma coisa? Acho que podemos usar este modelo novinho em folha para fazer arte melhor mais rápida, melhor, mais barata" Ele os protege de qualquer tipo de ferramenta que venha a surgir no futuro e que possa dificultar o seu negócio. No mínimo, apenas compreendendo como estas coisas funcionam e não da perspectiva de uma caixa preta, mas tendo uma compreensão de como elas funcionam.
Angélica: Parece uma aposta segura, pelo menos a curto prazo, é apenas compreender como funciona a tecnologia. Como se ouvir este podcast fosse na verdade um ótimo começo.
Sam: Sim.
Angélica: Certo?
Sam: Se você é um artista e está curioso, você pode brincar com ele sozinho. O Google CoLab é um grande recurso. E o Stable Diffusion é projetado para rodar em GPU barato. Ou você pode começar a usar estes serviços como Midjourney, para ter um melhor controle do que está acontecendo com ele e da rapidez com que ele se move.
Angélica: Sim, exatamente. Outra pergunta que surgiu é: se eu criar algo com IA Generativa através da Prompt Engineering, esse trabalho é realmente meu?
Sam: Então isto está começando a se tornar um pouco mais uma questão filosófica. É meu no sentido de que eu o possuo? Bem, se o modelo o diz, então sim. O Stable Diffusion, creio, vem com uma licença do MIT. Então isso é como a licença mais permissiva. Se você gerar uma imagem com isso, então ela é tecnicamente sua, desde que alguém não venha e diga: "As pessoas que fizeram o Stable Diffusion não tinham os direitos de lhe oferecer essa licença"
Mas até que isso aconteça, então sim, ela é sua do ponto de vista da propriedade. Você é o criador? Você é a pessoa criativa que está gerando isso? Essa é uma pergunta um pouco diferente. Isso se torna um pouco mais obscuro. Quão diferente é isso entre um diretor criativo e um ilustrador indo e voltando a dizer:
"Eu quero isto"
"Não, eu não quero isso"
"Não, você precisa consertar isso"
"Oh, eu gostei do que você fez lá"
"Isso é realmente ótimo". Eu não pensei sobre isso"
Quem é o dono dessa solução? Idealmente, é a empresa que contrata os dois. Isto é algo que vai ter que ser discutido nos tribunais se eles chegarem lá. Sei que muitas pessoas já têm opiniões sobre quem vai vencer todos os desafios legais, e isso está apenas começando a acontecer agora mesmo.
Angélica: Sim, pelo que vi em muitas discussões, é uma espécie de plataforma de co-criação, onde você tem que saber o que dizer para que seja o resultado certo. Portanto, se você disser: "Quero uma cena submarina que tenha sereias flutuantes e corais de néon dourados", isso gerará certos tipos de visuais baseados nisso, mas pode não ser o visual que você quer.
Então é aí que ele se transforma em estilos e referências. É aí que os artistas entram em cena, onde é uma versão Dali ou Picasso de uma cena subaquática. Vimos até mesmo os prompts que usam Unreal.
Sam: Mm-hmm
Angelica:...como uma forma de descrever estilos artísticos. A IA generativa poderia criar coisas a partir de uma solicitação básica. Mas há um vai e vem, como você estava descrevendo com um diretor e ilustrador, a fim de saber exatamente que resultados ter e usando as palavras certas e termos-chave e afinação fina para obter o resultado desejado.
Sam: Definitivamente, e eu acho que esta é uma pergunta muito específica para esta geração de modelos. Eles são projetados para trabalhar com texto para imagem. Há muitas razões para que eles sejam assim. Muitas destas pesquisas são construídas nas costas dos transformadores, que eram inicialmente modelos de geração de linguagem. Se você falar com qualquer tipo de artista, a idéia de que você está criando arte digitando é muito contra-intuitiva ao que eles passaram anos aprendendo e treinando para fazer. Você sabe, os artistas criam imagens desenhando ou pintando ou manipulando software criativo e sua maneira mais gestual de interface. E eu acho que à medida que a tecnologia evolui - e definitivamente como queremos começar a construir mais e mais destas tecnologias para torná-las mais projetadas com o artista na mente - eu acho que vamos ver mais destas interfaces de imagem.
E a Stable Diffusion tem isso, você pode desenhar uma espécie de imagem tipo pintura MS e depois dizer: "Muito bem, agora eu quero que esta seja uma imagem de uma paisagem, mas no estilo de um artista específico" Então não é só escrever texto e esperar que a saída chegue, eu também estou desenhando nela. Portanto, ambos estamos trabalhando de forma mais colaborativa. Mas acho que também no futuro, você pode encontrar algoritmos que estão muito mais em sintonia com artistas específicos. Como a pessoa que está fazendo isso, como eles gostam de fazer arte. Acho que este problema será menos questionável no futuro. A certa altura, todas essas coisas estarão em seu Photoshop ou em seu software criativo e, nesse ponto, não pensamos mais nisso como AI. É apenas uma ferramenta que está no Photoshop que nós usamos. Eles já possuem filtros neurais no Photoshop - o Content Aware fill. Ninguém realmente pensa nessas questões quando já as está usando. É apenas esta área que estamos agora mesmo, onde está colocando um monte de perguntas.
Angélica: Sim. As execuções mais interessantes da tecnologia têm sido quando ela se desvanece para o fundo. Ou a seu ponto, não necessariamente dizemos: "Oh, isso é IA", ou "Sim, isso é AR". Esse também é um clássico. Nós apenas o conhecemos pela utilidade que nos proporciona. E como o Google Translate, por exemplo, que poderia ser associado ao AR se você usar a câmera e ela realmente sobrepõe o texto na frente. Mas a maioria das pessoas não está pensando, oh, isto é o Google Translate usando o AR. Não pensamos nisso dessa maneira. Nós apenas pensamos: "Ah, tudo bem, legal. Isto está me ajudando aqui"
Sam: Sim, basta pensar em todos os alunos que estão se candidatando à escola de arte este ano e eles estão entrando em seu curso de graduação em arte e no próximo ano será mais fácil usar toda essa tecnologia. E eu acho que a compreensão deles vai ser muito diferente da nossa compreensão das pessoas que nunca tiveram esta tecnologia quando estávamos na graduação. Está mudando muito rapidamente. Está mudando como as pessoas trabalham muito rapidamente também.
Angélica: Certo. Outra pergunta veio relacionada ao uso de direitos autorais, que você tocou um pouco, e isso é algo que é uma conversa em evolução já nos tribunais, ou mesmo fora dos tribunais - ou se você estiver olhando nos termos e condições de Midjourney e DALL-E e Stable Diffusion.
Sam: Ao baixar o modelo do Hugging Face, você tem que concordar com certos Termos e Condições. Eu acho que é basicamente uma lacuna legal para eles.
Angélica: Yep.
Sam: Se eu usar estes, vou ser processado? Você quer falar com um advogado ou advogado de direitos autorais, mas eu acho que eles também não sabem a resposta ainda. O que vou dizer é que muitas das empresas que criam estes algoritmos - seu OpenAIs, seu Google, seu NVIDIAs - muitas destas empresas também têm grandes equipes de lobby e vão tentar pressionar a lei de uma forma que não as leve a ser processadas. Agora, você pode ver que num futuro próximo, porque estas empresas podem jogar tanto dinheiro na questão legal que, em virtude de se protegerem, protegem todas as pessoas que usam seu software. A maneira como eu gosto de falar sobre isso é, e talvez eu mesmo esteja namorando, mas se você pensar em todo o caminho até o início dos anos 2000 com o Napster e o compartilhamento de arquivos, isso não funcionou muito bem para os artistas. E essa tecnologia mudou completamente sua indústria e como eles ganham dinheiro. Os artistas não ganham mais dinheiro com a venda de discos porque qualquer um pode obtê-los de graça. Agora eles ganham dinheiro principalmente através de mercadorias e turnês. Talvez algo assim vá acontecer.
Angélica: Sim. Quando você mencionou Napster, isso me fez lembrar de uma história secundária onde eu consegui Napster e era legítimo naquela época, mas toda vez que eu pensava: "Oh sim, eu tenho esta canção sobre Napster" E eles diziam: "Mmmm?" Eles estavam me dando um olho lateral por causa da origem do Napster e do download ilegal. É do tipo: "Não, é legítimo. Eu juro que acabei de receber um cartão presente"
Sam: [risos] Bem, sim, muitos de nós agora ouvimos todas as nossas músicas no Spotify. Isso evoluiu de uma forma em que eles estão pagando aos artistas de uma forma específica que às vezes é muito predatória e algo assim poderia acontecer com os artistas nestes modelos. Não parece que a história forneça bons exemplos onde os artistas ganham ou saem por cima. Portanto, novamente, algo para se pensar se você é um desses artistas. Como eu me preparo para isto? Como eu lido com isso? No final do dia, as pessoas ainda vão querer que seu ilustrador de fantasia de topo trabalhe em seu projeto, mas talvez as pessoas que não são tão famosas, talvez essas pessoas vão sofrer um pouco mais.
Angélica: Certo. Houve também uma discussão sobre: os artistas podem ser dispensados de fazer parte de alertas? Por exemplo, havia um fio muito longo no Twitter, vamos ligá-lo nas notas do programa, mas estava basicamente discutindo como havia muita arte que estava sendo gerada usando seu nome no prompt, e parecia muito parecido com o que ela criaria. Será que ela deveria receber uma comissão porque usou seu nome e seu estilo para ser capaz de gerar isso? Essas são as perguntas que estão aí. Ou se eles são capazes de ficar isentos, isso também impede o tipo de produção criativa que a IA Generativa é capaz de criar? Porque agora não se trata mais de um fórum aberto onde se pode usar qualquer artista. E agora vamos ver muitos usos de Picasso porque esse não foi isento. Ou mais artistas independentes não estão representados porque não querem estar.
Sam: Eu não acho que as empresas que criam estas isenções vão realmente funcionar. Uma das minhas coisas favoritas sobre inteligência artificial é que é uma das tecnologias de alta tecnologia mais avançadas que já existiu, e é também uma das mais abertas. Portanto, vai funcionar em suas plataformas porque eles podem controlá-la, mas é uma tecnologia extremamente aberta. Todas estas empresas estão colocando alguns de seus modelos de código e trem mais estelares. Há agora a DreamBooth, onde você pode basicamente tomar Stable Diffusion e depois afiná-la em artistas específicos usando uma centena ou menos de imagens.
Mesmo que uma empresa crie essas isenções, você não pode criar imagens em Midjourney ou DALL-E 2 no estilo de Yoshitaka Amano ou algo assim, não seria tão difícil para alguém simplesmente baixar todos os modelos de trem gratuitos, treiná-los em imagens de Yoshitaka Amano, e depois criar arte como essa. A barreira para entrar para fazer estas coisas não é suficientemente alta para que esta seja uma solução para isso.
Angélica: Sim, as plataformas principais poderiam ajudar a ficar isentas, mas se alguém fosse treinar seu próprio modelo, então ainda poderia fazer isso.
Sam: Está começando a se tornar uma espécie de oeste selvagem, e eu posso entender porque certos artistas estão zangados e nervosos. É que... é algo que está acontecendo e, se você quiser parar com isso, como podemos parar? Tem que vir de um tipo de idéia legal muito concertada. Um grupo de pessoas se reunindo dizendo: "Precisamos fazer isso agora e é assim que queremos que funcione" Mas eles podem fazer isso mais rápido do que as corporações podem fazer lobby para dizer: "Não, nós podemos fazer isso" Sabe, é muito difícil para pequenos grupos de artistas combater corporações que basicamente administram todas as nossas tecnologias.
É uma coisa interessante. Eu não sei qual é a resposta. Provavelmente deveríamos conversar com um advogado sobre isso.
Angélica: Sim. Há outras tecnologias que também têm um enigma semelhante. É difícil com a tecnologia emergente controlar essas coisas, especialmente quando ela é tão aberta e qualquer um é capaz de contribuir de uma maneira boa ou ruim.
Sam: Sim, cem por cento.
Angélica: Isso realmente nos leva à nossa última pergunta. Não é realmente uma pergunta, é mais uma afirmação. Eles mencionaram que a IA Generativa parece estar crescendo tão rápido e que logo sairá do controle. Do meu ponto de vista, já está começando a crescer devido apenas à rápida iteração que está acontecendo neste curto período de tempo.
Sam: Mesmo para nós, estávamos passando tempo projetando estas ferramentas, criando estes projetos que as utilizam e estaremos na metade do caminho e há todas estas novas tecnologias que podem ser melhores de se usar. Sim, isso dá um pouco de ansiedade do tipo: "Estou usando a correta? O que vai ser preciso para mudar a tecnologia agora mesmo"? Você espera que a tecnologia avance, que se torne mais barata?
Se você pensar em uma empresa como Midjourney gastando todo esse dinheiro de investimento na criação dessa plataforma, porque teoricamente só você pode fazer isso e é muito difícil para outras empresas recriar seu negócio. Mas, seis meses depois, surge a Stable Diffusion. É de código aberto, qualquer um pode baixá-lo. E, dois meses depois, alguém abre o código fonte de uma plataforma web completa em escalável. É exatamente esse tipo de coisa em que ela evolui tão rapidamente. E como você toma decisões comerciais sobre isso? Neste momento, está mudando de mês para mês. Enquanto antes, estava mudando a cada ano ou mais, mas agora é muito rápido. Parece que está começando, novamente, a se tornar aquela tecnologia do tipo leve e singular. Quem pode dizer que vai continuar assim? É tão difícil prever o futuro com estas coisas. É mais o que eu posso fazer agora e isso vai me poupar dinheiro ou tempo? Se não, não faça isso. Se sim, então faça-o.
Angélica: Sim. Os tipos de tecnologias que mais excitam são as que mobilizam diferentes tipos de pessoas que depois fazem a tecnologia avançar muito mais rápido. Parece que, no início do verão, ouvimos dizer: "Oh, DALL-E 2, yay! Incrível" E depois pareceu que foi exponencialmente rápido a partir daí, com base em muito do impulso. Provavelmente havia muitas coisas nos bastidores que o faziam sentir exponencialmente. Você diria que foi por causa de muito interesse que trouxe muitas pessoas para o mesmo tópico em um determinado momento? Ou você sente que sempre poderia ter chegado a este ponto?
Sam: Sim, eu acho que sim. Sempre que você começa a ver tecnologia que está realmente começando a cumprir sua promessa, eu acho, novamente, que muitas pessoas se interessam por ela. O grande problema da Stable Diffusion foi que ela era capaz de usar um tipo diferente de modelo para comprimir o tamanho real do treinamento das imagens, o que então permitia que ela treinasse mais rápido e depois pudesse ser treinada e executada em uma única GPU. Esse tipo de coisa é como muitas dessas coisas são feitas. Há geralmente uma grande empresa que cria o "Nós descobrimos como fazer isto" E então todas essas outras empresas, grupos e pesquisadores dizem: "Muito bem, agora sabemos como fazer isso. Como o fazemos mais barato, mais rápido, com menos dados e mais poderoso?" E sempre que há algo que sai assim, as pessoas começam a gastar muito tempo e dinheiro com isso.
O DALL-E foi uma coisa que eu gosto de dizer que realmente demonstrou uma aritmética criativa. Quando você diz, eu quero que você me desenhe um Pikachu sentado em cima de uma cabra. E não só sabe como é Pikachu e um bode, mas entende que para que possamos acreditar que está sentado nele, e você tem que tê-lo sentado em um espaço muito específico. As pernas de Pikachu estão de cada lado dele.
A idéia de que uma máquina pode fazer isso, algo tão semelhante à maneira como os humanos pensam, deixou muita gente extremamente entusiasmada. E na época era apenas, eu acho que na época era como, 256 pixels por 256. Mas agora estamos fazendo 2048 por 24... do tamanho que você quiser. E isso foi apenas dois anos depois. Portanto, sim, muita excitação, obviamente.
Acho que é uma daquelas tecnologias que realmente excita as pessoas porque está começando a cumprir a promessa da IA. Assim como dirigir carros - eufaço dobras de proteína - vocêestá começando a ver cada vez mais exemplos do que poderia ser e do quão excitante e benéfico pode ser.
Angélica: Fantástico! Bem, nós cobrimos um pouco, muitas informações excelentes aqui. Obrigado novamente, Sam, por ter vindo ao programa.
Sam: Sim, obrigado por me receber.
Angélica: Obrigada a todos por ouvirem o podcast "Scrap The Manual"!
Se você gostou do que ouviu, por favor, inscreva-se e compartilhe! Você pode nos encontrar em Spotify, Podcasts da Apple e onde quer que você receba seus podcasts. Se você quiser sugerir tópicos, idéias de segmentos, ou feedback geral, sinta-se à vontade para nos enviar um e-mail para scrapthemanual@mediamonks.com. Se você quiser fazer parceria com Labs.Monks, sinta-se à vontade para entrar em contato conosco pelo mesmo endereço de e-mail. Até a próxima vez!
Sam: Tchau!
Conteúdos Relacionados
-
Postagem no blog
GMP Sales Kick Off 2025: Chegou a era da incrementabilidade Por Rodolfo Tourinho 2 minutos de leitura -
Postagem no blog
Desvendando o TikTok Ad Awards: Por dentro dos nossos cases que conquistaram prêmios e grandes resultados. Por Rafael Fernandes 6 minutos de leitura -
Postagem no blog
Como três marcas estão transformando a sustentabilidade em algo natural Por Regina Romeijn 4 minutos de leitura
Faça nosso coração digital bater mais rápido
Receba nosso boletim informativo com insights acionáveis sobre as últimas tendências, projetos e muito mais.
A Monks precisa das informações de contato que você nos fornece para entrar em contato com você sobre nossos produtos e serviços. Você pode cancelar a assinatura dessas comunicações a qualquer momento. Para obter informações sobre como cancelar a assinatura, bem como sobre nossas práticas de privacidade e nosso compromisso com a proteção de sua privacidade, consulte nossa Política de Privacidade.