Computadores fazem arte

Artistas fazem dinheiro

Computadores avançam

Artistas pegam carona

Cientistas criam o novo

Artistas levam a fama

Visionário, ainda em 1994, Chico Science parece que estava de olho em 2022. Com 30 anos de antecedência, o ícone do movimento manguebeat previu a transformação causada pela inteligência artificial generativa – a tecnologia que está por trás de “robôs-artistas” como as plataformas Dall-E, MidJourney, Phenaki e outros, que conseguem criar conteúdo sozinhas – bastando apenas alguns inputs do controlador.

Se você está nas redes sociais, já deve ter cruzado com alguns desses trabalhos. Basta digitar algo como “Shrek jogando golfe” ou “Beyonce lendo três livros ao mesmo tempo”, que o sistema reconhece os elementos descritos, busca por referências na internet, e te entrega uma imagem nova, criada do zero. Em outras plataformas, o mesmo pode ser feito com textos, músicas e até vídeos. E de repente todo Vale do Silício passou a ficar de olho na novidade.

O resultado ainda não é perfeito. As imagens muitas vezes parecem bizarras, com proporções fora do padrão ou não apresentados de maneira natural e até um toque meio nonsense. Mas só de pensar que um computador faz aquilo já é o suficiente para alimentar nossa imaginação sobre o que ainda pode ser feito.

Imagem gerada pelo DALL·E na junção das palavras computadores, artistas, arte e dinheiro

Como desenvolver robôs criativos?

E a verdade é que, até pouco mais de um ano atrás, pouco se falava sobre tecnologia generativa. O “pulo do gato” para o desenvolvimento desses modelos foram os avanços relacionados à compreensão dos dados pelos sistemas de Inteligência Artificial. Para criar melhores chatbots e ferramentas de análise de dados, era preciso que os robôs pudessem entender e interpretar corretamente nossa linguagem natural – não códigos ou comandos, mas a forma com que nos comunicamos normalmente. Entendendo isso, as IA podem entregar melhores mecanismos de busca ou prever movimentos do mercado.

O passo além da tecnologia generativa está em usar essa IA não só para analisar, mas para criar coisas novas. Para isso, utiliza-se um subconjunto de aprendizado de máquina chamado aprendizado profundo, que desde 2012 vem impulsionando a maioria dos avanços no campo da inteligência artificial. A técnica usa modelos treinados em grandes conjuntos de dados (por exemplo, uma enorme coleção de imagens) até que o programa entenda as relações nesses dados.

Você pode não ter percebido, mas certamente já ajudou nesse desenvolvimento. Toda vez que passa num teste de captcha, marcando todas as fotos de bicicletas, semáforos ou faixas de pedestre num quadro, ou até digitando as imagens e letras que o site pede. O sistema pega sua contribuição e joga no modelo, que pode ser usado para como identificar objetos numa imagem ou traduzir um texto.

O que os sistemas generativos fazem é subverter esse processo. Ao invés de traduzir de um idioma para outro, eles traduzem a frase em uma imagem. O aprimoramento disso ainda é feito quando se coloca dois modelos de IA para competir entre si para criar melhor uma imagem que se encaixe no contexto desejado pelo operador. Outras abordagens usam transformadores, que tiram proveito de conjuntos de dados maiores para criar novos conteúdos do zero.

 ̶A̶r̶t̶i̶s̶t̶a̶s̶ Startups fazem dinheiro

O gerador de imagens mais popular, o DALL-E, da OpenAI, usa esse modelo. Desde seu lançamento, em julho de 2021, já processou mais de um bilhão de imagens – com cerca de 10 milhões de pedidos por dia. Com o sucesso, a Open IA já foi avaliada em quase US$ 20 bilhões, e está em negociações avançadas com a Microsoft para obter ainda mais financiamento. Nessa negociação, estaria incluso ainda créditos para a criadora do DALL-E usar em serviços de computação em nuvem Azure para desenvolver sua tecnologia.

Com apenas 18 meses de vida, outra companhia do setor, a Jasper, atingiu quase 100 milhões de dólares de receita e uma avaliação de 1 bilhão e meio de dólares. A Anthropic, uma empresa de pesquisa e segurança de IA, levantou 580 milhões de dólares em uma rodada de Série B, que somado a outros investimentos que vem recebendo desde o ano passado, já coloca o financiamento da companhia na casa dos 700 milhões de dólares.

Grandes players do setor também estão investindo. Meta e o Google vem contratando pessoal qualificado da área para cada vez mais integrar a tecnologia aos seus produtos. Em setembro, a própria Meta anunciou o Make-A-Video, seu gerador de vídeos curtos. A Microsoft lançou recentemente, dentro da suíte Office, o Designer, uma ferramenta para criação de cartões comemorativos e postagens de mídia social até ilustrações para apresentações em PowerPoint e logotipos para empresas.

A Stability AI, fabricante do Stable Diffusion, está em negociações para levantar mais de um bilhão de dólares em venture capital. O seu sistema foi lançado ao público em agosto, mas diferente dos seus concorrentes, não roda na nuvem ou por meio de uma interface de programação. Seu código foi disponibilizado no GitHub e pode ser executado diretamente nos computadores, o que permitiu, por exemplo, sua integração ao Adobe Photoshop, como um plug-in. Isso coloca a IA generativa acessível diretamente a profissionais.

O desenvolvimento da tecnologia ainda puxa outros setores da indústria, como fabricantes de semicondutores, em especial Nvidia, AMD e Intel, que trabalham com processadores gráficos avançados – ideais para treinamento e implantação de modelos de Inteligência Artificial. Não faz muito tempo, em sua convenção anual, o CEO da Nvidia, Jensen Huang, destacou a tecnologia generativa como um uso importante para os mais novos chips da empresa, destacando que esse tipo de aplicação poderá em breve “revolucionar as comunicações”.

Em um post no seu blog, a Sequoia Capital – empresa de capital de risco mais bem-sucedida do setor tech – afirmou que “a AI generativa tem o potencial de gerar trilhões de dólares em valor econômico”. Seu impacto pode atingir as mais diversas indústrias que exigem que os humanos criem trabalhos originais, desde games até publicidade e direito. Inclusive, o próprio post da Sequoia foi escrito por uma inteligência artificial.

Mas quem fica com a grana?

E como toda nova tecnologia, a IA generativa também levanta questões éticas. Esses modelos, como falamos antes, são treinados a partir da análise de grandes quantidades de imagens. Então, se fazem parte do processo de criação, teriam os criadores das imagens originais algum tipo de reivindicação de direitos autorais sobre as imagens geradas pela máquina? Outro ponto relacionado ao direito autoral diz respeito a quem é dono do conteúdo gerado: quem colocou os inputs ou a empresa dona da plataforma? Não há ainda uma estrutura legal para essas coisas e, como em vários outros campos da tecnologia, falta regulamentação.

Há ainda a preocupação com os empregos. Embora ainda exijam processadores gráficos poderosos (e caros), o conteúdo gerado por computador ainda pode ser mais barato do que o trabalho de um ilustrador profissional. Isso vale para produtores de vídeo, editores e até curadores, que podem ser substituídos por um programa de computador muito em breve.

Não faz muito tempo, o Shutterstock anunciou que disponibilizaria para venda imagens geradas por inteligência artificial e que reembolsará os criadores que tiverem imagens usadas para treinar a IA. A concorrente, Getty Images, foi na contramão: o CEO Craig Peters criticou a ideia e destacou os riscos legais e éticos da iniciativa. Na plataforma, usuários estão proibidos de fazer upload de imagens de IA generativas.

Mas quem está investindo nisso prefere ver por outro lado. Em um artigo, Jamer Currier, cofundador da empresa de capital de risco NFX (que já investiu em quatro empresas nessa área nos últimos dois anos: Latitude, Darrow, The.com e Tailorbird), a tecnologia generativa é “o próximo passo em software. É um novo nível de parceria homem-máquina. Ele transforma os mecanismos de aprendizado profundo em colaboradores para gerar novos conteúdos e ideias quase como um humano faria”.

Currier acredita que a tecnologia generativa poderá acabar com a sensação de “tela em branco” que muitas pessoas que têm que trabalhar com criatividade sofrem. Os modelos podem dar o “start” na inspiração. Escritores, estudantes, profissionais de marketing, programadores, arquitetos, designers gráficos, músicos, cinegrafistas, analistas de atendimento ao cliente e roteiristas poderão utilizar essas ferramentas para gerar suas primeiras ideias, para não precisar partir do zero com seus projetos.

Renato Mota é jornalista, e cobre o setor de Tecnologia há mais de 15 anos. Já trabalhou nas redações do Jornal do Commercio, CanalTech, Olhar Digital e The BRIEF

Comments are closed, but trackbacks and pingbacks are open.