O texto de hoje versa sobre um dos pontos debatidos no evento: “A era da IA Generativa chegou e transformará o mundo. Será?”, realizado no CESAR School, no último dia 31 de maio. Nele, tivemos uma ampla discussão sobre IA Generativa e seus impactos sob diferentes olhares.
O debate foi moderado por Jacques Barcia – futurista profissional, jornalista, escritor e pesquisador no Institute for the Future – que fez diversas provocações aos debatedores: Rodrigo Cunha, CPO da Neurotech, H. D. Mabuse, designer do CESAR, e Cleber Zanchettin, professor do Centro de Informática da UFPE.
Quem tiver interesse em saber mais sobre o assunto, pode conferir o episódio #41 do podcast Cais, produzido a partir do registro do evento.
Vamos à primeira provocação: as criações realizadas a partir da IA Generativa são originais ou não? O título desse texto é inspirado na expressão que Jacques Barcia usou para definir essa questão – a polêmica “du jour”, numa referência cruzada ao clássico “La Belle de Jour” de Alceu Valença, música que pode ser curtida no vídeo a seguir.
O que é IA Generativa? – feita usando o chatGPT e com pequenos ajustes
A Inteligência Artificial Generativa (IAGen) é um ramo da inteligência artificial que se concentra na criação de novos conteúdos, que podem ser “qualquer coisa que você possa imaginar”: texto, imagens, música, até mesmo designs de objetos físicos. O nome “generativa” vem da palavra latina “generare”, que significa “criar”.
Pense desta maneira: a maioria dos sistemas de IA com os quais interagimos diariamente, como assistentes de voz ou algoritmos de recomendação, são projetados para entender e responder ao mundo ao seu redor. Eles recebem dados, processam e fornecem saídas com base nessa entrada. A IAGen, por outro lado, vai um passo além – ela usa seu entendimento do mundo para gerar conteúdo inteiramente “novo e original”.
A importância da IAGen reside em sua capacidade de aumentar a criatividade e a produtividade humanas. Ela pode criar rascunhos de artigos, produzir obras de arte, compor música, projetar novos produtos e muito mais. Essa capacidade pode economizar tempo, estimular a inovação e abrir novos caminhos para a criatividade e exploração.
Mas como funciona a IAGen? Para simplificar um processo complexo, podemos dizer que ela usa algoritmos para aprender padrões e estruturas nos dados em que é treinada. Por exemplo, se for treinada em um conjunto de dados de pinturas, ela aprende os padrões que compõem uma pintura – cores, pinceladas, formas e assim por diante. Uma vez que entende esses elementos, ela pode gerar novas pinturas que imitam o estilo do conjunto de dados de treinamento.
Redes neurais adversárias – uma sacada que virou o jogo
Um dos métodos mais populares para IAGen é chamado de GANs (ou Redes Adversariais Generativas). Essa arquitetura foi proposta por Ian Goodfellow – e coautores – no trabalho “Generative Adversarial Nets” – daí a sigla -, que já tem mais de 60 mil citações.
Eles partem de uma premissa simples: propor um modelo de competição entre dois sistemas baseados em redes neurais: um gerador e um discriminador. O gerador tenta criar dados tão realistas que o discriminador não consegue distinguir dos reais, enquanto o trabalho do discriminador é pegar as falsificações do gerador.
Por meio desse processo adversário, o gerador melhora sua capacidade de criar dados convincentes, resultando em exemplos sintéticos de alta fidelidade, o que tem tido aplicações em diversas áreas do conhecimento.
As GANs representaram uma grande inovação nos métodos de síntese artificial, primeiramente utilizados com o objetivo de atacar o problema de desbalanceamento de conjuntos de treinamento. Esse é um problema antigo, mas ainda relevante e atual, que se tornou mais severo em aplicações usando modelos de aprendizagem profunda, e que necessitam de massivos conjuntos de dados para que consigam gerar modelos com poder de generalização.
Deixarei aqui algumas referências para quem quiser se aprofundar mais no tema, inclusive “colocando a mão na massa”, usando exemplos de código para experimentar. A primeira referência é o artigo “Fundamentals of Generative Adversarial Networks”, publicado na Towards Data Science, newsletter do Medium com mais de 663 mil seguidores e que traz tutoriais e artigos de envolvendo ciência de dados. Outro exemplo é o tutorial denominado “Deep Convolutional Generative Adversarial Network” criado pela equipe do TensorFlow, a plataforma de aprendizagem de máquina de código aberto criada pelo Google, a qual tem mais de 175 mil estrelas no GitHub, mais de 88 mil bifurcações e mais de 277 mil usuários registrados somente no GitHub, segundo consulta realizada na data de publicação desse artigo.
Mais recentemente, outras abordagens surgiram para a geração de dados sintéticos, especialmente no contexto de imagens, usando metodologias como a Stable Diffusion que usam descrições de texto para a geração de imagens usando redes neurais convolucionais profundas. Caso tenha interesse em saber mais sobre novas modalidades de síntese de imagens artificiais, clique nos links a seguir: modelos de difusão , DALL-E e Imagen.
La polémique du jour
No Brasil, de acordo com o artigo nº184 do Código Penal, alterado pela Lei nº10.695 de 1o de julho de 2003. O texto fala na reprodução do material sem a autorização expressa da pessoa detentora dos direitos autorais. Mas como funciona no caso da utilização dos materiais para o treinamento de um sistema baseado em IA para gerar novos materiais?
Em uma direção, há ponderações em relação ao processo criativo humano que envolve a combinação de várias inspirações para a criação de novos conceitos. Murilo Gun é uma dessas pessoas que abordou essa temática em diversos vídeos, inclusive trazendo o conceito de “combinatividade”, conforme descrito por ele no trecho a seguir:
De fato, nós recebemos uma série de inputs que são utilizados no nosso processo criativo e os combinamos para a criação e síntese de nossas versões, seja na música, na pintura, na escrita e em todas as áreas criativas. Com base nessa visão, como podemos quantificar e metrificar o quanto isso acontece? Vou mostrar um exemplo:
Friedrich Nietzche tem uma citação famosa: ““He who has a why to live for can bear almost any how”, a qual pode ser traduzida como “aquele que tem um porquê pra viver pode aguentar quase qualquer como”.
Outro autor famoso, o psiquiatra austríaco Viktor Frankl, sobrevivente do holocausto, tem uma citação famosa: “Those who have a ‘why’ to live, can bear with almost any ‘how’”, a qual pode ser traduzida como “aqueles que têm um porquê pra viver, podem aguentar quase qualquer como”.
Essas duas citações são, claramente, altamente correlacionadas… Como podemos classificar esse caso? A citação aparece no livro “Em busca de sentido” de Frankl e é um das referências-chave para a logoterapia, abordagem de psicoterapia baseada na construção de significados e sentido da vida, que contribuiu para que Viktor fosse considerado um dos psiquiatras mais importantes da Escola Vienense de Psiquiatria, onde Sigmund Freud e Alfred Adler despontaram.
No contexto de saúde, há uma série de trabalhos usando GANs para gerar imagens sintéticas e que têm sido determinantes para a melhoria da performance de métodos de classificação de lesões como, por exemplo, de histopatologia de mama e em mamografia. Há, inclusive, autores levantando a seguinte questão: os dados de saúde são considerados sensíveis por diversas regulamentações como a General Data Protection Regulation (GDPR) do Reino Unido e pela Lei Geral de Proteção de Dados (LGPD) do Brasil. Com base nisso, por que não usarmos dados médicos reais para gerar conjuntos de dados sintéticos de alta fidelidade e utilizá-los para os estudos ao invés de compartilhar os dados reais? Estamos observando esse tipo de debate na comunidade científica internacional, o que é um novo olhar para a questão dos dados em saúde.
Por outro lado, há quem defenda que os conteúdos sintéticos gerados a partir de materiais específicos de uma dada pessoa, protegidos sob direitos autorais, devem ser proibidos ou, até mesmo, gerar receita para os detentores dos direitos originais. Um caso se tornou icônico recentemente e envolveu o rapper Drake, onde uma música sintetizada usando inteligência artificial a partir de músicas do cantor foi publicada e viralizou. Foram milhões de visualizações, o que é até difícil de contabilizar, visto que a publicação original foi retirada do ar e novas versões foram sendo levantadas por diferentes pessoas.
Uma série de questões surgem nesse contexto: esses conteúdos podem ser monetizados? Quem deve receber esses recursos? Quanto deve ser repassado ao artista que foi mimetizado? É possível publicar esse material sem a autorização da pessoa imitada? Por outro lado, os materiais disponíveis na internet podem ser utilizados para treinar modelos generativos? Como estimar o grau de “dependência” ou, melhor, o grau de “influência” de um determinado conjunto de conteúdos no resultado final gerado por um modelo de IAGen?
Os futuristas costumam usar o termo “sinais” para descrever tendências de futuro que aparecem no presente. Há sinais apontando preocupação de atores de Hollywood cujos estúdios possuem direitos de imagem sobre o conteúdo de produções do passado sobre como futuros conteúdos gerados a partir de IAGen serão utilizados e como os seus familiares podem ser remunerados com receitas de direitos autorais.
Outros sinais interessantes caem sobre o conteúdo sintetizado a partir de IAGen. Há uma decisão do Copyright Office dos Estados Unidos da América, publicada em março de 2023, que diz que trabalhos gerados por IAs não são elegíveis para direitos autorais.
A verdade é que estamos vivendo, de fato, uma era de transformação onde novos modelos de negócios e novos instrumentos jurídicos são necessários para regulamentar essas possibilidades que estão surgindo. Inclusive, novas tecnologias se fazem necessárias para ajudar a resolver problemas como, por exemplo, identificar a autenticidade de conteúdos sintéticos, o que é importante para discriminar “deep fakes” de vídeos reais. Novos mercados surgirão a partir da popularização das ferramentas de IAGen e poderemos enxergar uma nova “cauda longa” nos próximos anos.
O que vocês acham? Qual caminho devemos seguir? Quais os impactos na indústria musical? E nas artes? E no mercado de livros? Vai nas nossas redes sociais e comenta. Vamos debater sobre isso! Quem sabe aprofundamos em algum dos temas em nossos próximos textos?
Fernando Sales é professor do Departamento de Engenharia Biomédica da UFPE e Pesquisador do Porto Digital
Comments are closed, but trackbacks and pingbacks are open.