Uso controverso do novo modelo de IA da Google na remoção de marcas d’água
Usuários das redes sociais descobriram uma aplicação polêmica para o novo modelo Gemini da Google: a remoção de marcas d’água de imagens, inclusive aquelas publicadas por grandes bancos de imagens como a Getty Images.
Na semana passada, a Google ampliou o acesso à funcionalidade de geração de imagens do Gemini 2.0 Flash, que permite ao modelo criar e editar conteúdos visuais de forma nativa. Essa capacidade, considerada poderosa, mostra poucas restrições e é capaz de criar imagens com celebridades e personagens protegidos por direitos autorais, além de remover marcas d’água, preenchendo as lacunas deixadas pela sua remoção.
Embora outras ferramentas baseadas em IA também realizem esse procedimento, o Gemini 2.0 Flash se destaca pela habilidade excepcional e pelo fato de estar disponível de forma gratuita. Vale ressaltar que, por enquanto, a funcionalidade de geração de imagens está marcada como “experimental” e “não para uso em produção”, sendo oferecida apenas em ferramentas direcionadas a desenvolvedores, como o AI Studio.
O modelo não é perfeito na remoção de marcas d’água e pode apresentar dificuldades com marcas semitransparentes ou com aquelas que cobrem grandes porções das imagens. Ainda assim, é certo que detentores dos direitos autorais possam questionar a falta de restrições quanto ao uso do Gemini 2.0 Flash. Enquanto alguns modelos, como o Claude 3.7 Sonnet da Anthropic e o GPT-4o da OpenAI, se recusam explicitamente a remover marcas d’água – sendo o Claude categorizado como “antiético e potencialmente ilegal” –, o modelo da Google não adota tais barreiras.
Remover uma marca d’água sem o consentimento do proprietário é considerado ilegal sob a legislação de direitos autorais dos Estados Unidos, exceto em casos raros de exceções.
Um porta-voz da Google afirmou: “Usar as ferramentas de IA generativa da Google para infringir direitos autorais é uma violação dos nossos termos de serviço. Assim como em todos os lançamentos experimentais, estamos monitorando de perto e ouvindo o feedback dos desenvolvedores.”