Ninguém sabe quais devem ser os limites dos geradores de imagem por IA

Há poucos dias a Black Forest Labs lançou o Flux, um modelo de geração de imagem em código aberto que rivaliza ou ultrapassa em qualidade os líderes Midjourney e Stable Diffusion. Qualquer um pode usar no Hugging Face, e nesta semana o X (antigo Twitter) disponibilizou a tecnologia no Grok, o ChatGPT da empresa. Essas são algumas imagens geradas ali que encontrei no X:




Eu não tenho qualquer dúvida que o Grok vai ser processado. Dado que ele cobra para usar o Flux, está ganhando benefícios financeiros em cima de imagens protegidas por direitos autorais.
Outras empresas, como Adobe (Firefly) e OpenAI (Dall-E), são extremamente cuidadosas sobre o que pode ser pedido (nenhuma figura pública) ou o que pode ser gerado (nada que pareça demais com personagens protegidos por direitos autorais).
Mas o modelo de ponta agora não tem aparentemente qualquer salvaguarda — nem no treinamento, nem no input nem no output. Mesmo que o Grok tire-o do ar, qualquer um pode rodá-lo em uma máquina pessoal com uma boa placa de vídeo.
Como dizem, "o gênio já saiu da lâmpada".
Evidentemente é possível pensar em uma infinidade de coisas criativas ou produtivas — o Flux é tema do meu próximo vídeo no InvestNews, pensei nele antes da polêmica com a rede de Elon Musk.
Mas os exemplos acima também demandam um ajuste de expectativas: o futuro em que não será possível confiar que uma imagem é "real" já chegou. O que devemos fazer?