Meta trabalha para “etiquetar” imagens feitas em IA no Facebook e Instagram
Conforme IA generativa se aproxima da realidade, Meta e outras empresas prometem mais transparência
A Meta anunciou que está trabalhando com outras gigantes da tecnologia para criar maneiras de identificar e sinalizar imagens criadas em IA que sejam postadas em suas plataformas, como o Facebook e Instagram. A empresa explicou detalhes num post recente em seu blog.
“Conforme a diferença entre conteúdo humano e sintético vai ficando borrada, as pessoas querem saber onde os limites ficam”, disse Nick Clegg, presidente de assuntos globais da Meta e autor do post. “É importante que ajudemos as pessoas a saberem quando um conteúdo fotorrealista que estão vendo foi criado usando IA.”
O texto ressalta que a Meta já marca imagens criadas em IA usando a ferramenta própria da empresa. Aparece tanto uma marca d’água na própria imagem como também os metadados do conteúdo informam sua criação sintética. O que a empresa quer é criar padrões técnicos para poder sinalizar da mesma maneira imagens criadas em outros geradores.
É por isso que temos trabalhado com parceiros da indústria para nos alinhar com padrões técnicos em comum que sinalizem quando um conteúdo foi criado usando IA. Ser capaz de detectar esses sinais vai tornar possível para nós marcarmos imagens geradas em IA que os usuários postam no Facebook, Instagram e Threads.
Meta ainda não vai conseguir sinalizar áudio e vídeo feitos em IA
A empresa ressalta em seu post que ainda não é possível criar o mesmo tipo de identificação em áudios e vídeos gerados em IA, porque a indústria ainda não inclui sinalizadores nesse tipo de conteúdo em larga escala.
Para contornar a situação, a Meta vai criar um meio dos próprios usuários sinalizarem quando um áudio ou vídeo postado foi feito em IA. Não fazer isso pode gerar penalidades se mais tarde for descoberto que o conteúdo não foi corretamente identificado.
A IA generativa é rodeada de controvérsias, mas veio para ficar. Enquanto seu uso em redes sociais pode ser muito mais perigoso – por causa das famigeradas fake news – seu aparecimento em jogos não tem sido muito bem recebido também. Veja aqui um exemplo!