Novas ferramentas visam proteger os artistas da IA
LarLar > blog > Novas ferramentas visam proteger os artistas da IA

Novas ferramentas visam proteger os artistas da IA

Dec 23, 2023

Preservando a integridade do art.

A ascensão das ferramentas artísticas de IA ameaça deixar os artistas humanos sem trabalho e muitos modelos de IA são treinados a partir do trabalho de artistas humanos na Internet sem o seu consentimento. Ferramentas como o Glaze, no entanto, estão sendo desenvolvidas na tentativa de enganar as ferramentas de arte da IA.

Glaze, desenvolvido por cientistas da computação da Universidade de Chicago, usa algoritmos de aprendizado de máquina para camuflar ou ocultar digitalmente obras de arte/imagens de uma forma que frustrará as tentativas dos modelos de IA de compreender as imagens.

Por exemplo, um artista pode fazer upload de uma imagem de sua pintura a óleo que foi executada no Glaze. Isso fará com que o modelo de IA leia a pintura como algo parecido com um desenho a carvão, apesar de ser claramente uma pintura a óleo ao olho humano.

Esta ferramenta permite que os artistas tirem uma imagem digital de sua obra de arte, executem-na no Glaze, “e depois tenham certeza de que esta obra de arte agora parecerá dramaticamente diferente para um modelo de IA do que para um humano”, Ben Zhao, professor de ciência da computação da Universidade de Chicago e um dos principais pesquisadores do projeto Glaze, disse à CNN.

Segundo Zhao, o primeiro protótipo do Glaze foi lançado em março de 2023 e já ultrapassou um milhão de downloads. Uma versão gratuita da ferramenta também foi lançada no início deste mês.

Jon Lam, um artista radicado na Califórnia, afirmou que usa Glaze para todas as imagens de suas obras de arte que compartilha online.

“Sabemos que as pessoas estão pegando nosso trabalho de alta resolução e alimentando-o em máquinas que competem no mesmo espaço em que trabalhamos”, afirmou Lam. “Portanto, agora temos que ser um pouco mais cautelosos e começar a pensar em maneiras de nos proteger.”

Eveline Fröhlich, artista visual radicada em Stuttgart, Alemanha, também falou sobre como a Glaze ajudou a proteger os artistas na era da IA.

“Isso nos deu uma maneira de reagir”, afirmou Fröhlich “Até aquele ponto, muitos de nós nos sentíamos tão desamparados com esta situação, porque não havia realmente uma boa maneira de nos mantermos protegidos dela, então essa era realmente a a primeira coisa que me deixou pessoalmente ciente de que: sim, faz sentido recuar.”

Embora Glaze possa ajudar alguns dos problemas relacionados à IA que os artistas enfrentam hoje, Lam também afirma que é preciso fazer mais para regular como as empresas de tecnologia podem obter dados da Internet para treinamento em IA.

“No momento, estamos vendo artistas sendo uma espécie de canário na mina de carvão”, disse Lam. “Mas isso realmente afetará todos os setores.”

Zhao também afirmou que, desde o lançamento do Glaze, sua equipe recebeu uma enxurrada de mensagens de outras áreas, como escritores de ficção, músicos, dubladores, jornalistas, etc., perguntando sobre uma versão do Glaze para sua área.

Outra ferramenta recente destinada a proteger imagens digitais de ferramentas de IA é chamada PhotoGuard. A ferramenta foi criada por Hadi Salman, pesquisador do Instituto de Tecnologia de Massachusetts, ao lado de pesquisadores do Laboratório de Ciência da Computação e Inteligência Artificial do MIT.

“Estamos na era dos deepfakes”, disse Salman à CNN. “Qualquer pessoa agora pode manipular imagens e vídeos para fazer com que as pessoas realmente façam algo que não estão fazendo.”

O protótipo da tecnologia coloca uma “imunização” invisível sobre as imagens que impede os modelos de IA de manipular ou alterar a imagem. PhotoGuard funciona ajustando os pixels da imagem de forma imperceptível ao olho humano. O objetivo da ferramenta é proteger as fotos que as pessoas carregam online de qualquer manipulação por modelos de IA.

A ferramenta usa dois métodos diferentes de “ataque” para gerar as perturbações. Um deles é o ataque do “codificador” que tem como alvo a representação latente da imagem no modelo de IA, fazendo com que o modelo perceba a imagem como uma entidade aleatória. O segundo é o ataque de “difusão”, que define uma imagem alvo e otimiza as perturbações para fazer com que a imagem se assemelhe ao alvo o mais próximo possível.