Uma nova ferramenta permite aos artistas “envenenarem” obras, para que as inteligências artificiais não se baseiem nelas nem roubem partes delas. A novidade está sendo desenvolvida por pesquisadores da Universidade de Chicago, nos EUA. Conhecido como Nightshade, o programa também tem sido observado pelo MIT Technology Review. Ele funciona alterando pixels de uma forma invisível ao olho humano, mas que adultera a arte para qualquer robô que deseje utilizá-la para algum fim. • Clique aqui e receba as notícias do R7 no seu WhatsApp • Compartilhe esta notícia pelo WhatsApp • Compartilhe esta notícia pelo Telegram Os desenvolvedores explicam que esse sistema faz com que as IAs aprendam os nomes errados dos objetos e cenários que estão olhando. Por exemplo, os pesquisadores incluíram informações em imagens de cães que os faziam parecer gatos aos robôs. O software também foi testado em sites geradores de textos e funcionou perfeitamente, fazendo com que palavras fossem trocadas ou confundidas. “A esperança é que isso ajude a inclinar o equilíbrio de poder das empresas de IA em direção aos artistas, criando um poderoso impedimento contra o desrespeito aos direitos autorais e à propriedade intelectual dos artistas”, escreveu o MIT em artigo sobre a ferramenta. Desde o início da era das big datas, vários pintores, compositores e até mesmo produtoras entraram com ações judiciais contra companhias de tecnologia, como a OpenAI, empresa do ChatGPT, para tentar evitar plágios ou a criação de trabalhos concorrentes por meio de IA. Inteligência artificial ‘imagina’ como seriam animais robóticos espiões em miniatura