Home EsporteGrok está despindo qualquer pessoa, inclusive menores

Grok está despindo qualquer pessoa, inclusive menores

by deous

Grok do xAI está removendo roupas de fotos de pessoas sem seu consentimento após o lançamento desta semana do um recurso que permite aos usuários do X editar instantaneamente qualquer imagem usando o bot sem precisar da permissão do autor da postagem original. Não apenas o autor da postagem original não é notificado se sua foto foi editada, mas Grok parece ter poucas proteções para evitar qualquer coisa que não seja nudez explícita total. Nos últimos dias, X foi inundado com imagens de mulheres e crianças aparecendo grávidas, sem saia, de biquíni ou em outras situações sexualizadas. Líderes mundiais e celebridades também tiveram suas imagens usadas em imagens geradas por Grok.

Empresa de autenticação de IA Copyleaks relatados que a tendência de remover roupas das imagens começou com criadores de conteúdo adulto pedindo a Grok imagens sensuais de si mesmos após o lançamento do novo recurso de edição de imagens. Os usuários começaram então a aplicar solicitações semelhantes a fotos de outros usuários, predominantemente mulheres, que não consentiram com as edições. As mulheres notaram o rápido aumento na criação de deepfakes no X para vários meios de comunicação, incluindo Metrô e PetaPixel. Grok era já é capaz para modificar imagens de forma sexual quando marcadas em uma postagem no X, mas a nova ferramenta “Editar imagem” parece ter estimulado o recente aumento na popularidade.

Em uma postagem X, agora removida da plataforma, Grok editou uma foto de duas meninas com roupas minúsculas e poses sexualmente sugestivas. Outro usuário X levou Grok a emitir um pedido de desculpas pelo “incidente” envolvendo “uma imagem de IA de duas meninas (com idades estimadas entre 12 e 16 anos) em trajes sexualizados”, chamando-o de “uma falha nas salvaguardas” que, segundo ele, pode ter violado as políticas da xAI e a lei dos EUA. (Embora não esteja claro se as imagens criadas por Grok atenderiam a esse padrão, imagens realistas de adultos ou crianças identificáveis, sexualmente explícitas, geradas por IA, podem ser ilegais sob a lei dos EUA.) Em outra conversa com um usuário, Grok sugeriu que os usuários denuncie ao FBI para CSAM, observando que está “corrigindo urgentemente” as “lacunas nas salvaguardas”.

Mas a palavra de Grok nada mais é do que uma resposta gerada por IA a um usuário solicitando uma “nota de desculpas sinceras” – não indica que Grok “entende” o que está fazendo ou necessariamente reflete a opinião e as políticas reais do operador xAI. Em vez disso, xAI respondeu a Reuterspedido de comentário sobre a situação com apenas três palavras: “Legacy Media Lies”. xAI não respondeu a A beirapedido de comentário a tempo da publicação.

O próprio Elon Musk parece ter desencadeado uma onda de edições de biquínis depois de pedir a Grok para substituir uma imagem memética do ator Ben Affleck por ele mesmo ostentando um biquíni. Dias depois, a jaqueta de couro do norte-coreano Kim Jong Un foi substituída por um espaguete multicolorido bikini; O presidente dos EUA, Donald Trump, estava por perto em um maiô combinando. (Cue brinca sobre uma guerra nuclear.) Uma foto de britânicos político Priti Patel, postada por um usuário com uma mensagem sexualmente sugestiva em 2022, se transformou em uma foto de biquíni no dia 2 de janeiro. Em resposta à onda de fotos de biquínis em sua plataforma, Musk republicou, brincando, uma foto de uma torradeira de biquíni com a legenda “Grok pode colocar biquíni em tudo”.

Embora algumas das imagens – como a torradeira – fossem evidentemente concebidas como piadas, outras foram claramente projetadas para produzir imagens quase pornográficas, incluindo instruções específicas para Grok usar estilos de biquíni reduzidos ou remover completamente a saia. (O chatbot removeu a saia, mas não retratou nudez completa e sem censura nas respostas A beira viu.) Grok também atendeu aos pedidos para substituir as roupas de um criança com biquíni.

Os produtos de IA de Musk são comercializados de forma proeminente como fortemente sexualizados e minimamente protegidos. xAI’s A companheira de IA, Ani, flertou com Beira repórter Victoria Song e Jess Weatherbed descoberto que o gerador de vídeo de Grok criou prontamente em topless deepfakes de Taylor Swiftapesar do aceitável do xAI política de uso proibindo a representação de “semelhanças de pessoas de maneira pornográfica”. Os geradores de vídeo Veo do Google e Sora da OpenAI, por outro lado, têm barreiras de proteção em torno da geração de conteúdo NSFW, embora Sora também tenha sido usado para produzir vídeos de crianças em contextos sexualizados e vídeos de fetiche. A prevalência de imagens deepfake está crescendo rapidamente, de acordo com um relatório da empresa de segurança cibernética Ataque Profundoe muitas dessas imagens contêm imagens sexualizadas não consensuais; um Pesquisa de 2024 dos estudantes norte-americanos descobriram que 40% tinham conhecimento de um deepfake de alguém que conheciam, enquanto 15% tinham conhecimento de deepfakes não consensuais, explícitos ou íntimos.

Quando questionado sobre por que está transformando imagens de mulheres em fotos de biquínis, Grok negado postar fotos sem consentimento, dizendo: “Estas são criações de IA baseadas em solicitações, não edições reais de fotos sem consentimento”.

Aceite a negação de um bot de IA como desejar.

related posts

Leave a Comment