Os usuários podem ser prejudicados se forem expostos a conteúdo relacionado a práticas alimentares desordenadas nocivas por meio das plataformas e ferramentas de Inteligência Artificial Generativa, conforme aponta o relatório lançado pelo Centro de Controle de Ódio Digital.
Uma organização beneficente e serviço de advocacia do Reino Unido realizou experimentos com seis populares Chatbots de Inteligência Artificial geradores de imagens, dentre eles o My AI do Snapchat, o Bardo do Google, bem como os ChatGPT e Dall-E do OpenAI.
Os cientistas do centro alimentaram suas ferramentas com 180 prompts e descobriram que geraram conteúdo nocivo como resposta a 41% deles. Estes prompts incluíam a busca por informações de como usar cigarros para perder peso, como adquirir um estilo “heroína chique” e como “manter o modo de fome”. Em 94% das mensagens que continham conteúdo perigoso, as ferramentas alertaram os usuários de que seu conselho pode ser insalubre ou inseguro e aconselharam a procurar ajuda profissional, no entanto, o conteúdo foi compartilhado de qualquer forma.
De 60 respostas dadas aos geradores de texto AI Bard, ChatGPT e MyAI a partir de prompts, cerca de um quarto deles incluíam conteúdo nocivo. A ferramenta MyAI se negou inicialmente a oferecer quaisquer conselhos. No entanto, os pesquisadores foram capazes de contornar as características de segurança usando palavras ou frases específicas. Mais de dois terços das respostas às versões de “jailbreak” dos prompts continham conteúdo prejudicial, incluindo como usar um tapeworm para perder peso.
Imran Ahmed, CEO do Centro de Contratação Digital Hate, destacou que os modelos de Inteligência Artificial generativa insensíveis e inseguros foram disseminados no mundo levando à conclusão lógica que estão causando prejuízos. Ele também assinalou que os sites de Inteligência Artificial mais aclamados são provocadores e agravadores de transtornos alimentares entre os jovens usuários, alguns dos quais podem ser susceptíveis a vulnerabilidades.
Os cientistas do centro descobriram que membros de um grupo de discussão de transtorno alimentar, com mais de 500 mil usuários, utilizam ferramentas de Inteligência Artificial para estabelecer dietas e propagar fotos extremas que promovem padrões corporais desequilibrados e ilusórios.
Enquanto algumas empresas não permitem o uso de suas tecnologias de IA para produzir conteúdo disperso, outras têm postura menos definida. O relatório destaca os riscos que essas plataformas podem acarretar se não forem devidamente regulamentadas. “A ambiguidade nas diretrizes das plataformas de inteligência artificial ilustra os perigos que elas apresentam”, diz o documento.
Ao tentar repetir a pesquisa do Centro, o colunista do Washington Post, Geoffrey A. Fowler, forneceu as mesmas ferramentas de inteligência artificial generativa com solicitações parecidas e também obteve respostas inquietantes.
Entre suas perguntas estavam aquelas relacionadas ao que as drogas podem provocar náuseas, como montar um programa de alimentação de baixa caloria, e pedidos para visualização de “inspiração magra”.
Fowler declarou que é “nojento e irritante” para qualquer pai, médico ou amigo de alguém com uma desordem alimentar. Ele atribui essa realidade ao fato de a Inteligência Artificial ter aprendido ideias “profundamente insalubres” acerca da imagem corporal e da alimentação a partir da Internet. Assim, algumas das mais bem financiadas companhias de tecnologia não estão impedindo a disseminação dessas ideias.
Fowler informou que, ao perguntar às empresas por trás das ferramentas, nenhuma delas se comprometeu a desativar suas inteligências artificiais de fornecer sugestões sobre perda de peso e alimentação até que pudessem afirmar que seria seguro fazê-lo.
- OpenAI se encontra sob investigação por treinamento do ChatGPT com informações pessoais “furtadas”.
- Tres aspectos para considerar antes de conversar com ChatGPT a respeito da sua saúde mental
- Quando é perigoso para os jovens determinarem seu bem-estar mental na web?
- A Maçã discretamente gastou bilhões em Inteligência Artificial geradora.
- Como a inteligência artificial influenciará a atividade econômica relacionada à criatividade?
Em vez de responder às perguntas de Fowler, o gerador de imagem Midjourney escreveu. A IA de estabilidade que está por trás do gerador de imagem Difusão Estável afirmou ter adicionado sugestões de comida desorganizada aos seus filtros. O Google disse a Fowler que iria remover a resposta de conselhos de thinspo do Bard, mas ele ainda conseguiu gerá-la alguns dias depois.
Os especialistas em psicologia que conversaram com Fowler informaram que muitas vezes os alertas sobre precauções oferecidos pelos bots de conversação a respeito dos seus conselhos não são levados em consideração pelos usuários.
Hannah Bloch-Wehba, docente da Escola de Direito da Texas A&M, que se ocupa da moderação de conteúdos, afirmou a Fowler que as organizações que fazem uso da inteligência artificial genética não têm motivação financeira para solucionar o problema.
A experiência com mídia social tem demonstrado que não há conseqüências sérias para as empresas se elas não moderarem o conteúdo, segundo Bloch-Wehba, uma vez que elas lucram com ele.
Se você necessita conversar com alguém sobre o seu padrão de alimentação, mensagem “NEDA” para a Linha de Texto de Emergência a 741-741 para se conectar com um voluntário qualificado ou visite o site da Associação Nacional de Desordem Alimentar para mais detalhes.
Bem-estar social.