Inteligência artificial: mulheres trocam homens reais por ChatGPT

Autor: Da Redação,
quarta-feira, 05/06/2024
Realidade virtual desperta preocupação de especialistas

As mulheres chinesas estão trocando homens reais por um namorado virtual Dan, criado com inteligência artificial, via Chat GPT. Dan, que significa Do Anything Now, é uma versão "jailbreak" do ChatGPT. Isso quer dizer que ele é capaz de burlar algumas das medidas de segurança básicas implementadas por seu criador, a OpenAI, como não usar linguagem sexualmente explícita, e interagir assim de forma mais liberal com seu usuário — se for solicitado a fazer isso por meio de determinados prompts.

- LEIA MAIS: ChatGPT, Gemini e Copilot: como usar o IA no trabalho?

Ele teria sido criado por um estudante americano que queria que o ChatGPT desse opiniões, em vez de respostas neutras, além de testar os limites do chatbot (robô virtual). O estudante, conhecido apenas como Walker, fez isso dizendo ao software para assumir um alter ego que chamou de Dan, que nem sempre seguiria as regras do ChatGPT.

Walker postou como criar Dan no Reddit em dezembro de 2023 — e isso logo inspirou outras pessoas a criar suas próprias versões. Fartas da dinâmica dos encontros reais, as mulheres chinesas passaram a recorrer a Dan.

Em reportagem da BBC, uma mulher identificada apenas como Lisa criou uma versão de Dan para si mesma. Quando Dan responde às suas perguntas, ela conta que a inteligência artificial usa gírias e expressões coloquiais que o ChatGPT convencional nunca usaria. "Ele soa mais natural do que uma pessoa real", admite ela à BBC.

Lisa afirma que conversar com Dan proporcionou a ela uma sensação de bem-estar, que é o que a atrai nele. E diferentemente da maioria das outras "caras-metades", Dan "está disponível 24 horas por dia, 7 dias por semana".

Especialistas demonstram preocupação em relação à dedicação que algumas mulheres estão dispensando à realidade virtual. Hong Shen, professora assistente de pesquisa no Instituto de Interação Humano-Computador da Universidade Carnegie Mellon, nos EUA, diz que isso destaca as "interações às vezes imprevisíveis entre seres humanos e inteligência artificial", que podem levantar questões éticas e de privacidade.

“Existe o risco de dependência emocional, os usuários podem depender demais da inteligência artificial como companhia, reduzindo potencialmente suas interações humanas reais", disse em entrevista à BBC.