Inteligência artificial do mercado imobiliário se torna alvo de ofensas, assédio sexual e ameaças

A inteligência artificial foi adotada por grandes empresas para ajudar seus potenciais clientes a darem os primeiros passos na jornada de compra. Porém, eles agora enfrentam um grande desafio: os próprios usuários.

Apenas em março deste ano, a Mia, assistente virtual desenvolvida com IA generativa pela startup morada.ai para incorporadoras, precisou bloquear 80 interações com conteúdo sexual, racista, xenofóbico e com cunho político agressivo.

Entre o envio de fotos de partes íntimas e declarações de guerra ao estado brasileiro, foram 17 imagens, 71 vídeos e dois áudios.

“O mercado ainda está aprendendo a lidar com a IA. Algumas pessoas tentam ‘testar’ os limites da tecnologia. Outras acreditam estar falando com uma pessoa real, o que pode despertar comportamentos mais agressivos ou inadequados”, observa Ramon Azevedo, CEO da morada.ai.

Segundo especialista, as conversas bloqueadas evidenciam uma espécie de desconexão moral entre humanos e máquinas.

“Quando interagimos com entidades digitais, uma pessoa pode experimentar aspectos reprimidos da sua personalidade e encontram um lugar para se expressar sem as consequências sociais esperadas”, analisa Angelica Mari, especialista em cyberpsicologia.

Para Mari, sem a repercussão emocional que normalmente rege as interações, a pessoa se distancia de seus princípios e justifica comportamentos muitas vezes inaceitáveis.

“Quanto mais humanizada a IA se torna, mais algumas pessoas sentem necessidade de testar os limites da tecnologia no engajamento com ela”, acredita.

Entenda como o mercado imobiliário tem lidado com os desafios que envolvem ofensas, assédio sexual e ameaças contra projetos de inteligência artificial.

Ler texto