Notícias

Chatbot imobiliário se torna alvo de ofensas, assédio sexual e ameaças

Especialista entende que interações ilustram uma desconexão moral entre humanos e máquinas/ Crédito: DC Studio/AdobeStock
Breno Damascena
28-04-2025 - Tempo de leitura: 3 minutos

A inteligência artificial chegou ao mercado imobiliário com a promessa de automatizar processos, melhorar a eficiência na transação de imóveis e acelerar conexões. Apoiados na tecnologia, diversos chatbots foram adotadas por grandes empresas para ajudar seus potenciais clientes a darem os primeiros passos na jornada de compra. Porém, eles agora enfrentam um grande desafio: os próprios usuários.

Apenas em março deste ano, a Mia, chatbot desenvolvido com IA pela startup morada.ai para incorporadoras, precisou bloquear 80 interações com conteúdo sexual, racista, xenofóbico e com cunho político agressivo. Entre o envio de fotos de partes íntimas e declarações de guerra ao estado brasileiro, foram 17 imagens, 71 vídeos e dois áudios.

Envio de fotos impróprias para IA de atendimento imobiliário resultou na criação de filtros e bloqueios automáticos/ Crédito: Divulgação morada.ai

“O mercado ainda está aprendendo a lidar com a IA. Algumas pessoas tentam enganar ou ‘testar’ os limites da tecnologia. Outras não percebem que estão interagindo com uma IA e acreditam estar falando com uma pessoa real, o que pode despertar comportamentos mais agressivos ou inadequados”, observa Ramon Azevedo, CEO da morada.ai.

+ Fim do corretor de imóveis? Inteligência artificial revoluciona profissão e gera dúvidas

Publicidade

Ao perceber o crescimento das interações impróprias, a startup desenvolveu um filtro Not Safe To Work (NSTW), que bloqueia automaticamente textos, fotos, vídeos, áudios e figurinhas com conteúdo sexual, provocativo, racista, xenofóbico ou de cunho político agressivo em conversas via chatbot. 

Atualmente, a Mia é responsável pelo primeiro contato com um comprador e apresenta imóveis, agenda visitas, responde dúvidas e encaminha o potencial cliente para um corretor humano. A ideia do bloqueio surgiu quando um corretor de imóveis verificou este histórico de conversas. 

“Estamos vivendo um momento de disrupção, que nos leva a refletir sobre como será a nossa relação não apenas com as ferramentas de IA, mas com o ser humano de forma geral”, reflete Azevedo. 

Desconexão moral e relações de poder

As 80 conversas bloqueadas parecem um número pequeno diante dos mais de 100 mil atendimentos realizados pelo chatbot da morada.ai em março. No entanto, evidenciam uma espécie de desconexão moral entre humanos e máquinas. 

Publicidade

+ Quem são e por que alguém se torna corretor de imóveis?

“Quando interagimos com entidades digitais, uma pessoa pode experimentar aspectos reprimidos da sua personalidade, que encontram um lugar para se expressar sem as consequências sociais esperadas deste tipo de atitude”, analisa Angelica Mari, especialista em cyberpsicologia.

Distanciamento social incentiva comportamentos de irresponsabilidade digital, analisa Angelica Mari/ Crédito: Divulgação morada.ai

Para Mari, sem a repercussão emocional que normalmente rege as interações, a pessoa se distancia de seus princípios e justifica comportamentos muitas vezes inaceitáveis. “Quanto mais humanizada a IA se torna, mais algumas pessoas sentem necessidade de testar os limites da tecnologia no engajamento com ela”, acredita 

“Este comportamento reflete a insegurança humana diante da fronteira cada vez mais tênue entre humano e máquina. É um paradoxo do nosso tempo”, aponta. E os mecanismos de insociabilidade, ela argumenta, são ainda mais perceptíveis em interações com inteligências artificiais ilustradas com nomes e avatares de mulheres. 

Publicidade

Corretoras e robôs

A voz da Amazon é a Alexa, a voz da Apple é a Siri e a voz da Magazine Luiza é a Lu. É comum que as assistentes virtuais hoje presentes no mercado de tecnologia sejam mulheres. No mercado imobiliário, não é muito diferente.

Ramon Azevedo, CEO da morada.ai, entende que existe uma sensação de impunidade e anonimato nas interações com assistentes virtuais / Crédito: Divulgação morada.ai

As figuras femininas são facilmente associadas a características como cuidado e atenção, o que estimula uma conexão real com o público. Porém, elas também estão mais propensas a casos de assédio. 

“O comportamento na interação com o chatbot ou IA é um reflexo do comportamento humano nos ambientes do dia a dia. Ou seja, se existe um número maior de interações improváveis na tentativa de relação com uma mulher, esse será o comportamento refletido na interação com IA”, observa Azevedo.

Mari argumenta que a interação reflete não só preconceitos individuais, mas também padrões culturais mais amplos de dominação e controle. “De forma inconsciente, essas relações digitais reproduzem um contexto social problemático, relacionado a papéis de gênero na prestação de serviços – especialmente em setores tradicionalmente masculinos, como o imobiliário”.

Publicidade