26.2 C
São Paulo
quinta-feira, setembro 4, 2025
InícioColunistasÉ cedo para falar sobre dependência de IA?

É cedo para falar sobre dependência de IA?

Essa semana, durante um treinamento para líderes, uma par falava entusiasmada de como estava aplicando aplicativos de IA em sua rotina. Após compartilhar as experiências com genuíno orgulho, acabou trazendo uma pergunta: e se eu me viciar no uso dessas plataformas?

Essa pergunta me trouxe na cabeça um artigo recebido nesta semana da IBM com colaboração da Microsoft sobre como as pessoas estão criando laços emocionais com chatbots. Acredito que essa situação não é novidade, pois quem não se relaciona com o fato de ter um amigo ou parente que já deu nome para um carro que tivesse um carinho grande ou que já estivesse há bastante tempo na família?

Nessa época atual na qual temos acesso a muita informação e conseguimos “socializar” com pessoas de diversos países, as pessoas nunca tiveram tão isoladas uma das outras. Esse espaço gera uma carência que pode ser preenchida (por quê não?) pelo nossos queridos e prestativos chatbots. Afinal, eles nos chamam pelo nosso nome, aprendem a forma como escrevemos, geram informação considerando cada vez mais a forma que solicitamos outras respostas no passado. E assim como nossos queridos veículos, também podemos dar um nome para ele (ou ela, dependendo da personalidade que você assumiu para o chatbot).

O vínculo emocional com chatbots

Mas será que esse vínculo não é um erro honesto e até provocado por outros bots populares que surgiram nos últimos anos? 

Afinal, vimos surgir Siri, Alexa, Cortana entre muitas outras assistentes e sempre nos é sugerido criar um nome para deixar a experiência mais pessoal e, deixar mais pessoal, gera vínculo e esse vínculo pode ficar cada vez mais emocional. Afinal, a IA Generativa cria novos conteúdos, pode ser personalizada ajustada e moldada para o uso específico de quem está utilizando a aplicação. Agora, criar um vínculo emocional é saudável?

Essa temática foi explorada recentemente pela indústria cinematográfica, cito como exemplo o filme Ela de 2013 (já passados 12 anos) no qual Theodore desenvolve uma relação amorosa com Samantha. Essa temática seria muito recorrente nas comédias românticas se não fosse o fato de Samantha ser um Sistema Operacional projetado para ter uma evolução emocional e intelectual. 

Na ficção, Samantha parte para explorar uma nova forma de existência, já que a interação com humanos não é suficiente para ela e assim deixa uma carta de despedida para Theodore. Como neste filme os roteiristas optaram por um final feliz, nosso protagonista humano se reconecta com uma amiga (também humana) e deixa uma esperança na experiência humana. 

Infelizmente, não seguimos roteiros pré-estabelecidos e dessa forma, a realidade pode trazer impactos negativos, caso não haja tempo para esse aprendizado sobre reconexões humanas. Em uma pesquisa publicada Universidade de Chicago com suporte financeiro da Common Sense Media (commonsensemedia.org), mostra que 72% dos adolescentes entrevistados declararam utilizar copilotos de IA e destes 52% com regularidade mensal.

O uso mais intenso de IA não é o problema, mas o dado de 33% deste universo de entrevistados trazer a informação deles utilizarem os copilotos de IA para interação social e relacionamentos com 12% usando para consultas psicológicas e suporte emocional. O suporte emocional e psicológico pode ajudar de certa forma em casos de isolamento, mas traz um risco maior de alienação e substituição de relações humanas.

IA: ferramenta ou substituto?

Como o artigo da IBM reforça a Inteligência Artificial não pensa ou sente, mas está começando a parecer que faz isso. Isso está tão aparente para algumas pessoas que há movimentos (ainda pequenos) para os direitos das IAs.

Há uma preocupação de especialistas no impacto para as pessoas caso a tecnologia permita a implementação de uma Inteligência Artificial Geral (AGI em inglês). Segundo colaboradores da própria IBM, ainda estamos muito distantes com a tecnologia atual e sendo assim, não deveríamos nos preocupar com o estado de direitos para as IAs.

Para não arriscar delegar para IA relacionamentos e até o processo de decisão, precisamos ter em mente que as IAs são ferramentas, assim como os carros também são. Talvez alguma mereça um nome especial por “fazer parte da família”, mas de maneira alguma podem substituir as pessoas.

Como trouxe anteriormente, as abordagens iniciais de deixar as assistentes mais “familiares” com a utilização de nomes ou apelidos, trouxe uma problemática para os dias atuais, pois reforçou a necessidade de criar copilotos que usem figuras de linguagem mais pessoais.

A saída agora pode ser reduzir o uso dessa forma mais pessoal de comunicação e investir no desenvolvimento de uma linguagem mais focada na utilidade da ferramenta, removendo a linguagem em primeira pessoa e possíveis avatares que simulem emoções.

Outro aspecto importante para evitar essa confusão emocional é a educação das pessoas para o uso destas ferramentas. Como muitos são alheios ao processo de desenvolvimento de uma LLM (Large Language Models), GPTs (Generative Pre-trained Transformer), redes neurais, entre outros componentes fundamentais para a atual geração de copilotos, é fácil dissociar são computadores programados para simular a inteligência humana para realizar tarefas complexas. 

As ferramentas de IA demandam treinamento com uma grande quantidade de dados e esse fato difere bastante dos humanos que podem aprender a falar com muito menos informação. O risco aqui é as pessoas se convencerem que a Inteligência Artificial é consciente. 

Sendo assim, educar as pessoas para se lembrarem que estão lidando com ferramentas que tem o propósito de apoiar as pessoas em suas tarefas diárias, sejam estas corporativas ou pessoais. Essas ferramentas não pensam ou sentem e não há um cenário próximo para que esse fato se altere.

Os desenvolvedores de ferramentas de IA necessitam implementar regras de segurança práticas para que evitem a confusão do uso de linguagem que denotem que as pessoas estão recebendo informações de uma pessoa ao invés de uma ferramenta. 

As pessoas precisam se aprofundar um pouco mais em aprender os conceitos de IA para criarem consciência que estão lidando com uma ferramenta escrita com código, desenvolvido por pessoas e este código roda em equipamentos também criados por pessoas. Esse código foi criado para nos apoiar em tarefas, mas não possui sentimento ou consciência.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!

Gustavo Giovanetti
Gustavo Giovanetti
Profissional experiente em Governança e Gestão de Tecnologia da Informação, com mais de 20 anos de experiência em liderança de equipes, gestão de projetos de TI, infraestrutura e segurança da informação. Especialista em planejamento estratégico de TI, gestão de portfólio de projetos e gestão financeira. Possui conhecimentos técnicos em ITIL, COBIT, ISO 27002, Cloud, PMBOK, Scrum e SAFe. Líder natural com habilidades em comunicação, resolução de conflitos e tomada de decisão.
Postagens recomendadas
Outras postagens