Um estudo feito por pesquisadores da Universidade de Stanford, Califórnia, colocou 25 agentes de IA generativa no controle da cidade virtual Smallville, em um ambiente semelhante ao jogo The Sims, para observar o seu comportamento. O objetivo era demonstrar que esses agentes agem “simulacros convincentes de comportamento humano”, e esse foi justamente o resultado obtido no experimento.
Cada um dos agentes foi criado a partir de prompts no ChatGPT da OpenAI para serem uma pessoa ficticía em uma cidade. Todos contavam com uma “história própria”, além de “relacionamentos com outros agentes”, no que foi chamado no estudo de “seed memories”, ou memórias sementes. Segundo o estudo, os agentes de IA passaram a “planejar seus dias, compartilhar notícias, formar relacionamentos e coordenar atividades de grupo”.
Mas esse é só um lado da questão. O paper também cita sobre os comportamentos sociais emergentes, ou seja, que não foram pré-programados, e que surgem da troca de informações e das novas relações formadas pelos agentes regenerativos em Smallville.
Arquitetura dos agentes de IA armazena, analisa e tira conclusões
Os pesquisadores criaram uma arquitetura de agentes que armazena, sintetiza e aplica memórias relevantes para gerar um comportamento crível usando um grande modelo de linguagem. Essa arquitetura tem três componentes principais, e o primeiro deles é o fluxo de memória, que “grava, em linguagem natural, uma lista completa das experiências do agente”, com um modelo de recuperação, que combina relevância, o que é mais recente e a importância.
O segundo é a reflexão, que “sintetiza memórias em inferências de alto nível ao longo do tempo, permitindo ao agente tirar suas próprias conclusões sobre si mesmo e os outros para melhor guiar seu comportamento. Finalmente, temos o planejar, que “traduz essas conclusões e o ambiente atual em planos de ação de alto nível e recursivamente em comportamentos detalhados para ação e reação”. Como diz o estudo, “isso sugere aplicações em múltiplos domínios, de encenação (role-play) e prototipagem social, a mundos virtuais e jogos.”
Assim, “um designer poderia ir além de personagens temporários para criar interações dinâmicas e complexas que evoluiriam com o tempo”. Uma mostra disso é que em um prompt, um usuário sugeriu que eles organizassem uma festa de Valentine´s Day, ou Dia dos Namorados. A partir daí, os agentes de IA “divulgaram a festa e apareceram no da, e um deles até mesmo marcou um encontro com outro para irem até juntos”.
Aplicações e riscos da tecnologia
Os pesquisadores acreditam que seus agentes generativos “podem ser usados para popular fórums online e metaversos de realidade virtual, além de espaços físicos como robos sociais no futuro”. Eles também podem ser úteis no desenvolvimento de produtos, “ajudando a entender as necessidades e preferências dos usuários”.
Eles também falam sobre dois riscos, o primeiro que humanos desenvolvam relacionamentos parassociais com agentes generativos, mesmo que não apropriados. Para resolver isso, eles propõem dois princípios, que a IA deve “explicitamente divulgar sua natureza de entidade computacional”, e que os desenvolvedores garantam que eles serão alinhados por valores para não reagirem a comportamentos inapropriados para o contexto, por exemplo, “responder a confissões de amor”.
O segundo risco é o possível impacto de erros da tecnologia no mundo real. Para lidar com isso, eles inicialmente propõem que ela seja usada em ambientes de games, no qual impactos seriam improváveis. Eles também sabem que o uso de agentes generativos pode ser usado para “outras ameaças com IA generativa como deepfakes, desinformação e persuasão manipulativa”. Eles sugerem que as plataformas que hospedam os agentes generativos monitorem e cataloguem entradas e saídas e para ser possível “detectar, verificar e intervir contra usos maliciosos”.
E finalmente, o quarto risco, o de excesso de confiança, que “desenvolvedores ou designers possam usar agentes generativos e deslocar o papel de humanos” no processo de design. O estudo diz que “agentes generativos nunca sejam substitutos para um papel humano real em estudos e processos de design”. Ao invés disso, acha que eles “devem ser usados na prototipação de ideias nas etapas iniciais do design, quando juntar participantes pode ser desafiador ou quando se está testando teorias que são difíceis ou arriscadas para serem testadas em participantes humanos”.
Como cita o TechCrunch, isso pode ter “grandes implicações em simulações de interações humanas, sempre que elas forem relevantes”. Eu concordo, e acredito que é só uma questão de tempo até vermos agentes feitos com o ChatGPT fazendo as mais diversas coisas dentro de games e ambientes virtuais segundo a sua “própria iniciativa”. Ainda nas palavras do TC, já vimos que falando de IA, se “a IA consegue fazer algo de maneira rudimentar, só o fato de conseguir fazer geralmente significa que é só uma questão de tempo até que faça isso bem”.
Assine nossa Newsletter para receber os melhores conteúdos do Itshow em sua caixa de entrada.