- Novo estudo treinou modelos de IA com base nas respostas dadas em uma entrevista de duas horas
- A IA poderia replicar as respostas dos participantes com 85% de precisão
- Agentes poderiam ser usados em vez de humanos em pesquisas futuras
Você pode pensar que sua personalidade é única, mas basta uma entrevista de duas horas para um modelo de IA criar uma réplica virtual com suas atitudes e comportamentos. Isso está de acordo com um novo artigo publicado por pesquisadores de Stanford e Google DeepMind.
O que são agentes de simulação?
Os agentes de simulação são descritos pelo artigo como modelos generativos de IA que podem simular com precisão o comportamento de uma pessoa “em uma variedade de contextos sociais, políticos ou informativos”.
No estudo, 1.052 participantes foram convidados a completar uma entrevista de duas horas que cobriu uma ampla gama de tópicos, desde a sua história de vida pessoal até às suas opiniões sobre questões sociais contemporâneas. Suas respostas foram registradas e o roteiro foi usado para treinar modelos generativos de IA – ou “agentes de simulação” – para cada indivíduo.
Para testar até que ponto estes agentes conseguiam imitar os seus homólogos humanos, foi pedido a ambos que completassem um conjunto de tarefas, incluindo testes de personalidade e jogos. Os participantes foram então solicitados a replicar suas próprias respostas quinze dias depois. Notavelmente, os agentes de IA foram capazes de simular respostas com 85% de precisão em comparação com os participantes humanos.
Além do mais, os agentes de simulação foram igualmente eficazes quando solicitados a prever traços de personalidade em cinco experimentos de ciências sociais.
Embora sua personalidade possa parecer algo intangível ou não quantificável, esta pesquisa mostra que é possível destilar sua estrutura de valores a partir de uma quantidade relativamente pequena de informações, capturando respostas qualitativas a um conjunto fixo de perguntas. Alimentados com esses dados, os modelos de IA podem imitar de forma convincente a sua personalidade – pelo menos, em um ambiente controlado e baseado em testes. E isso pode tornar os deepfakes ainda mais perigosos.
Agente duplo
A pesquisa foi liderada por Joon Sung Park, estudante de doutorado em Stanford. A ideia por trás da criação desses agentes de simulação é dar mais liberdade aos pesquisadores de ciências sociais na condução de estudos. Ao criar réplicas digitais que se comportam como as pessoas reais nas quais se baseiam, os cientistas podem realizar estudos sem a despesa de trazer sempre milhares de participantes humanos.
Eles também podem realizar experimentos que seriam antiéticos com participantes humanos reais. Falando ao MIT Technology Review, John Horton, professor associado de tecnologias da informação na MIT Sloan School of Management, disse que o artigo demonstra uma maneira de “usar humanos reais para gerar personas que podem então ser usadas programaticamente/em simulação em maneiras que você não conseguiria com humanos reais.”
Se os participantes do estudo estão moralmente confortáveis com isso é uma coisa. Mais preocupante para muitas pessoas será o potencial dos agentes de simulação se tornarem algo mais nefasto no futuro. Na mesma história da MIT Technology Review, Park previu que um dia “você poderá ter um monte de pequenos ‘vocês’ correndo por aí e realmente tomando as decisões que você teria tomado”.
Para muitos, isso fará soar alarmes distópicos. A ideia de réplicas digitais abre um campo de preocupações com segurança, privacidade e roubo de identidade. Não é preciso muita imaginação para prever um mundo onde os golpistas – que já estão usando IA para imitar as vozes de entes queridos – poderiam criar deepfakes de personalidade para imitar pessoas online.
Isto é particularmente preocupante quando se considera que os agentes de simulação de IA foram criados no estudo usando apenas duas horas de dados de entrevistas. Isto é muito menos do que a quantidade de informações atualmente exigida por empresas como a Tavus, que criam gêmeos digitais com base em uma grande quantidade de dados de usuários.