Rolling_Trader Escreveu:
E será que isso não deriva primariamente das expetativas?
Eu quando vou fazer uma pergunta a um amigo ou a um colega de trabalho adequo a minha pergunta à expetativa que tenho do conhecimento da outra pessoa. Mas quando vou fazer uma pergunta a uma LLM, tenho a expetativa que ela sabe tudo (incluíndo, às vezes, que sabe o que eu estou a pensar sem que eu o tenha escrito).
Outro exemplo, se eu for a uma consulta médica não "atiro" um conjunto de exames médicos para cima da mesa e pergunto "Doutor, diga-me qual é o meu problema de saúde".
Uma consulta entre um médico e um paciente é um proceso inerentemente iterativo.
Mas, já numa LLM, sou capaz de fazer upload de um conjunto de exames médicos e fazer a pergunta genérica "há algum problema de saúde nestes exames?". Sem contexto, a LLM vai dar uma resposta genérica, já um médico faz primeiro uma pequena anamnese e iterage com a pessoa até achar que tem informação suficiente. A diferença entre estas duas situações, é que uma pessoa num médico vai responder às perguntas sem questionar porque estão a ser feitas, já com a LLM pode ficar irritada porque quer uma resposta rápida e objetiva... lá está... as expetativas são diferentes.
Respondendo à primeira questão, na minha opinião, sim, provavelmente. Mas, nessa expectativa, já está implícito aquilo de que tenho estado a falar (nomeadamente, aquilo que denominamos de Teoria da Mente /
Theory of Mind). O utilizador vai com uma expectativa porque está treinado para isso (nurtured) e também porque, provavelmente, biologicamente, fruto da evolução e da forma como os nossos cérebros evoluíram - nomeadamente na sua estrutura - já existe essa predisposição (nature).
Sem fazer um
deep dive, posso tentar ver melhor e revisitar isso de forma mais sistemática, mas do pouco que tenho visto/lido, os utilizadores tendem inclusivamente bastante a falar com um LLM como falam com outros humanos (o que não invalida, a um nível mais subtil, aquilo que estás a referir e com o que tendo a concordar). Mas, no que me estou a concentrar, é que os humanos têm expectativas quando comunicam com outros humanos e essas expectativas não são necessariamente ingénuas ou deslocadas. São largamente justificadas. Podem ou não transpor-se para um LLM, depende. No caso geral, e especialmente com um LLM
vanilla e genérico (sem
fine-tuning, sei lá, para “código” ou para a área “médica”), provavelmente não se transporta muito bem. Aquilo que tu referes, de se esperar (em larga medida) que o LLM “saiba o que estás a pensar”, é algo com que operamos o tempo todo na comunicação humano-humano. E funciona tanto melhor quanto melhor o interlocutor captura todo o contexto (de quem vem, onde a conversa está a ocorrer, quando está a ocorrer, na sequência de quê, etc.). Até a própria falta de contexto “local” pode ser uma pista forte!
Por exemplo, vais ao médico e a consulta não é de rotina. O médico sabe que tu pensas estar doente. O médico também já conhece o paciente ou, se não conhece, tentará fazer precisamente o que referiste aí, antes de começar a debitar informação. Mas o ponto é que, no caso geral, nós temos realmente essa expectativa de que os nossos interlocutores, pelo menos parcialmente, sabem o que estamos a pensar. É o que torna a linguagem natural, caracteristicamente de baixa largura de banda, tão eficiente. Palavras têm múltiplos sentidos. Quem diz, quando diz, em que condições diz, tudo isso importa. Nós incorporamos imensa informação - frequentemente sem nos apercebermos disso - que não está no que é expresso literalmente. Se não temos um modelo do nosso interlocutor, rapidamente começamos a construir um. É nisto que me tenho estado a focar: a nossa poderosa ferramenta de construir um modelo do mundo e, como
subset, construir modelos dos nossos interlocutores.
Em relação aos
prompts exemplo, convém também notar que os dois não são exatamente equivalentes. Um é neutro, enquanto o outro não. "Doutor, diga-me qual é o meu problema de saúde" indica que a pessoa acredita que existe um (o que provavelmente nem era preciso expressar, o médico possivelmente já o teria deduzido, ver atrás); enquanto "há algum problema de saúde nestes exames?" é neutra, o utilizador não está a expressar que pensa que tem um. Um prompt mais equivalente seria: "GPT, aqui estão os meus exames, qual é o meu problema de saúde?”. Por outro lado, se a consulta é de rotina, após efetuar consultas/exames de rotina, o paciente/cliente também poderia ter perguntado: "Então doutor, há alguma coisa mal?" (mais análogo a "há algum problema de saúde nestes exames?" junto do LLM).
Enfim, isto já vai imensamente longo. Não pretendia estender-me tanto. Mas creio que posso deixar um exemplo hipotético - mas suficientemente concreto - para ilustrar aquilo em que me estou a focar:
Alguém chega aqui ao fórum e escreve "hoje está um belo dia nos mercados". Com base em quem escreveu (é um utilizador habitual, familiar com o fórum? é um utilizador novo? onde escreve, dentro de um tópico específico? ou abriu um tópico só para escrever isto?), eu infiro uma série de coisas. Até o dia em que o faz é significativo. Se for hoje, sábado, e vier de um utilizador familiar com o fórum e que costuma escrever em tópicos de ativos portugueses cotados na nossa Euronext Lisbon, eu vou inferir que não foi escrito no sentido literal. E não vou escrever/explicar que hoje é sábado. Eu já sei que ele sabe que hoje é sábado.
Como micro-experiência, coloquei isso mesmo num prompt no GPT-5 Thinking (Plus). O GPT-5 Thinking (Plus) sabe inclusivamente que eu estou familiarizado com os mercados e que é um dos meus vários focos de interesse. Mesmo assim, o que fez? Primeiro começou a pesquisar informação atual sobre mercados (no fórum, ao ler isto escrito num sábado por um utilizador familiar com os mercados, eu não perderia tempo a ir ver cotações - eu já sei que ele está no “gozo” ou a ser irónico. Sei lá, se vimos de um dia ou semana de quedas, hoje estar "tudo" fechado é a boa notícia: assim já não cai. O modelo não só entendeu a mensagem como refletindo “entusiasmo”, como de seguida me explicou que hoje era sábado e que só alguns ativos estavam a negociar.
Para rematar: o que discuto não é propriamente matéria nova e, tanto quanto sei, a integração/modelização de Theory of Mind nos modelos atuais é uma área ativa de desenvolvimento...