Caldeirão da Bolsa

A Revolução da Inteligencia Artificial

Espaço dedicado a todo o tipo de troca de impressões sobre os mercados financeiros e ao que possa condicionar o desempenho dos mesmos.

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 6/9/2025 14:39

Rolling_Trader Escreveu:
E será que isso não deriva primariamente das expetativas?

Eu quando vou fazer uma pergunta a um amigo ou a um colega de trabalho adequo a minha pergunta à expetativa que tenho do conhecimento da outra pessoa. Mas quando vou fazer uma pergunta a uma LLM, tenho a expetativa que ela sabe tudo (incluíndo, às vezes, que sabe o que eu estou a pensar sem que eu o tenha escrito).

Outro exemplo, se eu for a uma consulta médica não "atiro" um conjunto de exames médicos para cima da mesa e pergunto "Doutor, diga-me qual é o meu problema de saúde".
Uma consulta entre um médico e um paciente é um proceso inerentemente iterativo.

Mas, já numa LLM, sou capaz de fazer upload de um conjunto de exames médicos e fazer a pergunta genérica "há algum problema de saúde nestes exames?". Sem contexto, a LLM vai dar uma resposta genérica, já um médico faz primeiro uma pequena anamnese e iterage com a pessoa até achar que tem informação suficiente. A diferença entre estas duas situações, é que uma pessoa num médico vai responder às perguntas sem questionar porque estão a ser feitas, já com a LLM pode ficar irritada porque quer uma resposta rápida e objetiva... lá está... as expetativas são diferentes.




Respondendo à primeira questão, na minha opinião, sim, provavelmente. Mas, nessa expectativa, já está implícito aquilo de que tenho estado a falar (nomeadamente, aquilo que denominamos de Teoria da Mente / Theory of Mind). O utilizador vai com uma expectativa porque está treinado para isso (nurtured) e também porque, provavelmente, biologicamente, fruto da evolução e da forma como os nossos cérebros evoluíram - nomeadamente na sua estrutura - já existe essa predisposição (nature).

Sem fazer um deep dive, posso tentar ver melhor e revisitar isso de forma mais sistemática, mas do pouco que tenho visto/lido, os utilizadores tendem inclusivamente bastante a falar com um LLM como falam com outros humanos (o que não invalida, a um nível mais subtil, aquilo que estás a referir e com o que tendo a concordar). Mas, no que me estou a concentrar, é que os humanos têm expectativas quando comunicam com outros humanos e essas expectativas não são necessariamente ingénuas ou deslocadas. São largamente justificadas. Podem ou não transpor-se para um LLM, depende. No caso geral, e especialmente com um LLM vanilla e genérico (sem fine-tuning, sei lá, para “código” ou para a área “médica”), provavelmente não se transporta muito bem. Aquilo que tu referes, de se esperar (em larga medida) que o LLM “saiba o que estás a pensar”, é algo com que operamos o tempo todo na comunicação humano-humano. E funciona tanto melhor quanto melhor o interlocutor captura todo o contexto (de quem vem, onde a conversa está a ocorrer, quando está a ocorrer, na sequência de quê, etc.). Até a própria falta de contexto “local” pode ser uma pista forte!

Por exemplo, vais ao médico e a consulta não é de rotina. O médico sabe que tu pensas estar doente. O médico também já conhece o paciente ou, se não conhece, tentará fazer precisamente o que referiste aí, antes de começar a debitar informação. Mas o ponto é que, no caso geral, nós temos realmente essa expectativa de que os nossos interlocutores, pelo menos parcialmente, sabem o que estamos a pensar. É o que torna a linguagem natural, caracteristicamente de baixa largura de banda, tão eficiente. Palavras têm múltiplos sentidos. Quem diz, quando diz, em que condições diz, tudo isso importa. Nós incorporamos imensa informação - frequentemente sem nos apercebermos disso - que não está no que é expresso literalmente. Se não temos um modelo do nosso interlocutor, rapidamente começamos a construir um. É nisto que me tenho estado a focar: a nossa poderosa ferramenta de construir um modelo do mundo e, como subset, construir modelos dos nossos interlocutores.

Em relação aos prompts exemplo, convém também notar que os dois não são exatamente equivalentes. Um é neutro, enquanto o outro não. "Doutor, diga-me qual é o meu problema de saúde" indica que a pessoa acredita que existe um (o que provavelmente nem era preciso expressar, o médico possivelmente já o teria deduzido, ver atrás); enquanto "há algum problema de saúde nestes exames?" é neutra, o utilizador não está a expressar que pensa que tem um. Um prompt mais equivalente seria: "GPT, aqui estão os meus exames, qual é o meu problema de saúde?”. Por outro lado, se a consulta é de rotina, após efetuar consultas/exames de rotina, o paciente/cliente também poderia ter perguntado: "Então doutor, há alguma coisa mal?" (mais análogo a "há algum problema de saúde nestes exames?" junto do LLM).

Enfim, isto já vai imensamente longo. Não pretendia estender-me tanto. Mas creio que posso deixar um exemplo hipotético - mas suficientemente concreto - para ilustrar aquilo em que me estou a focar:

Alguém chega aqui ao fórum e escreve "hoje está um belo dia nos mercados". Com base em quem escreveu (é um utilizador habitual, familiar com o fórum? é um utilizador novo? onde escreve, dentro de um tópico específico? ou abriu um tópico só para escrever isto?), eu infiro uma série de coisas. Até o dia em que o faz é significativo. Se for hoje, sábado, e vier de um utilizador familiar com o fórum e que costuma escrever em tópicos de ativos portugueses cotados na nossa Euronext Lisbon, eu vou inferir que não foi escrito no sentido literal. E não vou escrever/explicar que hoje é sábado. Eu já sei que ele sabe que hoje é sábado.

Como micro-experiência, coloquei isso mesmo num prompt no GPT-5 Thinking (Plus). O GPT-5 Thinking (Plus) sabe inclusivamente que eu estou familiarizado com os mercados e que é um dos meus vários focos de interesse. Mesmo assim, o que fez? Primeiro começou a pesquisar informação atual sobre mercados (no fórum, ao ler isto escrito num sábado por um utilizador familiar com os mercados, eu não perderia tempo a ir ver cotações - eu já sei que ele está no “gozo” ou a ser irónico. Sei lá, se vimos de um dia ou semana de quedas, hoje estar "tudo" fechado é a boa notícia: assim já não cai. O modelo não só entendeu a mensagem como refletindo “entusiasmo”, como de seguida me explicou que hoje era sábado e que só alguns ativos estavam a negociar.


Para rematar: o que discuto não é propriamente matéria nova e, tanto quanto sei, a integração/modelização de Theory of Mind nos modelos atuais é uma área ativa de desenvolvimento...
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 6/9/2025 10:20

MarcoAntonio Escreveu:A verdade é que nós, humanos, precisamos de menos prompt engineering para nos entendermos uns aos outros. Há lugar a desentendimento, claro. Mas é menos pronunciado dado que nõs conseguimos incorporar mais informação no acto de entender a mensagem

E será que isso não deriva primariamente das expetativas?

Eu quando vou fazer uma pergunta a um amigo ou a um colega de trabalho adequo a minha pergunta à expetativa que tenho do conhecimento da outra pessoa. Mas quando vou fazer uma pergunta a uma LLM, tenho a expetativa que ela sabe tudo (incluíndo, às vezes, que sabe o que eu estou a pensar sem que eu o tenha escrito).

Outro exemplo, se eu for a uma consulta médica não "atiro" um conjunto de exames médicos para cima da mesa e pergunto "Doutor, diga-me qual é o meu problema de saúde".
Uma consulta entre um médico e um paciente é um proceso inerentemente iterativo.

Mas, já numa LLM, sou capaz de fazer upload de um conjunto de exames médicos e fazer a pergunta genérica "há algum problema de saúde nestes exames?". Sem contexto, a LLM vai dar uma resposta genérica, já um médico faz primeiro uma pequena anamnese e iterage com a pessoa até achar que tem informação suficiente. A diferença entre estas duas situações, é que uma pessoa num médico vai responder às perguntas sem questionar porque estão a ser feitas, já com a LLM pode ficar irritada porque quer uma resposta rápida e objetiva... lá está... as expetativas são diferentes.

MarcoAntonio Escreveu:(...) estamos a falar, fundamentalmente, de uma limitação dos modelos e não de uma limitação dos utilizadores (pensando aqui no uso genérico)

A única limitação são efetivamente os custos de inferência. Se chegarmos a um ponto em que debitar 1000 ou um milhão de tokens tem o mesmo custo, essa primeira limitação será ultrapassada.

Mas, a outra "limitação", a da expetativa humana, acredito que infelizmente será sempre um problema cuja solução é de compromisso (e nunca a ideal).

Dou-te um exemplo simples na minha profissão de consultoria informática: Sempre trabalhei para grandes consultoras (Novabase, Indra, Altran, Capgemini) que cobram pequenas fortunas para implementar soluções à medida para os clientes.
Todos os clientes, sem exceção, têm expetativas demasiado elevadas da consultora (pelo preço que pagam, nem eu os posso censurar), mas muitas vezes os clientes vão pedir produtos de software que efetivamente não precisam, ou que não lhes vão efetivamente resolver o problema que têm.
Há uma metodologia, chamada de "Design Thinking" que aborda esse problema, "sentamo-nos" com o cliente e tentamos perceber qual é o problema que estão a tentar resolver para perceber se o produto que nos estão a pedir é efetivamente o que precisam.
Ora isso, numa primeira reação, é frustrante para o cliente. Ele foi lá pedir um software para "tirar cafés" e nós começamos a perguntar "mas diga-me lá porque é que precisa de tirar cafés?".
Estamos a trabalhar em prol do cliente, mas ele pode considerar isso "ofensivo" ou uma artimanha da consultora para "ganhar mais dinheiro". Mas na realidade até lhe podemos implementar uma solução mais barata e mais adequada ao seu problema, no entanto gastamos mais tempo inicialmente.

Continuo a ser da opinião que uma coisa é um humano falar com outro humano, não especialista. Outra coisa é um humano abordar uma "entidade especialista gigante" (empresa ou uma LLM), nesse caso as expetativas são diferentes.
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 6/9/2025 9:21

Rolling_Trader Escreveu:
Eu considero as LLM atuais mais que suficientemente inteligentes para ajudar um ser humano a fazer ou a melhorar uma prompt, aliás o termo Metaprompting descreve (conceptualmente) um conjunto de técnicas existentes para pôr a LLM a colaborar ativamente no processo de prompting.

Concordo mais com o que referes relativamente à questão da não frustrar os utilizadores que procuram respostas objetivas, ou pecar por excesso de paternalismo.

Efetivamente é um problema de UX (User Experience) que não é possível de resolver e remete-nos para a velha máxima "não é possível agradar a gregos e troianos".

No entanto há também a questão dos custos de inferência. Se as LLM questionassem constantemente TODAS as prompts de TODOS os utilizadores, iriam, no mínimo, duplicar os tokens usados em cada conversação, duplicando também os custos de inferência.

Mas isso só vem reforçar a minha ideia. Se os Chatbots de IA não assistem o utilizador nas suas prompts (dado que isso é uma opção de desenho arquitetural) então aprender "engenharia de prompts" é uma "habilidade" essencial quando se pretende iteragir com qualquer LLM.

No meu caso, que uso o Chat GPT desde o seu lançamento, confesso que só este ano me dediquei extensivamente a estudar de "engenharia de prompts" e foi um "banho de humildade" pois eu achava-me expert no tema (só porque tinha uma ideia, relativamente aprofundada, de como as LLM funcionavam internamente).

Com o conhecimento adquirido tripliquei a eficiência das minhas prompts e deixei de obter respostas insatisfatórias das LLM (a menos nas vezes que sou preguiçoso com as minhas prompts, mas nesse caso tenho bom remédio, é deixar de ser preguiçoso :lol: ).



Certo, mas as duas coisas podem ser verdade simultaneamente. O que estás a descrever, é o modelo (essencialmente) explicar como é que ele entende melhor (o que não significa que, se ele fosse mais capaz, não precisasse da ajuda adicional de ter o utilizador a escrever prompts desenhadas para aumentar a eficiência do modelo). Mas estamos a falar, fundamentalmente, de uma limitação dos modelos e não de uma limitação dos utilizadores (pensando aqui no uso genérico). A verdade é que nós, humanos, precisamos de menos prompt engineering para nos entendermos uns aos outros. Há lugar a desentendimento, claro. Mas é menos pronunciado dado que nõs conseguimos incorporar mais informação no acto de entender a mensagem. Os modelos eventualmente chegarão lá ou aproximar-se-ão mais dessa fasquia.

O prompt engineering actual fará sentido enquanto o paradigma dos modelos se mantiver, tornar-se-á obsoleto (ou largamente obsoleto ou desnecessário) se o paradigma dos modelos mudar. Seja como for, penso que faz sentido incorporar nos programas pelo menos nos domínios especialmente técnicos.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 6/9/2025 8:29

Eu considero as LLM atuais mais que suficientemente inteligentes para ajudar um ser humano a fazer ou a melhorar uma prompt, aliás o termo Metaprompting descreve (conceptualmente) um conjunto de técnicas existentes para pôr a LLM a colaborar ativamente no processo de prompting.

Concordo mais com o que referes relativamente à questão da não frustrar os utilizadores que procuram respostas objetivas, ou pecar por excesso de paternalismo.

Efetivamente é um problema de UX (User Experience) que não é possível de resolver e remete-nos para a velha máxima "não é possível agradar a gregos e troianos".

No entanto há também a questão dos custos de inferência. Se as LLM questionassem constantemente TODAS as prompts de TODOS os utilizadores, iriam, no mínimo, duplicar os tokens usados em cada conversação, duplicando também os custos de inferência.

Mas isso só vem reforçar a minha ideia. Se os Chatbots de IA não assistem o utilizador nas suas prompts (dado que isso é uma opção de desenho arquitetural) então aprender "engenharia de prompts" é uma "habilidade" essencial quando se pretende iteragir com qualquer LLM.

No meu caso, que uso o Chat GPT desde o seu lançamento, confesso que só este ano me dediquei extensivamente a estudar de "engenharia de prompts" e foi um "banho de humildade" pois eu achava-me expert no tema (só porque tinha uma ideia, relativamente aprofundada, de como as LLM funcionavam internamente).

Com o conhecimento adquirido tripliquei a eficiência das minhas prompts e deixei de obter respostas insatisfatórias das LLM (a menos nas vezes que sou preguiçoso com as minhas prompts, mas nesse caso tenho bom remédio, é deixar de ser preguiçoso :lol: ).
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 6/9/2025 0:02

Bom, se o sistema fosse realmente inteligente, não seria preciso (tanto) prompt engineering. A necessidade de prompt engineering aponta para as limitações destes modelos e serve de panaceia para um problema mais fundamental. O mesmo de que já temos estado a falar aqui no tópico...

A diferença está em que nós (humanos) detectamos melhor a nuance, preenchemos lacunas com pistas adicionais ou conhecimento prévio via informação contextual, o que no nosso caso é bem mais robusto, abrangendo uma série de vectores. Por exemplo, aprendemos rapidamente como o nosso interlocutor fala/escreve, inferimos da linguagem corporal quando disponível, etc. Grande parte desta capacidade diz respeito a aquilo que conhecemos por "Teoria da Mente" (Theory of Mind). Além disso, tendemos a pedir clarificações de forma directa ou indirecta quando sentimos necessidade - por vezes de forma fluída, não necessariamente impertinente - o que será mais difícil de calibrar num LLM, que tenderá a assumir que entendeu o que o utilizador pretende (em lugar de questionar o interlocutor o tempo todo). Por exemplo, no lançamento do GPT-5 alguns utilizadores queixaram-se de múltiplos ciclos de prompts e clarificações até o modelo produzir o resultado final. Os exemplos partilhados mostravam situações que, na comunicação humano-humano, não justificaria tanta necessidade de clarificação. Se o modelo prioritizar demasiado a precisão, pode tornar-se rapidamente inconveniente, se "afrouxar" corre o risco de fornecer respostas desalinhadas com a intenção do utilizador. 

Embora isto ocorra também na comunicação humano-humano, se um ouvinte precisa/pede esclarecimento o tempo todo ou interpreta sistematicamente outra coisa que não o que interlocutor quer, ainda que a linguagem seja imprecisa, então provavelmente há um problema também do lado do ouvinte/receptor. Ou seja, apesar da ambiguidade e da "baixa largura de banda" da linguagem natural - que na verdade, na prática, permite comunicação mais eficiente - em condições típicas conseguimos ultrapassar bem esses aparentes obstáculos, dado que somos mais do que meramente um modelo linguístico.

Naturalmente que prompts bem formulados mitigam o problema. Mas este não estará tanto nos utilizadores não saberem pedir o que querem, mas no de os sistemas não conseguirem deduzir (com o mesmo grau de eficiência, fluidez e adaptação que nós interlocutores humanos) o que o utilizador quer...
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 5/9/2025 23:02

MarcoAntonio Escreveu:(...)
No fundo, a letter de cima serve para sublinhar a pertinência de técnicas adequadas (fine-tuning e técnicas avançadas de reasoning) para que os modelos sejam minimamente robustos para aplicações sérias em medicina. Também serve, na minha opinião, como mensagem de cautela sobre a utilização de LLMs vanilla para aconselhamento médico, mesmo que os modelos mais recentes não estejam cobertos. Um dos pontos da letter é como a resposta do modelo pode variar significativamente mediante alterações na prompt.

Tirando por momentos o enfoque nas questões médicas, a tua última frase revela o maior problema com que os utilizadores se deparam ao usar uma LLM genérica (e o problema não está na LLM).

A maior parte das pessoas formula más prompts, sem contexto, sem direcionar a futura resposta de encontro ao objetivo que pretende, depois queixa-se de más respostas e "põe as culpas" no modelo.

Fazendo uma analogia com o meu contexto profissional, de desenvolvimento de software à medida, posso dizer que, nos meus 25 anos de carreira, sempre me deparei com mesmo problema: "Os clientes nunca sabem bem o que querem".
Mas o desenvolvimento de software aborda bem esse problema e existem inúmeras técnicas e metodologias provadas para levantamento de requisitos, que ajudam na clarificação das reais necessidades e desejos do cliente, técnicas essas que são essenciais para mitigar o risco de frustração do cliente com o produto final.

Infelizmente, as LLM genéricas não lêem o pensamento dos utilizadores nem estão treinadas para fazer "levantamento de requisitos" para perceberem exatamente o que o utilizador pretende.

A incontornável verdade é que é da responsabilidade do utilizador da LLM fazer boas prompts e se não o fizer terá más respostas (por más entenda-se vagas, genéricas e desadequadas da pretensão efetiva).

Arriscaria dizer que 90% dos utilizadores de LLMs genéricas (a nível mundial) nunca sequer ouviu falar de prompt engineering e esse é o principal requisito para se conseguir as melhores respostas por parte das LLM, seja qual for o domínio específico do conhecimento humano constante na prompt.

Até acho que a "engenharia de prompts" devia ser incluído nos curriculos do ensino secundário :lol:
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 4/9/2025 20:39

Uma nota: trata-se de uma research letter e não de um research paper. Na comunicação científica não são a mesma coisa: uma letter é uma comunicação breve (que, por vezes, dá lugar a um paper completo mais tarde). Uma situação frequente, por exemplo, é a letter servir para partilhar um resultado preliminar mas considerado relevante per se. Em publicações peer-reviewed, o processo não é tão intensivo quanto para um research paper (o mesmo é dizer que a fasquia de exigência nem sempre é a mesma; muito embora isto varie também com a publicação, um paper tende a ter mais peso académico).

Sobre as observações, sim, concordo (eles próprios citam limitações). Focam-se em LLMs genéricos (não cobre os modelos mais recentes tão pouco) e não inclui RAG ou fine-tuning. Partilho a lista dos modelos incluidos: "DeepSeek-R1 (model 1), o3-mini (reasoning models) (model 2), Claude-3.5 Sonnet (model 3), Gemini-2.0-Flash (model 4), GPT-4o (model 5), and Llama-3.3-70B (model 6)".

Já agora, partilho esta revisão sistemática disponível no arxiv que cobre uma série de questões, incluindo as diversas técnicas de reasoning que têm sido exploradas nesta área.

No fundo, a letter de cima serve para sublinhar a pertinência de técnicas adequadas (fine-tuning e técnicas avançadas de reasoning) para que os modelos sejam minimamente robustos para aplicações sérias em medicina. Também serve, na minha opinião, como mensagem de cautela sobre a utilização de LLMs vanilla para aconselhamento médico, mesmo que os modelos mais recentes não estejam cobertos. Um dos pontos da letter é como a resposta do modelo pode variar significativamente mediante alterações na prompt.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 4/9/2025 18:44

MarcoAntonio Escreveu:Não inclui os modelos mais recentes como o GPT-5 ou Gemini 2.5 pro, mas aqui fica:

(...)

Our findings reveal a robustness gap for LLMs in medical reasoning, demonstrating that evaluating these systems requires looking beyond standard accuracy metrics to assess their true reasoning capabilities.6 When forced to reason beyond familiar answer patterns, all models demonstrate declines in accuracy, challenging claims of artificial intelligence’s readiness for autonomous clinical deployment. A system dropping from 80% to 42% accuracy when confronted with a pattern disruption would be unreliable in clinical settings, where novel presentations are common. The results suggest that these systems are more brittle than their benchmark scores suggest.

While our study has limitations, including a small sample size and evaluation limited to 0-shot settings without exploring retrieval-augmented generation or fine-tuning techniques, our findings suggest 3 priorities for medical artificial intelligence: (1) development of benchmarks that distinguish clinical reasoning from pattern matching, (2) greater transparency about current reasoning limitations in clinical contexts, and (3) research into models that prioritize reasoning over pattern recognition. Until these systems maintain performance with novel scenarios, clinical applications should be limited to non autonomous supportive roles with human oversight.

Bem, na minha modesta opinião, esse "research paper" parece-me falível mesmo nas próprias conclusões que tira.

Parece um pouco discussão com o BearManBull. Não se pode querer que um "foundation model" generalista esteja extremamente otimizado para uma área ou sub-área especifica como a do diagnóstico clínico, sem ter um fine-tuning extensivo.

Um dos principais "problemas" que encontro nesse paper é o facto de eles não terem comparado a performance dos modelos com a dos médicos reais quando deparados com o mesmo questionário (fica assim a dúvida razoável se os médicos humanos são melhores ou piores que os modelos testados, face ao benchmark subjacente).

Mas ainda sobre este tópico e transpondo o tema para os novos modelos GPT-5, encontrei este paper, com o título "Capabilities of GPT-5 on Multimodal Medical Reasoning" e cujo resumo executivo transcrevo abaixo, assinalando, a sublinhado o que considero relevante e a bold o que considero notável:

In "Capabilities of GPT-5 on Multimodal Medical Reasoning"

Abstract

Recent advances in large language models (LLMs) have enabled general-purpose systems to perform increasingly complex domain-specific reasoning without extensive fine-tuning. In the medical domain, decision-making often requires integrating heterogeneous information sources, including patient narratives, structured data, and medical images. This study positions GPT-5 as a generalist multimodal reasoner for medical decision support and systematically evaluates its zeroshot chain-of-thought reasoning performance on both text-based question answering and visual question answering tasks under a unified protocol.

We benchmark GPT-5, GPT-5-mini, GPT-5-nano, and GPT-4o-2024-11-20 against standardized splits of MedQA, MedXpertQA (text and multimodal), MMLU medical subsets, USMLE self-assessment exams, and VQA-RAD. Results show that GPT-5 consistently outperforms all baselines, achieving state-of-the-art accuracy across all QA benchmarks and delivering substantial gains in multimodal reasoning.

On MedXpertQA MM, GPT-5 improves reasoning and understanding scores by +29.26% and +26.18% over GPT-4o, respectively, and surpasses pre-licensed human experts by +24.23% in reasoning and +29.40% in understanding. In contrast, GPT-4o remains below human expert performance in most dimensions.

A representative case study demonstrates GPT-5’s ability to integrate visual and textual cues into a coherent diagnostic reasoning chain, recommending appropriate high-stakes interventions.
Our results show that, on these controlled multimodal reasoning benchmarks, GPT-5 moves from human-comparable to above human-expert performance. This improvement may substantially inform the design of future clinical decision-support systems. We make the code public at the GPT-5-Evaluation

Os nossos hospitais privados de referência (Luz, Cuf, Lusíadas, Trofa, Joaquim Chaves) já deviam estar a caminhar para o diagnóstico assistido por IA, a passos largos, mas será que já moveram sequer uma palha nesse sentido? :-k

Enquanto arquiteto de software e investidor de bolsa sei que o investimento num centro de excelência de IA, na área da Saúde, traria um ROI muito elevado.

Porém (e globalmente falando) o investimento na área de IA, por parte das empresas, ainda é feito muito a medo e com desconfiança (nada que a humanidade não tenha também passado durante a revolução industrial).
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 3/9/2025 23:59

Não inclui os modelos mais recentes como o GPT-5 ou Gemini 2.5 pro, mas aqui fica:

Fidelity of Medical Reasoning in Large Language Models (JAMA)

(Research Letter)



Discussion

Our findings reveal a robustness gap for LLMs in medical reasoning, demonstrating that evaluating these systems requires looking beyond standard accuracy metrics to assess their true reasoning capabilities.6 When forced to reason beyond familiar answer patterns, all models demonstrate declines in accuracy, challenging claims of artificial intelligence’s readiness for autonomous clinical deployment. A system dropping from 80% to 42% accuracy when confronted with a pattern disruption would be unreliable in clinical settings, where novel presentations are common. The results suggest that these systems are more brittle than their benchmark scores suggest.

While our study has limitations, including a small sample size and evaluation limited to 0-shot settings without exploring retrieval-augmented generation or fine-tuning techniques, our findings suggest 3 priorities for medical artificial intelligence: (1) development of benchmarks that distinguish clinical reasoning from pattern matching, (2) greater transparency about current reasoning limitations in clinical contexts, and (3) research into models that prioritize reasoning over pattern recognition. Until these systems maintain performance with novel scenarios, clinical applications should be limited to non autonomous supportive roles with human oversight.

Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Microsoft na cauda do pelotão (para não variar)

por Rolling_Trader » 3/9/2025 21:52

A Microsoft disponibilizou recentemente, para avaliação pública, dois modelos LLM, um para geração de voz (MAI-Voice-1) e o segundo um tradicional "foundation model" (MAI-1-preview), com o intuito de rivalizar com os grandes fornecedores de LLM atuais como o ChatGPT da OpenAI, Gemini da Google ou Grok da xAI.

    :arrow: O modelo MAI-Voice-1 está disponível para teste gratuito no copilot labs

    :arrow: O modelo MAI-1-preview está disponível para teste gratuito na LMArena (neste caso é necessário escolher o modelo "mai-1-preview")
A comunicação oficial pode ser encontrada neste link da Microsoft

Será finalmente a Microsoft vai conseguir libertar-se da dependência dos modelos da OpenAI que alimentam o Copilot e no processo aumentar os seus resultados em bolsa? :-k

Para já, no leaderboard da LMArena, a coisa não está muito famosa em termos de popularidade e o modelo da Microsoft encontra-se até atrás do Grok 3, o modelo anterior da xAi, bem como atrás da versão anterior do ChatGPT e de algumas chinesas open source, não se destacando em nada segundo a opinião dos avaliadores (não é o começo mais auspicioso diria eu).
Anexos
mai-1_lmarena_leaderboard.jpg
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 3/9/2025 0:37

BearManBull Escreveu:Eu so queria ter uma resposta de onde é que o MCP é amplamente usado na actualdiade.

Mas lá está como o GPT nao pode responder a estas perguntas...

Sabe, eu sou da geração X, tirei a licenciatura de 1995 a 2000 e tive uma carreira de software developer de 2000 a 2021 antes do Chat GPT e... sobrevivi! A pensar pela minha cabeça e a usar coisas chamadas "livros" e "motores de busca", arcaico sim mas, apesar de tudo, ainda existem hoje. Dão trabalho de usar mas aprende-se mais do que acreditar piamente num conjunto de tokens "cuspidos" probabilísticamente por uma LLM, não preciso disso para pensar, formular teorias, ou expôr as minhas ideias.

Mas ainda quer respostas? Não leu nada do que eu citei anteriormente?
Não seja por isso, eu cito mais fontes. E já que você só conhece o Chat GPT, deixo-lhe aqui mais uns links (que provavelmente você também não vai ler):


O MCP é recente (novembro de 2024) mas a versão 5 do ChatGPT é posterior ao protocolo. Pelos links acima citados é altamente improvável que o GPT-5 não use MCP na sua agentificação interna, dado que o protocolo já é a base da Responses API e do Agents SDK. Claro está que isso não é demonstrável pelo simples facto da versão 5 do modelo ser fechada e os detalhes da sua implementação não serem do domínio público.

Gostava também que você desse uma explicação sucinta de porquê usar o MCP para atingir o objetivo que referiu. Porquê só um protocolo? E porquê o MCP em particular?

Não preciso que você escreva código, mas ou detalha tecnicamente a sua ideia e a mais valia do MCP nesse contexto, ou dá descanso ao tópico, pois o que havia para discutir sobre MCP creio que já foi aqui extensivamente esmiuçado.
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por BearManBull » 2/9/2025 22:56

Eu so queria ter uma resposta de onde é que o MCP é amplamente usado na actualdiade.

Mas lá está como o GPT nao pode responder a estas perguntas...
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10969
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 2/9/2025 21:39

A minha sugestão é que evitem o campo pessoal, é meio caminho andado para o tópico prosseguir sem sobressaltos de maior.

:wink:
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 2/9/2025 21:29

BearManBull Escreveu:O que ficou claro aqui é que nao tens patavina ideia de como se usa o MCP nem consegues dar exemplos de uso porque o GPT nao esta treinado nisso e nao sabes extrapolar essa informaçao a pensar pela tua pessoa.

Meu caro a minha lincenciatura é na área de informática de investigação, tenho mais de 25 anos de experiência em desenvolvimento de software e atualmente sou arquiteto de sistemas enterprise.

Mas, mesmo com esta experiência tenho a humildade de me remeter à minha insignificância perante os programadores e arquitetos IA de TOPO da OpenAI, Anthropic e Google.

Esta sua última resposta só vem a confirmar que você não sabe o que é o MCP, muito menos sabe sequer o que é um protocolo, senão não diria que, e cito, "o GPT não está treinado nisso".

Pior, a sua resposta prova que você nem sequer sabe usar a IA para fazer fact checking do que diz.

Experimente colocar a seguinte prompt no chat GPT

Does Chat GPT use Anthropic's Model Context Protocol? If so, describe exactly how and why

Vai ver que o próprio Chat GPT lhe podia servir para fazer fact checking antes de vir para aqui dizer asneiras

chatGPT.jpg


MarcoAntonio, sugiro que intervenhas aqui (porque já me conheces e sabes para onde isto se está a encaminhar).

Convém que o BearManBull dê alguma prova factual do que está a afirmar em vez de continuar nesta postura passivo-agressiva.
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por BearManBull » 2/9/2025 20:56

O que ficou claro aqui é que nao tens patavina ideia de como se usa o MCP nem consegues dar exemplos de uso porque o GPT nao esta treinado nisso e nao sabes extrapolar essa informaçao a pensar pela tua pessoa.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10969
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 2/9/2025 20:54

BearManBull,

Para mim ficou claro que você não sabe o que é o protocolo MCP nem para que serve efetivamente.

Também ficou claro para mim que você se acha capaz de fazer algo que os developers e arquitetos de elite da OpenAI, Google e Anthropic não conseguiram ainda fazer, recorrendo apenas a um protocolo de integração..

É como dizer que vai descobrir a cura para o cancro com um laboratório (pois certo que vai precisar dum, mas não é o laboratório, por si só, que lhe vai resolver o problema).
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por BearManBull » 2/9/2025 10:28

Rolling_Trader Escreveu:
BearManBull Escreveu:
Rolling_Trader Escreveu:Mais estranho ainda é pensar que o MCP serve para organizar informação dentro da janela de contexto.

Eu gostava era de saber de onde è que isso foi dito...


Você escreveu literalmente isso no seu post de 30/8/2025 0:41

BearManBull Escreveu:
Na generalidade os LLMs conseguem fazer em termos micro o mesmo trabalho que fazem essas pessoas falta é a capacidade de acompanhamento e enquadramento para colaborar num processo empresarial e isso é por contexto diario que vao guardando e eliminando o que nao é necessário. Falta ali ou uma context window de terabytes ou um sistema orquestrador que guarda e recupera a informaçao por exemplo por MCP.


Eu disse que se podia usar o MCP para implementar um arquitectura que emula um janela de contexto que seja suficientemente dinamica, fiavel e grande para o uso empresarial.

Nao disse que o MCP é um protocolo de context windows.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10969
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por BearManBull » 2/9/2025 10:23

Rolling_Trader Escreveu:
BearManBull Escreveu:
Rolling_Trader Escreveu:Acho estranho o BearManBull achar que o protocolo MCP não estará já a ser usado pelos fornecedores de IA mainstream (da melhor forma possível).


Ah sim, exemplifica lá isso.

Anthropic


Google


OpenAi



Isso nao demonstra absolutamente nada relativo ao uso do MCP.

Uma coisa é disponibilizar ferramentas, outra coisa é adoptalas em ambiente organizacional.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10969
Registado: 15/2/2011 11:59
Localização: 22

Receita para os autores em "pesquisas IA"

por Rolling_Trader » 1/9/2025 21:04

Iniciativa de louvar, mas será que "colará", no futuro, com os restantes fornecedores de soluções de IA?

In Forbes

Perplexity’s Comet Plus – Legal Peace Offering Or New Dawn For Publishers In The AI Era?

San Francisco’s Perplexity AI recently announced a groundbreaking revenue-share model. The centerpiece of this initiative is Comet Plus, a $5-a-month subscription tier designed to deliver smarter browsing as well as channel income back to publishers whose work powers its AI.

(...)

Notably, Perplexity’s head of publisher partnerships, Jessica Chan, frames Comet Plus as a corrective to those archaic incentives. “Perplexity only succeeds if journalism succeeds. We’re really committed to building and funding more sustainable, thriving news ecosystems for the AI age,” she explained in a Digiday interview. “I think anything that supports publishers, fair compensation, transparency — we’re all open to supporting]. We’d be open to [participating].”

Será viremos a ter um modelo estilo "spotify" para remunerar (ainda que pouco que seja) a propriedade intelectual dos jornalistas e restantes publicadores, que muitas vezes alimentam os textos de IA que lemos? :-k
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 31/8/2025 23:15

MarcoAntonio Escreveu:

China Has a Different Vision for AI. It Might Be Smarter.

(...)

The U.S. is spending billions of dollars and burning gigawatts of energy in a rush to beat China to the next evolutionary leap in artificial intelligence—one so great, some boosters say, that it will rival the atomic bomb in its power to change the global order.
China is running a different race.

(...)

more actively embracing open-source models that are free for users to download and modify, making it cheaper and easier for Chinese companies to build businesses around the technology. That approach is helping Chinese AI spread globally, a trend that has shaken Silicon Valley into following suit.


E no entretanto Portugal... queixa-se do "tamanho da janela de contexto" e resigna-se a dizer que a IA é uma porcaria porque não lhe faz o trabalho todo sozinho. :lol:

Agora falando a sério, é notável como os interesses económicos que revolvem em torno das superempresas de IA americanas (Google, OpenAI, Anthropic e xAI), cujo cerne da rentabilidade reside nos modelos LLM fechados e proprietários, a China investe e promove a investigação de modelos abertos (Deepseek, Alibaba Qwen, Moonshot Kimi K2, entre outros) que são fundamentais para poderem servirem de modelos base para retreino e/ou fine-tuning noutras áreas de negócio (que não a de software).

Estando a IA a posicionar-se como a maior revolução socio-económica da história da humanidade e com o potencial de ter um impacto exponencial, será que esta proatividade da China não lhe permitirá posicionar como a maior economia do mundo num futuro próximo? :-k
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 31/8/2025 20:04


China Has a Different Vision for AI. It Might Be Smarter.

With growing fears of an AI bubble, Beijing is charting a pragmatic alternative to Silicon Valley’s pursuit of artificial superintelligence


The U.S. is spending billions of dollars and burning gigawatts of energy in a rush to beat China to the next evolutionary leap in artificial intelligence—one so great, some boosters say, that it will rival the atomic bomb in its power to change the global order.
China is running a different race.

Since the release of OpenAI’s ChatGPT nearly three years ago, Silicon Valley has spent mountains of money in pursuit of AI’s holy grail: artificial general intelligence that matches or beats human thinking. Enthusiasts say it will give the U.S. insurmountable military advantages, help cure cancer and solve climate change, and eliminate the need for people to perform routine work such as accounting and customer service.

In China, by contrast, leader Xi Jinping has recently had little to say about AGI. Instead, he is pushing the country’s tech industry to be “strongly oriented toward applications”—building practical, low-cost tools that boost China’s efficiency and can be marketed easily.

(...)


Tsinghua University, China’s equivalent of the Massachusetts Institute of Technology, is rolling out an AI-powered hospital, where human doctors will be assisted by virtual colleagues armed with the latest data on diseases. Intelligent robots are being deployed to run automotive “dark factories” and inspect textiles for flaws while still on the loom.

“They see highly impactful AI applications not as something to theorize about in the future but as something to take advantage of here and now,” said Julian Gewirtz, a former National Security Council official who specialized in tech competition with China during the Biden administration.

U.S. tech companies are developing plenty of practical applications using current AI, of course. Google has wired its latest Pixel smartphones to do real-time translation, while U.S. consulting companies are using AI agents to build PowerPoint decks and sum up interviews for clients. Others are using it to improve drug discovery and food delivery.

But unlike the U.S., which largely leaves the industry to its own devices, Beijing is putting the full muscle of the state behind its vision. In January, the central government unveiled an $8.4 billion AI investment fund focused on supporting startups. Local governments and state banks have since rolled out their own funding programs, while cities have published AI development plans as part of a campaign dubbed “AI+.”

(...)

China is also more actively embracing open-source models that are free for users to download and modify, making it cheaper and easier for Chinese companies to build businesses around the technology. That approach is helping Chinese AI spread globally, a trend that has shaken Silicon Valley into following suit.

(...)




WSJ
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por Rolling_Trader » 31/8/2025 8:52

BearManBull Escreveu:
Rolling_Trader Escreveu:Acho estranho o BearManBull achar que o protocolo MCP não estará já a ser usado pelos fornecedores de IA mainstream (da melhor forma possível).


Ah sim, exemplifica lá isso.

Anthropic


Google


OpenAi


BearManBull Escreveu:
Rolling_Trader Escreveu:Mais estranho ainda é pensar que o MCP serve para organizar informação dentro da janela de contexto.

Eu gostava era de saber de onde è que isso foi dito...


Você escreveu literalmente isso no seu post de 30/8/2025 0:41

BearManBull Escreveu:
Na generalidade os LLMs conseguem fazer em termos micro o mesmo trabalho que fazem essas pessoas falta é a capacidade de acompanhamento e enquadramento para colaborar num processo empresarial e isso é por contexto diario que vao guardando e eliminando o que nao é necessário. Falta ali ou uma context window de terabytes ou um sistema orquestrador que guarda e recupera a informaçao por exemplo por MCP.
Avatar do Utilizador
 
Mensagens: 355
Registado: 1/1/2024 14:39

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 30/8/2025 23:26

BearManBull Escreveu:Mas é isso que estava a identificar desde inicio que é limitador para as empresas.


No estágio actual, para projectos profissionais como o tal "assistente jurídico", o que fará mais sentido é usar a API e um wrapper orquestrador, na linha do que mencionei atrás, do que estar a depender das limitações do acesso vanilla da app/web e respectivo frontend. Aceder ao GPT-5 vanilla, ou outro modelo/serviço do género, não será provavelmente a melhor solução. Não foram desenhados/optimizados para este ou outro tipo de aplicação tão específico. Os sistemas também não chegaram ao ponto de evolução que aqui procuras/exiges (talvez um dia, quem sabe, com mais evoluções em cima ou outro paradigma; ie, a matéria que procurei discutir nos posts anteriores).

Na API, a OpenAI já oferece (para além de controlo sobre o modelo a utilizar, nível de esforço e o modo de reasoning) um contexto total um pouco maior:

https://openai.com/index/introducing-gpt-5-for-developers/

Excerto:

(...)

In the API, all GPT‑5 models can accept a maximum of 272,000 input tokens and emit a maximum of 128,000 reasoning & output tokens, for a total context length of 400,000 tokens.

(...)


Além disso, também segundo a OpenAI, a Responses API permite ainda o acesso/controlo de várias ferramentas nativas:


Responses benefits

The Responses API contains several benefits over Chat Completions:

* Better performance: Using reasoning models, like GPT-5, with Responses will result in better model intelligence when compared to Chat Completions. Our internal evals reveal a 3% improvement in SWE-bench with same prompt and setup.

* Agentic by default: The Responses API is an agentic loop, allowing the model to call multiple tools, like web_search, image_generation, file_search, code_interpreter, remote MCP servers, as well as your own custom functions, within the span of one API request.
Lower costs: Results in lower costs due to improved cache utilization (40% to 80% improvement when compared to Chat Completions in internal tests).

* Stateful context: Use store: true to maintain state from turn to turn, preserving reasoning and tool context from turn-to-turn.

* Flexible inputs: Pass a string with input or a list of messages; use instructions for system-level guidance.

* Encrypted reasoning: Opt-out of statefulness while still benefiting from advanced reasoning.

* Future-proof: Future-proofed for upcoming models.



https://platform.openai.com/docs/guides/migrate-to-responses

O que eu sugeria, construindo sobre ou expandindo a minha sugestão anterior aqui no tópico: usar api com um wrapper orquestrador que inclua coisas como um RAG para os documentos (biblioteca própria do projecto), funções separadas por tarefa (pesquisa/digestão/sumarização/citação), políticas a aplicar (para respeitar as necessidades e limites legais, a tal "constitutional ai") e gestão local do contexto ad hoc por request (isto pode ser automatizado!). Decisões de alto nível como delineação ou actualizações estratégicas também podem ter a sua própria função/gestão. Aqui função não é no sentido de código convencional, pode ser tudo feito por diferentes layers de chamada ao(s) modelo(s).

Claro que tudo isto custa dinheiro. Quer a desenvolver o sistema, quer depois a pagar pedidos por acesso/request. Também há a possibilidade de utilizar modelos opensource (eventualmente até fine-tuned). Mas continuará a haver, para além dos custos de desenvolvimento, os custos de hardware (local ou remoto) e afins...
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41709
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 30/8/2025 23:19

Rolling_Trader Escreveu:Acho estranho o BearManBull achar que o protocolo MCP não estará já a ser usado pelos fornecedores de IA mainstream (da melhor forma possível).


Ah sim, exemplifica lá isso.

Rolling_Trader Escreveu:Mais estranho ainda é pensar que o MCP serve para organizar informação dentro da janela de contexto.


Eu gostava era de saber de onde è que isso foi dito...
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10969
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por BearManBull » 30/8/2025 21:39

MarcoAntonio Escreveu:Larga e sem degradação não é a mesma coisa. Há que entender/identificar a causa da degradação (aumentar a janela pode apenas mitigar o problema e não resolvê-lo a um nível fundamental). Isto aponta já para dois potenciais problemas e não um. Também não estou a entender muito bem a questão do reset na sequência do mesmo bullet point pois isto já passa para lá da janela de contexto em si e começa a entrar na questão do conhecimento persistente. Ou seja, um terceiro problema.


Mas é isso que estava a identificar desde inicio que é limitador para as empresas.

Para substituir totalmente o trabalho de um humano é necessário ter um sistema ser capaz de manter o contexto durante periodos longos, com grande capacidade memória, persistencia e sem perda de performance.

Vejo os agentes como algo a quem delegar tarefas, mas nao pode ser cada vez que se quer uma tarefa iniciar um prompt novo. O agente tem de "conhecer" a organizaçao seja por via de context windows extremamente longas ou outro tipo de mecanismo que emule uma context window longa.

Já agora digo delegar porque teria de ser sempre trabalho supervisionado. No fundo como acontece quando se delega trabalho numa organizaçao.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10969
Registado: 15/2/2011 11:59
Localização: 22

AnteriorPróximo

Quem está ligado:
Utilizadores a ver este Fórum: Apramg, JUKIMSUNG, Lisboa_Casino, novato, PAULOJOAO e 224 visitantes