A Revolução da Inteligencia Artificial
Re: A Revolução da Inteligencia Artificial
Qual é o problema
Nas pastas/projetos do ChatGPT (na versão web/desktop), quando existem muitas conversas, a lista aparece incompleta.
Consegues ver algumas, mas o scroll trava a meio → não dá para chegar ao fundo da lista.
A causa provável é um erro no CSS/JavaScript da interface, que aplica overflow: hidden no painel da lista, impedindo que o rato/trackpad façam scroll normal.
No telemóvel (app) este bug não acontece, porque o layout é diferente.
Quando vai ser resolvido
Até 6 de setembro de 2025, a OpenAI ainda não lançou correção oficial nem deu previsão.
O bug foi reportado desde março de 2025 em community.openai.com
e no Reddit, mas continua pendente.
Ou seja: não há data oficial — só se pode esperar que venha numa atualização futura da interface.
Como resolver (soluções temporárias)
Zoom out no navegador
Ctrl / ⌘ + – para reduzir → mostra mais conversas.
Usar outro navegador
Alguns (como Firefox ou Edge) lidam melhor com o scroll.
App móvel (Android/iOS)
A versão mobile permite scroll completo sem problemas.
Extensão “ChatGPT ScrollFix” (Chrome)
Força overflow-y: auto no painel e corrige o bug de forma automática.
Alterar manualmente via Developer Tools
Clica com botão direito → Inspecionar → seleciona o <div> da lista → altera overflow: hidden para overflow: auto.
Isso desbloqueia o scroll até ao fundo.
Re: A Revolução da Inteligencia Artificial
OpenAI pressed on safety after deaths of ChatGPT users
Attorneys-general of California and Delaware threaten to block tech group’s planned restructuring
The top state lawyers in California and Delaware wrote to OpenAI raising “serious concerns” after the deaths of some chatbot users and said safety must be improved before they sign off on its planned restructuring.
In their letter on Friday to OpenAI’s chair Bret Taylor, the attorneys-general said that recent reports of young people committing suicide or murder after prolonged interactions with artificial intelligence chatbots including the company’s ChatGPT had “shaken the American public’s confidence in the company”.
They added that “whatever safeguards were in place did not work”.
(...)
The pair’s intervention on Friday, and a meeting earlier this week with OpenAI’s legal team, followed “the heartbreaking death by suicide of one young Californian after he had prolonged interactions with an OpenAI chatbot, as well as a similarly disturbing murder-suicide in Connecticut”, they wrote.
Those incidents have brought “into acute focus . . . the real-world challenges, and importance, of implementing OpenAI’s mission”, the attorneys-general added.
Almost three years after the release of ChatGPT, some dangerous affects of the powerful technology are coming to light. OpenAI is being sued by the family of Adam Raine, who took his own life in April at the age of 16 after prolonged interactions with the chatbot.
The company announced this week that it would introduce parental controls for ChatGPT.
OpenAI has already ditched its original plans to convert the company into a for-profit, following discussions with the attorneys-general and under legal attack from Elon Musk and a number of other groups. Instead, it is seeking to convert only a subsidiary, allowing investors to hold equity while ensuring the non-profit board retains ultimate control.
Friday’s intervention suggests that even this more modest goal is under threat if OpenAI cannot demonstrate safety improvements.
“Safety is a non-negotiable priority, especially when it comes to children,” wrote the attorneys-general.
(...)
FT
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
@Rolling_Trader,
Em parte foi a razão porque fiz a distinção entre modelos genéricos e modelos especializados (a minha expectativa é que os problemas saiam pelo menos mitigados num modelo especializado). No entanto, não sei se concordo com a segunda parte (chaos of mind), pelo menos não o colocaria nestes termos nem diria exactamente que é "muito difícil". Nós temos uma capacidade notável para nos adaptarmos a diferentes contextos e áreas de actuação (o que não actuamos é necessariamente com o mesmo grau de expertise em todos; também temos limitações).
Em relação ao método de entrada e a utilização de voz, para já o impacto é (ainda, creio) largamente prático que outra coisa. Os modelos actuais continuam a ser tokenizers de texto ou equiparável em áudio. Normalemente, o que ocorre é que o sinal de voz (fala) é primeiro convertido em texto. Isto é, o modelo não digere directamente o sinal de fala, pelo menos em todo o domínio da informação nele contida, pelo que logo aí haverão perdas. A OpenAI diz que alguns dos seus modelos mais recentes já são nativamente multimodais, mas não creio que capture tudo o que descrevo de seguida. A conversão actual ou reconhecimento de voz/fala, incluindo via modelos neuronais, é suficientemente boa para capturar a componente prosódica, ou tom, sendo, por exemplo, capaz de distinguir uma pergunta de uma exclamação. Isto é basicamente inferível pelo percurso da frequência fundamental (f0 contour). Mas há perdas, como por exemplo na componente emocional. Nós, humanos, conseguimos literalmente distinguir se alguém disse algo a sorrir, a rir, desanimado, etc ou detalhes ainda mais subtis na prosódia que podem sugerir que não é apenas uma pergunta, por exemplo, que há pistas acústicas de ironia ou sarcasmo. Isto é, componente dita paralinguística.
Não estou a dizer que isto seja inalcançável num modelo neuronal e sei que é uma área de investigação activa em modelos exploratórios (ie, modelos directamente multimodais e/ou capazes de capturar inclusivamente informação paralinguística). Apenas que - tanto quanto sei - ainda não está completamente incorporado nos modelos actuais/comerciais que tendem a seguir uma pipeline mais simples ou mais limitada ( ASR/STT: fala -> texto com inferência prosódica ou paralínguistica básica/limitada, ou equivalente directamente no áudio; e não fala -> texto + pistas adicionais no sinal de fala, pelo menos na extensão com que nós humanos o fazemos naturalmente).
Claro que aqui a minha comparação é like-to-like: comunicação oral nos dois cenários. E o que estou a dizer, essencialmente, é que também aí ainda há um gap para preencher, ainda não é human-level também...
Em parte foi a razão porque fiz a distinção entre modelos genéricos e modelos especializados (a minha expectativa é que os problemas saiam pelo menos mitigados num modelo especializado). No entanto, não sei se concordo com a segunda parte (chaos of mind), pelo menos não o colocaria nestes termos nem diria exactamente que é "muito difícil". Nós temos uma capacidade notável para nos adaptarmos a diferentes contextos e áreas de actuação (o que não actuamos é necessariamente com o mesmo grau de expertise em todos; também temos limitações).
Em relação ao método de entrada e a utilização de voz, para já o impacto é (ainda, creio) largamente prático que outra coisa. Os modelos actuais continuam a ser tokenizers de texto ou equiparável em áudio. Normalemente, o que ocorre é que o sinal de voz (fala) é primeiro convertido em texto. Isto é, o modelo não digere directamente o sinal de fala, pelo menos em todo o domínio da informação nele contida, pelo que logo aí haverão perdas. A OpenAI diz que alguns dos seus modelos mais recentes já são nativamente multimodais, mas não creio que capture tudo o que descrevo de seguida. A conversão actual ou reconhecimento de voz/fala, incluindo via modelos neuronais, é suficientemente boa para capturar a componente prosódica, ou tom, sendo, por exemplo, capaz de distinguir uma pergunta de uma exclamação. Isto é basicamente inferível pelo percurso da frequência fundamental (f0 contour). Mas há perdas, como por exemplo na componente emocional. Nós, humanos, conseguimos literalmente distinguir se alguém disse algo a sorrir, a rir, desanimado, etc ou detalhes ainda mais subtis na prosódia que podem sugerir que não é apenas uma pergunta, por exemplo, que há pistas acústicas de ironia ou sarcasmo. Isto é, componente dita paralinguística.
Não estou a dizer que isto seja inalcançável num modelo neuronal e sei que é uma área de investigação activa em modelos exploratórios (ie, modelos directamente multimodais e/ou capazes de capturar inclusivamente informação paralinguística). Apenas que - tanto quanto sei - ainda não está completamente incorporado nos modelos actuais/comerciais que tendem a seguir uma pipeline mais simples ou mais limitada ( ASR/STT: fala -> texto com inferência prosódica ou paralínguistica básica/limitada, ou equivalente directamente no áudio; e não fala -> texto + pistas adicionais no sinal de fala, pelo menos na extensão com que nós humanos o fazemos naturalmente).
Claro que aqui a minha comparação é like-to-like: comunicação oral nos dois cenários. E o que estou a dizer, essencialmente, é que também aí ainda há um gap para preencher, ainda não é human-level também...
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
previsor Escreveu:Rolling_Trader Escreveu:Os Projects do ChatGPT são um exemplo excelente de criarmos e organizarmos contexto.
Acho que ainda tem muitas limitações, como não dar para arrastar conversas antigas e a organização em pastas não acelera o desempenho
Retiro o que disse sobre não ser possível arrastar conversas. Agora já dá. Há uns dias não dava.
Re: A Revolução da Inteligencia Artificial
Rolling_Trader Escreveu:Os Projects do ChatGPT são um exemplo excelente de criarmos e organizarmos contexto.
Acho que ainda tem muitas limitações, como não dar para arrastar conversas antigas e a organização em pastas não acelera o desempenho
Re: A Revolução da Inteligencia Artificial
MarcoAntonio Escreveu:(...)
Aquilo que tu referes, de se esperar (em larga medida) que o LLM “saiba o que estás a pensar”, é algo com que operamos o tempo todo na comunicação humano-humano. E funciona tanto melhor quanto melhor o interlocutor captura todo o contexto (de quem vem, onde a conversa está a ocorrer, quando está a ocorrer, na sequência de quê, etc.). Até a própria falta de contexto “local” pode ser uma pista forte!
(...)
Quem diz, quando diz, em que condições diz, tudo isso importa. Nós incorporamos imensa informação - frequentemente sem nos apercebermos disso - que não está no que é expresso literalmente. Se não temos um modelo do nosso interlocutor, rapidamente começamos a construir um. É nisto que me tenho estado a focar: a nossa poderosa ferramenta de construir um modelo do mundo e, como subset, construir modelos dos nossos interlocutores.
(...)
Alguém chega aqui ao fórum e escreve "hoje está um belo dia nos mercados". Com base em quem escreveu (é um utilizador habitual, familiar com o fórum? é um utilizador novo? onde escreve, dentro de um tópico específico? ou abriu um tópico só para escrever isto?), eu infiro uma série de coisas.
(...)
Como micro-experiência, coloquei isso mesmo num prompt no GPT-5 Thinking (Plus). O GPT-5 Thinking (Plus) sabe inclusivamente que eu estou familiarizado com os mercados e que é um dos meus vários focos de interesse. Mesmo assim, o que fez? Primeiro começou a pesquisar informação atual sobre mercados (no fórum, ao ler isto escrito num sábado por um utilizador familiar com os mercados, eu não perderia tempo a ir ver cotações - eu já sei que ele está no “gozo” ou a ser irónico.
(...)
Para rematar: o que discuto não é propriamente matéria nova e, tanto quanto sei, a integração/modelização de Theory of Mind nos modelos atuais é uma área ativa de desenvolvimento...
Concordamos no essencial, porém creio que há aqui uma ressalva importante a fazer com base no "quote" que fiz do teu último post Marco.
O problema é que, para qualquer Chat Bot, o método de entrada é mesmo, uma janela de chat de texto, onde escrevemos a qualquer hora do dia ou da noite, não só sobre bolsa mas também sobre tudo "e mais um par de botas", desde a pedido de sugestões para jantar, a aconselhamento para problemas pessoais, e a pedidos de ajuda para tarefas específicas do trabalho.
Seria muito difícil para um humano servir de amigo, confidente, colega, psicólogo, médico, tutor, etc, sendo constantemente "massacrado" com perguntas de diferentes temas feitas de maneira aleatória e desordenada.
Neste caso, a Theory of Mind seria mais um Chaos of Mind. O ser humano não iria conseguir lidar com este caos e a IA também não.
Depois temos o problema do meio de comunicação com... Mensagens de Texto.
Mesmo na comunicação entre dois seres humanos, via texto simples, a "impossibilidade" de imprimir um tom de voz diferente torna difícil a interpretação das mensagens pelo outro interlocutor.
É fácil soar agressivo numa mensagem de texto (ou email) quando não é essa a nossa intenção, tal como é fácil fazer engenharia social e termos um humano a enganar outros humanos via Whatsapp (ou similar).
A mais recente inovação de poder comunicar com alguns chatbots por voz pode ajudar a colmatar este problema, mas creio que, via texto, é impossível arranjar um algoritmo ou ideia que consiga extrair contexto de uma janela de chat aberta do nada, a qualquer hora do dia ou da noite.
O que tenho vindo a tentar comunicar nestes últimos posts (quando comecei pela engenharia de prompts) é que, quem nos pode ajudar neste momento, somos nós próprios... seja aprendendo engenharia de prompts seja a usar funcionalidades dos chats de IA que nos permitem organizar o contexto, como os Projects do ChatGPT
A propósito, o Chat GPT fez o "rollout" da funcionalidade "Projects" para o plano gratuito.
Os Projects do ChatGPT são um exemplo excelente de criarmos e organizarmos contexto. Por exemplo, posso criar um projeto para me servir de "médico de família", coloco lá todo o meu contexto médico relevante (historial clínico, medicação habitual, problemas de saúde na família, hábitos tabágicos ou outros, exames, consultas, idade, peso) e direciono todas as minhas perguntas médicas, sobre a minha saúde, a esse projeto em particular.
Dessa forma não tenho de estar recorrentemente a repetir informação de contexto cada vez que abro uma janela de chat nova e vou obter respostas mais relevantes sobre a minha saúde.
Agora cuidado, não façam perguntas sobre o exame médico da esposa no Project que criaram com a informação de contexto da vossa saúde pessoal.

Re: A Revolução da Inteligencia Artificial
Rolling_Trader Escreveu:
E será que isso não deriva primariamente das expetativas?
Eu quando vou fazer uma pergunta a um amigo ou a um colega de trabalho adequo a minha pergunta à expetativa que tenho do conhecimento da outra pessoa. Mas quando vou fazer uma pergunta a uma LLM, tenho a expetativa que ela sabe tudo (incluíndo, às vezes, que sabe o que eu estou a pensar sem que eu o tenha escrito).
Outro exemplo, se eu for a uma consulta médica não "atiro" um conjunto de exames médicos para cima da mesa e pergunto "Doutor, diga-me qual é o meu problema de saúde".
Uma consulta entre um médico e um paciente é um proceso inerentemente iterativo.
Mas, já numa LLM, sou capaz de fazer upload de um conjunto de exames médicos e fazer a pergunta genérica "há algum problema de saúde nestes exames?". Sem contexto, a LLM vai dar uma resposta genérica, já um médico faz primeiro uma pequena anamnese e iterage com a pessoa até achar que tem informação suficiente. A diferença entre estas duas situações, é que uma pessoa num médico vai responder às perguntas sem questionar porque estão a ser feitas, já com a LLM pode ficar irritada porque quer uma resposta rápida e objetiva... lá está... as expetativas são diferentes.
Respondendo à primeira questão, na minha opinião, sim, provavelmente. Mas, nessa expectativa, já está implícito aquilo de que tenho estado a falar (nomeadamente, aquilo que denominamos de Teoria da Mente / Theory of Mind). O utilizador vai com uma expectativa porque está treinado para isso (nurtured) e também porque, provavelmente, biologicamente, fruto da evolução e da forma como os nossos cérebros evoluíram - nomeadamente na sua estrutura - já existe essa predisposição (nature).
Sem fazer um deep dive, posso tentar ver melhor e revisitar isso de forma mais sistemática, mas do pouco que tenho visto/lido, os utilizadores tendem inclusivamente bastante a falar com um LLM como falam com outros humanos (o que não invalida, a um nível mais subtil, aquilo que estás a referir e com o que tendo a concordar). Mas, no que me estou a concentrar, é que os humanos têm expectativas quando comunicam com outros humanos e essas expectativas não são necessariamente ingénuas ou deslocadas. São largamente justificadas. Podem ou não transpor-se para um LLM, depende. No caso geral, e especialmente com um LLM vanilla e genérico (sem fine-tuning, sei lá, para “código” ou para a área “médica”), provavelmente não se transporta muito bem. Aquilo que tu referes, de se esperar (em larga medida) que o LLM “saiba o que estás a pensar”, é algo com que operamos o tempo todo na comunicação humano-humano. E funciona tanto melhor quanto melhor o interlocutor captura todo o contexto (de quem vem, onde a conversa está a ocorrer, quando está a ocorrer, na sequência de quê, etc.). Até a própria falta de contexto “local” pode ser uma pista forte!
Por exemplo, vais ao médico e a consulta não é de rotina. O médico sabe que tu pensas estar doente. O médico também já conhece o paciente ou, se não conhece, tentará fazer precisamente o que referiste aí, antes de começar a debitar informação. Mas o ponto é que, no caso geral, nós temos realmente essa expectativa de que os nossos interlocutores, pelo menos parcialmente, sabem o que estamos a pensar. É o que torna a linguagem natural, caracteristicamente de baixa largura de banda, tão eficiente. Palavras têm múltiplos sentidos. Quem diz, quando diz, em que condições diz, tudo isso importa. Nós incorporamos imensa informação - frequentemente sem nos apercebermos disso - que não está no que é expresso literalmente. Se não temos um modelo do nosso interlocutor, rapidamente começamos a construir um. É nisto que me tenho estado a focar: a nossa poderosa ferramenta de construir um modelo do mundo e, como subset, construir modelos dos nossos interlocutores.
Em relação aos prompts exemplo, convém também notar que os dois não são exatamente equivalentes. Um é neutro, enquanto o outro não. "Doutor, diga-me qual é o meu problema de saúde" indica que a pessoa acredita que existe um (o que provavelmente nem era preciso expressar, o médico possivelmente já o teria deduzido, ver atrás); enquanto "há algum problema de saúde nestes exames?" é neutra, o utilizador não está a expressar que pensa que tem um. Um prompt mais equivalente seria: "GPT, aqui estão os meus exames, qual é o meu problema de saúde?”. Por outro lado, se a consulta é de rotina, após efetuar consultas/exames de rotina, o paciente/cliente também poderia ter perguntado: "Então doutor, há alguma coisa mal?" (mais análogo a "há algum problema de saúde nestes exames?" junto do LLM).
Enfim, isto já vai imensamente longo. Não pretendia estender-me tanto. Mas creio que posso deixar um exemplo hipotético - mas suficientemente concreto - para ilustrar aquilo em que me estou a focar:
Alguém chega aqui ao fórum e escreve "hoje está um belo dia nos mercados". Com base em quem escreveu (é um utilizador habitual, familiar com o fórum? é um utilizador novo? onde escreve, dentro de um tópico específico? ou abriu um tópico só para escrever isto?), eu infiro uma série de coisas. Até o dia em que o faz é significativo. Se for hoje, sábado, e vier de um utilizador familiar com o fórum e que costuma escrever em tópicos de ativos portugueses cotados na nossa Euronext Lisbon, eu vou inferir que não foi escrito no sentido literal. E não vou escrever/explicar que hoje é sábado. Eu já sei que ele sabe que hoje é sábado.
Como micro-experiência, coloquei isso mesmo num prompt no GPT-5 Thinking (Plus). O GPT-5 Thinking (Plus) sabe inclusivamente que eu estou familiarizado com os mercados e que é um dos meus vários focos de interesse. Mesmo assim, o que fez? Primeiro começou a pesquisar informação atual sobre mercados (no fórum, ao ler isto escrito num sábado por um utilizador familiar com os mercados, eu não perderia tempo a ir ver cotações - eu já sei que ele está no “gozo” ou a ser irónico. Sei lá, se vimos de um dia ou semana de quedas, hoje estar "tudo" fechado é a boa notícia: assim já não cai. O modelo não só entendeu a mensagem como refletindo “entusiasmo”, como de seguida me explicou que hoje era sábado e que só alguns ativos estavam a negociar.
Para rematar: o que discuto não é propriamente matéria nova e, tanto quanto sei, a integração/modelização de Theory of Mind nos modelos atuais é uma área ativa de desenvolvimento...
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
MarcoAntonio Escreveu:A verdade é que nós, humanos, precisamos de menos prompt engineering para nos entendermos uns aos outros. Há lugar a desentendimento, claro. Mas é menos pronunciado dado que nõs conseguimos incorporar mais informação no acto de entender a mensagem
E será que isso não deriva primariamente das expetativas?
Eu quando vou fazer uma pergunta a um amigo ou a um colega de trabalho adequo a minha pergunta à expetativa que tenho do conhecimento da outra pessoa. Mas quando vou fazer uma pergunta a uma LLM, tenho a expetativa que ela sabe tudo (incluíndo, às vezes, que sabe o que eu estou a pensar sem que eu o tenha escrito).
Outro exemplo, se eu for a uma consulta médica não "atiro" um conjunto de exames médicos para cima da mesa e pergunto "Doutor, diga-me qual é o meu problema de saúde".
Uma consulta entre um médico e um paciente é um proceso inerentemente iterativo.
Mas, já numa LLM, sou capaz de fazer upload de um conjunto de exames médicos e fazer a pergunta genérica "há algum problema de saúde nestes exames?". Sem contexto, a LLM vai dar uma resposta genérica, já um médico faz primeiro uma pequena anamnese e iterage com a pessoa até achar que tem informação suficiente. A diferença entre estas duas situações, é que uma pessoa num médico vai responder às perguntas sem questionar porque estão a ser feitas, já com a LLM pode ficar irritada porque quer uma resposta rápida e objetiva... lá está... as expetativas são diferentes.
MarcoAntonio Escreveu:(...) estamos a falar, fundamentalmente, de uma limitação dos modelos e não de uma limitação dos utilizadores (pensando aqui no uso genérico)
A única limitação são efetivamente os custos de inferência. Se chegarmos a um ponto em que debitar 1000 ou um milhão de tokens tem o mesmo custo, essa primeira limitação será ultrapassada.
Mas, a outra "limitação", a da expetativa humana, acredito que infelizmente será sempre um problema cuja solução é de compromisso (e nunca a ideal).
Dou-te um exemplo simples na minha profissão de consultoria informática: Sempre trabalhei para grandes consultoras (Novabase, Indra, Altran, Capgemini) que cobram pequenas fortunas para implementar soluções à medida para os clientes.
Todos os clientes, sem exceção, têm expetativas demasiado elevadas da consultora (pelo preço que pagam, nem eu os posso censurar), mas muitas vezes os clientes vão pedir produtos de software que efetivamente não precisam, ou que não lhes vão efetivamente resolver o problema que têm.
Há uma metodologia, chamada de "Design Thinking" que aborda esse problema, "sentamo-nos" com o cliente e tentamos perceber qual é o problema que estão a tentar resolver para perceber se o produto que nos estão a pedir é efetivamente o que precisam.
Ora isso, numa primeira reação, é frustrante para o cliente. Ele foi lá pedir um software para "tirar cafés" e nós começamos a perguntar "mas diga-me lá porque é que precisa de tirar cafés?".
Estamos a trabalhar em prol do cliente, mas ele pode considerar isso "ofensivo" ou uma artimanha da consultora para "ganhar mais dinheiro". Mas na realidade até lhe podemos implementar uma solução mais barata e mais adequada ao seu problema, no entanto gastamos mais tempo inicialmente.
Continuo a ser da opinião que uma coisa é um humano falar com outro humano, não especialista. Outra coisa é um humano abordar uma "entidade especialista gigante" (empresa ou uma LLM), nesse caso as expetativas são diferentes.
Re: A Revolução da Inteligencia Artificial
Rolling_Trader Escreveu:
Eu considero as LLM atuais mais que suficientemente inteligentes para ajudar um ser humano a fazer ou a melhorar uma prompt, aliás o termo Metaprompting descreve (conceptualmente) um conjunto de técnicas existentes para pôr a LLM a colaborar ativamente no processo de prompting.
Concordo mais com o que referes relativamente à questão da não frustrar os utilizadores que procuram respostas objetivas, ou pecar por excesso de paternalismo.
Efetivamente é um problema de UX (User Experience) que não é possível de resolver e remete-nos para a velha máxima "não é possível agradar a gregos e troianos".
No entanto há também a questão dos custos de inferência. Se as LLM questionassem constantemente TODAS as prompts de TODOS os utilizadores, iriam, no mínimo, duplicar os tokens usados em cada conversação, duplicando também os custos de inferência.
Mas isso só vem reforçar a minha ideia. Se os Chatbots de IA não assistem o utilizador nas suas prompts (dado que isso é uma opção de desenho arquitetural) então aprender "engenharia de prompts" é uma "habilidade" essencial quando se pretende iteragir com qualquer LLM.
No meu caso, que uso o Chat GPT desde o seu lançamento, confesso que só este ano me dediquei extensivamente a estudar de "engenharia de prompts" e foi um "banho de humildade" pois eu achava-me expert no tema (só porque tinha uma ideia, relativamente aprofundada, de como as LLM funcionavam internamente).
Com o conhecimento adquirido tripliquei a eficiência das minhas prompts e deixei de obter respostas insatisfatórias das LLM (a menos nas vezes que sou preguiçoso com as minhas prompts, mas nesse caso tenho bom remédio, é deixar de ser preguiçoso).
Certo, mas as duas coisas podem ser verdade simultaneamente. O que estás a descrever, é o modelo (essencialmente) explicar como é que ele entende melhor (o que não significa que, se ele fosse mais capaz, não precisasse da ajuda adicional de ter o utilizador a escrever prompts desenhadas para aumentar a eficiência do modelo). Mas estamos a falar, fundamentalmente, de uma limitação dos modelos e não de uma limitação dos utilizadores (pensando aqui no uso genérico). A verdade é que nós, humanos, precisamos de menos prompt engineering para nos entendermos uns aos outros. Há lugar a desentendimento, claro. Mas é menos pronunciado dado que nõs conseguimos incorporar mais informação no acto de entender a mensagem. Os modelos eventualmente chegarão lá ou aproximar-se-ão mais dessa fasquia.
O prompt engineering actual fará sentido enquanto o paradigma dos modelos se mantiver, tornar-se-á obsoleto (ou largamente obsoleto ou desnecessário) se o paradigma dos modelos mudar. Seja como for, penso que faz sentido incorporar nos programas pelo menos nos domínios especialmente técnicos.
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
Eu considero as LLM atuais mais que suficientemente inteligentes para ajudar um ser humano a fazer ou a melhorar uma prompt, aliás o termo Metaprompting descreve (conceptualmente) um conjunto de técnicas existentes para pôr a LLM a colaborar ativamente no processo de prompting.
Concordo mais com o que referes relativamente à questão da não frustrar os utilizadores que procuram respostas objetivas, ou pecar por excesso de paternalismo.
Efetivamente é um problema de UX (User Experience) que não é possível de resolver e remete-nos para a velha máxima "não é possível agradar a gregos e troianos".
No entanto há também a questão dos custos de inferência. Se as LLM questionassem constantemente TODAS as prompts de TODOS os utilizadores, iriam, no mínimo, duplicar os tokens usados em cada conversação, duplicando também os custos de inferência.
Mas isso só vem reforçar a minha ideia. Se os Chatbots de IA não assistem o utilizador nas suas prompts (dado que isso é uma opção de desenho arquitetural) então aprender "engenharia de prompts" é uma "habilidade" essencial quando se pretende iteragir com qualquer LLM.
No meu caso, que uso o Chat GPT desde o seu lançamento, confesso que só este ano me dediquei extensivamente a estudar de "engenharia de prompts" e foi um "banho de humildade" pois eu achava-me expert no tema (só porque tinha uma ideia, relativamente aprofundada, de como as LLM funcionavam internamente).
Com o conhecimento adquirido tripliquei a eficiência das minhas prompts e deixei de obter respostas insatisfatórias das LLM (a menos nas vezes que sou preguiçoso com as minhas prompts, mas nesse caso tenho bom remédio, é deixar de ser preguiçoso
).
Concordo mais com o que referes relativamente à questão da não frustrar os utilizadores que procuram respostas objetivas, ou pecar por excesso de paternalismo.
Efetivamente é um problema de UX (User Experience) que não é possível de resolver e remete-nos para a velha máxima "não é possível agradar a gregos e troianos".
No entanto há também a questão dos custos de inferência. Se as LLM questionassem constantemente TODAS as prompts de TODOS os utilizadores, iriam, no mínimo, duplicar os tokens usados em cada conversação, duplicando também os custos de inferência.
Mas isso só vem reforçar a minha ideia. Se os Chatbots de IA não assistem o utilizador nas suas prompts (dado que isso é uma opção de desenho arquitetural) então aprender "engenharia de prompts" é uma "habilidade" essencial quando se pretende iteragir com qualquer LLM.
No meu caso, que uso o Chat GPT desde o seu lançamento, confesso que só este ano me dediquei extensivamente a estudar de "engenharia de prompts" e foi um "banho de humildade" pois eu achava-me expert no tema (só porque tinha uma ideia, relativamente aprofundada, de como as LLM funcionavam internamente).
Com o conhecimento adquirido tripliquei a eficiência das minhas prompts e deixei de obter respostas insatisfatórias das LLM (a menos nas vezes que sou preguiçoso com as minhas prompts, mas nesse caso tenho bom remédio, é deixar de ser preguiçoso

Re: A Revolução da Inteligencia Artificial
Bom, se o sistema fosse realmente inteligente, não seria preciso (tanto) prompt engineering. A necessidade de prompt engineering aponta para as limitações destes modelos e serve de panaceia para um problema mais fundamental. O mesmo de que já temos estado a falar aqui no tópico...
A diferença está em que nós (humanos) detectamos melhor a nuance, preenchemos lacunas com pistas adicionais ou conhecimento prévio via informação contextual, o que no nosso caso é bem mais robusto, abrangendo uma série de vectores. Por exemplo, aprendemos rapidamente como o nosso interlocutor fala/escreve, inferimos da linguagem corporal quando disponível, etc. Grande parte desta capacidade diz respeito a aquilo que conhecemos por "Teoria da Mente" (Theory of Mind). Além disso, tendemos a pedir clarificações de forma directa ou indirecta quando sentimos necessidade - por vezes de forma fluída, não necessariamente impertinente - o que será mais difícil de calibrar num LLM, que tenderá a assumir que entendeu o que o utilizador pretende (em lugar de questionar o interlocutor o tempo todo). Por exemplo, no lançamento do GPT-5 alguns utilizadores queixaram-se de múltiplos ciclos de prompts e clarificações até o modelo produzir o resultado final. Os exemplos partilhados mostravam situações que, na comunicação humano-humano, não justificaria tanta necessidade de clarificação. Se o modelo prioritizar demasiado a precisão, pode tornar-se rapidamente inconveniente, se "afrouxar" corre o risco de fornecer respostas desalinhadas com a intenção do utilizador.
Embora isto ocorra também na comunicação humano-humano, se um ouvinte precisa/pede esclarecimento o tempo todo ou interpreta sistematicamente outra coisa que não o que interlocutor quer, ainda que a linguagem seja imprecisa, então provavelmente há um problema também do lado do ouvinte/receptor. Ou seja, apesar da ambiguidade e da "baixa largura de banda" da linguagem natural - que na verdade, na prática, permite comunicação mais eficiente - em condições típicas conseguimos ultrapassar bem esses aparentes obstáculos, dado que somos mais do que meramente um modelo linguístico.
Naturalmente que prompts bem formulados mitigam o problema. Mas este não estará tanto nos utilizadores não saberem pedir o que querem, mas no de os sistemas não conseguirem deduzir (com o mesmo grau de eficiência, fluidez e adaptação que nós interlocutores humanos) o que o utilizador quer...
A diferença está em que nós (humanos) detectamos melhor a nuance, preenchemos lacunas com pistas adicionais ou conhecimento prévio via informação contextual, o que no nosso caso é bem mais robusto, abrangendo uma série de vectores. Por exemplo, aprendemos rapidamente como o nosso interlocutor fala/escreve, inferimos da linguagem corporal quando disponível, etc. Grande parte desta capacidade diz respeito a aquilo que conhecemos por "Teoria da Mente" (Theory of Mind). Além disso, tendemos a pedir clarificações de forma directa ou indirecta quando sentimos necessidade - por vezes de forma fluída, não necessariamente impertinente - o que será mais difícil de calibrar num LLM, que tenderá a assumir que entendeu o que o utilizador pretende (em lugar de questionar o interlocutor o tempo todo). Por exemplo, no lançamento do GPT-5 alguns utilizadores queixaram-se de múltiplos ciclos de prompts e clarificações até o modelo produzir o resultado final. Os exemplos partilhados mostravam situações que, na comunicação humano-humano, não justificaria tanta necessidade de clarificação. Se o modelo prioritizar demasiado a precisão, pode tornar-se rapidamente inconveniente, se "afrouxar" corre o risco de fornecer respostas desalinhadas com a intenção do utilizador.
Embora isto ocorra também na comunicação humano-humano, se um ouvinte precisa/pede esclarecimento o tempo todo ou interpreta sistematicamente outra coisa que não o que interlocutor quer, ainda que a linguagem seja imprecisa, então provavelmente há um problema também do lado do ouvinte/receptor. Ou seja, apesar da ambiguidade e da "baixa largura de banda" da linguagem natural - que na verdade, na prática, permite comunicação mais eficiente - em condições típicas conseguimos ultrapassar bem esses aparentes obstáculos, dado que somos mais do que meramente um modelo linguístico.
Naturalmente que prompts bem formulados mitigam o problema. Mas este não estará tanto nos utilizadores não saberem pedir o que querem, mas no de os sistemas não conseguirem deduzir (com o mesmo grau de eficiência, fluidez e adaptação que nós interlocutores humanos) o que o utilizador quer...
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
MarcoAntonio Escreveu:(...)
No fundo, a letter de cima serve para sublinhar a pertinência de técnicas adequadas (fine-tuning e técnicas avançadas de reasoning) para que os modelos sejam minimamente robustos para aplicações sérias em medicina. Também serve, na minha opinião, como mensagem de cautela sobre a utilização de LLMs vanilla para aconselhamento médico, mesmo que os modelos mais recentes não estejam cobertos. Um dos pontos da letter é como a resposta do modelo pode variar significativamente mediante alterações na prompt.
Tirando por momentos o enfoque nas questões médicas, a tua última frase revela o maior problema com que os utilizadores se deparam ao usar uma LLM genérica (e o problema não está na LLM).
A maior parte das pessoas formula más prompts, sem contexto, sem direcionar a futura resposta de encontro ao objetivo que pretende, depois queixa-se de más respostas e "põe as culpas" no modelo.
Fazendo uma analogia com o meu contexto profissional, de desenvolvimento de software à medida, posso dizer que, nos meus 25 anos de carreira, sempre me deparei com mesmo problema: "Os clientes nunca sabem bem o que querem".
Mas o desenvolvimento de software aborda bem esse problema e existem inúmeras técnicas e metodologias provadas para levantamento de requisitos, que ajudam na clarificação das reais necessidades e desejos do cliente, técnicas essas que são essenciais para mitigar o risco de frustração do cliente com o produto final.
Infelizmente, as LLM genéricas não lêem o pensamento dos utilizadores nem estão treinadas para fazer "levantamento de requisitos" para perceberem exatamente o que o utilizador pretende.
A incontornável verdade é que é da responsabilidade do utilizador da LLM fazer boas prompts e se não o fizer terá más respostas (por más entenda-se vagas, genéricas e desadequadas da pretensão efetiva).
Arriscaria dizer que 90% dos utilizadores de LLMs genéricas (a nível mundial) nunca sequer ouviu falar de prompt engineering e esse é o principal requisito para se conseguir as melhores respostas por parte das LLM, seja qual for o domínio específico do conhecimento humano constante na prompt.
Até acho que a "engenharia de prompts" devia ser incluído nos curriculos do ensino secundário

Re: A Revolução da Inteligencia Artificial
Uma nota: trata-se de uma research letter e não de um research paper. Na comunicação científica não são a mesma coisa: uma letter é uma comunicação breve (que, por vezes, dá lugar a um paper completo mais tarde). Uma situação frequente, por exemplo, é a letter servir para partilhar um resultado preliminar mas considerado relevante per se. Em publicações peer-reviewed, o processo não é tão intensivo quanto para um research paper (o mesmo é dizer que a fasquia de exigência nem sempre é a mesma; muito embora isto varie também com a publicação, um paper tende a ter mais peso académico).
Sobre as observações, sim, concordo (eles próprios citam limitações). Focam-se em LLMs genéricos (não cobre os modelos mais recentes tão pouco) e não inclui RAG ou fine-tuning. Partilho a lista dos modelos incluidos: "DeepSeek-R1 (model 1), o3-mini (reasoning models) (model 2), Claude-3.5 Sonnet (model 3), Gemini-2.0-Flash (model 4), GPT-4o (model 5), and Llama-3.3-70B (model 6)".
Já agora, partilho esta revisão sistemática disponível no arxiv que cobre uma série de questões, incluindo as diversas técnicas de reasoning que têm sido exploradas nesta área.
No fundo, a letter de cima serve para sublinhar a pertinência de técnicas adequadas (fine-tuning e técnicas avançadas de reasoning) para que os modelos sejam minimamente robustos para aplicações sérias em medicina. Também serve, na minha opinião, como mensagem de cautela sobre a utilização de LLMs vanilla para aconselhamento médico, mesmo que os modelos mais recentes não estejam cobertos. Um dos pontos da letter é como a resposta do modelo pode variar significativamente mediante alterações na prompt.
Sobre as observações, sim, concordo (eles próprios citam limitações). Focam-se em LLMs genéricos (não cobre os modelos mais recentes tão pouco) e não inclui RAG ou fine-tuning. Partilho a lista dos modelos incluidos: "DeepSeek-R1 (model 1), o3-mini (reasoning models) (model 2), Claude-3.5 Sonnet (model 3), Gemini-2.0-Flash (model 4), GPT-4o (model 5), and Llama-3.3-70B (model 6)".
Já agora, partilho esta revisão sistemática disponível no arxiv que cobre uma série de questões, incluindo as diversas técnicas de reasoning que têm sido exploradas nesta área.
No fundo, a letter de cima serve para sublinhar a pertinência de técnicas adequadas (fine-tuning e técnicas avançadas de reasoning) para que os modelos sejam minimamente robustos para aplicações sérias em medicina. Também serve, na minha opinião, como mensagem de cautela sobre a utilização de LLMs vanilla para aconselhamento médico, mesmo que os modelos mais recentes não estejam cobertos. Um dos pontos da letter é como a resposta do modelo pode variar significativamente mediante alterações na prompt.
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
MarcoAntonio Escreveu:Não inclui os modelos mais recentes como o GPT-5 ou Gemini 2.5 pro, mas aqui fica:
(...)Our findings reveal a robustness gap for LLMs in medical reasoning, demonstrating that evaluating these systems requires looking beyond standard accuracy metrics to assess their true reasoning capabilities.6 When forced to reason beyond familiar answer patterns, all models demonstrate declines in accuracy, challenging claims of artificial intelligence’s readiness for autonomous clinical deployment. A system dropping from 80% to 42% accuracy when confronted with a pattern disruption would be unreliable in clinical settings, where novel presentations are common. The results suggest that these systems are more brittle than their benchmark scores suggest.
While our study has limitations, including a small sample size and evaluation limited to 0-shot settings without exploring retrieval-augmented generation or fine-tuning techniques, our findings suggest 3 priorities for medical artificial intelligence: (1) development of benchmarks that distinguish clinical reasoning from pattern matching, (2) greater transparency about current reasoning limitations in clinical contexts, and (3) research into models that prioritize reasoning over pattern recognition. Until these systems maintain performance with novel scenarios, clinical applications should be limited to non autonomous supportive roles with human oversight.
Bem, na minha modesta opinião, esse "research paper" parece-me falível mesmo nas próprias conclusões que tira.
Parece um pouco discussão com o BearManBull. Não se pode querer que um "foundation model" generalista esteja extremamente otimizado para uma área ou sub-área especifica como a do diagnóstico clínico, sem ter um fine-tuning extensivo.
Um dos principais "problemas" que encontro nesse paper é o facto de eles não terem comparado a performance dos modelos com a dos médicos reais quando deparados com o mesmo questionário (fica assim a dúvida razoável se os médicos humanos são melhores ou piores que os modelos testados, face ao benchmark subjacente).
Mas ainda sobre este tópico e transpondo o tema para os novos modelos GPT-5, encontrei este paper, com o título "Capabilities of GPT-5 on Multimodal Medical Reasoning" e cujo resumo executivo transcrevo abaixo, assinalando, a sublinhado o que considero relevante e a bold o que considero notável:
In "Capabilities of GPT-5 on Multimodal Medical Reasoning"
Abstract
Recent advances in large language models (LLMs) have enabled general-purpose systems to perform increasingly complex domain-specific reasoning without extensive fine-tuning. In the medical domain, decision-making often requires integrating heterogeneous information sources, including patient narratives, structured data, and medical images. This study positions GPT-5 as a generalist multimodal reasoner for medical decision support and systematically evaluates its zeroshot chain-of-thought reasoning performance on both text-based question answering and visual question answering tasks under a unified protocol.
We benchmark GPT-5, GPT-5-mini, GPT-5-nano, and GPT-4o-2024-11-20 against standardized splits of MedQA, MedXpertQA (text and multimodal), MMLU medical subsets, USMLE self-assessment exams, and VQA-RAD. Results show that GPT-5 consistently outperforms all baselines, achieving state-of-the-art accuracy across all QA benchmarks and delivering substantial gains in multimodal reasoning.
On MedXpertQA MM, GPT-5 improves reasoning and understanding scores by +29.26% and +26.18% over GPT-4o, respectively, and surpasses pre-licensed human experts by +24.23% in reasoning and +29.40% in understanding. In contrast, GPT-4o remains below human expert performance in most dimensions.
A representative case study demonstrates GPT-5’s ability to integrate visual and textual cues into a coherent diagnostic reasoning chain, recommending appropriate high-stakes interventions.
Our results show that, on these controlled multimodal reasoning benchmarks, GPT-5 moves from human-comparable to above human-expert performance. This improvement may substantially inform the design of future clinical decision-support systems. We make the code public at the GPT-5-Evaluation
Os nossos hospitais privados de referência (Luz, Cuf, Lusíadas, Trofa, Joaquim Chaves) já deviam estar a caminhar para o diagnóstico assistido por IA, a passos largos, mas será que já moveram sequer uma palha nesse sentido?

Enquanto arquiteto de software e investidor de bolsa sei que o investimento num centro de excelência de IA, na área da Saúde, traria um ROI muito elevado.
Porém (e globalmente falando) o investimento na área de IA, por parte das empresas, ainda é feito muito a medo e com desconfiança (nada que a humanidade não tenha também passado durante a revolução industrial).
Re: A Revolução da Inteligencia Artificial
Não inclui os modelos mais recentes como o GPT-5 ou Gemini 2.5 pro, mas aqui fica:
Fidelity of Medical Reasoning in Large Language Models (JAMA)
(Research Letter)
Fidelity of Medical Reasoning in Large Language Models (JAMA)
(Research Letter)
Discussion
Our findings reveal a robustness gap for LLMs in medical reasoning, demonstrating that evaluating these systems requires looking beyond standard accuracy metrics to assess their true reasoning capabilities.6 When forced to reason beyond familiar answer patterns, all models demonstrate declines in accuracy, challenging claims of artificial intelligence’s readiness for autonomous clinical deployment. A system dropping from 80% to 42% accuracy when confronted with a pattern disruption would be unreliable in clinical settings, where novel presentations are common. The results suggest that these systems are more brittle than their benchmark scores suggest.
While our study has limitations, including a small sample size and evaluation limited to 0-shot settings without exploring retrieval-augmented generation or fine-tuning techniques, our findings suggest 3 priorities for medical artificial intelligence: (1) development of benchmarks that distinguish clinical reasoning from pattern matching, (2) greater transparency about current reasoning limitations in clinical contexts, and (3) research into models that prioritize reasoning over pattern recognition. Until these systems maintain performance with novel scenarios, clinical applications should be limited to non autonomous supportive roles with human oversight.
FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Microsoft na cauda do pelotão (para não variar)
A Microsoft disponibilizou recentemente, para avaliação pública, dois modelos LLM, um para geração de voz (MAI-Voice-1) e o segundo um tradicional "foundation model" (MAI-1-preview), com o intuito de rivalizar com os grandes fornecedores de LLM atuais como o ChatGPT da OpenAI, Gemini da Google ou Grok da xAI.
Será finalmente a Microsoft vai conseguir libertar-se da dependência dos modelos da OpenAI que alimentam o Copilot e no processo aumentar os seus resultados em bolsa?
Para já, no leaderboard da LMArena, a coisa não está muito famosa em termos de popularidade e o modelo da Microsoft encontra-se até atrás do Grok 3, o modelo anterior da xAi, bem como atrás da versão anterior do ChatGPT e de algumas chinesas open source, não se destacando em nada segundo a opinião dos avaliadores (não é o começo mais auspicioso diria eu).


Será finalmente a Microsoft vai conseguir libertar-se da dependência dos modelos da OpenAI que alimentam o Copilot e no processo aumentar os seus resultados em bolsa?

Para já, no leaderboard da LMArena, a coisa não está muito famosa em termos de popularidade e o modelo da Microsoft encontra-se até atrás do Grok 3, o modelo anterior da xAi, bem como atrás da versão anterior do ChatGPT e de algumas chinesas open source, não se destacando em nada segundo a opinião dos avaliadores (não é o começo mais auspicioso diria eu).
Re: A Revolução da Inteligencia Artificial
BearManBull Escreveu:Eu so queria ter uma resposta de onde é que o MCP é amplamente usado na actualdiade.
Mas lá está como o GPT nao pode responder a estas perguntas...
Sabe, eu sou da geração X, tirei a licenciatura de 1995 a 2000 e tive uma carreira de software developer de 2000 a 2021 antes do Chat GPT e... sobrevivi! A pensar pela minha cabeça e a usar coisas chamadas "livros" e "motores de busca", arcaico sim mas, apesar de tudo, ainda existem hoje. Dão trabalho de usar mas aprende-se mais do que acreditar piamente num conjunto de tokens "cuspidos" probabilísticamente por uma LLM, não preciso disso para pensar, formular teorias, ou expôr as minhas ideias.
Mas ainda quer respostas? Não leu nada do que eu citei anteriormente?
Não seja por isso, eu cito mais fontes. E já que você só conhece o Chat GPT, deixo-lhe aqui mais uns links (que provavelmente você também não vai ler):
- O Model Context Protocol é usado (tal como referi) da melhor maneira possível (à data) pelo ecosistema da Open AI, nomeadamente:

- https://openai.github.io/openai-agents-python/mcp/
https://openai.github.io/openai-agents- ... cp/server/
https://openai.github.io/openai-agents- ... /mcp/util/


O MCP é recente (novembro de 2024) mas a versão 5 do ChatGPT é posterior ao protocolo. Pelos links acima citados é altamente improvável que o GPT-5 não use MCP na sua agentificação interna, dado que o protocolo já é a base da Responses API e do Agents SDK. Claro está que isso não é demonstrável pelo simples facto da versão 5 do modelo ser fechada e os detalhes da sua implementação não serem do domínio público.
Gostava também que você desse uma explicação sucinta de porquê usar o MCP para atingir o objetivo que referiu. Porquê só um protocolo? E porquê o MCP em particular?
Não preciso que você escreva código, mas ou detalha tecnicamente a sua ideia e a mais valia do MCP nesse contexto, ou dá descanso ao tópico, pois o que havia para discutir sobre MCP creio que já foi aqui extensivamente esmiuçado.
Re: A Revolução da Inteligencia Artificial
Eu so queria ter uma resposta de onde é que o MCP é amplamente usado na actualdiade.
Mas lá está como o GPT nao pode responder a estas perguntas...
Mas lá está como o GPT nao pode responder a estas perguntas...
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
― Leon C. Megginson
Re: A Revolução da Inteligencia Artificial
A minha sugestão é que evitem o campo pessoal, é meio caminho andado para o tópico prosseguir sem sobressaltos de maior.


FLOP - Fundamental Laws Of Profit
1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Re: A Revolução da Inteligencia Artificial
BearManBull Escreveu:O que ficou claro aqui é que nao tens patavina ideia de como se usa o MCP nem consegues dar exemplos de uso porque o GPT nao esta treinado nisso e nao sabes extrapolar essa informaçao a pensar pela tua pessoa.
Meu caro a minha lincenciatura é na área de informática de investigação, tenho mais de 25 anos de experiência em desenvolvimento de software e atualmente sou arquiteto de sistemas enterprise.
Mas, mesmo com esta experiência tenho a humildade de me remeter à minha insignificância perante os programadores e arquitetos IA de TOPO da OpenAI, Anthropic e Google.
Esta sua última resposta só vem a confirmar que você não sabe o que é o MCP, muito menos sabe sequer o que é um protocolo, senão não diria que, e cito, "o GPT não está treinado nisso".
Pior, a sua resposta prova que você nem sequer sabe usar a IA para fazer fact checking do que diz.
Experimente colocar a seguinte prompt no chat GPT
Does Chat GPT use Anthropic's Model Context Protocol? If so, describe exactly how and why
Vai ver que o próprio Chat GPT lhe podia servir para fazer fact checking antes de vir para aqui dizer asneiras
MarcoAntonio, sugiro que intervenhas aqui (porque já me conheces e sabes para onde isto se está a encaminhar).
Convém que o BearManBull dê alguma prova factual do que está a afirmar em vez de continuar nesta postura passivo-agressiva.
Re: A Revolução da Inteligencia Artificial
O que ficou claro aqui é que nao tens patavina ideia de como se usa o MCP nem consegues dar exemplos de uso porque o GPT nao esta treinado nisso e nao sabes extrapolar essa informaçao a pensar pela tua pessoa.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
― Leon C. Megginson
Re: A Revolução da Inteligencia Artificial
BearManBull,
Para mim ficou claro que você não sabe o que é o protocolo MCP nem para que serve efetivamente.
Também ficou claro para mim que você se acha capaz de fazer algo que os developers e arquitetos de elite da OpenAI, Google e Anthropic não conseguiram ainda fazer, recorrendo apenas a um protocolo de integração..
É como dizer que vai descobrir a cura para o cancro com um laboratório (pois certo que vai precisar dum, mas não é o laboratório, por si só, que lhe vai resolver o problema).
Para mim ficou claro que você não sabe o que é o protocolo MCP nem para que serve efetivamente.
Também ficou claro para mim que você se acha capaz de fazer algo que os developers e arquitetos de elite da OpenAI, Google e Anthropic não conseguiram ainda fazer, recorrendo apenas a um protocolo de integração..
É como dizer que vai descobrir a cura para o cancro com um laboratório (pois certo que vai precisar dum, mas não é o laboratório, por si só, que lhe vai resolver o problema).
Re: A Revolução da Inteligencia Artificial
Rolling_Trader Escreveu:BearManBull Escreveu:Rolling_Trader Escreveu:Mais estranho ainda é pensar que o MCP serve para organizar informação dentro da janela de contexto.
Eu gostava era de saber de onde è que isso foi dito...
Você escreveu literalmente isso no seu post de 30/8/2025 0:41BearManBull Escreveu:
Na generalidade os LLMs conseguem fazer em termos micro o mesmo trabalho que fazem essas pessoas falta é a capacidade de acompanhamento e enquadramento para colaborar num processo empresarial e isso é por contexto diario que vao guardando e eliminando o que nao é necessário. Falta ali ou uma context window de terabytes ou um sistema orquestrador que guarda e recupera a informaçao por exemplo por MCP.
Eu disse que se podia usar o MCP para implementar um arquitectura que emula um janela de contexto que seja suficientemente dinamica, fiavel e grande para o uso empresarial.
Nao disse que o MCP é um protocolo de context windows.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
― Leon C. Megginson
Re: A Revolução da Inteligencia Artificial
Rolling_Trader Escreveu:BearManBull Escreveu:Rolling_Trader Escreveu:Acho estranho o BearManBull achar que o protocolo MCP não estará já a ser usado pelos fornecedores de IA mainstream (da melhor forma possível).
Ah sim, exemplifica lá isso.
AnthropicSendo esta empresa a criadora do protocolo é óbvio que já usa MCP.
Introducing the Model Context Protocol
OpenAi
Isso nao demonstra absolutamente nada relativo ao uso do MCP.
Uma coisa é disponibilizar ferramentas, outra coisa é adoptalas em ambiente organizacional.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
― Leon C. Megginson
Receita para os autores em "pesquisas IA"
Iniciativa de louvar, mas será que "colará", no futuro, com os restantes fornecedores de soluções de IA?
Será viremos a ter um modelo estilo "spotify" para remunerar (ainda que pouco que seja) a propriedade intelectual dos jornalistas e restantes publicadores, que muitas vezes alimentam os textos de IA que lemos?
In Forbes
Perplexity’s Comet Plus – Legal Peace Offering Or New Dawn For Publishers In The AI Era?
San Francisco’s Perplexity AI recently announced a groundbreaking revenue-share model. The centerpiece of this initiative is Comet Plus, a $5-a-month subscription tier designed to deliver smarter browsing as well as channel income back to publishers whose work powers its AI.
(...)
Notably, Perplexity’s head of publisher partnerships, Jessica Chan, frames Comet Plus as a corrective to those archaic incentives. “Perplexity only succeeds if journalism succeeds. We’re really committed to building and funding more sustainable, thriving news ecosystems for the AI age,” she explained in a Digiday interview. “I think anything that supports publishers, fair compensation, transparency — we’re all open to supporting]. We’d be open to [participating].”
Será viremos a ter um modelo estilo "spotify" para remunerar (ainda que pouco que seja) a propriedade intelectual dos jornalistas e restantes publicadores, que muitas vezes alimentam os textos de IA que lemos?
