Opcard Escreveu:Não , não sei .
Ok, mas é importante pelo menos ter algumas luzes.
Até para (ajudar a) separar o trigo do joio que nos tentam vender a todo o tempo e hora...
Vou esclarecer também porque é que achei os 4 minutos perdidos, para que não fique o comentário no ar sem mais: por uma o tipo parece-me histérico (o que não abona em favor da credibilidade, quando estou a ouvir pela primeira vez); segundo, não estou convencido que ele esteja inteiramente a sério (pareceu-me na voz que ele estava a sorrir enquanto dizia aquelas coisas, isto está meio relacionado com o ponto anterior); terceiro, mais pertinente ainda, ele não informa nada de jeito (eu não consegui ouvir nada de substancial em termos de informação sobre a tecnologia); quarto, a evidência dele são meras alegações (nomeadamente ele atira que as respostas são todas à esquerda e muito à esquerda ou coisa do género, mas cadê a evidência? lá porque ele alega isto no podcast, não passa automaticamente a ser verdade, se calhar parecem-lhe todas muito à esquerda devido à orientação política dele, sei lá (se ainda estivesse documentado para eu poder fazer uma avaliação crítica). Resumindo, cheguei ao fim e gostava de ter forma de recuperar os 4 minutos. Posso estar a ser injusto, só tenho mesmo aqueles minutos como referência e se calhar a ideia é mesmo aquilo ser meio a sério, meio a brincar.
Sobre o tema (ele não é o único a levantar este tipo de questão, embora eu ache aquela abordagem terrível pelos motivos que indiquei acima): é possível que o chatGPT tenha um enviezamento, mas isso provavelmente deriva do próprio dataset de treino, esta é
a priori a explicação mais prosaica; podem também surgir enviezamentos que não foram introduzidos deliberadamente e que podem ser um artefacto das condições do treino (que não conheço ao detalhe, só tenho uma ideia da arquitectura do ChatGPT); isto é, mesmo que exista um enviezamento, não tem de ter sido inserido lá propositadamente pelos developers (como se está aqui a alegar, que é uma coisa deliberada); alternativamente, também é possível que algum do enviezamento seja uma projecção daqueles que estão do lado de cá a testar a máquina e a alegar que há enviezamento (ie, eles não gostam ou não concordam com as respostas; o que não é necessariamente o mesmo que dizer que a máquina está enviezada e que a culpa é dos "programadores").
Em última instância, há aqui também um problema nas definições do que é um enviezamento e o que é ser neutro ou moderado ou independente. Para um tipo da extrema-esquerda, se calhar um moderado e/ou independente parece-lhe de direita e de esquerda para um tipo da extrema-direita. Não há AI que vá resolver isso. Pelo menos nos tempos mais próximos.