Usar informacao do GPT como argumento é estupido.
Vejo geral aqui e em various outros lugares embasando um argumento com base de informacoes tirades do GPT, isso quando elas não só copiam e colam.
Parece que o conhecimento do que uma LLM (largest language model) faz, e por consequência todos GPTs, que são LLMs é extremamente epouco difundido, e mesmo quem sabe não liga. Tudo que esses modelos fazem é chutar palavra por falavra, com o intuito de soar coerente, e falar o que a pessoa que gerou o prompt quer.
Ou seja, além de qualquer informação que ele ofereca tenha grandes chances de estar erradas, pois ele só chuta as informações, qualquer informação gerada pelo modelo e necessariamente enviesada por quem fez o prompt.
As consequências sociais de pessoas se acostumando a aceitar informações literalmente inventadas por um modelo qualquer como verdade vão aparecer, e vai ser algo exclusivamente danoso.