Magna Concursos

Foram encontradas 350.214 questões.

4027528 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Dentre os exemplos a seguir, assinale o que apresenta ocorrência de crase indevida diferentemente do indicado em: “O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.” (2º§).
 

Provas

Questão presente nas seguintes provas
4027527 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
A reescrita para o trecho “A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.” (13º§), em que estão preservadas as correções gramatical e semântica, está indicada em:
 

Provas

Questão presente nas seguintes provas
4027526 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Considerando o texto apresentado, analise as afirmativas a seguir.

I. Segundo o texto, a produtividade do profissional contemporâneo, nas mais variadas áreas de atuação, tornou-se dependente do uso da inteligência artificial, qualitativamente.
II. Ferramentas tecnológicas como a IA têm seu uso positivamente significativo quando não demonstram ser um recurso plenamente substitutivo e independente.
III. A “epidemia invisível” (1º§), de acordo com o texto, é uma realidade instaurada e vivida no cotidiano de ações que envolvem a tomada de decisões importantes.

Está correto o que se afirma em
 

Provas

Questão presente nas seguintes provas
4027525 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Em “Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.” (6º§), é possível inferir, a partir da expressão grifada, que:
 

Provas

Questão presente nas seguintes provas
4027524 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Considerando os aspectos composicionais do texto apresentado, assim como o conteúdo desenvolvido, pode-se afirmar que o principal objetivo comunicativo do texto é:
 

Provas

Questão presente nas seguintes provas
4027523 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Considerando o conteúdo do texto, assinale a afirmativa correta.
 

Provas

Questão presente nas seguintes provas
4027522 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Acerca do título do texto – “ChatGPT não é analista: o perigo da falsa competência digital” – é possível afirmar que:
 

Provas

Questão presente nas seguintes provas
4027521 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
No trecho do texto compreendido entre o 2º§ e o 6º§ é possível reconhecer a utilização de uma estratégia que contribui para que o desenvolvimento dos argumentos textuais ocorra de modo adequado. De acordo com o exposto, assinale a afirmativa correta.
 

Provas

Questão presente nas seguintes provas
4027520 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
ChatGPT não é analista: o perigo da falsa competência digital
Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.
Recentemente, um cliente pediu ao seu líder de área de vendas que elaborasse uma planilha com indicadores básicos de desempenho: vendas, conversão, ticket médio e churn. O profissional reuniu os dados, mas, em vez de fazer uma análise real, pediu à IA para gerar um relatório com conclusões.
Em segundos, o sistema devolveu um belo relatório com frases de efeito: “O ticket médio caiu devido à perda de foco no pós-venda” e também “A conversão subiu por conta do novo layout do e-commerce”.
Soa convincente, mas há um detalhe inacreditável: a empresa não tem e-commerce e o profissional sequer revisou esse detalhe antes de compartilhar a brilhante conclusão. Quanto aos demais indicadores, ele também não soube justificar ou explicar a metodologia, a lógica nem as variáveis envolvidas.
Em outro caso, também recente, o profissional trouxe um “laudo” em que pediu ao ChatGPT para avaliar a construção da meta do mês, apontando os riscos de gerar burnout no time de vendas.
Seria cômico se não fosse preocupante: profissionais sustentando posições em castelos de areia e correndo o risco de que decisões importantes sejam tomadas com base em conclusões fabricadas por uma IA que não tem contexto nem senso de causalidade.
Essa prática de delegar à IA o pensamento analítico cria o que chamo de “falsa competência digital”: o profissional parece produtivo, parece técnico, mas, na verdade, perdeu o controle sobre o raciocínio.
E isso já está sendo observado cientificamente. Um estudo publicado na revista Humanities and Social Sciences Communications (Nature, 2023), conduzido com estudantes do Paquistão e da China, mostrou que o uso indiscriminado da Inteligência Artificial está associado a uma perda expressiva da capacidade de tomada de decisão humana: 27,7% dos participantes relataram dependência cognitiva ou “preguiça mental” ao delegar análises à IA.
Outro estudo, AI Tools in Society: Impacts on Cognitive Offloading (MDPI, 2024), aponta um fenômeno semelhante: pessoas que dependem de IA para tarefas analíticas passam a desenvolver menor proficiência em raciocínio independente, confiando demais nas respostas automatizadas, mesmo quando incorretas.
Ambas as pesquisas confirmam o que já se percebe no dia a dia corporativo: quanto mais terceirizamos o pensamento, mais perdemos o domínio sobre ele.
O verdadeiro diferencial está em quem pensa com a IA, e não por meio dela.
E isso exige domínio dos fundamentos, como entender indicadores, testar hipóteses, validar correlações e aplicar senso crítico sobre cada conclusão gerada.
A Inteligência Artificial está mudando tudo, menos o essencial: a necessidade de pensar. O futuro do trabalho exigirá menos operadores de ferramenta e mais curadores de sentido. Porque, no fim, a IA só é inteligente quando quem a usa também é.
O profissional do amanhã não será definido pela velocidade da entrega, mas pela profundidade do raciocínio.
(Por Cecília Rapassi. Disponível em: https://mercadoeconsumo.com.br. Acesso em: dezembro de 2025. Adaptado.)
Em “Há uma epidemia invisível que começa a se espalhar no mundo corporativo: profissionais que utilizam ferramentas de Inteligência Artificial sem realmente entender os dados, a lógica ou o significado por trás deles. Relatórios e apresentações impecáveis à primeira vista, mas que revelam, em poucos minutos de leitura, que quem os produziu não entendeu o que estava dizendo.” (1º§), sem que haja prejuízo de correção gramatical e semântica, pode-se afirmar que:
 

Provas

Questão presente nas seguintes provas
4027459 Ano: 2026
Disciplina: Português
Banca: Consulplan
Orgão: Pref. Manaus-AM
Yuval Harari: “bilionários, construam bunkers nas suas mentes”


    “Bilionários e grandes empresários da tecnologia em lugares como o Vale do Silício têm medo de que, em parte por causa de suas próprias ações, o mundo logo viverá um apocalipse, uma terceira guerra mundial, um desastre ecológico, uma catástrofe artificial”, disse o historiador israelense e autor de best-sellers como “Sapiens”, Yuval Harari, durante o evento HSM+, em São Paulo. “Para sobreviver, eles estão construindo bunkers onde podem se esconder, mas ainda não sabem onde construir. Esse é um dos temas mais comentados em conversas privadas.” 

    O historiador provoca: “Então, deixe-me dizer onde construir seu ‘bunker do juízo final’: construa-o na sua mente.”

    Segundo o autor de “Homo Deus”, “21 Lições para o Século 21” e “Nexus”, as ameaças enfrentadas pela humanidade hoje se movimentam na velocidade da luz e atacam nossas mentes antes mesmo de chegar aos nossos corpos. “O que todos precisamos é fortalecer a mente, e isso é especialmente importante para líderes, porque as decisões que você faz dentro do bunker, dentro da sua mente, mudam a vida de milhares e até milhões de pessoas.”

    Para isso, é preciso investir tempo – o maior luxo da atualidade. “Essa é uma tarefa que você não pode delegar a um assistente e não pode resolver com dinheiro. Você não pode mandar a sua mente para a lavanderia; tem que limpá-la sozinho. Seja com terapia, meditação ou fazendo uma trilha na floresta, sempre leva tempo.”

    Enquanto os algoritmos ditam as conversas e a inteligência artificial assume cada vez mais funções, os humanos têm tentado acompanhar o ritmo das máquinas. “Como todos os animais e plantas, nós vivemos por ciclos: dia e noite, verão e inverno, atividade e descanso. Se você mantiver um organismo ocupado o tempo todo, sem descanso, ele eventualmente vai colapsar e morrer”, disse o historiador. “Os algoritmos, por outro lado, não são orgânicos. Eles não funcionam por ciclos, eles não precisam de tempo para descansar, não têm famílias, não tiram férias.” 

    Nesse novo mundo em que os algoritmos tomam conta – desde os bancos até a política –, nós, humanos, também não desligamos. “Se você tenta descansar, parece que está ficando para trás.”
    Isso vale especialmente para as lideranças. Depois de conhecer grandes líderes empresariais e políticos, Harari encontrou muitas diferenças entre eles, mas um ponto em comum: “Quase todos não têm permissão para descansar. Eles não têm tempo. E isso faz deles muito pobres.”

    Na sua visão, algumas das pessoas mais ricas e poderosas do mundo são extremamente pobres. “Eles não conseguem descansar, meditar, ler um livro ou caminhar. Eles não têm tempo para cuidar de suas mentes”, disse. “Isso não é bom para eles, e certamente não é bom para a sociedade humana ser liderada por pessoas com mentes perturbadas e sem tempo para relaxar.”
    Harari fechou sua palestra com um chamado para os líderes: “Não somente pelo seu próprio bem, mas também pelo da sociedade, encontrem tempo para cuidar das suas mentes.”
(Por Fernanda Almeida. Disponível em: https://forbes.com.br/carreira/. Acesso em: dezembro de 2025.)
De acordo com os dois últimos parágrafos do texto, Harari discute a relação entre a vida mental dos líderes e o impacto disso na sociedade. Considerando os recursos argumentativos utilizados, a principal estratégia discursiva empregada pelo autor para fortalecer seu ponto de vista é:
 

Provas

Questão presente nas seguintes provas