Foram encontradas 5.009 questões.
O ambiente analítico da CVM armazena dados no formato
multidimensional, implementa um cubo de dados e disponibiliza
uma ferramenta OLAP para apoiar os analistas no desempenho
de suas funções. Diante da grande quantidade de dados
disponíveis, eles precisam reduzir o seu domínio de análise.
Para isso, a operação OLAP, que extrai um subcubo da seleção de duas ou mais dimensões de um cubo de dados, é a:
Para isso, a operação OLAP, que extrai um subcubo da seleção de duas ou mais dimensões de um cubo de dados, é a:
Provas
Questão presente nas seguintes provas
As transações financeiras da CVM são realizadas sobre ativos
nacionais, utilizando a moeda real (R$), e ativos internacionais,
utilizando a moeda dólar americano (US$).
Para implementar um Data Mart Financeiro da CVM, permitindo análises dos ativos nas duas moedas, deve-se:
Para implementar um Data Mart Financeiro da CVM, permitindo análises dos ativos nas duas moedas, deve-se:
Provas
Questão presente nas seguintes provas
Para apoiar análises sobre os fundadores de empresas ao longo
do tempo, elaborou-se, inicialmente, o seguinte modelo
multidimensional de dados, no qual a tabela FATO FUNDAÇÃO
EMPRESAS se relaciona com múltiplos valores da tabela
DIMENSÃO FUNDADOR.

No caso apresentado, a implementação de uma dimensão multivalorada deve ser realizada por meio da aplicação da técnica de modelagem multidimensional:

No caso apresentado, a implementação de uma dimensão multivalorada deve ser realizada por meio da aplicação da técnica de modelagem multidimensional:
Provas
Questão presente nas seguintes provas
O analista Gabriel fez um levantamento das bases de dados
existentes na CVM e percebeu que havia Data Marts distintos,
criados para atender a requisitos analíticos específicos de cada
Superintendência, como: Relações Institucionais, Auditoria e
Registro de Valores Imobiliários. Cada Data Mart foi construído
de forma independente, o que dificultava análises integradas
para relacionar dados das diferentes Superintendências. Gabriel
observou que havia várias dimensões em comum nos Data Marts.
Para permitir análises integradas padronizando e compartilhando
as dimensões em comum dos Data Marts da CVM, Gabriel
implementou um(a):
Provas
Questão presente nas seguintes provas
Um cientista de dados utiliza a biblioteca scikit-learn para treinar
um estimador clf usando um conjunto de treinamento X1 e seu
respectivo conjunto de atributos-alvo y. Posteriormente, o
cientista estima os atributos-alvo do conjunto X2.
Para realizar o treinamento e a predição, o cientista de dados deve usar, respectivamente, os métodos:
Para realizar o treinamento e a predição, o cientista de dados deve usar, respectivamente, os métodos:
Provas
Questão presente nas seguintes provas
No método tensorflow.keras.layers.Dense(...), se nenhuma
função de ativação é especificada, é utilizada por padrão a
função:
Provas
Questão presente nas seguintes provas
Considere o código python a seguir.
import torch
from torch import nn, Tensor
class CVMNet(nn.Module):
def __init__(self,
dim_in: int,
dim_hidden: int,
n_classes: int):
super().__init__()
self.i_layer = nn.Linear(dim_in, dim_hidden)
self.h_layer = nn.Sequential(
nn.Linear(dim_hidden, dim_hidden // 2),
nn.Tanh()
)
self.o_layer = nn.Sequential(
nn.Dropout(0.2),
nn.Linear(dim_hidden // 2, n_classes),
nn.Softmax(dim=-1)
)
def forward(self, x: Tensor):
return self.o_layer(self.h_layer(self.i_layer(x)))
model = CVMNet(400, 100, 3)
pred = model(torch.eye(20).flatten()).detach()
Sobre a variável pred, é correto afirmar que:
Provas
Questão presente nas seguintes provas
Um dos principais fatores que tornam viável a aplicação de
modelos grandes de linguagem (LLMs) é o controle do espaço de
probabilidade de tokens através da redução de dimensionalidade
do vocabulário, sem perda da capacidade de reconstruir qualquer
token válido da linguagem sendo modelada.
Considerando esse objetivo, dois algoritmos que podem ser utilizados para esse fim são:
Considerando esse objetivo, dois algoritmos que podem ser utilizados para esse fim são:
Provas
Questão presente nas seguintes provas
Considere-se a aplicação de um modelo grande de linguagem
(LLM) com 3 bilhões de parâmetros, distribuído em formato não
quantizado, meia-precisão.
A quantidade mínima de memória necessária para carregar os pesos do modelo para inferência (sem gradientes), considerando apenas o espaço ocupado pelos pesos, é:
A quantidade mínima de memória necessária para carregar os pesos do modelo para inferência (sem gradientes), considerando apenas o espaço ocupado pelos pesos, é:
Provas
Questão presente nas seguintes provas
Ao receber um conjunto de dados para elaborar um modelo
preditivo, uma equipe de analistas de dados percebeu que havia
uma quantidade significativa de dados faltantes em certos
atributos. Foi então debatido o uso de duas técnicas para lidar
com esse problema: (1) remoção de observações contendo dados
ausentes e (2) “inputação” multivariável, sendo que apenas uma
das duas seria aplicada.
Duas características do conjunto de dados que devem ser prioritariamente consideradas na escolha entre as duas técnicas são:
Duas características do conjunto de dados que devem ser prioritariamente consideradas na escolha entre as duas técnicas são:
Provas
Questão presente nas seguintes provas
Cadernos
Caderno Container