CONSULTA PÚBLICA – SEG/CIDT Nº 005/2019 CENTRAL ANALÍTICA
CONSULTA PÚBLICA – SEG/CIDT Nº 005/2019 CENTRAL ANALÍTICA
1. Introdução:
Tendo em vista o interesse do Governo do Estado do Espírito Santo através de Coordenadoria de Inovação e Desenvolvimento Tecnológico – CIDT, em publicar Edital visando a Contratação de Solução Integrada de Inteligência e Processamento Analítico, para o Executivo Estadual, conforme detalhamento na Minuta do Termo de Referência, a presente Consulta tem como finalidade tornar mais transparente o processo e ainda, garantir melhores condições/exigências possíveis e existentes no mercado para a execução eficiente do objeto sob análise através de questionamentos, esclarecimentos e sugestões.
2. Objetivos da Consulta Pública:
a) verificar a existência de quaisquer vícios no processo;
b) verificar a compreensão e propiciar melhorias nas especificações técnicas do Termo de Referência;
d) avaliar a exequibilidade do projeto em razão da complexidade técnica;
e) permitir, com as sugestões e críticas recebidas, a definição da melhor forma atender às necessidades do Estado;
f) dar ampla divulgação e transparência do interesse do Governo do Estado na contratação do objeto.
3. Objeto do Termo de Referência:
Contratação de empresa Solução Integrada de Inteligência e Processamento Analítico.
4. Normas e procedimentos da consulta:
a) A presente consulta ficará disponível no portal de compras do Governo do Estado do Espírito Santo, xxxxx://xxxxxxx.xx.xxx.xx/xxxxxxxx-xxxxxxx, no período de 20/12/2019 à 08/01/2020;
b) Os questionamentos e sugestões deverão ser encaminhados, exclusivamente, pelo e-mail xxxx@xxx.xx.xxx.xx até o dia 08/01/2020, com o título/assunto “Consulta Pública Solução Integrada de Inteligência e Processamento Analítico – SEG Nº 005-2019”;
c) As Empresas interessadas não deverão cobrar qualquer valor, mesmo que a título de compensação de despesas, pela submissão de respostas, propostas, demonstrações, discussões ou por qualquer outro motivo decorrente desta Consulta Pública;
5. Questões a serem respondidas pelas empresas interessadas:
a) A forma como estão descritos os requisitos/funcionalidades do Termo de Referência é suficiente para a elaboração da proposta?
b) Existe tecnologia superior ao descrito no Termo de Referência?
c) Existe alguma especificação que deveria constar no Termo de Referência e que está ausente?
6. Outras informações:
a) Os questionamentos, críticas e sugestões devem ser encaminhados para a Coordenadoria de Inovação e Desenvolvimento Tecnológico – CIDT, e-mail: xxxx@xxx.xx.xxx.xx até o dia 08/01/2020;
b) Os questionamentos e sugestões poderão ser considerados para a aprimoramento do Termo de Referência.
7. Documentos Anexos:
Anexo I – Minuta do Termo de Referência
TERMO DE REFERÊNCIA
DO OBJETO
Aquisição de uma Solução Integrada de Inteligência e Processamento Analítico para a melhoria da gestão do Governo do Espírito Santo através da Secretaria de Governo, composta por software e serviços, abrangendo os requisitos de gestão estratégica do Estado;
A Solução Integrada de Inteligência e Processamento Analítico será composta pelos itens a seguir e de acordo com as condições e especificações que constam na especificação detalhada do objeto:
ITEM 1 - Solução Analítica Integrada de Processamento Preditivo, Estatística e Mineração de Dados capaz de prover técnicas modernas de prevenção, que trabalhe com grandes massas de dados, detecção e gestão de casos de fraudes, assim como inteligência artificial, previsões e tendências analíticas sobre atividades na área de gestão pública, com produção de relatórios, gráficos, tabelas e painéis de análise preditiva e estatística para traçar cenários, encontrar padrões entre as ocorrências para antecipar a ocorrência de problemas e planejar orientado a informações reais, apoiando e subsidiando as decisões dos gestores públicos;
ITEM 2 - Serviço de suporte técnico, manutenção e direito de atualização de versão da Solução do item 1 durante o período de 12 (doze) meses, a partir da data do termo de recebimento definitivo da solução;
ITEM 3 - Subscrição de plataforma de computação distribuída, baseado em tecnologia Hadoop durante o período de 12 (doze) meses;
ITEM 4 - Instalação, configuração, customização, testes, documentação da implantação, transferência de conhecimento e conexão inicial às fontes internas e externas de dados que se encontrem disponíveis;
ITEM 5 - Serviço de treinamento em Administração da Plataforma Analítica;
ITEM 6 - Serviço de treinamento em Análise Estatística, Mineração de Dados e Mineração de Texto;
ITEM 7 - Contratação de UST’s (Unidades de Serviços Técnicos Especializados) para atendimento on-site (no local), sob demanda, durante o período de 12 (doze) meses, a partir da data do termo de recebimento definitivo, utilizando as soluções dos itens 1 e 3;
DA ESPECIFICAÇÃO DETALHADA DO OBJETO
ITEM 1 – SOLUÇÃO ANALÍTICA INTEGRADA DE PROCESSAMENTO PREDITIVO, ESTATÍSTICA E MINERAÇÃO DE DADOS
Características da Plataforma – Arquitetura, Infraestrutura, Dados, Criptografia de dados, Compartilhamento de dados:
2.1.1.1. Arquitetura:
A Arquitetura suportada por uma plataforma única com diversas capacidades para prover governança para todo o ecossistema analítico e elasticidade para assegurar o processamento de grandes volumes de dados;
A arquitetura pode ser instalada localmente, em nuvem pública ou privada;
A Arquitetura distribui automaticamente dados e cargas de trabalho analíticas em todos os núcleos de um único servidor ou em nós de um cluster de computação maciça, aproveitando o processamento paralelo, independentemente do tamanho dos dados;
Ter mecanismo para a gestão do tempo de execução distribuído em memória;
A Arquitetura permite executar cálculos computacionais de forma paralela e distribuída, possibilitando o deslocamento para o disco, endereçado para ambientes de memória restritos, automaticamente, e possibilitando que os nós de trabalho individuais possam ser adicionados ou removidos conforme elasticidade;
A arquitetura permite interagir com as interfaces da plataforma através de webapps e interfaces programáveis;
A Arquitetura permite uma abordagem mais moderna com microserviços para simplificar a manutenção e atualizações contínuas;
A Arquitetura deve suportar a implantação no local para ambientes Linux (bare metal), bem como ambientes virtualizados;
A Arquitetura pode ser implementada na plataforma open source Cloud Foundry e usa padrão tecnologias de implantação, como Ansible e RPMs;
A Arquitetura fornece uma capacidade multi-nuvem sem bloqueio de infraestrutura e permite escalar para acomodar volumes crescentes de dados, mais usuários ou análises mais complexas;
A Arquitetura suporta linguagens de programação comuns de terceiros através de interfaces de programação direta (Python, R, Java);
A Arquitetura fornece API públicas REST/API e usa TLS para comunicações seguras;
Arquitetura possibilita escalar horizontalmente;
2.1.1.1.13.1. Escalar horizontalmente significa adicionar mais nós ao sistema, tais como um novo servidor, para aumentar a capacidade do sistema, sem a necessidade de alterações na arquitetura sem grandes adequações;
Arquitetura segmentada em camadas;
2.1.1.2. Infraestrutura:
Realizar governança do ambiente a partir de ferramenta centralizada com interface gráfica;
Ter metadados integrado e compartilhado por todos os produtos da plataforma;
Permitir a criação de bibliotecas, pastas, hierarquia de pastas a partir de uma única aplicação;
Agendamento de tarefas com ferramenta de agendamento própria;
Autenticação via LDAP ou AD;
Possibilitar a criação de novos usuários, grupos de usuários ou regras a partir de uma única aplicação;
Gerenciamento de permissões de acesso por: 2.1.1.2.7.1. Usuários;
2.1.1.2.7.2. Grupos de usuários;
2.1.1.2.7.3. Regras;
2.1.1.2.7.4. Seguranças;
2.1.1.2.7.5. Pastas;
2.1.1.2.7.6. Bibliotecas;
2.1.1.2.7.7. Objetos de metadados;
2.1.1.3. Dados:
Acesso e armazenamento de dados:
2.1.1.3.1.1. Em Sistema de Gerenciamento de Banco de Dados (SGBD) Oracle,
2.1.1.3.1.2. Em sistemas de “Enterprise Resource Planning”
(ERP)
2.1.1.3.1.3. Em cubos “On-Line Analytical Processing” (OLAP)
2.1.1.3.1.4. Em tabelas de formato proprietário
2.1.1.3.1.5. Uso de conectores específicos ou genéricos (ODBC e JDBC) para acesso e armazenamento dos dados.
2.1.1.3.1.6. Integração com a plataforma Microsoft Office.
2.1.1.4. Compartilhamento de dados:
Consolidação e gerenciamento de informações de diversas fontes de dados em tempo real;
Monitoramento dos servidores a partir de uma interface web de fácil utilização:
2.1.1.4.2.1.1. Sistemas remotos;
2.1.1.4.2.1.2. Alertas a partir de métricas pré-definidas; 2.1.1.4.2.1.3. Disponibilidade;
2.1.1.4.2.1.4. Performance;
2.1.1.4.2.1.5. Utilização de recursos;
2.1.1.4.2.1.6. Throughput; Monitoramento via logs:
2.1.1.4.3.1. Capacidade de alterar a granularidade do nível de log sem parar os serviços;
2.1.1.4.3.2. Configuração de diversos níveis de eventos a serem registrados em log;
Monitoração em tempo real de todas as tarefas submetidas, via interface web, com detalhes de quem submeteu, tempo de execução, prioridade e utilização de recursos de hardware;
Solução de Gestão Avançada e Governança de Dados
2.1.2.1. Gerenciamento de Dados:
Funcionalidades Gerais:
2.1.2.1.1.1. Prover facilidades para que usuários habilitados criem e gerenciem projetos de Qualidade de Dados, incluindo condições para especificar interativamente bases a serem tratadas, metadados, domínios, operações e regras de qualificação correspondentes;
2.1.2.1.1.2. Manter informações referentes aos projetos de qualidade de dados em repositórios do próprio software;
2.1.2.1.1.3. Permitir a criação e gerenciamento de projetos com processos do tipo batch e, em tempo real;
2.1.2.1.1.4. Permitir a atribuição de indicador de qualidade para cada campo da base de dados;
2.1.2.1.1.5. Permitir que múltiplos arquivos de dados possam ser carregados no software por interações simples do usuário com o centro de controle na solução;
2.1.2.1.1.6. Permitir a identificação e gerenciamento de erros de execução.
2.1.2.1.1.7. Executar o projeto de qualidade de dados através de funções de “drag and drop”, a fim de simplificar a adequação e personalização necessárias;
2.1.2.1.1.8. Ter interface gráfica para a criação dos processos de carga de dados e de qualidade de dados, que permita a utilização sem a necessidade de linguagem de programação ou script;
2.1.2.1.1.9. Possibilitar a rastreabilidade do sistema de origem e fazer referência a tabela e campo do dado bruto disponibilizado;
2.1.2.1.1.10. Permitir a personalização dos processos e componentes disponibilizados nativamente pela solução;
2.1.2.1.1.11. Disponibilizar interfaces de aplicação – API´s ou por Webservice, de forma a viabilizar a realização das operações de qualificação de dados na modalidade em tempo real.
2.1.2.2. Qualidade de Dados:
Investigação:
2.1.2.2.1.1. Visualização do resultado da análise do perfil da qualidade dos dados dentro da ferramenta;
2.1.2.2.1.2. Visualização dos dados dentro da ferramenta durante a criação dos processos de qualidade de dados, para identificar as ocorrências de dados inconsistentes;
2.1.2.2.1.3. Criação, configuração e análises de perfil, com de regras de negócio criadas pelo usuário final;
2.1.2.2.1.4. Compartilhamento das regras de validação e limpeza entre os analistas de negócio;
2.1.2.2.1.5. Executar análise da base de dados por meio de assistentes (wizards), que fornecem as seguintes informações: inferência de tipo de dado, duplicação do conteúdo do campo, percentual de nulos, precisão do campo, validação de regras de negócio;
2.1.2.2.1.6. Realizar funções de avaliação e limpeza dos dados por meio de componentes especializados, não exigindo conhecimentos de linguagens de programação ou script;
2.1.2.2.1.7. Visualização de amostras dos dados a cada passo do processo de qualidade na mesma tela de desenvolvimento, de forma que permita ao desenvolvedor enxergar o resultado esperado a cada alteração que faça no processo de qualidade de dados.
Tratamento de Dados:
2.1.2.2.2.1. Permitir a identificação e transformação de conteúdo incompatíveis com domínios especificados, a partir da aplicação de regras pré- definidas;
2.1.2.2.2.2. Possui dicionários, regras e operações de qualificação pré-configuradas referentes ao tratamento de dados de pessoas, endereços e documentos de identificação;
2.1.2.2.2.3. Permitir a normalização e padronização de endereços seguindo os padrões brasileiros adotados pelo Código de Endereçamento Postal (CEP);
2.1.2.2.2.4. Possui dicionários, regras e operações pré- configuradas, fornecidos com o software, compatíveis com o idioma português empregado no Brasil, considerando-se em especial tratamento fonético, léxico e formatos de dados, tais como datas e endereço;
2.1.2.2.2.5. Permitir atualização dos dicionários, das regras e das operações pré-configuradas.
2.1.2.2.2.6. Permitir a remoção de palavras de baixo calão, considerando o português;
2.1.2.2.2.7. Permitir a decomposição de nomes, identificando: primeiro nome, último nome, nome(s) do meio, de acordo com padrões do Brasil;
2.1.2.2.2.8. Permitir o tratamento correto para palavras com caracteres especiais, tais como, acentos e cedilhas;
2.1.2.2.2.9. Permitir a criação e a manutenção de seus dicionários de dados, através de interface gráfica de fácil uso e sem a necessidade de manipulação de códigos de qualquer natureza (sem programação);
Limpeza:
2.1.2.2.3.1. Permitir a identificação e remoção de conteúdos inconsistentes a partir da aplicação de técnicas de decomposição de strings;
2.1.2.2.3.2. Identificar caracteres Unicode (Multibyte) nos campos tratados, sem invalidar o campo;
2.1.2.2.3.3. Identificar, analisar e validar inconsistências de nomes de pessoas, gênero, CPF, razão social, CNPJ, e-mail e datas;
2.1.2.2.3.4. Permitir a decomposição do número de telefone, identificando automaticamente DDD, DDI, prefixo e sufixo, conforme padrões usados no Brasil;
2.1.2.2.3.5. Possuir componentes de busca e substituição de caracteres ou termos a partir de dicionários;
2.1.2.2.3.6. Possuir componentes de eliminação de “sujeira”
nos dados, como sinais, caracteres estranhos etc.; Enriquecimento:
2.1.2.2.4.1. Permitir a identificação de registros duplicados, com base em algoritmos de igualdade, difusos, fonéticos e de similaridade;
2.1.2.2.4.2. Indicar o melhor registro entre os duplos identificados;
2.1.2.2.4.3. Permitir a identificação de registros duplicados com o uso de múltiplas variáveis;
2.1.2.2.4.4. Permitir a identificação de duplicidades manualmente, com o registro efetivo do analista de dados responsável pela operação;
2.1.2.2.4.5. Permitir a complementação de dados faltantes a partir de correlações com bases auxiliares a partir de critérios pré-definidos. Por exemplo: Código de Endereçamento Postal - CEP a partir de endereço e vice-versa;
2.1.2.2.4.6. Possibilitar que a funcionalidade de validação de endereços possa ser atualizada periodicamente, durante o período de validade do suporte, sem a necessidade de recompra a cada atualização;
2.1.2.2.4.7. Complementar dados de endereço enriquecendo com as informações de LATITUDE e LONGITUDE.
Funcionalidades de Governança do Ambiente: 2.1.2.2.5.1. Rastreabilidade:
2.1.2.2.5.1.1. Possibilitar a rastreabilidade da tabela e
campo do dado bruto para o processo de negócios relacionado que consome esses dados.
2.1.2.2.5.2. Agendamento:
2.1.2.2.5.2.1. Permitir integração do agendador de
processos da solução, com outras ferramentas de agendamento de mercado, via chamada de linha de comando ou Web Services.
2.1.2.2.5.3. Segurança e acesso:
2.1.2.2.5.3.1. Possibilitar a autenticação dos usuários em
base local e em serviço de diretório utilizando o protocolo LDAP;
2.1.2.2.5.3.2. Possuir funcionalidade para definição de
perfis de usuário, permitindo a atribuição de permissões de acesso por perfil;
2.1.2.2.5.3.3. Possibilitar que somente usuários autorizados
sejam capazes de conceder e revogar permissões de acesso no sistema.
2.1.2.2.5.4. Monitoramento:
2.1.2.2.5.4.1. O monitoramento da qualidade deverá ser
realizado por meio de painéis disponibilizados pela própria ferramenta;
2.1.2.2.5.4.2. Qualquer base de dados ou arquivo
necessário ao processo de integração deverá poder ser manipulado por rotina de qualidade de dados, sem a necessidade de criação de áreas intermediárias por usuários
/ desenvolvedores;
2.1.2.2.5.4.3. Permitir configurar novos relatórios/painéis
com indicadores de qualidade de dados sem envolver programação;
2.1.2.2.5.4.4. Permitir a emissão relatórios/painéis sobre a
evolução histórica da qualidade de dados de uma determinada base de informação.
2.1.2.3. Integração de Dados:
Funcionalidades Gerais:
2.1.2.3.1.1. Executar os processos via interface gráfica, com armazenamento das regras de negócio/transformação em repositório de metadados, sem necessidade de manipulação, compilação ou geração de códigos por parte do usuário.
2.1.2.3.1.2. Desenvolvimento de regras de transformação que combinem dados oriundos de plataformas diferentes e, de múltiplos formatos de forma transparente, sem necessidade do usuário criar áreas intermediárias para realização dessas combinações.
2.1.2.3.1.3. Fornecer opção de depuração dos processos de forma gráfica, utilizando a mesma interface de desenvolvimento.
2.1.2.3.1.4. Fornecer nativamente funções de transformação, como filtros, consulta a tabelas ou arquivos, de/para, agregação, cálculos matemáticos, estatísticos e financeiros, manipulação de campos de caracteres e datas, conversão, join e união de
dados heterogêneos, ordenação, ranking, normalização de dados.
2.1.2.3.1.5. Permitir a eliminação de registros duplicados ao classificar um arquivo, sem necessidade de geração de código por parte do usuário.
2.1.2.3.1.6. Permitir a interrupção de um processo durante sua execução e garantir a integridade dos dados até o último ponto de controle (checkpoint) parcial dos dados.
2.1.2.3.1.7. Permitir o reinício de um processo a partir do ponto de sua interrupção.
2.1.2.3.1.8. Permitir a comunicação do sucesso, falha ou fracasso dos processos de carga via console e e- mail.
2.1.2.3.1.9. A Possuir recursos para facilitar a entrada rápida em produção, por meio de clicar e arrastar (drag and drop) a partir do ambiente de desenvolvimento para a produção ou pela exportação e importação de um conjunto de procedimentos sem a necessidade de passagem ou manipulação de código.
2.1.2.3.1.10. Permitir a execução de modelos analíticos sem a necessidade de recodificar o que foi desenvolvido na solução de Data Mining.
Características Data Science
2.1.3.1. Análise Estatística de Dados:
Motor de Dados:
2.1.3.1.1.1. Funções:
2.1.3.1.1.1.1. Operações fundamentais – potência,
logaritmo, módulo, exponencial;
2.1.3.1.1.1.2. Funções de probabilidade e suas inversas –
student, poisson, binomial, uniforme, Qui- quadrado, F, gama, normal, exponencia, beta, log-normal.
2.1.3.1.1.1.3. Geração de números aleatórios com
distribuição normal e uniforme;
2.1.3.1.1.1.4. Retornar o valor inteiro;
2.1.3.1.1.1.5. Concatenar vários itens de texto em um único item de texto;
2.1.3.1.1.1.6. Construir uma variável de data (numérica) a
partir de informações caracteres, especificando mês, dia e ano.
Filtros:
2.1.3.1.2.1. Seleção de registros com utilização de variáveis, operadores lógicos e funções;
2.1.3.1.2.2. Identificação de casos duplicados.
Manipulação de bases de dados – union, join/merge, agregações, ordenação, comparação de bases e transposição;
Amostragem aleatória, estratificada, conglomerada, primeiras N;
2.1.3.2. Análise Descritiva de Dados:
Distribuições de frequência simples, medidas de posição (méd, moda, quartis, etc.);
Medidas de dispersão: desvio padrão, variância;
Quantidade (n), curtose, assimetria, histograma, ramos e folhas, box plot, hipóteses teste T e F, intervalos de confiança (p-value), Xxxxxxx, QQ Plots, Crosstabs.
2.1.3.3. Gráficos/Visualização:
Elaboração de gráficos de forma interativa/assistente (por menu ou comando) para os seguintes tipos: diagramas de dispersão, gráficos multidimensionais, gráficos de setor, gráfico de linha, gráfico de coluna e gráficos de área.
2.1.3.4. Modelagem Estatística:
Modelos de Regressão lineares, não lineares, multinomial, ordinal, binárias.
2.1.3.4.1.1. Observações:
2.1.3.4.1.1.1. As rotinas devem contemplar, quando
necessário, opção para métodos de seleção de variáveis do tipo Stepwise: Forward e Backward;
2.1.3.4.1.1.2. Os relatórios de saída devem conter opções
para exibir/imprimir informações estatísticas para avaliação do modelo quanto a:
2.1.3.4.1.1.2.1. Diagnóstico de multicolinearidade;
2.1.3.4.1.1.2.2. Análise de variância/Ajuste de modelo;
2.1.3.4.1.1.2.3. Análise dos resíduos;
2.1.3.4.1.1.2.4. Seleção de Variáveis através do R2 e do QuiQuadrado;
2.1.3.4.1.1.2.5. Ajuste automático de modelos levando em consideração diferentes segmentos de interesse;
2.1.3.4.1.1.2.6. Survival Analysis;
2.1.3.4.1.1.2.7. Two Stage.
Análise de Cluster:
2.1.3.4.2.1. Construção de um número pré-definido de clusters e segmentação automática (definição automática do número ideal de clusters);
2.1.3.4.2.2. Utilização de métodos hierárquicos; 2.1.3.4.2.3. Utilização do algoritmo K-MEANS;
2.1.3.4.2.4. Visualização dos Clusters formados através de Árvores e Regras;
2.1.3.4.2.5. Exibir a distância de cada observação em relação aos centróides de cada cluster;
2.1.3.4.2.6. Construção automática dos Clusters tendo também variáveis categóricas sem a necessidade de codificá-las previamente.
Análise de Variância:
2.1.3.4.3.1. Modelo de efeito fixo e aleatório, variância univariada, dois fatores.
2.1.3.4.3.2. Testes de comparação de médias: Tukey, Scheffé e Bonferroni;
2.1.3.4.3.3. Utilização dos métodos ANCOVA/MANCOVA;
Análise Multivariada (fatorial, conônica, multivariada, etc).
Análise de Dados Categóricos (modelos Log-lineares, Mantel-Haenszel, decisão discreta).
Estatística não-paramétrica (teste K-S, comparação de amostras, quiquadrado, correlação).
Análise de Sobrevivência (regressão Cox, life table, Xxxxxx-xxxxx);
Análise Psicométricas:
2.1.3.5. Análise de Séries Temporais (Alisamento, ARIMA, decomposição e ajustamento sazonal, similaridade, previsões, espectral;
Regressão Polinomial;
Estatísticas para identificação do melhor modelo:
2.1.3.6. Pesquisa Operacional:
Rede de Otimização para detectar caminho mais curto, o fluxo de custo mínimo e problemas de fluxo máximo;
Método Lineares para otimização, não-lineares, quadrática e mínimos quadrados;
Inserção de Modelos com Restrições; Otimização Quadrática;
Gráfico de Gantt para planejamento e controle de projetos;
Métodos de Algoritmos Genéticos; Programação linear, inteiro, misto e simplex;
Solucionador de problemas de transporte ajustado ao menor custo;
2.1.3.7. Controle Estatístico de Qualidade:
Compreender os processos de controle estatístico de qualidade;
Identificar problemas críticos;
Estabelecer controles de qualidade e reduzir variação; Determinar os recursos do processo;
Avaliar os processos de medição; Realizar análise de meios;
Experiências de design para melhorar produtos, serviços e processos;
Determinar a confiabilidade do produto; Gráfico de Pareto;
Diagrama de Ishikawa ou “Espinha de Peixe”; Gráficos de Shewhart;
Gráficos para processar dados multivariados;
Métodos alternativos para a construção de limites de controle;
Estimativa de Modelos de Vida, máximas probabilidades;
Mineração de Dados
2.1.4.1. Suporte a variáveis de entrada (“input”) e variáveis resposta
("target"): binárias, nominais, ordinais, intervalares e contínuas;
2.1.4.2. Comparação dos modelos produzidos – Avaliação de múltiplos modelos em um único framework para todas as amostras (treinamento e teste), selecionando automaticamente o melhor modelo baseado nos critérios: Curvas ROC e Matriz de confusão;
2.1.4.3. Criação e gerenciamento de projetos em mineração de dados com processos do tipo batch e de tempo real. A partir da gravação de arquivos de saída em banco de dados e pela geração de código fonte do modelo em PMML, JAVA, SQL ou C++.
Amostragem
2.1.5.1. Seleção de Amostra de Treinamento e Teste com parametrização, a partir da partição do arquivo original
(amostragem simples, estratificada, balanceada, conglomerados, sistemática, n observações).
Redução de Dimensão
2.1.6.1. Seleção das variáveis a serem utilizadas no modelo, pelos métodos de coeficiente de correlação;
2.1.6.2. Remoção das variáveis com alta proporção de valores ausentes (missing);
2.1.6.3. Categorização de variáveis: em intervalos equidistantes (bucketed) e intervalos com frequências iguais (quantile).
Machine Learning:
2.1.7.1. SVM - Support Vector Machine;
2.1.7.2. K-Nearest neighbors.
2.1.7.3. Factorization machines
Árvores de decisão:
2.1.8.1. Arvores de regressão e classificação, tipo chaid, C&RT e regressora;
2.1.8.2. Critérios de divisão: testes de probabilidade de qui-quadrado e F, Gini, Entropia, redução da variância;
2.1.8.3. Crescimento/poda interativa;
2.1.8.4. Diagrama de árvore editável, imprimível e exportável.
Redes Neurais
2.1.9.1. Arquiteturas de redes MLP - Multi Layer Perceptron e Radial Basis Function;
Definição automática da construção da rede neural Perceptrons em várias camadas com backpropagation para a configuração ótima;
2.1.9.2. Redes Kohonen:
Redes Neurais: Arquitetura de redes flexível, funções de combinação, de ativação, técnicas de treinamento, otimização preliminar, padronização automática das entradas, treinamento interativo, modelo MBR, geração de modelos preditivos definidos pelo usuário, geração de modelos que permitam a união de técnicas de modelagem a partir de valores previstos previamente (Redes Neurais, Regressões, MBR, Árvore de Decisão), ajuste de modelos aditivos não-lineares.
2.1.9.3. Regras de Associação:
Algoritmos de descoberta de regras de associação, de análise sequencial, estatísticas de regras (lift, confidence, Support);
2.1.9.4. Séries Temporais:
Cálculo automático de previsões a partir de múltiplos modelos efetuando a comparação entre eles e identificando o melhor modelo de forma parametrizada e automática, sem necessidade de programação.
2.1.9.5. Transformações (logarítimicas, raiz, inversa, quadrática, etc).
2.1.9.6. Filtros:
Eliminação automática de valores faltantes, de valores raroz e de extremos;
Eliminação manual;
Mineração de Textos
2.1.10.1. Técnicas de mineração para dados não estruturados (text mining):
Capacidade de rastreamento Web; Utilização do dicionário de Português do Brasil;
2.1.10.2. Processamento e compreensão prévia de texto (Captura da informação mais relevante, correção ortográfica automática, remoção automática de termos, identificação de radicais, significado do termo baseado no contexto da frase);
Extração de substantivo-grupo para identificação na frase de nível conceitos como “fraude interna” e “concessão fraudulenta”;
Capacidade de definição de termos, tais como
“atestado médico” ou expressões idiomáticas;
2.1.10.3. Extração e reduções técnicas:
Extração entidades (tais como nome de pessoas, produtos, organizações, URLs e endereços);
Decomposição de Valor Singular (SVD) transforma cada documento em um subespaço n-dimensional;
2.1.10.4. Agrupamento de textos:
Agrupamento automático de taxonomias;
Perfil de clusters adicionais utilizando dados estruturados;
2.1.10.5. Categorização de documentos:
Utilização de redes neurais, regressão e árvores de decisão para categorizar documentos;
Combinação de dados quantitativos e qualitativos com o texto em análise para melhorar as previsões;
Compara o desempenho de vários modelos e implanta uma pontuação ou código para categorizar novos documentos.
Gestão de Modelos Analíticos
2.1.11.1. Gerenciamento de Modelos Analíticos
Repositório central e seguro para gerenciamento de modelos analíticos:
2.1.11.1.1.1. Estabelecer e manter versões separadas de modelos campeão “champion” e desafiador “challenger” dentro de um projeto, com campeão definido automaticamente;
2.1.11.1.1.1.1. O monitoramento do desempenho de
modelos campeão para todos os projetos dentro de um portfólio de modelos e
publicação desses modelos no repositório de metadados;
2.1.11.1.1.1.2. Criação e gerenciamento de vários projetos
em um único portfólio de modelos;
2.1.11.1.1.1.3. Que modelos pré-construídos possibilitem
registrar automaticamente os modelos de mineração de dados: previsão, segmentação, classificação e escoragem “scorecards”.
2.1.11.1.1.2. Criação de modelos definidos pelo usuário;
2.1.11.1.1.3. Importação e exportação de códigos de modelos em PMML;
2.1.11.1.1.4. Geração de repositório de metadados com relatórios sintéticos com informações como o número de modelos e número de rotinas de pontuação.
Workflow Analítico:
2.1.11.1.2.1. Criar processos personalizados para cada modelo usando um cliente baseado na Web:
2.1.11.1.2.1.1. Permitir a colaboração entre as equipes
com notificações automáticas;
2.1.11.1.2.1.2. Permitir a definição, gerenciamento e
controle dos ciclos de vida analítica completos;
2.1.11.1.2.1.3. Possibilitar a criação e visualização de
relatórios dentro de uma atividade do fluxo de trabalho;
2.1.11.1.2.1.4. Ver o diagrama de fluxo de processos para
um processo de fluxo de trabalho ativa.
2.1.11.1.2.2. Executar tarefas comuns de gerenciamento de modelo:
2.1.11.1.2.2.1. Importação, visualização e publicação de
modelos;
Validação da pontuação dos modelos antes de serem exportados para a produção:
2.1.11.1.3.1. Agendamento das tarefas de pontuação para execução em horários e datas específicas.
Relatórios sobre o desempenho do modelo durante os ciclos de vida:
2.1.11.1.4.1.1. Gráficos: distribuições das variáveis,
característicos, cartas de estabilidade, elevação, ROC, Kolmogorov-Smirnov (KS) e Gini;
2.1.11.1.4.1.2. Função de previsão de modelo que tem um intervalo para a meta;
2.1.11.1.4.1.3. Comparações entre o modelo campeão e
desafiador.
2.1.11.1.4.2. Relatórios de comparação dos modelos: 2.1.11.1.4.2.1. Relatórios: perfil do modelo, delta,
sustentação dinâmica, etc;
2.1.11.1.4.2.2. HTML, RTF, PDF e formatos de saída do
Microsoft Excel;
2.1.11.1.4.2.3. Combinação de múltiplos relatórios em um
único relatório.
2.1.11.1.4.3. Assistente de fácil utilização para a criação de painéis de monitoramento de desempenho:
Gestão global do ciclo de vida dos modelos analíticos:
2.1.11.1.5.1. Modelos de ciclo de vida, de modelos analíticos, para o gerenciamento de projeto colaborativo:
2.1.11.1.5.1.1. Básico, padrão, estendido e definido pelo
usuário;
2.1.11.1.5.1.2. Editor de modelos de ciclo de vida, de
modelos analíticos, definidos pelo usuário.
Score de Crédito
Criação de modelos de risco de crédito para determinar a probabilidade de inadimplência.
Funcionalidades estatísticas para criar scorecards de crédito e executar modelos de risco de crédito
Permitir a pontuação de crédito para novos candidatos de forma automática
Análise de correlação
Criação automática para a variável de interesse (target) a partir dos dados rejeitados na análise de crédito
Categorização para transformar uma variável contínua em grupos
Estatísticas para concessão de crédito
2.1.12.1.7.1. Score Bucket
2.1.12.1.7.2. Taxa de eventos marginais
2.1.12.1.7.3. Permitir o cálculo da Perda data Inadimplência (Loss Given Default)
Modelo estatístico para gerar um Scorecard 2.1.12.1.8.1. Atribuição de pontos de scorecard 2.1.12.1.8.2. scorecard de intercepção (Intercept-base) 2.1.12.1.8.3. scorecard reverso
2.1.12.1.8.4. Scorecard por escala de pontos
2.1.12.1.8.5. Análise de categorias adversas por escore neural ou métodos de médias ponderadas.
2.1.12.1.8.6. Gráfico para distribuição do Score 2.1.12.1.8.7. Gráfico para a força do Scorecard
2.1.12.1.8.8. Critérios para seleção do modelo estatístico: Critério de Informação de Akaike (AIC); validation misclassification rate, cross-validation error, e cross- validation misclassification rate.
2.1.12.1.8.8.1. As rotinas devem contemplar, quando
necessário, opção para métodos de seleção de variáveis do tipo Stepwise: Forward e Backward;
Projeção em Larga Escala
2.1.13.1. Previsão de Séries Temporais
Interface gráfica
2.1.13.1.1.1. Configurar a hierarquia, os parâmetros e regras de negócio através de uma interface gráfica interativa para a previsão em grande escala.
2.1.13.1.1.2. Gerar previsões automáticas em lote ou de forma interativa utilizando um assistente para novos projetos.
2.1.13.1.1.3. Reconciliar a hierarquia preservando valores de previsão nos diferentes níveis hierárquicos, utilizando-se das estratégias “bottom-up”, “top- down” ou “middle-out”.
2.1.13.1.1.4. Identificar exceções automaticamente e gerar relatórios de exceção com base em regras de negócios e estatísticas.
2.1.13.1.1.5. Publicar os resultados automaticamente através de cópia impressa, portal interno ou Internet.
2.1.13.1.1.6. Teste de cenários hipotéticos.
Modelagem
2.1.13.1.2.1. Identificar modelos candidatos, reestimativa de parâmetros do modelo existente ou gerar previsões usando modelos e parâmetros existentes.
2.1.13.1.2.2. Criar modelos de previsão utilizando um repositório de modelos extensível que inclui modelos de componentes não observados, modelos ARIMAX, regressão dinâmica, modelos de suavização exponencial com parâmetros otimizados, bem como os modelos definidos pelo usuário.
2.1.13.1.2.3. Criar modelos pela combinação de dois ou mais modelos.
Gerenciamento
2.1.13.1.3.1. Acessar as capacidades de previsão através de uma interface gráfica interativa amigável, sem a necessidade de qualquer programação.
2.1.13.1.3.2. Incorporar a previsão como um processo contínuo e repetido que se encaixa no fluxo de trabalho de planeamento.
2.1.13.1.3.3. Personalizar diversos aspectos do processo de previsão de larga escala, com controle sobre a seleção do modelo, identificação de eventos e relatórios de exceção.
2.1.13.1.3.4. Capacidade de melhorar o processo de previsão usando regressores automáticos e seleção de eventos.
2.1.13.1.3.5. Construir e conciliar previsões criadas em diferentes intervalos de tempo.
Gestão para Análises Preditivas, investigação e fiscalização
2.1.14.1. Características
Criação de regras de negócio podendo utilizar todas as variáveis disponíveis apenas selecionado as desejadas.
Criação de regras de negócio complexas utilizando poder estatístico.
Criação de relacionamento entre entidades distintas na interface da solução, sem necessidade de codificação.
Customização de telas de análise sem necessidade de
codificação através de interface de “arrastar e soltar”.
Criação de redes de relacionamento através de interface amigável sem necessidade de codificação.
Utilização de técnicas de manipulação de redes de relacionamento (manipulação de grafos) durante as investigações na mesma interface de alertas.
Visualização das redes de relacionamento integrada na
Definição de entidades pelos usuários de negócio na interface da solução.
Customização na interface da solução dos possíveis fechamentos dos alertas e suas ações específicas.
2.1.14.2. Busca e Descoberta
Busca livre de texto;
Filtros e seletores customizados;
Buscas por similaridade de palavras;
Indexação para buscas (Elasticsearch ou motor de busca de eficiência comprovadamente similar) ;
Busca Geo-espacial, exploração e visualização de resultados.
Possibilidade de busca de diversas entidades ao mesmo tempo e em todos os campos associados a análise em questão.
2.1.14.3. Alertas e Gestão de Eventos
Governança, auditoria e conformidade de todas as ações realizadas dentro da solução;
Modelo de tratamento de filas por prioridade; Enriquecimento de informações de alertas;
Criação de múltiplos domínios de alertas para separação de estratégias distintas;
Enriquecimento de alertas através da adição de novas entidades relacionadas;
Design de um alerta para uma investigação mais apurada através do workflow customizado;
2.1.14.4. Análise de Entidades e Redes de Relacionamento Resolução de Entidades;
Visualização e Análise de Redes de Relacionamento; Expansão de Redes de relacionamentos;
Enriquecimento de dados de nós de Redes de relacionamento.
Legenda para os nós da rede de relacionamento;
Detalhamento de cada um dos nós da rede de relacionamento com possibilidade de criação de página customizada para cada tipo de nó;
Possibilidade de movimentação e reorganização dos nós da rede para otimização de análise;
Seletor de nós otimizado para escolha múltipla de nós;
Possibilidade de ocultar nós específicos que não agregam valor à análise;
Possibilidade de agrupamento de nós;
Possibilidade de expansão das redes por níveis de acordo com a necessidade de cada investigação;
Criação de links sob demanda;
Utilização de técnicas avançadas de manipulação de grafos na interface da solução como centralidade, influência, grau, caminho mais curto entre entidades, etc.
2.1.14.5. Análise Transacional
Visualização das transações executadas por todas as entidades relacionadas.
Visualização em linha do tempo para melhor entendimento dos acontecimentos históricos.
2.1.14.6. Investigações Estruturadas
Áreas de trabalho colaborativas para realização de investigações;
Visualização de dados (tabelas, redes de relacionamento, gráficos e linha do tempo);
Importação de dados sob demanda.
2.1.14.7. Gestão de Casos
Fluxo de trabalho estruturado e gerido pelas áreas de negócio;
Possibilidade de adicionar arquivos anexos aos casos;
Xxxxxx de comentário feitos sob medida para o tratamento de alertas;
Criação de tarefas customizadas para cada investigador
/ analista;
Possibilidade de atribuir tarefas para outros analistas;
2.1.14.8. Motor de geração de alertas
Criação de estratégias usando o construtor ou tabela de decisão;
Teste de cenários antes da promoção para produção;
Criação de score baseado nos cenários criados; Criação de casos a partir de alertas.
2.1.14.9. Configurações
Modelo de dados aberto;
Criação de relacionamentos e interações pelas áreas usuárias sem necessidade de codificação;
Interface principal com resumo de alertas de cada investigador / analista;
2.1.14.10. Administração
Escolha dos formatos dos mapas e das redes de relacionamento;
Configurações de resolução de entidades;
Administração de usuário, grupos de usuários e permissões.
Análise Contextual: Descoberta, Categorização e Sentimentos
2.1.15.1. Funcionalidades Gerais:
Possuir interface única e orientada para o desenvolvimento da análise contextual, implementação de modelos para categorização automática de documentos, desenvolvimento de conceitos próprios (taxonomias) e análise de sentimentos.
Possuir operadores linguísticos e pré-definidos para análise dos textos.
Permitir a combinação de modelos estatísticos e Machine Learning e potencializar o treinamento do corpus dos documentos
Permitir o desenvolvimento de modelos de textos sofisticados na categorização e análise de sentimento.
Permitir o gerenciamento de múltiplos projetos de análise contextual e detalhamento do status de cada projeto.
2.1.15.2. Conversão de documentos
Ter a capacidade de rastreamento e recuperação de arquivos da Web e organização dos mesmos em local específico.
Utilizar um dicionário em português do Brasil.
2.1.15.3. Análise sintática, compreensão prévia do texto, identificação automática de entidades
2.1.15.4. Utilizar as principais técnicas de PLN apresentadas em tópico anterior Mineração de Textos
Exploração da coleção de documentos associando automaticamente termos e documentos de acordo com os tópicos descobertos ou definidos pelos usuários
2.1.15.4.1.1. Possuir regras e funções para fazer referência outros conceitos existentes ou desenvolvidos.
2.1.15.4.1.2. Possuir funções para construção de expressões regulares
Possuir operadores boleanos para extrair conceitos, fatos de um texto.
2.1.15.5. Análise de Sentimentos dos documentos
Possuir regras estatísticas e linguísticas para identificar opiniões positivas, negativas, neutras ou não classificadas a partir de dados de texto
Permitir a classificação do sentimento para variáveis existentes na base de dados.
Permitir a análise híbrida combinando regras de negócio e análise textual.
2.1.15.6. Escoragem – Categorização
Capacidade para marcar documentos no servidor local a partir de um aqrquivo XML contendo o modelo de categorização.
Capacidade de marcar um conjunto de dados externo, a partir do modelo de categoria desenvolvido na solução.
Análise de Dados In Memory
2.1.16.1. Visualização e Exploração
Exploração de Dados
2.1.16.1.1.1. Exploração interativa de dados para todos os tipos de usuários.
Capacidade Autocharting ajuda a determinar estrutura de apresentação mais adequada para exibição com base em itens selecionados para análise.
Geolocalização: Integração nativa com tecnologias de mapeamento fornece uma compreensão de dados geoespaciais. Como layers de exibição a ferramenta utiliza o OpenStreetMaps como ferramenta OpenSource e ESRI/ArcGIS como plataforma privada e especializada.
As consultas podem ser alteradas por seleção de itens a serem exibidos a partir de uma barra lateral ou através da filtragem e agrupamento dinamico.
Utilização de múltiplos Data Sources em uma mesma exploração, incluindo interação através de filtros.
Análise Self-Service
2.1.17.1. Armazenamento de dados in-memory para rápida exploração e distribuição.
2.1.17.2. Os dados devem poder ser facilmente consultados a partir de um conjunto homogéneo de modos de visualização.
2.1.17.3. Dados multidimensionais devem poder ser divididos e selecionados pela aplicação de filtros em qualquer nível da hierarquia.
2.1.17.4. Criação de métricas calculadas e agregadas, incluindo diversos tipos de operadores, derivações, agregações comuns e agregações estatísticas.
2.1.17.5. Forecast: Com Análise de Cenário e Goal Seeking.
2.1.17.6. Análise de texto, incluindo text cloud com análise de “peso” e também análise de sentimento em documentos ou em uma coleção de documentos.
2.1.17.7. Detalhes de Métricas, traz para os usuários dados estatísticos da métrica em análise.
Design de Relatório, Criação e Visualização
2.1.18.1. Interface de construção de relatório interativo baseado na Web para os autores do relatório.
2.1.18.2. Assistente de aquisição de dados para visualização, filtragem ou amostragem de dados antes de criar relatórios.
2.1.18.3. Variedade de gráficos, como: bar/3-D bar with multiple lines, pie/3-D pie, line, scatter, heat map, bubble, animated bubble, e tile. Além da criação de gráficos customizados.
2.1.18.4. Distribuição no report em modo visitante e diretamente no Mobile.
2.1.18.5. Possibilidades de Distribuição baseada em calendário.
2.1.18.6. Integração com Microsoft Office.
2.1.18.7. Capacidades de colaboração.
2.1.18.8. Gráficos com possibilidade de inclusão de animação baseada em características de tempo.
Mobile BI
2.1.19.1. Aplicativos para tablets iOS e Android.
2.1.19.2. Relatórios podem ser visualizados em dispositivos móveis de forma online ou offline via tethering móvel.
2.1.19.3. Comentários podem ser adicionados a relatórios permitindo colaboração.
2.1.19.4. Os alertas podem ser enviados para dispositivos móveis quando os relatórios são atualizados.
Clusterização e Modelagem Estatística
2.1.20.1. Técnicas de Pré Modelagem Interativa
Análise de Correlação
Possibilidade de excluir outliers interativamente
Atualização automática do processo analítico ao executar filtros, exclusões etc.
2.1.20.2. Segmentação (Análise de Clusters)
Os Clusters (ou Segmentos) são criados utilizando o algoritmo k-means
Gráficos interativos possibilitam análises dos elementos pertencentes aos clusters
Detalhada sumarização estatística para cada cluster formado
2.1.20.3. Técnicas de Modelagem Preditiva
Árvores de Classificação Modelos Lineares Generalizados Regressão Logística
Regressão Linear Comparação dos Modelos Escoragem de Modelos
Programação In Memory
2.1.21.1. Programação Interativa em memória
Possibilitar executar todos os cálculos matemáticos em memória.
Possibilitar a conexão das tarefas analíticas como um único trabalho na memória sem ter que recarregar os dados ou escrever os resultados intermediários em meio físico.
2.1.21.2. Preparação Analítica dos Dados
Permitir o particionamento inteligente por uma variável em todo o cluster para tornar a análise mais eficiente.
Possibilitar transformações nos dados de entrada, imputação para valor ausente, identificação de outlier, transformação e binning.
2.1.21.3. Técnicas de Machine-learning e algoritmos estatísticos
Árvores de classificação e regressão, forecasting, modelos lineares, regressões logísticas, redes neurais, florestas, clusterização, mineração por associação.
2.1.21.4. Estatísticas Descritivas
2.1.21.5. Avaliação de Modelos Estatísticos
Suporte para geração de resumos da comparação de modelos, como gráficos de lift, gráficos ROC, estatísticas de concordância e tabelas de classificação errada, para um ou mais modelos.
2.1.21.6. Análise de Texto
Análise Sintática (Parsing) e stemming
Lista de inclusão (start) ou exclusão (stop) de palavras Frequência de termos e documentos
Matriz de fator (Singular Value Decomposition) Extração automática de entidades
Projeções de tópicos dos documentos
2.1.21.7. Pontuação de Modelo
Permitir a geração do código do modelo.
Construção da lógica de pontuação para aplicação na base de treinamento, validação e novos dados.
2.1.21.8. Sistema de recomendação
Procedimento interativo onde todos os algoritmos podem ser executados de forma interativa na memória.
Aplicar de forma interativa um filtro para desenvolver recomendações para populações específicas.
Administração
2.1.22.1. Fácil configuração e administração de dados para a TI
Os dados podem ser, interativamente, preparados para análise, incluindo a associação de tabelas, definição de colunas personalizado calculados e criar expressões personalizadas.
A autenticação do usuário e informações de autorização é mantido em todos os componentes da solução para apoiar a governança de dados e implementação de políticas de TI.
Gerenciamento avançado de recursos de memória com a capacidade de limitação de espaço em memória disponível para um usuário ou um grupo de usuários.
Relatórios de Monitoramento de acesso e utilização do ambiente e Auditoria.
Compressão de Dados em memória.
2.1.22.2. Flexibilidade para implantação
Ter sido projetado para funcionar em um modo single- servidor para as organizações e departamentos menores, mas também está otimizado para ambientes distribuídos que se adapta ao crescimento da utilização da ferramenta (performance e dados)
2.1.22.3. Integrar-se com Hadoop para otimização de desempenho e escalabilidade.
ITEM 2 – SERVIÇO DE SUPORTE TÉCNICO, MANUTENÇÃO E DIREITO DE ATUALIZAÇÃO DE VERSÃO DA SOLUÇÃO DO ITEM “1” DURANTE O PERÍODO DE 12 (DOZE) MESES
A Contratada deverá cobrir suporte técnico realizado pelo fabricante ou empresa autorizada com certificação dentro do prazo de validade, contemplando assistência especializada para esclarecimento de dúvidas, orientações, correção de “bugs”, que afetem o bom funcionamento da Solução;
A Contratada proverá manutenção, assegurando correto funcionamento da solução em sua totalidade por meio de correções e atualizações por novas versões, inclusive com o fornecimento de novas funcionalidades criadas para a Solução atualizada no período de 12 meses, a partir do recebimento definitivo;
O atendimento pelo suporte técnico será realizado, mediante abertura de chamado, pelos seguintes meios de canais de atendimento ao usuário: sítio na internet; correio eletrônico, telefônico e no local, caso seja necessário, em horário comercial das 08h00 às 18h00h. O suporte telefônico será dado por número telefônico da cidade de Vitória (ES) ou 0800;
Deverá ser realizado o suporte técnico em um prazo máximo de:
2.2.4.1. 1 dia útil, a partir da abertura de chamado, para problemas que não permitam o funcionamento da Solução (severidade crítica);
2.2.4.2. 2 dias úteis, a partir da abertura de chamado, para problemas que prejudiquem ou restrinjam o pleno funcionamento da Solução (severidade média);
ITEM 3 – SUBSCRIÇÃO DE PLATAFORMA DE SOFTWARE PARA ARMAZENAMENTO E PROCESSAMENTO DE DADOS EM COMPUTAÇÃO DISTRIBUÍDA (HADOOP) DURANTE O PERÍODO DE 12 (DOZE) MESES
Requisitos Gerais
2.3.1.1. A solução como um todo deverá ser balanceada e otimizada para funcionamento integrado de todos os seus componentes. A solução deve incluir componente de armazém de dados estruturados MPP, preferencialmente Impala, provido em ambiente de computação distribuída Hadoop. Os componentes de software deverão ser configurados e integrados, utilizando-se de configuração de redes dedicadas para administração e processamento de dados, sendo a última balanceada, redundante e de alta velocidade;
2.3.1.2. Um nó de processamento se refere a um servidor, físico ou virtual, dedicado ao armazenamento e processamento de dados em um cluster hadoop. Cada nó pode conter diversos núcleos de processamento;
2.3.1.3. Todos os softwares componentes da solução deverão possuir interface em Inglês ou Português (Brasil);
2.3.1.4. Todos os softwares necessários ao correto funcionamento e implementação de todas as funcionalidades da solução deverão ser fornecidos pela CONTRATADA, sendo entregues com cessão de direito de uso permanente;
2.3.1.5. A distribuição da solução Hadoop deverá conter os componentes distribuídos e/ou licenciados pela ASF-Apache Software Foundation, na forma de projetos de código aberto (última versão estável):
Hadoop:
2.3.1.5.1.1. Common;
2.3.1.5.1.2. Hadoop Distributed File System (HDFS); 2.3.1.5.1.3. MapReduce;
2.3.1.5.1.4. YARN;
2.3.1.5.1.5. Flume;
2.3.1.5.1.6. HBase;
2.3.1.5.1.7. Hive;
2.3.1.5.1.8. Xxxxx;
2.3.1.5.1.9. Mahout;
2.3.1.5.1.10. Oozie;
2.3.1.5.1.11. Pig;
2.3.1.5.1.12. Spark;
2.3.1.5.1.13. Sqoop;
2.3.1.5.1.14. Solr / Solr Cloud;
2.3.1.5.1.15. Zookeeper;
2.3.1.5.1.16. Accumulo; Sentry:
2.3.1.5.2.1. Realizar a autenticação dos usuários (Kerberos e/ou sincronização com LDAP) e autorização nos recursos disponíveis nos clusters Hadoop;
2.3.1.5.2.2. Possuir integração para controle de acessos com base de dados NoSQL, sistemas de arquivos
distribuídos (HDFS), mecanismos de buscas e de indexação;
2.3.1.5.2.3. Possuir uma hierarquia em sua arquitetura que permita um controle de acesso a nível de arquivos (HDFS), databases, tabelas, processos, grupos de usuários e concessão de privilégios para usuários já autenticados, e ter capacidade de restringir o acesso, tanto na consulta quanto na inserção de dados;
2.3.1.5.2.4. Trabalhar na modalidade “bloquear tudo que não seja estritamente permitido”, ou seja, caso não esteja devidamente permitido um dado acesso, o mesmo deve ser nativamente bloqueado;
HUE:
2.3.1.5.3.1. A distribuição deve possuir, no mínimo, um motor (engine) SQL MPP, preferencialmente Impala, (Massively Parallel Processing) que permita o uso de SQL padrão ANSI (qualquer versão compatível com o framework Hadoop) para acessar diretamente os dados armazenados no HDFS, utilizando recursos de processamento paralelo massivo e otimização de consultas (query optimization);
2.3.1.5.3.2. Possuir mecanismo de avaliação de queries e sugestão de melhorias das mesmas, em nuvem ou local;
2.3.1.5.3.3. Possuir uma dashboard das operações SQL, uso de tabelas e padrões de uso de consulta;
2.3.1.5.3.4. Possuir uma visão das tabelas, consultas e padrões de colunas mais usados;
2.3.1.5.3.5. Possuir uma visão de cada tabela e consulta com as principais características, padrões e complexidades;
2.3.1.5.3.6. Possuir uma visão dos principais insights extraídos da análise de toda a carga de trabalho;
2.3.1.5.3.7. Possuir analise de oportunidades de otimização explorando padrões de acesso de tabela e
consulta importantes e populares na carga de trabalho, incluindo padrões de junção SQL e distribuições de junções, padrões de acesso em consultas como subconsultas e informações de uso de colunas, como colunas de filtro;
2.3.1.5.3.8. Gerar relatórios de avaliação das queries e cargas de trabalho;
2.3.1.5.3.9. Identificar conjuntos de consultas a serem implementadas no Hadoop, utilizando métricas como o número de vezes em que consultas semelhantes são repetidas na carga de trabalho OU o tempo médio decorrido de consultas;
2.3.1.5.3.10. Avaliar consultas para identificar operações SQL complexas e frequentemente repetidas que podem exigir ou beneficiar o desenho de esquema e/ou consulta para execução eficiente no Hadoop, compatibilizando as sintaxes SQL para Impala e Hive;
2.3.1.5.3.11. Possuir recomendações de projeto, incluindo modelagem de dados e recomendações de projeto de esquema, como particionamento de design de chaves para Impala e Hive e recomendações de design de consulta pertinentes, como a materialização em vista inline para execução eficiente no Hadoop;
2.3.1.6. A distribuição deve possuir mecanismo que possibilite a conexão do Hbase para o Solr com indexação e transformação dos dados em tempo real;
2.3.1.7. Suportar nativamente todos os recursos do Spark 2.0.1 (Spark Streaming, GraphX, MLib e outras funcionalidades), ou versões superiores;
2.3.1.8. Possuir interface Web para análise de dados no Apache Hadoop, sem a necessidade de ferramentas de terceiros;
Segurança e Controle de Usuários
2.3.2.1. Permitir integração com os catálogos de diretório AD e LDAP para os serviços de gerenciamento de identidade de usuários, sem uso ou necessidade de licenciamentos adicionais, ou seja: a distribuição deve ser capaz de se conectar sem softwares de terceiros;
2.3.2.2. Permitir o cadastramento/descadastramento automatizado de usuários a partir de catálogo de diretórios central;
2.3.2.3. Prover mecanismos de segregação de usuários por papel. (exemplos: analista de dados, operador, analista de suporte, administrador, etc.);
2.3.2.4. Agrupar suas funcionalidades para efeito de autorização em grupos (papéis), seguindo o padrão RBAC (Role-Based Access Controls);
2.3.2.5. Permitir integração com sistemas corporativos de autenticação de usuários, utilizando webservice no padrão SOAP ou no padrão REST;
2.3.2.6. Verificar se o usuário/grupo está autorizado a acessar arquivos, registros e Metadados armazenados;
2.3.2.7. Prover encerramento de sessão do usuário após um período pré- determinado de inatividade;
2.3.2.8. Implementar integração do Kerberos para autenticação dos usuários de forma automatizada, sem adição de softwares de terceiros, mesmo que sem custo. Ou seja: a distribuição obrigatoriamente deve ser capaz de se conectar sem adição de software de terceiros;
2.3.2.9. Possuir mecanismo nativo para criptografia dos dados no cluster, bem como gerenciar as chaves em um HSM externo, à escolha da CONTRATANTE. Ou seja: a distribuição obrigatoriamente deve ser capaz de se conectar sem adição de software de terceiros;
Auditoria
2.3.3.1. Disponibilizar recursos visuais para facilitar auditoria de logs, contendo as funcionalidades acessadas e as operações realizadas pelos usuários;
2.3.3.2. A plataforma deve prover auditoria de todo o acesso às tabelas, arquivos e visões, sendo acessos bem-sucedidos ou não, para avaliar as violações de dados dentro do HDFS;
2.3.3.3. Permitir a integração com ferramentas de gestão de log externos (ex: SIEMs);
Gerenciamento Integrado do Ambiente
2.3.4.1. Deve possuir um ambiente de gerenciamento centralizado do cluster Hadoop;
2.3.4.2. Possuir uma interface de administração, configuração e monitoração única e centralizada da solução Hadoop através de navegador web (Browser);
2.3.4.3. Possuir recursos para monitoração e realização de auditorias sem a necessidade de utilização de softwares de terceiros;
2.3.4.4. Não possuir restrições técnicas em relação à quantidade de usuários que farão acesso simultâneo à solução;
2.3.4.5. Possibilitar estatísticas de volume de dados e janelas de tempo de processamento para cada um dos processos executados;
2.3.4.6. Fornecer dados estatísticos sobre o nível de utilização dos produtos que compõem a solução de forma a permitir o planejamento de capacidade;
2.3.4.7. Prover recursos de notificação automática (alertas) para fins de monitoração quando qualquer componente da solução entrar ou sair do seu estado normal de funcionamento, considerando disponibilidade e desempenho, enviando as informações através de mensagem com layout parametrizável e via traps SNMP;
2.3.4.8. Permitir registro de erros por meio da API do JDK;
2.3.4.9. Permitir integração com soluções de gerenciamento de capacidade e monitoramento de terceiros mediante SNMP;
2.3.4.10. Fornecer logs com registro de informações a serem utilizadas na depuração e verificação de falhas;
2.3.4.11. Fornecer recursos para alteração de configuração de maneira remota através de digitação de comandos ou interface gráfica, possibilitando a instalação/configuração dinâmica dos componentes da solução;
2.3.4.12. Fornecer recursos para alteração de configuração de maneira remota, sem intervenção humana e em lotes, através de mecanismos próprios, ou possibilitando o uso de soluções de terceiros para o envio das alterações e suas efetivações;
2.3.4.13. Ter a capacidade para prover alta disponibilidade e/ou disaster recovery, que possibilite prosseguir com o uso da solução Hadoop em situações de perda ou indisponibilidade do ambiente principal de processamento;
2.3.4.14. Rolling updates - Suportar pacotes de componentes ou atualizações, para que seja possível rapidamente um upgrade/update, sem a necessidade de parar o cluster ou qualquer funcionalidade;
2.3.4.15. Rolling updates também precisam contemplar a opção de reversão (roll back), se forem identificados problemas no ambiente, mesmo que este seja identificado no ambiente de homologação/testes/laboratório;
Governança de Dados e Metadados
2.3.5.1. Trace da linhagem de dados, demonstrando visualmente o vínculo de cada componente de dado com suas origens, sem a necessidade de utilização de softwares de terceiros;
2.3.5.2. Possibilitar o mapeamento dos metadados dos arquivos/dados armazenados pela solução em ambiente Hadoop;
2.3.5.3. A plataforma deve ter a capacidade de impedir que os usuários consultem dados de outros usuários separados por papel, grupos, e controlando o acesso do usuário em tabelas e campos específicos, para somente leitura e/ou leitura e escrita em pelo menos os seguintes componentes: Hive/Pig, SQL-MPP, SOLR e HDFS diretamente, inclusive quando cláusulas TRANSFORM forem utilizadas para chamadas de scripts externos, evitando assim o
vazamento de informações mediante chamadas de scripts externos;
2.3.5.4. Integrar-se nativamente com o Hive MetaStore;
2.3.5.5. Prover interface gráfica que possibilite visualizar as estruturas de dados que estão disponíveis no HDFS e suas características;
2.3.5.6. Possibilitar a gestão do ciclo de vida dos dados armazenados, através da definição e aplicação de políticas de retenção e descarte;
2.3.5.7. Não limitar o número de fontes de dados acessadas pela ferramenta;
2.3.5.8. Possuir ferramenta de busca interativa (SOLR), sendo completamente integrada a distribuição, compreendendo os fatores de segurança no acesso aos dados via este recurso;
2.3.5.9. A solução deverá estar apta para integração através de conectores com a solução analítica, conforme consta nas especificações de integração;
2.3.5.10. Garantir que toda infraestrutura onde os dados estejam sendo guardados e/ou processados seja inteiramente aberta, garantido que a CONTRATANTE possa manter uma política plena e aberta, de livre escolha no futuro para o gerenciamento dos dados em Hadoop;
Requisitos não funcionais
2.3.6.1. Características de Rede:
Ser compatível com os serviços DNS (Domain Name Server);
Ser compatível com o protocolo TCP/IP (Internet Protocol) versão 4 (IPv4);
2.3.6.2. Criptografia:
Suportar os algoritmos de criptografia RC4 e AES;
Suportar os algoritmos de resumo de mensagem (hash) MD5 e SHA-256;
Suportar o protocolo TLS 1.0 ou TLS 1.1 e SSL v3.0;
2.3.6.3. Requisitos de compatibilidade:
Navegadores Web:
2.3.6.3.1.1. Chrome versão 45 e superiores;
2.3.6.3.1.2. Firefox versão 43 e superiores
Ambiente de virtualização da CONTRATANTE, onde será instalado o ambiente Hadoop de desenvolvimento:
2.3.6.3.2.1. VMware vSphere Hypervisor (ESXi) 6.0 e versões superiores;
ITEM 4 – INSTALAÇÃO, CONFIGURAÇÃO, CUSTOMIZAÇÃO, TESTES, DOCUMENTAÇÃO DA IMPLANTAÇÃO, TRANSFERÊNCIA DE CONHECIMENTO E CONEXÃO INICIAL ÀS FONTES INTERNAS E EXTERNAS DE DADOS QUE SE ENCONTREM DISPONÍVEIS
O serviço de implantação da solução engloba as atividades de instalação no ambiente indicado pela CONTRATANTE, configuração, integração e testes da solução ofertada incluindo:
2.4.1.1. Instalação do software da solução integrada;
2.4.1.2. Checagem do software e características de integração:
2.4.1.3. Apresentação da arquitetura da solução e forma como os componentes foram distribuídos nos diversos servidores;
2.4.1.4. Testes e checagem de funcionamento da solução no ambiente instalado;
2.4.1.5. Entrega de documentação detalhada dos procedimentos de instalação
O prazo total para instalação e configuração da solução não pode ser superior a 20 dias a contar do aceite da validação da amostra:
2.4.2.1. O cronograma de implantação poderá ser renegociado, justificadamente, de comum acordo entre as partes;
2.4.2.2. Listagem das licenças de software componentes da solução e a comprovação do seu registro em nome do CONTRATANTE;
2.4.2.3. Procedimentos documentados para ligar e desligar a solução;
2.4.2.4. Instruções para acionamento do suporte telefônico e abertura de chamados;
2.4.2.5. O termo de recebimento definitivo da solução será emitido após a conclusão satisfatória das atividades de implantação;
ITEM 5 – SERVIÇO DE TREINAMENTO EM ADMINISTRAÇÃO DA PLATAFORMA ANALÍTICA
O Serviço de Treinamento em administração da solução tem como objetivo capacitar representantes do CONTRATANTE a realizar tarefas como criar usuários, criar e organizar os metadados e realizar a conexão entre todas as ferramentas da solução;
A transferência de conhecimento da solução se dará de acordo com as datas e prazos acordados entre as PARTES, podendo ocorrer durante toda a vigência do contrato;
O treinamento deverá ser ministrado em turmas, com aulas práticas e teóricas e conter, no mínimo, para cada turma, 40 (quarenta) horas e contemplar até 10 (dez) representantes da CONTRATANTE, por turma;
O treinamento deverá cobrir, no mínimo, os seguintes assuntos e operações:
2.5.4.1. Administração do ambiente;
2.5.4.2. Backup do ambiente;
2.5.4.3. Monitoramento do ambiente;
2.5.4.4. Administração de aplicações cliente;
2.5.4.5. Administração de usuários;
2.5.4.6. Administração do acesso a dados;
2.5.4.7. Administração da segurança do ambiente;
A capacitação deve contemplar a administração de todos os módulos fornecidos;
O fornecimento dos materiais didáticos (produção e reprodução) será de responsabilidade da CONTRATADA. O material deverá conter a descrição dos diversos componentes
envolvidos na solução e os manuais de usuários (tutores, administradores e gestores) para auxiliá-los na utilização do ambiente e realizar a transferência de tecnologia e passagem de informações técnicas;
A CONTRATADA deverá emitir e encaminhar à CONTRATANTE, antes do aceite dos serviços, os certificados de participação dos alunos;
ITEM 6 – SERVIÇO DE TREINAMENTO EM ANÁLISE ESTATÍSTICA, MINERAÇÃO DE DADOS E MINERAÇÃO DE TEXTOS UTILIZANDO A PLATAFORMA ANALÍTICA
O Serviço de Treinamento em Análise Estatística, Mineração de Dados e Mineração de Textos utilizando a Plataforma Analítica tem por objetivo capacitar representantes do CONTRATANTE a realizar tarefas de análise estatística, mineração de dados e análise de redes sociais por meio da interface gráfica da solução, com utilização de scripts e programação, se necessário;
Este treinamento será realizado em turmas fechadas montadas especialmente para este fim;
A transferência de conhecimento da solução se dará de acordo com as datas e prazos acordados entre as PARTES, podendo ocorrer durante toda a vigência do contrato;
O treinamento deverá ser ministrado com aulas práticas e teóricas e conter, no mínimo, para cada turma, 80 (oitenta) horas e contemplar até 20 (vinte) representantes da CONTRATANTE, por turma;
O fornecimento dos materiais didáticos (produção e reprodução) será de responsabilidade da CONTRATADA. O material deverá conter a descrição dos diversos componentes envolvidos na solução e os manuais de usuários para auxiliá-los na utilização do ambiente e realizar a transferência de tecnologia e passagem de informações técnicas;
O treinamento de fundamentos em análise de dados deverá cobrir, no mínimo, os seguintes assuntos:
2.6.6.1. Introdução e visão geral da solução;
2.6.6.2. Acesso a dados de arquivos texto e bancos de dados;
2.6.6.3. Preparação de Dados:
Tratamento de valores faltantes; Identificação e remoção de outliers;
Transformação de variáveis contínuas em discretas Normalização;
Análise Descritiva;
Geração de gráficos e relatórios estatísticos;
2.6.6.4. Análise de Séries Temporais:
Identificação de tendências e sazonalidades; Modelagem de séries temporais;
Regressão em séries temporais;
2.6.6.5. Mineração de Dados:
Técnicas de Amostragem; Análise de Cluster;
2.6.6.6. Modelos Preditivos de Classificação e Regressão: Árvores de Decisão;
Redes Neurais;
Regras de Associação; Regressão;
2.6.6.7. Modelos preditivos para identificação de casos raros e anomalias aplicáveis à identificação de fraudes:
Geração automática de modelos; Avaliação (scoring) de modelos; Comparação de modelos;
Criação de gráficos e relatórios sobre os modelos;
2.6.6.8. Análise de Redes Sociais:
Carga de Dados;
Visualização e identificação de relacionamentos;
Utilização dos principais algoritmos e técnicas de Social Networking Analysis;
Métricas de centralidade de redes;
O treinamento em utilização da ferramenta customizada deverá ser realizado em modelo hands on, com um aluno por máquina;
A CONTRATADA deverá emitir e encaminhar à CONTRATANTE, antes do aceite dos serviços, os certificados de participação dos alunos;
ITEM 7 – SERVIÇOS TÉCNICOS ESPECIALIZADOS
Disposições Gerais
2.7.1.1. Contratação de serviços especializados para análise, definição, implantação, suporte, migração e transferência de conhecimento de Inteligência Analítica;
Serviços Previstos para Operacionalização das Atividades Essenciais e Continuadas para a Análise de Riscos e Combate à Fraude
2.7.2.1. Disponibilização de serviços analíticos e da solução, para enriquecimento analítico dos dados, processos de tipologias ("regras de negócio"), identificação de anomalias e padrões, construção de redes de relacionamentos, geração de pontuação (score) de risco associado aos dados selecionados;
2.7.2.2. Implementação cíclica das atividades em caráter continuado de melhorias sucessivas, durante a vigência contratual, incluindo:
Configuração de Interface de geração de cenários, de forma a permitir a combinação de regras para geração de alertas;
Configuração e implantação de regras determinísticas para geração de alertas;
Configuração e implantação de serviços de análise de redes de relacionamento;
Definição e configuração do repositório analítico (data lake) - Integração com sistemas do CONTRATANTE para extração de dados e carga da solução;
Prep Tables – Tabelas de assuntos a serem analisados: contratos, empenhos, notas fiscais;
Enrichment Tables – Tabelas de informações de domínios e detalhes: detalhes de contratos, cadastro de fornecedores, cadastro de órgãos, detalhes de empenhos e detalhes de notas fiscais;
Carga da solução de BI (business intelligence) provida na solução integrada;
Capacitação no uso da solução para os analistas de negócio;
Serviços Técnicos Especializados
2.7.3.1. Dentre os objetivos deste Termo de Referência consta a contratação de uma quantidade de Unidades de Serviço Técnico - UST’s, para atividades previstas referentes aos serviços para operacionalização das atividades essenciais e continuadas de inteligência analítica, análise de riscos e combate à fraude, dentre as atividades definidas pela CONTRATANTE;
2.7.3.2. O modelo de prestação do serviço elaborado adota uma única unidade de referência (UST – Unidade de Serviço Técnico) atrelada a tarefas com complexidade e duração predefinidas. Este modelo é baseado na quantificação detalhada de cada esforço de trabalho realizado para obtenção dos serviços de que necessita a Secretaria no escopo deste Termo de Referência;
2.7.3.3. O Serviço Técnico Especializado deverá ser utilizado para fins de definição, apoio e suporte à infraestrutura da plataforma analítica, definição e desenvolvimento de soluções analíticas e serviços diretamente relacionados às necessidades técnicas e negociais do CONTRATANTE, compreendendo exploração de oportunidades de ampliação ao seu uso;
2.7.3.4. A fim de uniformizar o entendimento sobre os termos utilizados, seguem algumas definições:
Unidade de Serviço Técnico – UST: métrica utilizada para aferir o custo de cada atividade a ser desempenhada;
Custo em UST – representa o custo de cada atividade, considerando o tempo de duração em UST e o peso de cada UST;
Duração em UST – Tempo de duração para execução de cada atividade, considerando que uma UST tem a duração de 60 minutos.
A frequência de aferição e avaliação dos níveis de serviço será mensal, devendo a CONTRATADA elaborar relatório gerencial de serviços. Devem constar desse relatório, entre outras informações, os indicadores/ metas de níveis de serviço alcançados, recomendações técnicas, administrativas e gerenciais para o próximo período e demais informações relevantes para a gestão contratual. O conteúdo detalhado e a forma do relatório gerencial serão definidos pelas partes;
2.7.3.5. Durante o período contratual de 12 meses, prorrogáveis até o período legal, os serviços e atividades poderão sofrer alterações quanto a inserção/ exclusão de atividades, volume e quantidade desde que haja anuência das partes e ainda que não ultrapassem o total de UST contratadas;
2.7.3.6. A qualquer tempo, no decorrer da vigência do contrato, os indicadores e respectivas metas de qualidade de serviços poderão ser revistos, com a anuência das partes, mediante evidências de sua impropriedade ou inadequação;
2.7.3.7. O dimensionamento das equipes para atendimento do objeto é de responsabilidade exclusiva da CONTRATADA, devendo ser suficiente para o cumprimento integral dos requisitos mínimos de serviço exigidos neste Termo de Referência;
2.7.3.8. Os serviços serão demandados por meio de Ordem de Serviços. De acordo com o levantamento UST’s estimatimados para o consumo de serviços ao longo de 12 meses de contrato, não havendo, todavia, qualquer obrigatoriedade de sua realização ou geração de demandada por parte da CONTRATANTE;
2.7.3.9. A CONTRATADA deverá considerar em seus custos todos os recursos necessários ao completo atendimento aos objetos, tais como despesas com pessoal (salários, férias, encargos, benefícios, seleção, treinamento de pessoal e outras), licenças de uso do Sistema de Gestão de OS, deslocamentos (diárias,
passagens e outros) em função de substituições aos técnicos titulares por motivos de faltas (justificadas ou não), de modo a garantir os níveis de serviço definidos;
2.7.3.10. Os serviços poderão ser realizados presencialmente ou de forma remota, não podendo, todavia, a modalidade de prestação impactar em prazo ou qualidade em sua realização. As atividades que necessitarem ser realizadas presencialmente serão feitas nas instalações físicas da Secretaria de Governo em Vitória - ES. As atividades de capacitação deverão ser realizadas presencialmente;
2.7.3.11. As instalações físicas e mobiliários serão fornecidos pela Secretaria quando as atividades forem realizadas em seu ambiente. Os recursos para conexão remota aos equipamentos alocados pela CONTRATADA no ambiente da CONTRATANTE, serão fornecidos pela Secretaria, durante toda a vigência do contrato;
2.7.3.12. A Solução deverá ser disponibilizada nas instalações do CONTRATANTE e, monitorada e suportada remotamente pela CONTRATADA. Ou seja, a CONTRATADA prestadora dos serviços deverá disponibilizar a solução nas instalações da CONTRATANTE, no hardware e sistema operacional fornecidos pelo CONTRATANTE. O fornecimento dos serviços se dará durante toda a vigência do contrato, incluindo a solução pronta e integrada, todos os softwares e componentes necessários, suporte e atualização, em capacidade igual ou superior às especificações mínimas que constam deste Termo de Referência;
2.7.3.13. O prazo de término dos serviços executados em cada Ordem de Serviço será registrado quanto da abertura da OS e será proporcional à complexidade da atividade ao número de horas de cada OS;
2.7.3.14. As OS’s somente serão consideradas aceitas quando o serviço
solicitado for entregue sem pendências;
2.7.3.15. Os profissionais designados para a execução dos serviços técnicos deverão ser comprovadamente capacitados para a utilização e/ou operação das ferramentas e/ou equipamentos necessários para o curso de suas atividades;
2.7.3.16. A relação de atividades são as previstas para execução, mas, na necessidade de se executar uma atividade não relacionada, o enquadramento desta deverá ser pelo critério de similaridade e toda a operação deverá ser documentada e registrada para futuras diligências;
2.7.3.17. No caso da decisão do CONTRATANTE em alterar qualquer característica da atividade, essa alteração só será válida para a execução de atividades posteriores a formalização do ajuste, não dando a CONTRATADA qualquer direito de revisão ou pagamento retroativo de atividades já executadas;
DAS RESPONSABILIDADES DAS PARTES
DA CONTRATADA
Executar o objeto ajustado, por intermédio exclusivo de integrantes do seu quadro de pessoal. Os referidos profissionais poderão ocupar a posição de diretor, sócio ou integrar o quadro permanente da empresa licitante, na condição de empregado ou de prestador de serviços, devendo comprovar, obrigatoriamente, sua vinculação com a licitante, por meio de carteira de trabalho e previdência social (CTPS), contrato de prestação de serviços, ficha de registro de empregado ou contrato social, conforme o caso;
Fornecer ao CONTRATANTE a relação nominal dos profissionais encarregados de executar o objeto, para que o acesso às suas dependências seja autorizado pela Gerência responsável;
Apresentar os profissionais devidamente uniformizados e/ou identificados, levando-se em consideração as restrições internas quanto ao uso de determinadas vestimentas, como calções, shorts ou bermudas;
Responsabilizar-se, perante o CONTRATANTE e/ou terceiros, por danos ou prejuízos causados durante a execução do objeto, por dolo ou culpa de seus profissionais ficando obrigada a promover o devido ressarcimento ao erário a preços atualizados, dentro do prazo de 30 (trinta) dias, a contar do recebimento de notificação pela área fiscalizadora, sob pena de ter o valor apurado descontado na fatura do mês subsequente, sem prejuízo das demais sanções e responsabilidades cabíveis;
Responsabilizar-se, perante o CONTRATANTE e/ou terceiros, pela cobertura dos riscos de acidentes de trabalho de seus empregados, prepostos ou contratados, por todos os ônus, encargos, perdas e/ou danos porventura resultantes da execução do objeto;
Responsabilizar-se pela regular quitação de taxas de licenças para execução dos serviços, dependentes de quaisquer autoridades federais, estaduais e/ou municipais;
Responsabilizar-se pelos eventuais danos, doloso ou culposo, ocasionados pelo uso e porte do cartão de acesso do CONTRATANTE, entregue ao seu empregado, cujo quantum será apurado à época dos fatos, para desconto em xxxxxx xxxxxxxx, assegurados os direitos ao contraditório e a ampla defesa;
Manter durante a execução do objeto, todas as condições de habilitação e qualificação exigidas na licitação;
Não subcontratar ou transferir a outrem, no todo ou em parte, o objeto demandado;
Aceitar, nas mesmas condições contratuais, os acréscimos ou supressões que se fizerem necessárias nos serviços, até 25% (vinte e cinco por cento) do valor atualizado do contrato;
Responsabilizar-se pela regular quitação de todos os encargos previdenciários, trabalhistas, fiscais e comerciais, decorrentes da execução do contrato, apresentando, quando solicitado pela área fiscalizadora, documentação que comprove o seu correto e tempestivo pagamento;
Observar as normas da Política de Segurança e da Política da Qualidade do CONTRATANTE, dentre as quais:
3.1.12.1. Manter, por tempo indeterminado ou até autorização em contrário do CONTRATANTE, a devida confidencialidade, requerida ou não, de quaisquer dados e/ou informações pertencentes ao CONTRATANTE ou por ele tratados ou custodiados e aos quais a CONTRATADA e seus representantes terão acesso ou conhecimento, incluindo aqueles relativos aos negócios existentes ou em desenvolvimento pelas partes, seja verbalmente, por escrito ou visualmente (inclusive mantendo sigilo interno, quando aplicável, necessário ou solicitado), não os comercializando, reproduzindo, cedendo ou divulgando para pessoas não autorizadas a acessá-los ou conhecê-los, no todo ou em parte, direta ou indiretamente, sejam quais forem os
meios ou formas utilizados – exceto quando necessário, justificável e autorizado pelo CONTRATANTE;
3.1.12.2. Cumprir e fazer cumprir por seus representantes, a qualquer tempo, os controles da PSI (Política de Segurança da Informação) do CONTRATANTE que sejam aplicáveis e/ou que possuam correlação direta ou indireta com a presente contratação, incluindo aqueles afetos à execução do objeto do presente contrato, desde que os mesmos e suas alterações sejam fornecidos à CONTRATADA ou informados à mesma pelo gestor do contrato, pelo ESI (Escritório de Segurança da Informação) do CONTRATANTE, via divulgação através de canais aos quais a CONTRATADA tenha acesso e/ou conforme estabelecido contratualmente (se aplicável);
3.1.12.3. Orientar seus representantes quanto à obrigatoriedade de assinatura do “Termo de Confidencialidade e Responsabilidade” da PSI (Política de Segurança da Informação do CONTRATANTE), antes que os mesmos iniciem suas atividades.
DO CONTRATANTE
Disponibilizar à CONTRATADA, quando solicitado, toda a documentação e informações inerentes ao objeto contratado;
Pagar regularmente à CONTRATADA o preço estabelecido no contrato, se preenchidos os requisitos legais;
Coordenar, através da área fiscalizadora do contrato, a execução do objeto pela CONTRATADA, efetuando os registros das ocorrências constatadas;
Notificar a CONTRATADA, por escrito, quaisquer irregularidades que venham ocorrer, em função da execução do objeto;
Informar à CONTRATADA, previamente, qualquer alteração nos horários e dias de cumprimento das tarefas;
Assegurar o acesso dos profissionais enviados pela CONTRATADA, quando devidamente uniformizados e identificados, aos locais em que devem executar as tarefas.
DO ACOMPANHAMENTO, DA FISCALIZAÇÃO E DO RECEBIMENTO DO OBJETO
O CONTRATANTE designará, formalmente, empregado responsável pelo acompanhamento e fiscalização da execução do ajuste, competindo-lhe acompanhar, supervisionar, avaliar e atestar a execução do objeto, efetuando os contatos, comunicações e notificações necessárias, atestando as notas fiscais/faturas correspondentes, bem como solicitando a eventual aplicação de sanção administrativa, sendo que se não houver o seu ateste acerca da prestação dos serviços a contento do CONTRATANTE, não será permitido qualquer pagamento.
DA APRESENTAÇÃO DA PROPOSTA
A proposta deverá ser apresentada, com valores em real, redigida em português, em formulário oficial da empresa, que contenha a razão social, endereço, telefone, e-mail, fax e CNPJ e nela deverão constar os requisitos a seguir especificados:
Item | Especificação do Objeto | Métrica | Quantidade | Preço Unitário (R$) | Preço Total (R$) |
1 | Solução Analítica Integrada de Processamento Preditivo, Estatística e Mineração de Dados | CONJUNTO DE 16 NÚCLEOS DE PROCESSAME NTO | |||
2 | Serviço de suporte técnico, manutenção e direito de atualização de versão da Solução do item “1” durante o período de 12 (doze) meses | CONJUNTO DE 16 NÚCLEOS DE PROCESSAME NTO | |||
3 | Subscrição de plataforma de software para armazenamento e processamento de dados em computação distribuída (Hadoop) durante o período de 12 (doze) meses | CONJUNTO DE 4 NÓS DE PROCESSAME NTO | |||
4 | Instalação, configuração, customização, testes, documentação da implantação, transferência de conhecimento e conexão inicial às fontes internas e externas de dados que se encontrem disponíveis | UNIDADE | |||
5 | Serviço de treinamento em Administração da Plataforma Analítica | TURMA | |||
6 | Serviço de treinamento em Análise Estatística, Mineração de Dados e Mineração de Textos utilizando a Plataforma Analítica | TURMA |
Item | Especificação do Objeto | Métrica | Quantidade | Preço Unitário (R$) | Preço Total (R$) |
7 | Contratação da quantidade necessária de acordo com os valores estimados em UST’s de Serviços Técnicos Especializados para atendimento on- site (no local), sob demanda, durante o período de 12 (doze) meses | UST | |||
Preço Global (R$) |
Os preços propostos devem incluir todas as despesas diretas, indiretas, benefícios, tributos, contribuições, seguros e licenças de modo a se constituírem em única e total contraprestação pelo fornecimento dos materiais e serviços;
DO REAJUSTAMENTO
As condições de reajustamento, quando couber, serão especificadas posteriormente no edital, utilizando-se a redação e formato estabelecidos na minuta padrão de editais da PGE (site xxx.xxx.xx.xxx.xx).
DAS CONDIÇÕES DE FATURAMENTO
O pagamento relativo às entregas será efetuado em favor da empresa, em até 10 (dez) dias úteis da emissão do Termo de Recebimento Definitivo e apresentação da Nota Fiscal/Fatura discriminada, devidamente atestada por servidor ou comissão especialmente designada para acompanhar e fiscalizar a execução do contrato, sendo que:
Softwares, Instalação e Suporte – Itens 01, 02, 03 e 04: Em parcela única;
Serviços de Treinamento (Itens 05 e 06) e Serviços Técnicos Especializados (Item 07):
Todos os serviços serão executados mediante a emissão de Ordens de Serviço – OS, que será planejada em conjunto entre a CONTRATANTE e a CONTRATADA;
O pagamento será realizado somente após o processo de aceite e homologação da Ordem de Serviço;
Devem acompanhar a fatura os comprovantes de regularidade fiscal da contratada;
Apresentada a fatura pela CONTRATADA, a CONTRATANTE fará uma avaliação do cumprimento dos indicadores de níveis de serviços e o pagamento da fatura mediante as regras definidas neste Termo de Referência;
Nenhum pagamento será efetuado à CONTRATADA enquanto houver pendência de liquidação de qualquer obrigação que lhe for imposta em virtude de penalidades ou inadimplementos devidamente circunstanciados e justificados, ou que esteja com qualquer pendência junto ao SICAF, sem que isso gere direito ao pleito de atualização.
A documentação de cobrança não aceita pelo CONTRATANTE será devolvida à CONTRATADA para a devida correção, com as informações que motivaram sua rejeição pela fiscalização;
A devolução da documentação de cobrança não aprovada pelo CONTRATANTE não servirá de motivo para que a CONTRATADA suspenda a entrega de produtos, a execução dos serviços ou deixe de efetuar os pagamentos devidos aos seus empregados;
DO PAGAMENTO
As condições de pagamento serão especificadas posteriormente no edital utilizando-se a redação e formato estabelecido na minuta padrão de editais da PGE (site xxx.xxx.xx.xxx.xx), à exceção do prazo que será 10º dia útil;
DOS PRAZOS DE ENTREGA, DA VALIDADE E DA GARANTIA
PRAZO DE ENTREGA
O prazo máximo de entrega para os itens está definido no quadro a seguir:
ITEM | DESCRIÇÃO DO ITEM | MÉTRICA | PRAZO |
1 | Solução Analítica Integrada de Processamento Preditivo, Estatística e Mineração de Dados | CONJUNTO DE 16 NÚCLEOS DE PROCESSAMENTO | Até 30 dias após solicitação formal do CONTRATANTE |
2 | Serviço de suporte técnico, manutenção e direito de atualização de versão da Solução do item “1” durante o período de 12 (doze) meses | CONJUNTO DE 16 NÚCLEOS DE PROCESSAMENTO | Até 30 dias após solicitação formal do CONTRATANTE |
3 | Subscrição de plataforma de software para armazenamento e processamento de dados em computação distribuída (Hadoop) | CONJUNTO DE 4 NÓS DE PROCESSAMENTO | Até 30 dias após solicitação formal do CONTRATANTE |
4 | Instalação, configuração, customização, testes, documentação da implantação, transferência de conhecimento e conexão inicial às fontes internas e externas de dados que se encontrem disponíveis | UNIDADE | Até 30 dias após solicitação formal do CONTRATANTE |
5 | Serviço de treinamento em Administração da Plataforma Analítica | TURMA | Mediante abertura de OS |
6 | Serviço de treinamento em Análise Estatística, Mineração de Dados e Mineração de Textos utilizando a Plataforma Analítica | TURMA | Mediante abertura de OS |
7 | Contratação da quantidade necessária de acordo com os valores estimados em UST’s de Serviços Técnicos Especializados para atendimento on-site (no local), sob demanda, durante o período de 12 (doze) meses | UST | Mediante abertura de OS |
PRAZO DE VALIDADE
Não se aplica.
PRAZO DE GARANTIA
Garantia de 12 (doze) meses a partir da data do termo de aceite de cada ordem de serviço, referente ao ITEM 6.
DA VIGÊNCIA DO CONTRATO
O prazo de vigência contratual terá início no dia subsequente ao da publicação do resumo do contrato no Diário Oficial e terá duração de 12 (doze) meses, prorrogáveis nos termos do disposto no inciso II do Art. 57 da Lei Federal nº 8666/93;
Ocorrendo a hipótese de prorrogação, esta deverá ser admitida nos termos do Art. 57, da Lei Federal nº 8.666/93, mediante prévia justificativa e autorização da autoridade competente, devendo ser precedida, ainda, de manifestação da Procuradoria Geral do Estado do Espírito Santo e demonstrado, nos autos, que a medida importará em obtenção de preços e condições mais vantajosas para a Administração;
DA CONTRATAÇÃO DE MÃO DE OBRA DE PRESIDIÁRIOS E EGRESSOS
Quando a natureza complexa da obra ou serviço impedir a aplicação desse Decreto Estadual, a impossibilidade aludida deverá ser devidamente apontada, esclarecida e justificada pela CONTRATADA e só o liberará do cumprimento das obrigações respectivas após a prévia aceitação das justificativas pela Secretaria de Estado de Justiça
– XXXXX, por meio de decisão fundamentada.