|
|
Created by Raphael Luiz Fonseca
about 11 years ago
|
|
| Question | Answer |
| - Projetar uma série de testes com a máxima probabilidade de encontrar erros | Objetivo do Teste de SW |
| - Correção de erros encontrados na verificação ou na validação | Tipos de Manutenção do SW - Corretiva |
| - Adaptação e mudanças externas | Tipos de Manutenção do SW - Adaptativa |
| - Melhorias requeridas pelos usuários | Tipos de Manutenção do SW - Melhoria ( perspectiva ) |
| - Abordagem pró-ativa com foco na melhoria da manutibilidade | Tipos de Manutenção do SW - Preventiva ou de Reegenharia |
| - Causa de uma falha ( aspecto físico ) - Ex: código incorreto, defeito de hardware | FALTA |
| - Estado intermediário, de instabilidade ( aspecto informação ) - Pode resultar numa falha, se propagado até a saída | ERRO |
| - Incapacidade do software de realizar a função requisitada (aspecto externo). - Manifestação observável - Ex: terminação anormal, restrição temporal violada. | FALHA |
| - Refere-se ao conjunto de atividades que garante que o software implementa corretamente as funções especificadas. - "Estamos construindo o produto de forma correta?" - Inspeções ( Verificação Estática ) - Testes ( Verificação Dinâmica ) | Verificação |
| - Refere-se ao conjunto de atividades que garantem que o software construído implementa o que o cliente realmente desejava. - "Estamos construindo o produto certo?" - Homologação, Teste de Aceitação - Revisões | Validação |
| - Focada no processo - Orientada a prevenção - Ex: Metodologias, padrões - Garante que você está fazendo as coisas da maneira certa. | Garantia de Qualidade |
| - Focada no produto - Orientada a detecção - Ex: Checagem de requisitos, teste de software - Garante que os resultados do seu trabalho estão de acordo com o esperado. | Controle no Produto |
| - Análise Estática - Não checam RNF's - São abordagens formais para documentar as revisões do código - A intenção é a detecção de erros e não correção. | Inspeções do Programa ( Estático ) |
| - Checa a codificação de loops, código, inalcançável | Tipos de Inspeções Automatizadas - Análise de Controle de Fluxo |
| - Detecta variáveis não inicializadas, variáveis que nunca foram usadas. | Tipos de Inspeções Automatizadas - Análise de Dados |
| - Checa a consistência de declarações de rotinas e procedimentos e como são utilizados | Tipos de Inspeções Automatizadas - Análise de Interfaces |
| - Processo de executar um programa com o objetivo de encontrar erros. - Não garante que o software está livre de erros. | Teste ( Verificação Dinâmica ) |
| - Focado nas entradas e saídas especificadas nos requisitos funcionais - Baseado em prés e pós condições - Busca erros de comportamento e desempenho - Técnicas usadas: Testes baseados em grafos, matriz, análise de valores limítrofes, particionamento de equivalências | Abordagens de Testes - Caixa Preta/Funcional |
| - Focado nas estruturas internas - Análise de caminhos lógicos - Garantir que todos os caminhos independentes de um módulo sejam executados pelo menos uma vez - Executar todas as decisões lógicas - Todos os laços | Abordagens de Testes - Caixa Branca/Estrutural |
| - Meio termo, branca e preta - Alguns conhecimentos de ambas partes. | Abordagens de Testes - Caixa Cinza/Mista |
| - Toda aplicação é construída por "objetos" - Todos objetos são projetados em gráficos - Descobrir comportamentos inesperados | Teste baseado em grafos |
| - Baseada em dividir o domínio de entradas de um programa em classe de dados | Técnica Particionamento de Equivalências |
| - Os erros acontecem nos limites do domínio de entrada e não no "centro" - Os testes devem ser gerados considerando esse valores "limítrofes" | Técnica de Análise de Valores Limítrofes |
| - Onde calcula-se a complexidade lógica do software e utiliza essa medida como base para descobrir os caminhos básicos | Testes Caixa Branca - Caminho Básico |
| - Teste de laços, condicionais, etc | Testes Caixa Branca - Teste de Estruturas de Controle |
| - Fornece uma medida quantitativa da complexidade lógica de um programa | Testes Caixa Branca - Complexidade Ciclomática ( Métrica ) |
| - Primeiro nível de testes, onde componentes individuais são testados. - Ferramenta usada: JUnit | Estágios de Teste - Teste de Unidade |
| - Framework de código aberto - Testar códigos em JAVA | JUnit |
| - Integra e testa componentes de um sistema com o objetivo de encontrar problemas durante suas interações | Teste de Integração |
| - Desenvolve o esqueleto do sistema e o preenche com os componentes do sistema | Teste de Integração - Top-Down |
| - Integra os componentes de infraestrutura e depois adiciona componentes funcionais | Teste de Integração - Bottom-Up |
| - Demonstrar a conformidade com os requisitos de software - O ambiente utilizado deve ser o mais próximo do real | Teste de Aceitação ( Validação ) |
| - Testes conduzidos pelo cliente no ambiente do desenvolvedor - Ambiente controlado | Teste de Aceitação ( Validação ) - Alfa |
| - É conduzido em um ou mais locais do cliente, pelo usuário final do produto. - O usuário anota todos os problemas e depois envia para o desenvolvedor - Ambiente real | Teste de Aceitação ( Validação ) - Beta |
| - São conduzidos em um ambiente completo e integrado, por várias pessoas. | Teste de Sistema |
| - Visa a executar um subconjunto de testes que já foram executados com o intuito de garantir que as mudanças ocorridas não propagaram efeitos indesejados. | Tipos de Testes - Regressão |
| - Refere-se ao primeiro teste realizado depois de integrar os componentes | Tipos de Testes - Teste de Fumaça |
| - Força o software a falhar e verifica se a recuperação foi feita de forma adequada. | Tipos de Testes - Recuperação |
| - O testador visa penetrar no sistema de qualquer maneira - O objetivo do teste é assegurar que a tentativa de penetração custe mais caro que os ganhos que o hacker virá a ter. | Tipos de Testes - Segurança |
| - Confrontar os programas com situações anormais - "Até onde ele aguenta?" | Tipos de Testes - Carga/Estresse |
| - Pode ocorrer durante todos os estágios de testes - Visa garantir que o sistema atende aos níveis de desempenho e tempo de resposta acordamos nos requisitos | Tipos de Testes - Desempenho |
| - Avalia o sistema do ponto de vista do usuário final | Tipos de Testes - Usabilidade |
| - É o processo que resulta na remoção de um erro encontrado | Debugging |
| - Popula-se o sistema com escritas ao console para tentar encontrar erros. - É o métodos menos eficiente | Abordagens de Debugging - Força Bruta |
| - Começando a partir de onde o erro ocorreu, deve-se rastrear o código manualmente até a fonte do erro. | Abordagens de Debugging - Backtracking |
| - Uma "hipótese de causa" é elaborada e os dados relacionados ao erro são utilizados para prová-la | Abordagens de Debugging - Eliminação de Causa |
| - Define metas e objetivos de teste no escopo da iteração | Plano de Testes ( RUP ) |
| - Tem a finalidade de identificar e comunicara as condições específicas nas quais as funcionalidades serão testadas - Define um conjunto de entradas de teste, condições de execução e resultados esperados. | Caso de Teste |
| - Descrição do Caso de Teste - Pré-Condições - Entradas - Pontos de Observação - Pontos de Controle - Resultados Esperados - Pós-Condições | Estrutura do Caso de Teste |
| - (1) aplicações clientes individuais são testadas no modo “não conectado” e a operação do servidor e a rede subjacente não são consideradas; - (2) o software cliente e as aplicações do servidor associadas são testadas em conjunto, mas as operações da rede não são explicitamente exercitadas; - (3) a arquitetura completa cliente/servidor, incluindo operações e desempenho da rede, é testada. | Teste em Cliente/Servidor |
Want to create your own Flashcards for free with GoConqr? Learn more.