Complexidade de Algoritmos.
7.2. Problema básico na Análise de Algoritmos:
Necessitamos definir uma forma de criar uma medida de comparação entre diferentes algoritmos que resolvem um mesmo problema, para: Podermos saber se são viáveis Podermos saber qual é o melhor algoritmo para a solução do problema. Para fazermos isso, abstraímos de um computador em particular e assumimos que a execução de todo e qualquer passo de um algoritmo leva um tempo fixo e igual a uma unidade de tempo. O tempo de execução em um computador particular não é interessante. Muito mais interessante é uma comparação relativa entre algoritmos.
Modelo de computação: As operações são todas executadas seqüencialmente. A execução de toda e qualquer operação toma uma unidade de tempo. A memória do computador é infinita.
Assim nos sobram duas grandezas:
Tempo = número de operações executadas Quantidade de dados de entrada.
7.3. Complexidade de Tempo.
Podemos expressar de forma abstrata a eficiência de um algoritmo, descrevendo o seu tempo de execução como uma função do tamanho do problema (quantidade de dados). Isto é chamado de complexidade de tempo. Exemplo : Ordenação de um Vetor.
7.3.1. Primeiro caso: Bubblesort.
Bubblesort é o mais primitivo dos métodos de ordenação de um vetor. A idéia é percorrer um vetor de n posições n vezes, a cada vez comparando dois elementos e trocando-os caso o primeiro seja maior que o segundo:
ordenaBolha /* Bubblesort */ inteiro i,j,x,a[n]; início para i de 1 até n faça para j de 2 até n faça se (a[j-1]>a[j]) então x.
A comparação (a[j-1]>a[j]) vai ser executada n*(n-1) vezes. No caso de um vetor na ordem inversa, as operações da atribuição triangular poderão ser executadas até 3*n*(n-1) vezes, já uma troca de elementos não significa que um dos elementos trocados tenha encontrado o seu lugar definitivo.
7.3.2. Segundo caso: StraightSelection.
O método da seleção direta é uma forma intuitiva de ordenarmos um vetor: escolhemos o menor elemento do vetor e o trocamos de posição com o primeiro elemento. Depois começamos do segundo e escolhemos novamente o menor dentre os restantes e o trocamos de posição com o segundo e assim por diante.
seleçãoDireta inteiro i,j,k,x,a[n]; início para i de 1 até n-1 faça k.
7.3.3. Interpretação.
Como já foi dito, a única forma de se poder comparar dois algoritmos é descrevendo o seu comportamento temporal em função do tamanho do conjunto de dados de entrada, T algoritmo = f(n), onde n é o tamanho dos dados.
Assim, se tomarmos as operações de troca de valores como critério-base, podemos dizer que:
T bubblesort = 3*n*(n-1) sempre e.
T straightselection = 2*(n-1) para o pior caso.
O que nos interessa é o comportamento assintótico de f(n), ou seja, como f(n) varia com a variação de n. Razão: Para mim é interessante saber como o algoritmo se comporta com uma quantidade de dados realistica para o meu problema e o que acontece quando eu vario esses dados. Exemplo : Se eu tenho dois algoritmos a e b para a solução de um problema. Se a complexidade de um é expressa por f a(n) = n 2 e a do outro por f b(n) = 100*n. Isto significa que o algoritmo a cresce quadraticamente (uma parábola) e que o algoritmo b cresce linearmente (embora seja uma reta bem inclinada).
Se eu uso esses algoritmos para um conjunto de 30 dados, o segundo com T b =3000 é pior do que o primeiro com T a =900.
Se eu os uso para um conjunto de 30.000 dados, porém, terei T a =900.000.000 e T b =3.000.000 .
Isto porque o comportamento assintótico dos dois é bem diferente.
Podemos ver isto expresso no gráfico abaixo:
7.4. Interpretação da Complexidade de Tempo.
O gráfico acima nos mostra qual é o aspecto essecial que deve ser expresso pelo cálculo de complexidade: Qual é o comportamento assintótico predominante de um algoritmo em função do tamanho do conjunto de dados a ser processado?
Por exemplo: se é linear, polinomial( quadrático, cúbico, etc ), logarítimico ou exponencial. Para a análise do comportamento de algoritmos existe toda uma terminologia própria. Para o cálculo do comportamento de algoritmos foram desenvovlidas diferentes medidas de complexidade. A mais importante delas e que é usada na prática é chamada de Ordem de Complexidade ou Notação-O ou Big-Oh . Definição ( Big-Oh ): T(n) = O(f(n)) se existem constantes c e n 0 tais queT(n) c .f(n) quando n > n 0. A definição indica que existe uma constante c que, faz com que c .f(n) seja sempre pelo menos tão grande quanto T(n), desde que n seja maior que um n 0. Em outras palavras: A Notação-O me fornece a Ordem de Complexidade ou a Taxa de Crescimento de uma função . Para isso, não consideramos os termos de ordem inferior da complexidade de um algoritmo, apenas o termo predominante. Exemplo : Um algoritmo tem complexidade T(n) = 3n 2 + 100n . Nesta função, o segundo termo tem um peso relativamente grande, mas a partir de n 0 = 11, é o termo n 2 que “dá o tom” do crescimento da função: uma parábola . A constante 3 também tem uma influência irrelevante sobre a taxa de crescimento da função após um certo tempo. Por isso dizemos que este algoritmo é da ordem de n2 ou que tem complexidade O(n 2 ) .
7.4.2. Diferentes Tempos de Execução.
Problema da Subseqüência de Soma Máxima : Dada uma seqüência de números a1, a2, … , an, positivos ou negativos, encontre uma subseqüência aj,…,ak dentro desta seqüência cuja soma seja máxima. A soma de uma seqüência contendo só números negativos é por definição 0.
Exemplo : Para a seqüência -2, 11, -4, 13, -5, -2, a resposta é 20 (a2,a3,a4) .
Este problema oferece um bom exemplo para o estudo de como diferentes algoritmos que resolvem o mesmo problema possuem diferentes comportamentos, pois para ele existem muitas soluções diferentes.
Abaixo, um exemplo dos tempos de execução dos diferentes algoritmos da subseqüência de maior soma:
7.5. Cálculo da Complexidade de Tempo.
Um exemplo intuitivo: Cálculo de.
inteiro somaCubos (inteiro n) inteiro i, somaParcial; início 1 somaParcial.
As declarações não tomam tempo nenhum. A linha 4 também não toma tempo nenhum. As linhas 1 e 5 contam uma unidade de tempo cada. A linha 3 conta 4 unidades de tempo (2 multiplicações, uma adição e uma atribuição) e é executada n vezes, contando com um total de 4n unidades de tempo. A linha 2 possui custos implícitos de de inicializar o i ,testar se é menor que n e incrementá-lo. Contamos 1 unidade para sua inicialização, n + 1 para todos os testes e n para todos os incrementos, o que perfaz 2n + 2 unidades de tempo. O total perfaz 6n + 4 unidades de tempo, o que indica que o algoritmo é O(n), da Ordem de Complexidade n, ou seja, linear.
7.5.1. Regras para o cálculo.
Laços Para-Faça e outros:
O tempo de execução de um laço é, no máximo, a soma dos tempos de execução de todas as instruções dentro do laço (incluindo todos os testes) multiplicado pelo númerode iterações.
O tempo total de execução de uma instrução dentro de um grupo de laços aninhados é o tempo de execução da instrução multiplicado pelo produto dos tamanhos de todos os laços. Exemplo O(n 2) :
para i de 1 até n para j de 1 até n k.
Instruções Consecutivas: Estes simplesmente somam, sendo os termos de ordem menor da soma ignorados.Exemplo O(n)+O(n 2) = O(n 2 ) :
p ara i de 1 até.
a[i]
fim para.
para i de 1 até n.
para j de 1 até n.
a[i]
fim para.
fim para.
IF/THEN/ELSE: Considerando-se o fragmento de código abaixo:
se cond então.
expresssão 1.
senão.
expressão 2.
fim se.
o tempo de execução de um comando IF/THEN/ELSE nunca é maior do que o tempo de execução do teste cond em si mais o tempo de execução da maior dentre as expressões expressão 1 e expressão 2. Ou seja: se expressão 1 é O(n 3) e expressão 2 é O(n), então o teste é O(n 3 ) + 1 = O(n 3 ) .
Chamada a Funções: Segue obviamente a mesma regra dos laços aninhados: analise tudo de dentro para fora. Ou seja: para calcular a complexidade de um programa com várias funções, calcule-se primeiro a complexidade de cada uma das funções e depois considere-se cada uma das funções como uma instrução com a complexidade de função. Recursão :Recursão é a parte mais difícil da análise de complexidade. Na verdade existem dois casos: Muitos algoritmos recursivos mais simples podem ser “linearizados”, substituindo-se a chamada recursiva por alguns laços aninhados ou por uma outra subrotina extra e eventualmente uma pilha para controlá-la. Neste caso, o cálculo é simples e pode ser feito depois da “linearização”. Em muitos algoritmos recursivos isto não é possível, neste caso obtemos uma relação de recorrência que tem de ser resolvida e é uma tarefa matemática menos trivial. Exemplo de cálculo de complexidade em recursão: Fatorial.
inteiro Fatorial (inteiro n)
início.
se n.
retorne 1; senão.
retorne ( n * Fatorial ( n - 1 ) );
fim se.
fim.
O exemplo acima é realmente um exemplo pobre de recursão e pode ser “iterativisado” de forma extremamente simples com apenas um laço para-faça :
inteiro FatorialIterativo (inteiro n)
inteiro i, fatorial;
início.
fatorial.
para i de 2 até n faça.
fatorial.
fim para.
retorne fatorial;
fim.
A complexidade de FatorialIterativo pode então ser facilmente calculada e é evidente que é O(n) .
O caso dos números de Fibonacci abaixo não é tão simples e requer a resolução de uma relação de recorrência:
inteiro Fibonacci (inteiro n)
início.
se n.
retorne 1;
senão.
retorne ( Fibonacci(n-1) + Fibonacci(n-2));
fim se.
fim.
Observando o algoritmo, vemos que para n>= 2 temos um tempo de execução T(n) = T(n-1)+T(n-2)+2.
A resolução desta relação nos mostra que Fibonacci é O((2) n )
7.5.2. Logaritmos e Outros no Tempo de Execução.
O aspecto mais complexo na análise de complexidade centra-se em torno do logaritmo. Para analisar-se um algoritmo de complexidade logarítmica e chegar-se a um resultado correto sobre a sua ordem exata de complexidade é necessária uma certa experiência e algum “jeito” matemático. Algumas regras de aproximação podem ser dadas: 4 Algoritmos seguindo a técnica Dividir-Para-Conquistar são muitas vezes n log n . Quando um algoritmo, em uma passada de uma iteração tomao conjunto de dados e o divide em duas ou mais partes, tomando cada uma dessas partes e a processando separada e recursivamente e depois juntando os resultados, este algoritmo utiliza a técnica dividir-para-conquistar e será possivelmente n log n . Um algoritmo é log n se ele toma um tempo constante O(1) para dividir o tamanho do problema. Usualmente pela metade. A pesquisa binária já vista é um exemplo de log n . Se o algoritmo toma tempo constante para reduzir o tamanho do problema em um tamanho constante, ele será O(n). Algoritmos combinatórios são exponenciais: Se um algoritmo testa todas as combinaçoes de alguma coisa, ele será exponencial.Exemplo: Problema do Caixeiro Viajante.
7.6. Checando a sua análise.
Uma vez que a análise de complexidade tenha sido executada, é interessante verificar-se se a resposta está correta e é tão boa quanto possível.
Uma forma de se fazer isto é o procedimento pouco matemático de se codificar o trecho de algoritmo cuja complexidade se tentou descrever e verificar se o tempo de execução coincide com o tempo previsto pela análise:
Quando n dobra, o tempo de execução se eleva de um fator 2 para algoritmos lineares, fator 4 para quadráticos e 8 para cúbicos. Programas logarítmicos só aumentam o seu tempo de execução de uma constante a cada vez que n dobra. Algoritmos de O(n log n) tomam um pouco mais do que o dobro do tempo sob as mesmas circunstâncias. Estes aumentos podem ser difíceis de se detectar se os termos de ordem inferior têm coeficientes relativamente grandes e n não é grande o suficiente. Um exemplo é o pulo tempo de execução para n=10 do para n=100 em algumas implementações do problema da subseqüência de soma máxima.
Distinguir programas n log n de programas lineares só em evidência de tempo de execução pode também ser muito difícil.
Uma boa praxe é, caso o programa não seja exponencial (o que você vai descobrir muito rápido), fazer alguns experimentos com conjuntos maiores de dados de entrada.
7.7. Exercícios.
O objetivo desta lista de exercícios é permitir a você revisar o conteúdo desta parte de Análise de Algoritmos e verificar os seus conhecimentos. O teste a ser realizado conterá exercícos semelhantes a estes e será do mesmo nível de dificuldade.
(1) Um dos pontos importantes a serem considerados ao se tomar a decisão de utilizar um algoritmo para a solução de um problema, é a sua correção. Um algoritmo incorreto não produzirá os resultados esperados e não pode ser utilizado. Outro ponto importante a ser considerado, quando temos mais de uma opção de algoritmos tradicionais para resolver um problema ou quando podemos projetar um algoritmo para um problema de diversas maneiras, é a questão de sua eficiência. Explique : a) O que significa a eficiência de tempo de um algoritmo. b) Quais as grandezas físicas que influenciam a eficiência de tempo de um algoritmo na prática. c) Quais dessas grandezas nós realmente utilizamos para expressar a eficência de tempo de um algoritmo, utilizando-as para o nosso modelo de computação ? d) De quais nós abstraímos e por quê ? e) Que notação utilizamos na prática para expressar a complexidade de tempo de um algoritmo ?
(2) Uma das possíveis formas de se descrever a complexidade de um algoritmos é a chamada Notação-Big-Oh , que é definida da seguinte forma: T(n) = O(f(n)) se existem constantes c e n 0 tais que T(n) n 0 . Explique o que você entendeu por esta definição.
(3) Vimos que existem duas formas de se implementar listas: como conjuntos de dados fisicamente adjacentes, atraves da utilização de vetores e como conjuntos de dados apenas logicamente interligados, mas sem adjacência física, através da utilização de listas encadeadas. As listas encadeadas possuem vantagens de economia de memória bastante óbvias, uma vez que é somente utilizada a memória realmente necessária para armazenar um determinado conjunto de dados. Do ponto de vista de complexidade, discutimos em sala de aula também vantagens e desvantagens dos dois modelos. Explique qual dos dois modelos é melhor em termos de complexidade de tempo de acesso e explique por que isto ocorre, exemplificando atrav’es de um desenho. Diga qual é a complexidade média de tempo de acesso a um dado em uma lista com vetor de n dados e uma lista encadeada com n dados. Justifique .
(4) Para o cálculo da complexidade de algoritmos não recursivos, existe um conjunto de regras bastante simples de serem seguidas. Cite e descreva estas regras.
(5) Algoritmos recursivos são bem mais difíceis de se analisar com respeito ao seu comportamento assintótico (complexidade de tempo). Quando nós tentamos descrever a complexidade de tempo de um algoritmo recursivo utilizando as regras acima, acabamos obtendo uma fórmula também recursiva, que nós chamamos de relação de recorrência . Para resolver esta fórmula existe um conjunto de regras matemáticas que você ainda não viu. Mas você pode, para alguns problemas, “estimar” a complexidade de execução de um algoritmo recursivo com base em algumas de suas características sem a necessidade de resolver um problema matemático mais complexo. a) Explique que tipos de problemas ou algoritmos costumam ter complexidade da ordem de n log n e como os identificamos. b) Quais problemas que possuem geralmente complexidade da ordem de log n ? Cite dois exemplos (vistos em sala de aula). c) Quais os problemas que costumam ser exponenciais ? Cite um exemplo (visto em sala de aula).
(6) O que diferencia os problemas tratáveis dos não-tratáveis ? Explique o termo NP (isto não foi visto em aula. Pesquise na literatura).
(7) Calcule, passo a passo, a complexidade do algoritmo abaixo.
Algoritmo Prova Variáveis inteiro i,j,k,n,x(n) Início para I de 1 até n faça: leia x(i); fim para para i de 1 até n - 2 faça: para j de 1 até 2*n faça: se i for ímpar então para k de 1 até n2 faça: x(k)
Sobre o Autor.
possui graduação em Ciências da Computação pela Universidade Federal de Santa Catarina (1989) e Doutorado Acadêmico (Dr. rer.nat.) em Ciências da Computação pela Universidade de Kaiserslautern (1996). Atualmente é professor Associado da Universidade Federal de Santa Catarina, onde é professor do Programa de Pós-graduação em Ciência da Computação e dos cursos de graduação em Ciências da Computação e Medicina. É também professor e orientador de doutorado do Programa de Pós-Graduação em Ciências da Computação da Universidade Federal do Paraná - UFPR. Tem experiência nas áreas de Produção de Conteúdo para TV Digital Interativa, Informática em Saúde, Processamento e Análise de Imagens e Engenharia Biomédica, com ênfase em Telemedicina, Telerradiologia, Sistemas de Auxílio ao Diagnóstico por Imagem e Processamento de Imagens Médicas, com foco nos seguintes temas: analise inteligente de imagens, DICOM, CBIR, informática médica, visão computacional e PACS. Coordena o Instituto Nacional de Ciência e Tecnologia para Convergência Digital - INCoD. É também Coordenador Técnico da Rede Catarinense de Telemedicina (RCTM), coordenador do Grupo de Trabalho Normalização em Telessaúde do Comitê Permanente de Telessaúde/Ministério da Saúde e membro fundador e ex-coordenador da Comissão Informática em Saúde da ABNT - ABNT/CEET 00:001.78. Atualmente também é membro da comissão ISO/TC 215 - Health Informatics. Foi coordenador da RFP6 - Conteúdo - do SBTVD - Sistema Brasileiro de TV Digital/Ministério das Comunicações. Desde 2007 é Coordenador do Núcleo de Telessaúde de Santa Catarina no âmbito do Programa Telessaúde Brasil do Ministério da Saúde e da OPAS - Organização Pan-Americana de Saúde e Coordenador do Núcleo Santa Catarina da RUTE - Rede Universitária de Telemedicina.
LAPIX - Image Processing and Computer Graphics Lab.
The Cyclops Research Group.