Criptografia Numaboa
Claude Elwood Shannon
Sab 25 Nov 2006 11:19 |
- Detalhes
- Categoria: História da Criptologia
- Atualização: Sexta, 17 Abril 2009 21:09
- Autor: vovó Vicki
- Acessos: 22798
A capacidade de transmitir digitalmente a voz, as imagens e os dados usando bits e bytes e enviando-os através de linhas telefônicas, cabos, satélites e da Internet, deve-se a um gênio criador que, há pouco mais de 50 anos, lançou as bases de uma teoria matemática da comunicação.
Em 1948, Claude Elwood Shannon conseguiu um feito raramente repetido na história da ciência: com um trabalho intitulado Uma Teoria Matemática da Comunicação, publicado no Bell System Technical Journal, abriu uma área nova e inédita na matemática. Esta área surgiu essencialmente completa, com as definições e conceitos básicos formulados, com os teoremas e resultados fundamentais já estabelecidos e, o mais espantoso, sem precedentes visíveis na literatura existente na época. Raras vezes isso acontece, pois os avanços da ciência, mesmo que geniais, podem habitualmente se referir a problemas há muito discutidos, a teorias em gestação e a descobertas precedentes. O próprio Newton, ao criar a física moderna, disse ter podido ver mais longe por ter-se alçado aos ombros de gigantes. Referia-se assim às descobertas e aos trabalhos de Copérnico, Galileu, Kepler e outros.
O trabalho que Shannon publicado em 1948 apareceu de forma totalmente inesperada e veio a ter um alcance que os seus contemporâneos, e talvez até o próprio Shannon, não conseguiram vislumbrar naquele momento. Foi um dos raros passos decisivos, inesperados e globais que até hoje se registaram na história da ciência.
Claude Elwood Shannon nasceu em Petoskey, no estado de Michigan, EUA, em 30 de Abril de 1916. O pai era descendente de pioneiros que haviam se estabelecido em Nova Jersey e a mãe, filha de imigrantes alemães. Manifestou desde jovem uma grande inclinação para a mecânica - construía modelos de aviões, miniaturas de barcos com controle remoto e até mesmo um telégrafo, com o qual se comunicava com os vizinhos. Na escola, mostrou grande inclinação para as ciências e para a matemática. Frequentou depois a universidade de Michigan, onde a liberdade de escolha de cadeiras do sistema norte-americano lhe permitiu obter uma dupla licenciatura, em Engenharia Eletrotécnica e em Matemática. Continuou os seus estudos no Massachusetts Institute of Technology (MIT), onde trabalhou com Vannevar Bush (1890-1974) na construção do analisador diferencial, um pioneiro mecânico dos computadores analógicos e que era o sistema automático de cálculo mais potente da época.
A grande idéia
Interessado em problemas da computação, estudou álgebra booleana, a álgebra de cálculo lógico baseada na dicotomia zero-um (falso-verdadeiro). No intervalo da atividade acadêmica trabalhou nos célebres Laboratórios Bell, onde estudou problemas de comunicação elétrica. Teve então a idéia pioneira de reduzir o conteúdo da informação a sequências de zeros e uns e de tratá-la segundo as regras da lógica de Boole. "Até hoje, ninguém tinha sequer se aproximado dessa idéia", disse mais tarde seu colega Robert Gallager, "foi um avanço que, sem ele, teria demorado muito a ser conseguido". A idéia foi desenvolvida na sua tese de mestrado de 1938, premiada e publicada numa revista científica. São apenas 11 páginas, mas condensadas com as inovações essenciais, e sem rodeios nem repetições.
Concluído o mestrado, Vannevar Bush sugeriu-lhe que continuasse os estudos no departamento de matemática do MIT. Percebeu então que a genética era um ramo científico com grande potencial de tratamento matemático. Sempre interessado nas aplicações, concluiu uma tese de doutoramento sobre Uma Álgebra da Genética Teórica. Apesar da sua notória dificuldade com línguas estrangeiras, exigidas para a graduação, Shannon consegue seus graus de mestre em Engenharia Eletrotécnica e de doutor em Matemática em 1940.
Terminados os estudos, Dr. Shannon foi trabalhar para o Instituto de Estudos Avançados de Princeton com o matemático Hermann Weyl (1885-1955). Passou depois para os Bell Labs, em Nova Jersey, onde trabalhavam muitos cientistas extraordinários, como John Pierce, um dos criadores da comunicação por satélite, Harry Nyquist, pioneiro do tratamento de sinais, e os inventores do transístor, Brattain, Bardeen e Scockley. Trabalhou em várias áreas: sistemas automáticos de defesa aérea, sensores ópticos, criptografia e, acima de tudo, teoria da informação.
Teoria matemática da comunicação
No seu trabalho Uma Teoria Matemática da Comunicação, publicado em 1948, Shannon desenvolve a teoria da informação e transmissão de sinais digitais, baseados em sequências de zeros e uns. É aí que define "o problema fundamental da comunicação como o de reproduzir num local, de forma aproximada ou exata, uma mensagem selecionada noutro local". Estabeleceu então o esquema de transmissão de informação hoje clássico, com uma mensagem que parte de uma fonte, é codificada e emitida por um transmissor, passa por um canal de comunicação, sofre perturbações designadas por ruídos, e chega depois ao receptor, passando por um sistema de decodificação. Ao falar de "uma mensagem selecionada", Shannon refere-se a uma sequência informativa que pode ser escolhida entre muitas outras, que aparecerão com iguais ou diferentes probabilidades. Define então a quantidade de informação com base na sua incerteza ou dificuldade de previsão.
Suponha, por exemplo, que um emissor transmita a mensagem "bom dia", letra por letra. Ao emitir as primeiras letras, há uma expectativa da parte do receptor, que vê surgir as letras "b", "o", "m", um espaço, e depois "d" e o "i". O "a" final é quase inútil, pois sua probabilidade de ocorrência é tão grande, para dar sentido à sequência anterior, que a quantidade de informação transmitida por essa letra é muito menor que a transmitida pelas primeiras. Para medir a quantidade de informação, Shannon criou o conceito de entropia, diferente do conceito homônimo encontrado em termodinâmica. Porque esta denominação foi escolhida? Ao que parece, foi o matemático norte-americano de origem húngara, John von Neumann (1903-1957), quem sugeriu este termo. Teria dito, ironicamente, "deve chamá-la de 'entropia' por duas razões: primeiro, porque essa mesma função matemática já é utilizada em termodinâmica, com esse nome; segundo, e mais importante, porque pouca gente sabe realmente o que é entropia e, se usar esse termo numa discussão, sairá sempre ganhando."
O impacto nas transmissões
Com o conceito de entropia pode-se definir a quantidade de informação transmitida e os limites ótimos de compressão dessa informação. Em 1948, quando Shannon anunciou a sua nova teoria matemática, o cabo elétrico de "banda mais larga" então existente podia transmitir 1800 conversas telefônicas simultâneas. 25 anos mais tarde, um cabo telefônico podia transmitir 230 mil conversas simultâneas. Hoje, uma nova fibra ótica da Lucent (Bell Labs), com a espessura de um cabelo humano, pode comportar 6,4 milhões de conversas. No entanto, mesmo com esta largura de banda, os limites teóricos de capacidade de canal determinados por Shannon estão muito além dos praticados. Os engenheiros sabem que ainda há muito o que melhorar.
Conhecendo a capacidade de um canal usando os conceitos da Teoria da Informação de Shannon, pode-se melhorar a transferência de um sinal e filtrar o ruído, alcançando uma confiabilidade maior. O meio mais simples de contornar o ruído é a repetição. Shannon demonstrou que, numa transmissão em que os erros acontecem com determinada probabilidade, pode-se diminuir a probabilidade de erro até ao ponto desejado introduzindo redundância na informação. Para isso, enquanto o canal estiver funcionando abaixo da sua capacidade teórica, o caminho consiste em melhorar a codificação, dando-lhe uma forma mais compacta, e em introduzir sistemas de correção de erro. Um destes sistemas é o concebido pelo matemático norte-americano Richard W. Hamming (1915-1998) em 1950, atualmente utilizado na transmissão de pacotes digitais de informação com bits adicionais de controle em cada "palavra" base (byte).
- Anterior
- Próximo >>