A Aldeia Numaboa ancestral ainda está disponível para visitação. É a versão mais antiga da Aldeia que eu não quis simplesmente descartar depois de mais de 10 milhões de pageviews. Como diz a Sirley, nossa cozinheira e filósofa de plantão: "Misericórdia, ai que dó!"

Se você tiver curiosidade, o endereço é numaboa.net.br.

Leia mais...

Laboratórios

O caso das observáveis

Sab

26

Fev

2005


15:12

(7 votos, média 4.71 de 5) 


1. Introdução

Nos últimos textos, apresentamos e discutimos três postulados (estados, evolução e medida) e alertamos que eles não eram tudo o que havia para a física quântica. De fato não são mesmo, e embora tenhamos conseguido mostrar alguns resultados importantes usando só os três, devemos ainda introduzir o postulado das observáveis para completar a descrição da física quântica. É isso que faremos neste artigo.

Basicamente, o postulado das observáveis nos ensina o que pode ser medido num sistema quântico, e como essas grandezas devem ser representadas. Assim sendo, energia, momentum linear (algo bastante semelhante à velocidade), posição etc., são chamadas de observáveis da física quântica. É claro que o postulado não serve apenas pra dar um nome para o que podemos medir, mas o que é mais importante, ele ensina como essas tais observáveis se expressam matematicamente.

Uma observável é um operador (já vimos alguns operadores antes: o operador de evolução temporal, o operador de Hadamard, etc...), e como sabemos, esses podem ser representados por matrizes. A importância desse postulado é ditar que a cara das matrizes que representam observáveis tem que ser de um certo tipo: hermitianas (veremos o que isso significa depois, por enquanto tenha em mente que essa é uma restrição bastante forte; o que dissemos uma vez para matrizes unitárias vale aqui também para as matrizes hermitianas: se você sortear uma matriz de uma urna contendo todas as matrizes, a probabilidade de sair uma hermitiana é muito remota).

Eu vivi uma história interessante com relação a esse postulado quando fomos apresentados. Na época, eu questionava se ele era realmente necessário. Meu plano era mostrar que a hermiticidade das observáveis era um vínculo desnecessariamente forte, portanto poderíamos relaxar um pouco nele e ainda assim ter uma teoria consistente... Bem, se eu estivesse certo, eu certamente seria um sujeito famoso nesse momento, talvez até um prêmio Nobel de física (afinal eu teria balançado as estruturas da física quântica). Como isso não aconteceu, você pode ter certeza que eu estava delirando.

O fato de eu ter deixado a apresentação desse postulado por último foi motivado na idéia de contar esse delírio com todos detalhes, e principalmente como eu finalmente caí na real. É desnecessário dizer que eu não ganhei o Nobel (!), mas pelo menos aprendi bastante sobre a importância desse postulado (é um consolo...).

Contudo, para que essa "emocionante história" possa atingí-lo, preciso antes introduzir mais alguns conceitos matemáticos. Nesse caso eu realmente não sei como evitá-los, mas vou fazer todo o possível para dar alguma intuição a respeito deles, evitando que a coisa toda fique vaga demais.

Finalmente, é bom destacar que a leitura dos textos anteriores é bastante desejável (talvez necessária) para que este artigo faça sentido. Então é isso, vamos às preliminares do "caso das observáveis".

2. Operadores e suas representações

Por algumas vezes dissemos que os operadores da física quântica, como por exemplo a porta lógica de Hadamard (veja o artigo sobre o Algoritmo de Deutsch), podem ser representados através de matrizes. Todavia, na hora de escrever o operador de Hadamard, terminamos apresentando

Image

o que realmente em nada se parece com uma matriz, embora deixe claro qual é o papel da operação de Hadamard sobre os estados |0

Em primeiro lugar, cabe uma rápida discussão para justificar que a representação acima realmente retrata o operador de Hadamard. Alguém poderia desconfiar do fato de que apenas mostramos o que esse operador faz quando aplicado aos estados |0

Uma base é como um sistema de coordenadas utilizado para localizar um ponto do espaço. Na superfície do planeta Terra, por exemplo, é possível localizar qualquer ponto informando apenas dois números: a latitude e a longitude, ou seja, a distância angular do ponto à linha do equador e ao meridiano de Greenwich, respectivamente. Dizemos que essas linhas imaginárias formam uma base. Na física quântica o espaço de Hilbert faz o papel do planeta, e os estados do sistema (os kets) são como os pontos sobre a Terra. Para entender como {|0produto escalar. Portanto, quando dizemos que {|0

Por essa razão, conhecer o papel do operador de Hadamard apenas nos estados da base é suficiente para conhecer o seu papel em qualquer estado; afinal, todo estado pode ser escrito em termos de |0

Para chegar na forma matricial da operação de Hadamard, vamos passar ainda por outras representações. é importante ter em mente que todas elas são equivalentes, e o uso de uma ou de outra é escolhido por mera conveniência ou hábito.

Para começar, escrevemos a representação abaixo que chamamos H1 (H para lembrar que estamos querendo representar Hadamard e 1 para indicar que essa é a nossa primeira forma de representação):

Image

Comparando-se com a equação (1), percebe-se que simplesmente fizemos a soma dos produtos das saídas pelos bras (em vez dos kets) das correspondentes entradas (eis aqui uma situação em que é muito mais fácil entender uma coisa em "matematiquês" do que em português).

Como checar que H1 (equação 2) e Hadamard (equação 1) descrevem a mesma operação? Basta aplicar H1 às entradas de Hadamard, se as saídas forem as mesmas, saberemos que as representações são equivalentes. É exatamente isso que fazemos abaixo:

Somos obrigados a concordar que as saídas de H1 (lado direito das igualdades (3) e (4)) aparentemente nem lembram as saídas de Hadamard (lado direito das setas da equação (1)), mas isso é pura "ilusão de óptica". De fato, para verificar a equivalência precisamos entender o significado dos objetos <0| |0>, <1| |0>, <0| |1> e <1| |1>, mais comumente escritos como <0|0>, <1|0>, <0|1> e <1|1>, e conhecidos como (os já mencionados) produtos escalares.

O resultado de um produto escalar é sempre um número (embora ele seja realizado entre estados), e a magnitude desse número está associada à proximidade (ou semelhança) entre os estados envolvidos. Por exemplo, o produto escalar entre os estados |0<0|1>, e a magnitude do resultado diz quanto um estado se parece com o outro. Nesse caso, em particular, vimos que |0<0|1> = 0 (essa é uma forma bastante questionável de se realizar um produto escalar, mas por enquanto ela serve bem, então ficamos com ela).

Pelos mesmos argumentos, é imediato perceber que <1|0> = 0 (se a cara não se parece em nada com a coroa, a coroa também não tem nada a ver com a cara!). Quando perguntamos o quanto a cara parece com a cara, e o quanto a coroa parece com a coroa, naturalmente respondemos que elas são "absolutamente iguais". Tomados alguns cuidados com a normalização dos estados, ser "absolutamente igual" significa ter produto escalar 1 (pense nisso como 100% parecidos), portanto <0|0> = 1 e <1|1> = 1.

Com isso, podemos imediatamente re-escrever as últimas equações como

Image

ficando explícita a equivalência entre H1 e Hadamard.

Agora que sabemos que está tudo certo com a forma da equação (2) para a representação de Hadamard, vamos tentar melhorá-la um pouco usando a propriedade distributiva da multiplicação (isto é, eliminando os parênteses):

Image

Vamos guardar essa forma mais compacta como sendo a representação denominada H1. Esse é o momento para sugerir uma nova representação para Hadamard (ou para H1). Considere H2 como a nossa segunda tentativa

Image

Finalmente começamos a ver matrizes aparecerem por aqui, mas como acreditar que H2 é também uma representação equivalente à de Hadamard? Uma vez que vimos que H1 é equivalente a Hadamard, basta mostrarmos que H2 é equivalente a H1.

A equivalência entre H2 e H1 é obtida efetuando-se os produtos matriciais, o que fazemos passo a passo, primeiro multiplicando a segunda matriz pela terceira, e depois a primeira pelo resultado do produto anterior (poderíamos também ter multiplicado a primeira matriz pela segunda e depois o resultado pela terceira – o produto de matrizes é associativo!).

Image

Salta aos olhos que o resultado é o próprio H1, portanto a forma matricial da equação (8) é também equivalente a Hadamard!

Talvez você esteja desapontado porque o operador não é representado por uma matriz, como havíamos prometido, mas sim um produto de três matrizes! O que acontece é que, se concordarmos previamente qual é a base que estamos usando para representar o operador (sim, há várias bases possíveis), não é necessário escrever as matrizes de 1 fila. Isso é o que se faz normalmente. Dizemos que o operador H3 abaixo está escrito na base {|0

Image

Essa única matriz, juntamente com um pequeno texto do tipo "a base é {|0

Suponha que exista uma outra base {|a

Image

onde i é a constante imaginária Image. Uma representação do tipo H1 para o operador de Hadamard na base {|a

Image

onde usamos o símbolo ' para denotar que esse nosso tipo de representação está sendo feito na base {|ai).

Mantendo em mente que agora a base que estamos usando para representar o operador é {|a

Image

um resultado que não lembra em nada a matriz da equação (9), mas que representa o mesmo operador: Hadamard.

Tudo isso é importante para mostrar que um mesmo operador tem várias apresentações, como um remédio que você pode comprar em cápsulas, comprimidos, supositórios, injetável, etc... mas seja lá qual for a forma de sua preferência, o fabricante garante que, se corretamente usado, os resultados devem sempre ser os mesmos.

Na física quântica as apresentações também devem ser corretamente usadas, ou seja, quando você opta por uma delas deve ter em mente as implicações da sua opção. Por exemplo, se você usar a representação de 1 matriz, deve lembrar que nessa representação a expressão explícita da base foi arrancada para "aliviar a notação", por isso, para que essa representação tenha significado, é necessário deixar bem claro no texto qual foi a base que você atropelou.

Concluindo, quando falamos em um operador, estamos nos referindo a um objeto abstrato quanto a forma, mas de significado muito bem determinado. Quando falamos em matrizes (ou outras representações de um operador), trazemos aquele conceito puro para um terreno concreto (algo que você pode usar para fazer contas), pagando o preço de ter que introduzir uma base. Independente da sua escolha de tipo de representação, a base em que o operador está sendo representado tem sempre que aparecer. Isso acontece naturalmente em representações como as das equações (1), (7) e (8). Mas para a representação da equação (9), é necessário indicar a base no texto.


3. Autovalores e Autovetores

Quem já dedicou algum tempo da vida ao estudo das matrizes deve se lembrar que operar com elas pode ser uma tarefa bastante tediosa, principalmente quando é necessário efetuar multiplicações. Porém, quando a matriz só apresenta 0’s fora da diagonal principal (as chamadas matrizes diagonais), a multiplicação e muitas outras operações (e.g. exponenciação) tornam-se triviais. O exemplo abaixo serve como ilustração desse fato.

Para realizar a multiplição

Image

eu precisei de lápis, papel e aproximadamente 30 s de concentração. Já a multiplicação

Image

eu fiz mentalmente, e todo o tempo que eu precisei foi o de lembrar que 1×5 = 5 e 4×8 = 32 (algo que levou muito menos que 30 s).

Você pode perceber que no caso da multiplicação de matrizes diagonais tudo se passa como se bastasse multiplicar os termos das posições correspondentes de cada matriz, sendo a solução a matriz com os produtos de cada multiplicação. Já no caso da "matriz cheia", essa "regra" visivelmente não se aplica (você pode facilmente verificar isso).

Na verdade, existe uma regra universal para multiplicar matrizes (independente das matrizes envolvidas serem diagonais ou não). O fato de eu ter muito melhor performance em aplicar essa regra ao caso de matrizes diagonais é um reflexo de que, para esse tipo de matriz, a regra universal se reduz ao caso da "multiplicação termo a termo". Como eu já sabia disso, eu simplesmente "multipliquei termo a termo" no segundo caso, ganhando tempo e economizando papel.

Mas o que isso tudo tem a ver com física quântica? Bem, acabamos de ver que os operadores podem ser representados por matrizes, logo é mais do que natural supor que isso implique em várias operações matriciais, como multiplicação, exponenciação, etc...

Além de termos visto o aparecimento das matrizes representando um operador na seção anterior, vimos também que um mesmo operador pode ser representado por matrizes diferentes se usarmos bases diferentes. Juntando isso com o que acabamos de descobrir sobre as matrizes diagonais, seria esperto procurar uma base em que um certo operador ficasse representado por uma matriz diagonal! Isso facilitaria sobremaneira nossas contas (e como veremos mais adiante, a importância dessa base vai muito além de meramente simplificar os cálculos – embora essa seja sempre uma boa motivação).

De fato, buscar uma base como essa é uma excelente idéia, e de tão boa que é os kets que a constituem recebem até um nome especial: auto-estados ou autovetores, enquanto que os números na diagonal da matriz diagonal recebem o nome de autovalores.

O procedimento para se descobrir essa base especial é conhecido como diagonalização (razões óbvias), sendo muito bem estabelecido pela álgebra linear. Não é nosso propósito ensinar a diagonalizar, mas apenas para deixar as coisas mais palpáveis, vamos escrever o operador de Hadamard na base em que sua representação matricial é diagonal (essa proposta de trabalho é normalmente resumida a "vamos diagonalizar Hadamard").

Denotando essa base especial por {|h1

Image

onde Image

Substituindo esses kets (e os bras correspondentes) na eq. (7), várias simplificações ocorrem para levar ao resultado

Image

Note que os termos |h1

Image

Ou, de forma ainda mais compacta, podemos dizer que o operador de Hadamard na base {|h1

Image

Toda vez que virmos um operador representado por uma matriz diagonal, podemos imediatamente concluir que a base em que ele está escrito é a base de seus autovetores; além disso, os números que aparecem na diagonal são os autovalores daquele operador. No nosso exemplo, vemos que o operador de Hadamard tem autovalores -1 e 1.

Cada autovalor se relaciona a um autovetor em particular. A representação da equação (14) é talvez a mais informativa sobre essa correspondência entre autovalores e autovetores. Olhando para ela, é fácil intuir que o autovetor |h1

É importante salientar que autovalores e autovetores de um certo operador são sempre os mesmos, independentemente da representação adotada. Isso significa que essas são grandezas características somente do operador, e elas caracterizam-no completamente. Assim sendo, você pode afirmar que o operador de Hadamard (na sua forma mais pura e abastrata) tem autovetores |h1

Embora ainda haja muito a ser dito sobre tudo o que foi mencionado aqui, já temos quase todos os elementos necessários para entender a minha história com o postulado das observáveis, vamos a ela!


4. Eu X Observáveis

Vamos começar essa narrativa enunciando o postulado das observáveis:

Postulado 4: Observável

Uma observável é uma propriedade de um sistema físico que pode, em princípio, ser medida. Na física quântica as observáveis são operadores hermitianos.

O primeiro aspecto que salta aos olhos é a presença do postulado da medida dentro do postulado da observáavel. Se você não percebeu que ele está lá, leia novamente e note que a definição de o que é uma observável está intimamente relacionada com o que esperamos obter como resultado de uma medida. Por causa dessa relação, vamos recordar o postulado da medida, porém agora usando a linguagem mais elaborada que acaba de lhe ser apresentada:

Postulado 3: Medida (revisitado)

Quando uma certa observável de um sistema físico é medida, o resultado é sempre um de seus autovalores (não é possível prever qual autovalor resultará, o melhor que podemos fazer é calcular as probabilidades de obter um determinado autovalor). O estado do sistema é instantaneamente colapsado para o autovetor correspondente ao autovalor selecionado pelo processo de medida.

O que o postulado da medida nos diz então (e agora nós conseguimos contemplá-lo de forma mais precisa), é que os autovalores e os autovetores não são apenas uma ferramenta de simplificar as contas com matrizes na física quântica. Sua importância transcende tudo isso, pois de alguma forma misteriosa, a natureza sempre decide por tomá-los como resultados do processo de medida.

Infelizmente não podíamos enunciar essa forma do postulado da medida desde o princípio. Há alguns textos atrás soaria desnecessariamente confuso introduzir o jargão dos autovalores e autovetores. Agora, a expectativa é justamente a oposta. Essa nova versão do postulado da medida deve soar como música para os seus ouvidos, pois além de termos nomes próprios para as entidades que interessam ao processo de medida, sabemos exatamente o que esses nomes significam num contexto independente da física quântica.

Assim como o postulado das observáveis fala de medida, o postulado de medida fala de observáveis, e talvez esse último diga mais sobre elas do que o primeiro. Vamos analisar qual a informação subjacente no postulado da medida sobre a natureza de uma observável.

Em primeiro lugar, se os resultados das medidas são os autovalores das observáveis, nós devemos exigir que elas tenham autovalores reais. Essa exigência matemática nos assegura que ninguém vai medir, por exemplo, uma energia de (5+3i)kWh para um qubit (e assim os físicos podem dormir em paz, sem ter pesadelos com os significado de "energias imaginárias"; por outro lado, muitos místicos adorariam sonhar com energias assim...).

Além disso, porque o estado do sistema colapsa sempre para o autovetor associado ao autovalor resultante da medida, seria perfeito se a observável pudesse ser diagonalizada, dando origem a algo da forma

Image

onde |v1

Se assim fosse, quando o ponteiro do medidor indicasse o resultado λ1, teríamos certeza de que o estado do sistema passou a ser |v1

Nem todos os operadores tem autovalores reais, e nem todos os operadores são diagonalizáveis! Por exemplo, o operador

Image

tem autovalores λ1 = i - 1 e λ2 = i + 2 e autovetores |v1

Image

visivelmente os autovalores são complexos, e o operador reescrito na base de seus autovetores leva a:

Image

Ainda que o aparato soubesse medir algo complexo (e nós soubéssemos interpretar o significado disso), como poderíamos saber pra qual estado o sistema colapsou? Esse operador não fica diagonal mesmo quando colocado na base dos autovetores. Operadores como esse não podem ser observáveis.

Quando tomamos um operador hermitiano, coisas como essas nunca acontecem. Isso porque é possível mostrar que todos operadores hermitianos têm autovalores reais e são diagonalizáveis, ou seja, eles são perfeitos para os propósitos das medidas. É por essa razão que o postulado da observável seleciona matrizes hermitianas para representá-las, pois assim as medidas podem ser realizadas consistentemente.

Contra esses fatos não há argumentos. Realmente os operadores hermitianos atendem a todas as exigências para que as medidas sejam bem sucedidas, mas isso não garante que só eles tenham essas características. De fato, era essa exclusividade ditada pelo postulado das observáveis ("só os operadores hermitianos podem ser observáveis") que me incomodava. Por isso eu me determinei a encontrar outros operadores, além dos hermitianos, que atendessem às expectativas do postulado da medida.

Eu sabia que qualquer matriz hermitiana de 2 dimensões pode ser escrita na forma

Image

onde a, b, c e d são números reais quaisquer. Uma matriz hermitiana só pode ter números complexos fora da diagonal, e mesmo assim os termos simétricos devem ser complexos conjugados entre si (b+ic e b-ic são complexos conjugados porque são iguais a menos do sinal da parte imaginária). Mais abstratamente, um operador A é hermitiano se, e somente se, ele é igual a seu operador adjunto, ou seja

lembrando que para obter a representação matricial do operador adjunto A† basta transpor a representação matricial de A e complexo-conjugar todos os seus elementos (isto é, trocar o sinal de i, caso haja algum i). É fácil notar que a forma geral da equação (17) satisfaz a essa igualdade, enquanto que o operador O de nosso exemplo não satisfaz.

Olhando para algumas matrizes, eu comecei a perceber que elas não precisavam ter a forma da equação (17) para ter autovalores reais, por exemplo, a matriz

Image

não tem a forma da equação (17): os termos fora da diagonal não são complexo conjugados, portanto esta matriz não é hermitiana, contudo ela tem autovalores Image, que são evidentemente números reais.

Mas só isso não é suficiente, para que uma matriz mereça o status de "potencial representação de uma observável" precisamos também da diagonalização. E não foi sem grande entusiasmo que, após algumas tentativas, eu também comecei a encontrar matrizes não hermitianas diagonalizáveis! Por exemplo, digamos que a matriz não hermitiana a seguir seja a representação de um certo operador na base {|0

Image

Escrita na base dos autovetores, ela tomaria a forma

Image

que é obviamente diagonal.

Frente a esses achados, eu criei meu projeto particular de pesquisa, baseado em 3 etapas

  • 1. Encontrar o conjunto de todas as matrizes não-hermitianas diagonalizáveis;
  • 2. Eliminar desse conjunto as matrizes que tivessem autovalores complexos (assim restariam apenas as matrizes não-hermitianas de autovalores reais e diagonalizáveis);
  • 3. Ir para Estocolmo receber o prêmio Nobel de Física pela minha inestimável contribuição aos fundamentos da teoria quântica.

As duas primeiras etapas não pareciam nada impossíveis, e na verdade eu pude concluí-las rapidamente... Infelizmente o resultado que eu vislumbrei quando terminei a segunda me impediu de começar a terceira.

No que se segue eu mostro exatamente o que foi que eu fiz na primeira e segunda etapa, assim, quando você terminar de seguir meu raciocínio, você entenderá porque eu não fui para a Suécia.


Primeira Etapa

Na verdade, nessa primeira etapa, eu não precisei fazer muita coisa além de lembrar de alguns resultados matemáticos conhecidos. O primeiro deles é o importantíssimo teorema da decomposição espectral, TDE (não deixe que o nome te assuste, o teorema em si é muito simples).

Esse teorema era perfeito pra mim porque ele diz exatamente quais são os tipos de operadores que são diagonalizáveis. Segundo o TDE, qualquer operador Q que satisfaça a igualdade

Q† Q = Q Q†

pode ser diagonalizado, e não existe nenhum operador que não satisfaça essa igualdade e mesmo assim possa ser diagonalizado.

Lembre-se que o produto de matrizes geralmente não é comutativo, portanto a igualdade acima não é sempre satisfeita (como olhos acostumados a lidar com números podem levá-lo a acreditar). De fato, as matrizes que satisfazem a igualdade anterior são chamadas de matrizes normais – um péssimo nome, pois não é normal uma matriz ser normal.

Teoremas como esse são jóias da matemática, pois em uma só sentença eles dão as condições necessárias e suficientes para que uma certa propriedade seja obedecida. É fácil perceber que se o operador é hermitiano (Q = Q†), a igualdade acima é trivialmente satisfeita, mas eu não estava interessado nesse caso, e o teorema confirmava que, embora todo o operador hermitiano fosse diagonalizável, nem todo operador diagonalizável tinha que ser hermitiano.

Além disso, eu sabia que sempre existe uma forma de escrever um operador qualquer em termos de operadores hermitianos. Esse é um resultado muito útil, porque os matemáticos sabem muitas propriedades sobre os operadores hermitianos, e assim, de uma certa forma, essas propriedades podem ser estendidas a operadores não hermitianos. Esse segundo importante resultado se expressa assim:

Seja T um operador qualquer (não necessarimante hermitiano), a igualdade

T = R + iS

é sempre possível para algum R e S hermitianos (R = R† e S = S†).

É claro que se S = 0, implica que T = R, e como R é hermitiano, T também o será. Portanto, a importância desse resultado para o meu problema é a de formalizar a condição de que os operadores selecionados não sejam hermitianos, isto é, eles têm que ser escritos na forma T = R + iS com Image, necessariamente.

Em termos matemáticos, o TDE e esse resultado resumem a minha "primeira etapa" à seguinte tarefa:

Problema: Encontrar o conjunto dos operadores T que podem ser escritos como R + iS, com Image e que satisfa¸cam a igualdade T †T = T T †.

Quando o problema fica assim escrito torna-se fácil resolvê-lo. De fato, a seguinte solução pode ser encontrada sem maiores dificuldades:

Solução: O conjunto procurado é constituído por todos operadores T que podem ser escritos como R + iS, com Image e [R, S] = 0.

O símbolo [R, S] é lido como o "comutador entre R e S". Como dissemos, as matrizes normalmente não comutam na multiplicação, e esse fato motiva a invenção dessa grandeza para quantificar essa "falta de comutatividade", ou seja, [R, S] = RS - SR. Se você pretende continuar lendo textos sobre física quântica, é bom memorizar desde já o que é um comutador, eles estão sempre aparecendo por aí.

No caso da solução acima, temos que [R, S] = 0, o que significa que as matrizes que representam os operadores R e S devem comutar, ou seja, tanto faz multiplicar a primeira pela segunda ou a segunda pela primeira que o resultado tem que ser o mesmo (se RS - SR = 0, então RS = SR ). Essa condição segue como consequência do TDE aplicado ao nosso problema, e não é nada além da restrição T †T = T T † na linguagem dos operadores R e S. Considerando bem sucedida a realização da primeira etapa, parti confiante para a segunda.

Segunda Etapa

Agora, só o que eu precisava era uma forma de extrair alguma informação sobre os autovalores do conjunto de operadores T que eu acabara de gerar. Se eu conseguisse inferir algo sobre eles, eu provavelmente poderia ter algum critério que me permitisse jogar fora os operadores T com autovalores complexos e manter apenas os que tivessem autovalores reais.

Nesse momento eu lembrei de um outro resultado maravilhoso sobre os autovetores de operadores que comutam (como R e S). O fato é que se dois operadores comutam, nós podemos afirmar que os autovetores de um deles também são autovetores do outro (é claro que com autovalores diferentes, pois se os autovalores e os autovetores fossem os mesmos, os dois operadores seriam os mesmos).

Mais uma vez eu tinha nas mãos um resultado que vinha totalmente a calhar ("os deuses estão a meu favor", eu pensava...). Como R e S tinham que comutar, eu sabia que os autovetores de um eram também autovetores do outro, além disso, como R e S eram hermitianos (por construção), eu sabia que eles podiam ser diagonalizados e que seus autovalores eram reais. Imediatamente eu os representei como

Image

com r1, r2, · · · (autovalores de R) e s1, s2, · · · (autovalores de S) todos reais!

Note que as representações de cada operador acima são diagonais; mais do que isso, os dois operadores são diagonais na mesma base. As "· · ·" indicam que, de forma geral, podemos estender essa representação a tantos termos quantas forem as dimensões dos operadores com que estamos trabalhando. Para evitar mais novidade (acho que já tivemos bastante para um texto só), vamos assumir que nossos operadores são sempre representados por matrizes 2 × 2 (2 linhas por 2 colunas). Nesse caso, cada operador só tem dois autovalores (r1 e r2 para R; s1 e s2 para S) e dois autovetores (|v1

Essas representações para R e S me asseguravam que os operadores comutavam entre si (afinal, ela foi construída baseada nesse fato), e além disso ela possibilitava introduzir os autovalores explicitamente na jogada. Para concluir a boa maré, eu sabia como relacionar os autovalores de R e S com os autovalores de T , e eles eram simplesmente r1 + is1 e r2 + is2 (algo que eu podia extrair da relação T = R + iS).

Pois então eu tinha tudo que precisava para cumprir o meu propósito de eliminar os operadores T com autovalores complexos. Bastava impor que s1 = s2 = 0, assim os autovalores de T seriam sempre reais, porque r1 e r2 são sempre reais... Foi quando eu cheguei a essa conclusão que o meu mundo ruiu.

Tomando s1 = s2 = 0, fica claro pela equação (19) que S = 0. Mas na primeira etapa eu tinha concluído que se S fosse zero, o operador T seria hermitiano, e isso eu não queria. Em outras palavras, para ser coerente com a primeira etapa, ao eliminar os operadores de autovalor complexo, eu estava eliminando todos os operadores do conjunto, pois nele só existiam operadores com s1 ou s2 não nulos simultaneamente. Com isso cheguei ao triste resultado de que não existe nenhum operador diagonalizável de autovalores reais além dos hermitianos, eis a razão de eu não ter conhecido a Suécia (e nem a cor dos 1 milhão de dólares do prêmio Nobel).

Concluindo, existem vários operadores não hermitianos que podem ser diagonalizados, assim como existem vários operadores não hermitianos que tem autovalores reais, o problema é que quando você exige que eles tenham as duas coisas juntas, não sobra ninguém! Ou melhor, sobram os hermitianos, se você não teve preconceito contra eles e tentou excluí-los de antemão.

Foi assim que eu perdi meu preconceito contra os operadores hermitianos e reconheci que eles realmente mereciam representar, sozinhos, as observáveis. Esse foi um dos meus primeiros "revolucionários projetos de pesquisa" que resultaram numa comédia científica. Eu espero que esse meu delírio sirva pelo menos para mostrar como pode ser divertido tentar fazer ciência! (e acima de tudo, como é difícil ganhar o prêmio Nobel!)

Download do artigo

Este artigo encontra-se à disposição para download no formato PDF (129 Kb).

Вадим Логофет Москвакисти для макияжа bobbi brownалександр лобановский супермаркет класссистема управленияленово йогаvsemsmartполигон отзывы

Informações adicionais