Acessibilidade / Reportar erro

Teoria de Grupos e o Papel das Simetrias em Física

Group theory and the role of symmetries in physics

Resumos

Este artigo tem como objetivo principal apresentar, de maneira sucinta e intuitiva, aspectos fundamentais da teoria de grupos, estabelecendo sua relação com a ideia de simetria, traçando um paralelo com o desenvolvimento da mecânica quântica e da física de partículas. Buscamos abordar este tema, que é frequentemente negligenciado em cursos de graduação, partindo sempre do conceito de invariância de uma dada quantidade física de interesse para, só então, introduzir a ideia de grupo de simetria.

Palavras-chave
Teoria de grupos; invariância; física de partículas


This paper sets out to present, in a brief and intuitive way, fundamental aspects of group theory, establishing its relation with the idea of symmetry, drawing a parallel with the development of quantum mechanics and particle physics. We try to approach this topic, which is frequently neglected in undergraduate courses, always starting from the concept of invariance of a given quantity of interest to, only after that, introduce the idea of a symmetry group.

Keywords
Group theory; invariance and symmetry; particle physics


1. Introdução

No início do Século XX, a revolução científica promovida pelo desenvolvimento da Mecânica Quântica e da Teoria da Relatividade permitiu que déssemos mais um passo na busca pela resposta à seguinte pergunta: de quê são feitas as coisas? A Mecânica Quântica restringiu o domínio de validade da Física Newtoniana para corpos macroscópicos, enquanto que a Teoria da Relatividade Restrita impôs à Mecânica Clássica o domínio de baixas velocidades. Na tentativa de compreender o elétron e a sua estrutura interna caracterizada pelo spin, Dirac propõe uma teoria quântica relativística para o elétron [11. P.A.M. Dirac, Proc. Roy. Soc. Lond. A 117, 610 (1928).].

Até o ano de 1931 acreditava-se que o universo fosse constituído por apenas três partículas, a saber, o próton, o elétron e o fóton. O elétron foi descoberto por J.J. Thomson em 1897 ao realizar experimentos com raios catódicos [22. J.J. Thomson, Phil. Mag. 44, 269 (1897).]. O próton, cujas primeiras evidências foram vistas por Eugene Goldstein em seus experimentos com raios canais [33. D. Griffiths, Introduction of Elementary Particles (Wiley-vch, Oregon, 2012), 2a ed.], foi efetivamente descoberto enquanto partícula por Ernest Rutherford em seu famoso experimento do espalhamento de partículas α (átomos de hélio ionizados) em uma fina folha de ouro [44. E. Rutherford, Lond. Edinb. Dubl. Phil. Mag. 37, 222 (1919).]. Já o fóton, que teve suas primeiras evidências detectadas em 1900, foi tema de intenso debate [55. A. Einstein, Annalen der Physik 17, 6 (1905).]. Devido à ausência de massa, a comunidade científica da época permaneceu relutante por muito tempo em relação à atribuição do caráter de partícula ao fóton. Somente após os experimentos de Compton em 1923 foi que o fóton recebeu o status de partícula [66. A. Compton, Phys. Rev. 21, 5 (1923).].

Em 1930, o seminal trabalho intitulado The Proton [77. P.A.M. Dirac, Proc. Roy. Soc. Lond. A 126, 360 (1930).] é publicado por Dirac. Neste trabalho, Dirac discutia acerca da possibilidade de o próton ser a antipartícula do elétron, só que em estado excitado, uma vez que a massa do próton é cerca de 1800 vezes a massa do elétron. No ano seguinte, influenciado por Hermann Weyl [88. H. Weyl, The theory of groups and quantum mechanics (Dover, New York, 1950).] e suas ideias sobre teoria de grupos, Dirac descarta a possibilidade de o próton ser a antipartícula do elétron e publica um trabalho que discorre acerca da possível antipartícula do elétron, da quantização da carga elétrica e dos monopólos magnéticos [99. P.A.M. Dirac, Proc. Roy. Soc. Lond. A 133, 60 (1931).].

No ano de 1932, a descoberta da antipartícula do elétron (o pósitron), um gêmeo positivamente carregado do elétron, com todos os atributos que Dirac havia previsto, consolida a teoria relativística do elétron e marca uma nova era na física de partículas [1010. C.D. Anderson, Phys. Rev. 43, 6 (1933).]. Apesar da influência de certa forma indireta da teoria de grupos no desenvolvimento da teoria relativística do elétron, a busca por simetrias na natureza levou, naturalmente, a comunidade científica da época a olhar mais atentamente para as estruturas de grupos, uma vez que estas estabelecem uma generalização natural da ideia de simetria.

Após o ano de 1932, uma série de novas partículas e propriedades foi sendo descobertas. A descrição matemática natural de tais partículas e propriedades, sempre visando a ideia de unificação e simetria, foi através da teoria de grupos. O “caminho do octeto”, proposto por Gell-Mann em 1961, arranja mésons (partículas compostas por dois quarks) e bárions (partículas compostas por três quarks) em padrões geométricos regulares, organizando e classificando a física de partículas [1111. M. Gell-Mann, Phys. Rev. 125, 3 (1962).]. O trabalho de Gell-Mann foi realizado com base nos resultados fenomenológicos e experimentais que se tinha. Fundamentado matematicamente em teoria de grupos, mais especificamente no grupo SU(3), o trabalho de Gell-Mann marca praticamente o início da teoria de grupos como ferramenta base no estudo da física de partículas. Desde então, a teoria de grupos vem sendo cada vez mais utilizada na descrição, fundamentação e previsão de física nova, tendo se tornado um atributo essencial na descrição coerente de sistemas físicos, em especial em física de altas energias.

O conceito de grupo formaliza a ideia de simetria, isto quer dizer que, num sentido amplo, a ideia de simetria pode ser entendida através de invariantes por grupos de transformações. Neste trabalho focaremos no estudo dos grupos matriciais contínuos conhecidos como grupos de Lie. De modo geral, um grupo de Lie é a combinação de uma estrutura algébrica de grupo com a estrutura de uma variedade diferenciável. Os grupos que hoje conhecemos como grupos de Lie foram inicialmente estudados por Sophus Lie por volta de 1870, buscando compreender equações diferenciais a partir de seus grupos de simetria [1212. L.S. Martin, Grupos de lie (Unicamp, Campinas, 2017).]. Os métodos para se estudar grupos de Lie estão baseados em suas álgebras associadas, isto é, nas álgebras de Lie. Uma vez munido da álgebra de Lie associada a um grupo de Lie qualquer, é possível obter propriedades globais ou locais do grupo a partir da álgebra. A vantagem de se adotar esta abordagem (que será a abordagem adotada neste trabalho) consiste no fato de que, sendo os grupos objetos tipicamente não lineares, estudar a álgebra de Lie associada torna-se bem mais simples, uma vez que a álgebra é linear, o que permite que sejam utilizados resultados clássicos e poderosos da álgebra linear.

Este trabalho está organizado como se segue. Na seção 2 2. Noção Intuitiva e Grupo SO(2) Suponha que estejamos interessados em encontrar uma transformação que deixe a energia de um sistema, como por exemplo, o oscilador harmônico, inalterada. Podemos descrever a energia de um oscilador harmônico através da seguinte equação: (1) E = p 2 2 ⁢ m + 1 2 ⁢ k ⁢ x 2 . Desta forma, buscar uma transformação que não altere a energia de tal sistema consiste em tentar encontrar uma transformação R que não mude o estado de energia do sistema, isto é, E′ = E. Sabemos ainda que a quantidade p2 é formalmente descrita através do produto escalar entre p→ e p→, isto é, p2=p→⋅p→, bem como x2=x→⋅x→. Aqui o conceito fundamental é a ideia de invariância. Note ainda que uma das formas de efetuar uma transformação a fim de manter E invariante é encontrar uma transformação R que mantenha o produto escalar em si invariante. Buscamos então encontrar uma transformação que atue em vetores de modo a não alterar o produto escalar, isto é, uma transformação R tal que sendo v→′=R⁢v→ tenhamos v→′⋅v→′=v→⋅v→. Para tal vamos relembrar que o produto interno entre dois vetores v→=(v1,v2) e w→=(w1,w2) é definido como (2) v → ⋅ w → = v 1 ⁢ w 1 + v 2 ⁢ w 2 . Aqui consideramos que v→,w→∈ℝ2, muito embora a definição acima seja válida para um espaço euclidiano com dimensão arbitrária. Os dois vetores v→ e w→ acima descritos podem ser expressos matricialmente como (3) V = ( v 1 v 2 ) , W = ( w 1 w 2 ) . Usando a notação matricial, o produto interno entre esses dois vetores pode ser escrito da seguinte maneira (4) V T ⁢ W = ( v 1 ⁢ v 2 ) ⁢ ( w 1 w 2 ) (5) = v 1 ⁢ w 1 + v 2 ⁢ w 2 = v → ⋅ w → . Partindo então da notação matricial, estamos interessados em uma transformação R tal que o produto interno permaneça invariante. Note que, sendo v→ e w→ pertencentes a ℝ2, então a matriz de transformação R deve pertencer ao espaço das matrizes de ordem 2 com entradas reais, que denotaremos por 𝕄 (2, ℝ). Definindo os vetores V′ = RV e W′ = RW, o produto escalar entre V′ e W′ passa a ser escrito como: (6) V ′ ⁣ T ⁢ W ′ = V T ⁢ R T ⁢ R ⁢ W . Vemos então que, para que o produto escalar seja invariante, é necessário que RT R = I, sendo I a matriz identidade de ordem 2. Note que, dessa forma, temos que RT = R−1. Matrizes cujas transpostas são iguais às suas inversas são chamadas de matrizes ortogonais. Vamos então definir o conjunto de todas as matrizes ortogonais de ordem 2 com entradas reais. Tal conjunto é escrito como: (7) O ( 2 ) = { M ∈ 𝕄 ( 2 , ℝ ) ; M T = M - 1 } . Sobre o conjunto O(2) acima descrito podemos ver que I ∈ O(2), uma vez que a I = IT = I−1. Além disso, dadas duas matrizes M1, M2 ∈ O(2), o produto M1M2 ∈ O(2), pois, (8) ( M 1 ⁢ M 2 ) T = M 2 T ⁢ M 1 T = M 2 - 1 ⁢ M 1 - 1 = ( M 1 ⁢ M 2 ) - 1 . Outra propriedade que pode ser notada é que, dada uma matriz M ∈ O(2), a matriz M−1 ∈ O(2). Tal propriedade é consequência do fato de (M−1)T = (MT)−1. E por fim, a última propriedade que pode ser imediatamente verificada é que, dadas três matrizes M1,M2,M3 ∈ O(2), então é valido que: (9) M 1 ⁢ ( M 2 ⁢ M 3 ) = ( M 1 ⁢ M 2 ) ⁢ M 3 . Dizemos então que um dado conjunto não vazio G, munido de uma operação (⋅) é chamado de grupo se são satisfeitas as quatro propriedades acima listadas para o conjunto (que de agora em diante chamaremos de grupo) O(2), isto é: (10a) g 1 ⋅ g 2 ∈ G ⁢ ∀ g 1 , g 2 ∈ G , (10b) g 1 ⋅ ( g 2 ⋅ g 3 ) = ( g 1 ⋅ g 2 ) ⋅ g 3 ⁢ ∀ g 1 , g 2 , g 3 ∈ G , (10c) ∃ e ∈ G ; g ⋅ e = e ⋅ g = g ⁢ ∀ g ∈ G , (10d) ∃ g - 1 ∈ G ; g - 1 ⋅ g = g ⋅ g - 1 = e ⁢ ∀ g ∈ G . Nas equações acima a quantidade e é chamada de elemento neutro do grupo, justamente por possuir a propriedade de que quando multiplicada (aqui entenda multiplicação como uma operação arbitrária a ser definida) por qualquer elemento g do grupo resulta no próprio elemento g. Agora que definimos formalmente a estrutura de um grupo, vamos analisar mais atentamente as matrizes pertencentes ao grupo O(2). Uma característica importante do grupo O(2) (na verdade sendo válida para o grupo O(n), que é uma generalização do grupo O(2) para matrizes com qualquer ordem n) é que as matrizes a ele pertencentes têm determinante det M = ±1. Demonstração: Considerando uma matriz M ∈ O(2), logo (11) 1 = det ( I ^ ) = det ( M − 1 M ) = det ( M T M ) = det ( M T ) det ( M ) = det ( M ) 2 ⇒ det ( M ) = ± 1 , como queríamos demonstrar. Desta forma, fica claro que o grupo O(2) contém duas categorias de subconjuntos, um subconjunto formado por matrizes com det (M) = + 1 e outro por matrizes com det (M) = −1, de modo que definimos, (12) X = { M ∈ O ( 2 ) ; det ( M ) = - 1 } (13) SO ( 2 ) = { M ∈ O ( 2 ) ; det ( M ) = + 1 } . Note que o conjunto X nem mesmo é grupo, uma vez que I∉X. Vamos agora estudar mais detalhadamente o grupo SO(2) ⊂ O(2). Considere uma matriz M ∈ SO(2) arbitrária, (14) M = ( a b c d ) . De acordo com a definição do grupo SO(2), MT = M−1, o que implica em (15) ( a c b d ) = ( d - b - c a ) . Logo, a = d e b = −c. Como det M = 1, obtemos a seguinte relação a2 + b2 = 1 entre os elementos de M. Isto nos diz que (a, b) deve estar no círculo unitário. Agora veja que ∀M ∈ SO(2), temos: (16) M = ( a b - b a ) com a2 + b2 = 1. A condição expressa sobre a e b nos permite tomar a seguinte transformação: (17) a = cos ⁡ θ (18) b = sen ⁢ θ onde θ ∈ (−π, π), logo (19) M = M ⁢ ( θ ) = ( cos ⁡ θ sen ⁢ θ - sen ⁢ θ cos ⁡ θ ) . Figura 1 Círculo unitário. Portanto, (20) SO ( 2 ) = { M ( θ ) = ( cos ⁡ θ sen ⁢ θ - sen ⁢ θ cos ⁡ θ ) ; θ ∈ ( - π , π ) } onde M⁢(0)=I^. Considere agora um vetor v→=(1,0), que pode ser expresso como um vetor coluna V, (21) V = ( 1 0 ) , e uma matriz M(90°) que é escrita como: (22) M = M ⁢ ( 90 ∘ ) = ( 0 1 - 1 0 ) . A ação de M(90°) em V, isto é, o vetor V′ = M(90°)V é dado por: (23) V ′ = ( 0 - 1 ) . Geometricamente, isso pode ser visto na Figura 2. Portanto, a ação de M ∈ SO(2) em um dado vetor promove a rotação deste vetor sobre um ângulo θ. A ação de M ∈ SO(2) também pode ser interpretada como uma rotação passiva do sistema de coordenadas no sentido anti-horário, como pode ser visto na Figura 3. Outra propriedade que pode ser verificada de maneira imediata é que, dados dois ângulos θ1 e θ2, as matrizes de transformação associadas a tais ângulos obedecem a seguinte relação: Figura 2 Ação de M(θ). Figura 3 Rotação. (24) M ⁢ ( θ 1 ) ⁢ M ⁢ ( θ 2 ) = M ⁢ ( θ 1 + θ 2 ) = M ⁢ ( θ 2 + θ 1 ) = M ⁢ ( θ 2 ) ⁢ M ⁢ ( θ 1 ) , o que mostra que o grupo SO(2) é um grupo comutativo (ou abeliano). É importante ressaltar aqui que, como vimos anteriormente, o grupo SO(2) surge como uma consequência da imposição de uma invariância no produto escalar. Estando o produto escalar entre dois vetores relacionados a módulos e ângulos, é natural que a matriz de rotação seja uma possível representação do grupo SO(2) (que é também conhecido como grupo de rotações em duas dimensões), uma vez que rotacionar dois vetores por um mesmo ângulo preserva o produto escalar entre eles. Analogamente ao que foi feito no caso do grupo SO(2), podemos parametrizar os elementos das matrizes R ∈ X em termos de funções trigonométricas, de modo que, (25) R = R ⁢ ( θ ) = ( cos ⁡ θ sen ⁢ θ sen ⁢ θ - cos ⁡ θ ) . Note ainda que a identidade não se encontra no conjunto, explicitando que este não possui a estrutura de grupo. Além do mais, qualquer elemento do grupo pode ainda ser escrito como (26) R ⁢ ( θ ) = ( 1 0 0 - 1 ) ⁢ M ⁢ ( θ ) . Portanto, concluímos que toda matriz R ∈ X pode ser escrita como apresentada na equação anterior, o que representa uma rotação rígida e seguida de uma reflexão. Voltando à análise do grupo SO(2), é sabido que qualquer matriz que possui determinante igual à unidade pode ser escrita como a exponencial [13] de uma matriz que possui traço nulo. De modo que existe Ω ∈ 𝕄 (2, ℝ) tal que (27) M = e Ω sendo Tr(Ω) = 0. Portanto, como M ∈ SO(2), temos que, (28) M T = M - 1 ⇒ Ω T = - Ω . Desta forma, tomando uma matriz arbitrária Ω (29) Ω = ( a b c d ) e impondo a condição acima, obtemos (30) Ω = b ⁢ ε = b ⁢ ( 0 1 - 1 0 ) . A matriz ε, conhecida como matriz simplética, é o que chamamos de gerador do grupo, enquanto que b é chamado de parâmetro do grupo. Note ainda que, se tomarmos b = θ, a matriz M passa a ser escrita como (31) M = e θ ⁢ ε . Veja que ε2 = −I. Agora vamos expandir em série a quantidade eθε (32) e θ ε = ∑ k = 0 ∞ 1 k ! θ k ε k = ∑ l = 0 ∞ 1 ( 2 l ) ! θ 2 l ε 2 l + ∑ l = 0 ∞ 1 ( 2 l + 1 ) ! θ 2 l + 1 ε 2 l + 1 . Na última passagem, separamos a soma em seus termos pares e ímpares. Vamos agora usar as seguintes identidades, (33) ε 2 ⁢ l = ( - 1 ) l ⁢ I (34) ε 2 ⁢ l + 1 = ( - 1 ) l ⁢ ε , portanto, (35) e θ ε = ∑ l = 0 ∞ 1 ( 2 l ) ! θ 2 l ( − 1 ) l I + ∑ l = 0 ∞ 1 ( 2 l + 1 ) ! θ 2 l + 1 ( − 1 ) l ε = cos θ I + sin θ ε = ( cos θ sen θ − sen θ cos θ ) = M ( 0 ) Vemos assim que todo elemento do grupo pode ser escrito como a exponenciação de seus geradores. O grupo SO(2) é um grupo de dimensão 1, uma vez que o grupo é inteiramente determinado pela matriz simplética. A ideia por trás do conceito de geradores de um grupo está na capacidade de expressar todos os elementos de um dado grupo através da exponenciação seus geradores. O leitor pode ainda perceber que a matriz simplética é a representação matricial do tensor Levi-Civita (εij,i, j = {1, 2}) de ordem 2. O tensor de Levi-Civita é tal que εij = 0 se i=j, ε12 = + 1 e ε21 = −1. Quando o elemento geral de um grupo depende apenas de um parâmetro (θ, no caso do grupo SO(2)), dizemos que tal grupo é um grupo uniparamétrico. Para tais grupos, o gerador pode ser calculado através da seguinte relação: (36) ε = d ⁢ M ⁢ ( θ ) d ⁢ θ | θ = 0 . Os conceitos desenvolvidos durante esta seção serão utilizados para o desenvolvimento das seções que se seguem. abordamos de maneira intuitiva a ideia de grupo, partindo do conceito de invariância, e usando como base o grupo SO(2). Encontramos os geradores do grupo e sua álgebra, conceitos que serão trabalhados em todas as seções subsequentes, e descrevemos a relação entre o grupo SO(2) e as rotações no plano. Na seção 3 3. Grupo U(1) e a Eletrodinâmica Até este ponto ficou claro que dado um vetor v→∈ℝ2, que pode ser escrito em forma de vetor como v→=(x,y) ou em forma de matriz (37) V = ( x y ) , escrito em um sistema de coordenadas S, pode ser relacionado a um vetor v→′∈ℝ2 de coordenadas v→′=(x′,y′) em um sistema de coordenadas S′ que foi passivamente rotacionado em relação ao sistema S de um ângulo θ, como na Figura 3. A relação entre tais vetores é tal que (38) ( x ′ y ′ ) = R ⁢ ( θ ) ⁢ ( x y ) , sendo R(θ) uma matriz pertencente ao grupo SO(2), portanto: (39) ( x ′ y ′ ) = ( cos ⁡ θ ⁢ sen ⁢ θ - sen ⁢ θ ⁢ cos ⁡ θ ) ⁢ ( x y ) . Agora considere z ∈ ℂ escrito como z = x + iy e uma matriz W escrita como: (40) W = ( z z * ) . Qual grupo está por trás da conexão entre W e W′? (41) ( x ′ y ′ ) ⁢ ⟶ M ⁢ ( θ ) ⁢ ( x y ) , (42) ( z ′ z ′ ⁣ * ) ⁢ ⟶ ? ⁢ ( z z * ) . Para tal investigação lembremos inicialmente que em ℝ2, a conexão é tal que V′ = M(θ)V, o que nos dá que (43) x ′ = cos ⁡ θ ⁢ x - sen ⁢ θ ⁢ y (44) y ′ = sen ⁢ θ ⁢ x + cos ⁡ θ ⁢ y . A partir da definição de z como um número complexo da forma z = x + iy, podemos escrever x e y como sendo (45) x = z + z * 2 (46) y = z - z * 2 ⁢ i , o que consequentemente nos permite escrever x′ e y′, fazendo uso das equações (43) e (44), em termos de z e z∗ da seguinte forma (47) x ′ = z 2 ⁢ e i ⁢ θ + z * 2 ⁢ e - i ⁢ θ (48) i ⁢ y ′ = z 2 ⁢ e i ⁢ θ - z * 2 ⁢ e - i ⁢ θ . Portanto, escrevendo naturalmente z′ = x′ + iy′ bem como z*′=x′-i⁢y′ chegamos às seguintes leis de transformação (49) z ′ = e i ⁢ θ ⁢ z (50) z * ′ = e - i ⁢ θ ⁢ z * . Note portanto que, diferentemente da lei de transformação entre V e V′, em que as componentes x′ e y′ dependem simultaneamente de x e y, no caso da relação entre W e W′ as componentes desacoplam, isto é, z′ transforma só com z (eq. (49)) e z*′ transforma só com z∗ (eq. 50). Podemos então escrever (51) ( z ′ z * ′ ) = ( e i ⁢ θ ⁢ 0 0 ⁢ e - i ⁢ θ ) ⁢ ( z z * ) . Como as equações desacoplam, podemos usar somente a eq. (49) para explicitar a relação entre z′ e z, que é feita através de uma matriz pertencente à M(ℂ,1), isto é eiθ tal que a sua inversa é igual à sua transposta conjugada. Este conjunto define um grupo conhecido como U(1), explicitamente definido como: (52) U ( 1 ) = { Z ∈ M ( ℂ , 1 ) ; Z - 1 = Z † } . Tal grupo preserva o módulo de z perante transformação, porém não sua fase angular, sendo a relação (49) muitas vezes conhecida como transformação de fase. Vemos assim que, o grupo U(1) possui dimensão 1, possui um único gerador e que os elementos do grupo são matrizes de ordem 1, isto é, um número. Em teoria de grupos dizemos que, quando o número de geradores de um grupo for igual à ordem das matrizes do grupo, estaremos diante de uma representação adjunta ou regular daquele grupo. Discutiremos a importância da representação adjunta dos grupos mais adiante. Um ponto importante que deve ser ressaltado aqui é a íntima relação do grupo U(1) com a eletrodinâmica. Mesmo que o leitor não esteja familiarizado com a ação para férmions relativísticos, o presente exemplo se faz instrutivo. Considere a seguinte ação (53) S = ∫ d 4 ⁢ x ⁢ ψ ¯ ⁢ ( i ⁢ γ μ ⁢ ∂ μ - m ) ⁢ ψ que descreve férmions relativísticos. Sendo γμ com μ = {0, 1, 2, 3} as matrizes de Dirac e m a massa do férmion. A ação acima é invariante perante a seguinte transformação: (54) ψ ⟶ e i ⁢ θ ⁢ ψ . Veja então que a quantidade eiθ ∈ U(1). Se considerarmos uma fase local, o que implica em impor uma dependência em θ, isto é, tomar θ = θ(x), a invariância é perdida, uma vez que, (55) ψ ¯ ′ i γ μ ∂ μ ψ ′ = ψ ¯ i γ μ ∂ μ ψ − ψ ¯ γ μ ( ∂ μ θ ) ψ ≠ ψ ¯ i γ μ ∂ μ ψ . Para recuperar a invariância sob transformações de U(1) com uma fase local é necessário definir uma derivada, conhecida como derivada covariante, da seguinte maneira: (56) D μ = ∂ μ - i ⁢ e ⁢ A μ , e a seguinte lei de transformação para Aμ→Aμ′=Aμ+(1/e)⁢(∂μ⁡θ), sendo Aμ = (A0,Ai) o campo de gauge, com A0 sendo o potencial escalar e Ai as componentes do potencial vetor. Desta forma, identificando a quantidade e com a carga elétrica, o grupo U(1) torna-se o “responsável” pela interação entre os férmions com o campo eletromagnético (representado pelo campo de gauge Aμ). E assim começa a aparecer a estrutura matemática por trás da QED (quantum electrodynamics ), descrita essencialmente pela lagrangiana: (57) ℒ = - 1 4 ⁢ F μ ⁢ ν ⁢ F μ ⁢ ν + ψ ¯ ⁢ ( i ⁢ D μ ⁢ γ μ - m ) ⁢ ψ . com Fμν = ∂μ Aν − ∂ν Aμ. trabalhamos com o grupo U(1), discutindo sua relação com o grupo SO(2) e o eletromagnetismo. Na seção 4 4. Grupo Sp(2) e o Espaço AdS3 Já vimos que o grupo SO(2) mantém invariante o produto interno entre dois vetores quaisquer e que, portanto, preserva comprimentos e ângulos. Considere agora dois vetores no plano v→=(v1,v2) e w→=(w1,w2). O produto vetorial em duas dimensões também pode ser escrito em forma matricial como (58) Z = V T ε W = ( υ 1 υ 2 ) ( 0 1 − 1 0 ) ( w 1 w 2 ) = v 1 w 2 − v 2 w 1 = v → × w → . Veja que a matriz simplética, além de ser o gerador do grupo SO(2), é utilizada também para estabelecer a representação matricial do produto vetorial em duas dimensões. Considere agora uma transformação de SO(2) atuando em dois vetores V e W. De modo que definamos V′ = M(θ)V e W′ = M(θ)W. Desta forma, o produto vetorial entre V′ e W′ passa a ser escrito como: (59) Z ′ = ( V ′ ) T ε W ′ = [ M ( θ ) V ] T ε M ( θ ) W = V T M ( θ ) T ε M ( θ ) W . É fácil ver que M(θ)T εM(θ) = ε e que portanto uma transformação de SO(2) deixa Z invariante, isto é, Z′ = Z. Uma questão natural que surge é a seguinte: o grupo de transformações de SO(2) é o conjunto mais geral de transformações que deixa o produto vetorial invariante? A fim de responder tal questão podemos escrever uma matriz S ∈ M (2, ℝ) arbitrária tal que: (60) S T ⁢ ε ⁢ S = ε . Sendo S definida como: (61) S = ( a b c d ) , a relação (60) nos dá que: (62) ( 0 a ⁢ d - b ⁢ c - a ⁢ d + b ⁢ c 0 ) = ( 0 1 - 1 0 ) . Da relação acima obtemos o seguinte vínculo: (63) a ⁢ d - b ⁢ c = 1 → d ⁢ e ⁢ t ⁢ ( S ) = 1 . Portanto, a transformação mais geral que deixa o produto vetorial invariante requer uma matriz cujo determinante seja igual à unidade. Note então que, (64) SO ⁢ ( 2 ) ⇒ { a = d = cos ⁡ θ b = - c = sen ⁢ θ o grupo SO(2) é um caso particular de uma matriz M que deixa o produto vetorial invariante. Assim, podemos definir um conjunto (65) Sp ( 2 ) = { S ∈ M ( 2 , ℝ ) ; S T ε S = ε } como o conjunto das matrizes S que deixa invariante o produto vetorial. É possível então mostrar que Sp(2) é grupo. Tal grupo é conhecido como grupo simplético em duas dimensões. O vínculo imposto nas matrizes de Sp(2) que implica que seus determinantes sejam iguais à unidade (eq.(63)) estabelece que na matriz de Sp(2) há três parâmetros livres e que, portanto, o grupo Sp(2) tem dimensão igual a três. Assim como no caso do grupo SO(2), ao qual está associado o espaço geométrico do círculo unitário, pode-se perguntar qual a geometria associada ao grupo Sp(2). Note que a relação (63) é uma quádrica, e que portanto pode ser expressa como: (66) a d − b c = 1 2 ( a b c d ) ( 0 0 0 1 0 0 − 1 0 0 − 1 0 0 1 0 0 0 ) ( a b c d ) = 1 2 ( a b c d ) T ( a b c d ) . A matriz T acima é simétrica e possui autovalores τ = ±1, sendo portanto diagonalizável. Desta forma, pelo teorema espectral, existe uma matrix J ortogonal [13] tal que: (67) J T J T = ( 1 0 0 0 0 1 0 0 0 0 − 1 0 1 0 0 − 1 ) . Desta forma podemos inserir dois operadores identidade na forma JT J de modo que a quantidade ad-bc assume a seguinte forma: (68) a ⁢ d - b ⁢ c = a ~ 2 + b ~ 2 - c ~ 2 - d ~ 2 = 1 . Note, portanto, que a equação anterior define um hiperboloide (ver Figura 4). Isso significa dizer que os elementos do grupo Sp(2) vivem sob a superfície de um hiperboloide. Tal geometria é também conhecida como AdS3. Figura 4 Hipersuperfície (d~=0) do hiperboloide em 4 dimensões. O espaço AdS3 (Anti de Sitter em 3-dimensões) é um espaço muito estudado em física, tanto no que diz respeito à física de altas energias, como em física da matéria condensada. Em um trabalho futuro pretendemos discutir com mais detalhes a íntima relação entre as estruturas de grupo dos espaços do tipo de Sitter, anti de Sitter e as dualidades em física de altas energias. Vamos agora discutir os geradores e a álgebra associada ao grupo Sp(2). Como já é sabido que qualquer matriz de determinante igual à unidade pode ser escrita como a exponencial de uma matriz de traço zero, estamos procurando uma matriz Ω tal que (69) M = e Ω . Desta forma, a relação (60) nos dá que (70) ( e Ω ) T ⁢ ε ⁢ e Ω = ε ⇒ e Ω T ⁢ ε ⁢ e Ω = ε . A fim de encontrar Ω, podemos expandir as exponenciais até primeira ordem, de modo que (71) [ 1 + Ω T ] ⁢ ε ⁢ [ 1 + Ω ] = ε . Distributindo e excluindo o termo de segunda ordem, obtemos a seguinte relação (72) ε ⁢ Ω = - Ω T ⁢ ε ⇒ ε ⁢ Ω ⁢ ε = Ω T . O motivo pelo qual consideramos apenas termos de primeira ordem no desenvolvimento acima ficará mais claro adiante. Se definirmos uma matriz Ω arbitrária e usarmos a relação (72) obtemos uma matriz Ω tal que tr(Ω) = 0, como esperado, com três parâmetros livres, o que nos diz que dim[Sp(2)] = 3. De modo geral Ω pode ser escrito da seguinte forma (73) Ω = α ( 1 0 0 − 1 ) + ( 1 0 0 0 ) + γ ( 1 0 0 − 1 ) = α λ 1 + β λ 2 + γ λ 3 . As matrizes λi definem os geradores do grupo Sp(2), cuja álgebra de Lie associada (álgebra sp(2)) é expressa por suas relações de comutação, isto é, dadas duas matrizes A e B, definimos o comutador entre A e B como [A, B] = AB−BA. Portanto, a álgebra sp(2) é expressa por: (74) [ λ 1 , λ 2 ] = 2 ⁢ λ 2 , (75) = - 2 ⁢ λ 3 , (76) = λ 1 . De maneira heurística, pode-se dizer que, para grupos de Lie [12], a seguinte relação é sempre válida: (77) G = e A , sendo G o grupo e A a álgebra associada ao grupo. Note que as matrizes que pertencem ao grupo não obrigatoriamente pertencem à álgebra, por exemplo, a matriz identidade pertence ao grupo Sp(2), mas não à álgebra sp(2), visto que não possui traço nulo. discutimos o grupo Sp(2), detalhando sua álgebra e estabelecendo a conexão com o espaço AdS. Na seção 5 5. Grupo SU(2) e a Mecânica Quântica Na interpretação de Copenhague da mecânica quântica [14] a função de onda ψ⁢(r→,t) tem o papel fundamental de indicar a amplitude de probabilidade de que uma dada partícula encontre-se em uma caixa infinitesimal dV = dxdydz, centrada em r→=(x,y,z), em um dado instante de tempo t. De modo que a densidade de probabilidade é dada por: (78) | ψ ⁢ ( r → , t ) | 2 = ⟨ ψ , ψ ⟩ = ψ * ⁢ ψ . Na notação de Dirac, por exemplo, o estado quântico de um sistema é dado por um vetor que pertence ao espaço dos estados, digamos, |ψ⟩ ∈ 𝔼. Enquanto que a amplitude de probabilidade de que este estado arbitrário |ψ⟩ encontre-se no estado |α⟩ é dada pelo produto interno entre estes dois vetores, contudo, como tais vetores de modo geral estão em ℂn, o produto interno obedece uma forma sesquilinear. Para o presente objetivo vamos considerar dois vetores z = (z1,z2) e w = (w1,w2) em ℂ2. O produto interno entre estes dois vetores é dado por: (79) ⟨ z | w ⟩ = z 1 * ⁢ w 1 + z 2 * ⁢ w 2 . Assim como foi feito anteriormente, podemos expressar este produto interno em forma matricial, bastando, para isso, definir (80) Z = ( z 1 z 2 ) , W = ( w 1 w 2 ) , e assim, é possível notar que (81) Z † ⁢ W = ( z 1 * ⁢ z 2 * ) ⁢ ( w 1 w 2 ) (82) = z 1 * ⁢ w 1 + z 2 * ⁢ w 2 = ⟨ z | w ⟩ . É importante lembrar aqui que Z† = (ZT)*. Portanto, a pergunta imediata que surge é saber se existe uma transformação que deixe o produto interno em ℂ invariante. Assim como no caso do grupo SO(2), a grande importância em encontrar uma transformação tal que mantenha o produto interno em ℂ invariante reside no fato de que desta forma encontraremos transformações que preservarão a probabilidade de um sistema quântico. Analogamente, consideraremos vetores transformados Z′ = QZ e W′ = QW, então (83) Z ′ ⁣ † ⁢ W ′ = Z † ⁢ Q † ⁢ Q ⁢ W = ⟨ Q ⁢ Z | Q ⁢ W ⟩ . Para manter invariância é necessário, desta forma, que Q†Q = I o que implica em Q† = Q−1. Matrizes com a propriedade tal que o transposto conjugado seja igual à inversa são chamadas de matrizes unitárias. É possível mostrar que o conjunto (84) U ( 2 ) = { Q ∈ 𝕄 ( 2 , ℂ ) ; U † = U - 1 } forma um grupo. Tal grupo é conhecido como grupo unitário em duas dimensões. Vamos investigar agora algumas das propriedades básicas de matrizes Q ∈ U(2). Considere uma matriz Q ∈ U(2) arbitrária (85) Q = ( a b c d ) . A condição Q† = Q−1 nos dá o seguinte vínculo entre os elementos da matriz (86) ( a * c * b * d * ) = 1 d ⁢ e ⁢ t ⁢ ( Q ) ⁢ ( d - b - c a ) . Da equação anterior obtemos as seguintes equações (87) { d = d ⁢ e ⁢ t ⁢ ( Q ) ⁢ a * a = d ⁢ e ⁢ t ⁢ ( Q ) ⁢ d * Quando combinamos as equações acima obtemos que |det(Q)| = 1. Portanto, toda e qualquer matriz Q ∈ U(2) possui determinante com módulo igual a unidade. Vamos nos deter ao subconjunto SU(2) ⊂ U(2) das matrizes que possuem det(Q) = 1, isto é, (88) SU ( 2 ) = { Q ∈ U ( 2 ) ; d e t ( Q ) = 1 } . Impondo a condição de SU(2) na matriz Q vemos que a forma geral de uma matriz de SU(2) é (89) Q = ( a b - b * a * ) , de modo que a condição det(Q) = 1 implica em |a|2 + |b|2 = 1. Buscando agora investigar em qual espaço geométrico os elementos do grupo SU(2) vivem, é conveniente escrever a matriz Q em termos de suas componentes reais, de modo que (90) Q = ( α + i ⁢ β γ + i ⁢ δ - γ + i ⁢ δ α - i ⁢ β ) e assim, a condição imposta pelo determinante nos diz que (91) α 2 + β 2 + γ 2 + δ 2 = 1 , determinando assim uma esfera S3. Veja que a matriz (90) pode ser expandida em uma base, da seguinte maneira Figura 5 Hipersuperfície (δ = 0) da esfera em 4 dimensões. (92) ( α + i ⁢ β ⁢ γ + i ⁢ δ - γ + i ⁢ δ ⁢ α - i ⁢ β ) = α ⁢ ( 10 01 ) + β ⁢ ( i ⁢ 0 0 - i ) + γ ⁢ ( 01 - 10 ) + δ ⁢ ( 0 ⁢ i i ⁢ 0 ) (93) = α ⁢ I + i ⁢ δ ⁢ σ 1 + i ⁢ γ ⁢ σ 2 + i ⁢ β ⁢ σ 3 . sendo as matrizes σ1, σ2 e σ3 chamadas de matrizes de Pauli e definidas como (94) σ 1 = ( 0 1 1 0 ) (95) σ 2 = ( 0 - i i 0 ) (96) σ 3 = ( 1 0 0 - 1 ) . Portanto, o conjunto composto pela matriz identidade e pelas matrizes {iσ1,iσ2,iσ3} formam uma base para o grupo SU(2). Além disso, o conjunto formado pelas matrizes {iσ1,iσ2,iσ3} define o sistema numérico conhecido como números quaterniônicos (representados pela letra ℍ), que é uma extensão dos números complexos. Maiores detalhes sobre os quatérnions podem ser vistos em [15]. A fim de encontrar os geradores do grupo SU(2), a matriz Ω cuja exponenciação dará origem aos elementos do grupo SU(2) deverá ser tal que (97) ( e Ω ) † = ( e Ω ) - 1 ⇒ Ω † = - Ω . Como uma consequência da imposição acima e do fato de que a matriz Ω possui traço nulo, esta passa a ser escrita genericamente como: (98) Ω = ( a b - b * - a ) , com a sendo um número puramente imaginário. De modo que podemos expressar a matriz Ω da seguinte forma (99) Ω = ( i α β + i γ − β + i γ − i α ) = i γ σ 1 + i β σ 2 + i α σ 3 = i Δ , com Δ = γσ1 + βσ2 + ασ3. Assim, podemos expressar a matriz Q em termos de Δ como Q = eiΔ, e a condição imposta em Δ é tal que (100) ( e Ω ) † = ( e Ω ) - 1 ⇒ Δ † = Δ . Dizemos então que as matrizes de Pauli {σ1, σ2, σ3} são os geradores do grupo SU(2). Antes de desenvolver mais detalhadamente a álgebra su(2), é importante notar que a matriz identidade não pertence à álgebra su(2), uma vez que tais matrizes devem ser hermitianas e ter traço nulo. A matriz identidade é hermitiana, porém não possui traço nulo. A álgebra de Lie su(2) é dada pelas relações de comutação entre os geradores do grupo associado, isto é, o grupo SU(2). A partir do grupo SU(2) podemos obter também uma álgebra de Clifford (para mais detalhes vide [16]), dada pelas relações de anticomutação1 entre os geradores do grupo associado. Um cálculo direto nos mostra que tais relações são as seguintes: (101) [ σ 1 , σ 2 ] = σ 1 ⁢ σ 2 - σ 2 ⁢ σ 1 = 2 ⁢ i ⁢ σ 3 , (102) [ σ 2 , σ 3 ] = σ 2 ⁢ σ 3 - σ 3 ⁢ σ 2 = 2 ⁢ i ⁢ σ 1 , (103) [ σ 3 , σ 1 ] = σ 3 ⁢ σ 1 - σ 1 ⁢ σ 3 = 2 ⁢ i ⁢ σ 2 , (104) { σ 1 , σ 1 } = { σ 2 , σ 2 } = { σ 3 , σ 3 } = 2 ⁢ I , (105) { σ 1 , σ 2 } = { σ 2 , σ 3 } = { σ 3 , σ 1 } = 0 . As relações de comutação e anticomutação podem ser simplificadas através do uso da notação tensorial (106) [ σ a , σ b ] = σ a ⁢ σ b - σ b ⁢ σ a = 2 ⁢ i ⁢ ∑ c = 1 3 ε a ⁢ b ⁢ c ⁢ σ c (107) { σ a , σ b } = σ a σ b + σ b σ a = 2 δ a ⁢ b I ^ e a seguinte identidade pode ser facilmente verificada (108) σ a ⁢ σ b = δ a ⁢ b ⁢ I ^ + i ⁢ ∑ c = 1 3 ε a ⁢ b ⁢ c ⁢ σ c . Nas equações acima os índices livres podem assumir valores {1, 2, 3}, o delta de Kronecker δab = 0 se a≠b e δab = 1 se a = b. O tensor de Levi-Civita em três dimensões é tal que εabc = + 1 se {a, b, c} for qualquer permutação par de {1, 2, 3}, εabc = −1 se {a, b, c} for qualquer permutação ímpar de {1, 2, 3} e zero se houver índices repetidos, isto é: (109) ε a ⁢ b ⁢ c = { + 1 s ⁢ e ⁢ { a , b , c } = { 1 , 2 , 3 } , { 2 , 3 , 1 } ⁢ o ⁢ u ⁢ { 3 , 1 , 2 } - 1 s ⁢ e ⁢ { a , b , c } = { 3 , 2 , 1 } , { 1 , 3 , 2 } ⁢ o ⁢ u ⁢ { 2 , 1 , 3 } 0 s ⁢ e ⁢ a = b , b = c , o ⁢ u ⁢ c = a Uma observação importante que merece ser feita aqui é a seguinte: o grupo SU(2) possui 3 geradores, as matrizes de Pauli, mas as matrizes do grupo são de ordem 2. Será se existe uma representação do grupo SU(2), mas de modo que as matrizes sejam de ordem 3? Veja então que, se definirmos três matrizes Σ1, Σ2 e Σ3 da seguinte maneira (110) Σ 1 = ( 0 0 0 0 0 i 0 - i 0 ) , (111) Σ 2 = ( 0 0 - i 0 0 0 i 0 0 ) , (112) Σ 3 = ( 0 i 0 - i 0 0 0 0 0 ) , as seguinte relações de comutação são válidas (113) [ Σ 1 , Σ 2 ] = Σ 1 ⁢ Σ 2 - Σ 2 ⁢ Σ 1 = i ⁢ Σ 3 , (114) [ Σ 2 , Σ 3 ] = Σ 2 ⁢ Σ 3 - Σ 3 ⁢ Σ 2 = i ⁢ Σ 1 , (115) [ Σ 3 , Σ 1 ] = Σ 3 ⁢ Σ 1 - Σ 1 ⁢ Σ 3 = i ⁢ Σ 2 . Note ainda que todas as matrizes Σ são hermitianas e possuem traço nulo, assim como as matrizes de Pauli. De maneira simplificada podemos, portanto, escrever a seguinte relação para as matrizes Σ, (116) [ Σ a , Σ b ] = Σ a ⁢ Σ b - Σ b ⁢ Σ a = i ⁢ ∑ c = 1 3 ε a ⁢ b ⁢ c ⁢ Σ c , com a, b, c ∈ {1,2,3}. Estamos diante, desta forma, de uma representação do grupo SU(2) com matrizes de ordem 3. Esta representação, como já vimos, é chamada de representação adjunta. Em física de interações fundamentais a ideia de representação adjunta tem um papel fundamental, pois veja que, a interação forte possui simetria regida pelo grupo SU(3), que possui 8 geradores (como veremos mais adiante), e em sua representação adjunta as matrizes do grupo são matrizes quadradas de ordem 8. A interação forte possui 8 gluons como partículas mediadoras e, estando o grupo na representação adjunta, cada gerador estará relacionado a uma partícula mediadora da interação. Analogamente, a interação fraca possui simetria regida pelo grupo SU(2), que na representação adjunta possui 3 matrizes de ordem 3 como seus geradores, cada um destes geradores estando relacionados aos bósons vetoriais W+, W− e Z0, que são as partículas mediadoras da interação fraca. Veja também que calculando as seguintes quantidades (117) σ → 2 2 = ∑ i = 1 3 σ i 2 ⋅ σ i 2 = ( σ 1 2 ) 2 + ( σ 2 2 ) 2 + ( σ 3 2 ) 2 = 3 4 ⁢ I 2 (118) Σ → 2 = ∑ i = 1 3 Σ i ⋅ Σ i = Σ 1 2 + Σ 2 2 + Σ 3 2 = 2 ⁢ I 3 , podemos identificar os fatores que acompanham a matriz identidade como 34=12⁢(12+1), bem como 2 = 1(1 + 1), que, de modo geral, pode ser escrito como, s(s + 1). O leitor que já estudou mecânica quântica, consegue então perceber claramente que a álgebra su(2) descreve o spin, em mecânica quântica, sendo a quantidade j(j + 1) justamente o autovalor do operador momento angular J→2. O papel da mecânica quântica consiste justamente em adicionar o fator ℏ às matrizes σi2 a fim de produzir o operador de spin Si=ℏ⁢(σi2), que obedece à seguinte relação de comutação [Si, Sj] = iϵijkSk, tal qual a relação (116). abordamos o grupo SU(2) partindo da ideia de invariância do produto interno no espaço complexo, conectando esta ideia ao conceito de conservação de probabilidade em mecânica quântica. A seção 6 6. Grupo SO(3) e as Rotações em Três Dimenões Nesta seção estudaremos o caso do grupo SO(3), que é basicamente uma extensão do grupo de rotações em duas dimensões (o grupo SO(2)) para três dimensões. Apesar de estarmos lidando também com um grupo composto somente por matrizes ortogonais com determinante igual à unidade, algumas propriedades especiais desse grupo, que emergem por conta da dimensionalidade das matrizes, devem ser ressaltadas. Primeiramente é importante ressaltar que o grupo SO(3) reúne todas as rotações realizadas no espaço euclidiano tridimensional real e que estas estão associadas a 3 tipos de geradores. Cada gerador está, portanto, relacionado à rotação em torno de cada um dos eixos perpendiculares aos planos cartesianos. As matrizes responsáveis pela rotação de um dado vetor em torno de cada um dos eixos do ℝ3 são as seguintes: (119) R z ⁢ ( θ ) = ( cos ⁡ θ sen ⁢ θ 0 - sen ⁢ θ cos ⁡ θ 0 0 0 1 ) , (120) R y ⁢ ( β ) = ( cos ⁡ β 0 - sen ⁢ β 0 1 0 sen ⁢ β 0 cos ⁡ β ) , (121) R x ⁢ ( α ) = ( 1 0 0 0 cos ⁡ α sen ⁢ α 0 - sen ⁢ α cos ⁡ α ) . Estas matrizes são as conhecidas rotações de Euler. Para mais detalhes acerca da construção de tais matrizes, veja o apêndice. Desta forma, o elemento geral do grupo SO(3) é dado pela multiplicação das matrizes de Euler, isto é, R(α, β, θ) = Rz(α)Ry(β)Rz(θ). Uma verificação direta simples pode mostrar que o grupo SO(3), diferentemente do grupo SO(2), não é abeliano, como podemos ver também na Figura (6). Figura 6 Não comutatividade das rotações em três dimensões (Fonte [14]). Em segundo lugar, uma vez que as matrizes de SO(3) possuem todas determinante igual à unidade, sabemos que existe uma matriz Ω de traço nulo cuja exponencial gerará todos os elementos de SO(3). Usando um procedimento análogo ao que foi desenvolvido para o grupo SO(2), chegamos a condição (28), que define agora uma matriz de ordem 3 antissimétrica. Esta matriz Ω pode ser expressa como: (122) Ω = a ⁢ Λ 1 + b ⁢ Λ 2 + c ⁢ Λ 3 , sendo a, b, c ∈ ℝ e as matrizes Λ1,Λ2 e Λ3 definidas da seguinte forma: (123) Λ 3 = ( 0 1 0 - 1 0 0 0 0 0 ) , (124) Λ 2 = ( 0 0 - 1 0 0 0 1 0 0 ) , (125) Λ 1 = ( 0 0 0 0 0 1 0 - 1 0 ) . As matrizes Λ1, Λ2 e Λ3 são as matrizes geradoras do grupo SO(3) e formam uma base para todas as matrizes antissimétricas em três dimensões. Tais matrizes podem ainda ser obtidas através da relação (36). Além disso note que as matrizes (121), (120) e (119) podem ser obtidas através da exponenciação dos geradores. Veja agora que, se calcularmos as relações de comutação entre os geradores de SO(3), obteremos: (126) [ Λ 1 , Λ 2 ] = Λ 1 ⁢ Λ 2 - Λ 2 ⁢ Λ 1 = Λ 3 , (127) [ Λ 2 , Λ 3 ] = Λ 2 ⁢ Λ 3 - Λ 3 ⁢ Λ 2 = Λ 1 , (128) [ Λ 3 , Λ 1 ] = Λ 3 ⁢ Λ 1 - Λ 1 ⁢ Λ 3 = Λ 2 , que, assim como foi feito no caso do grupo SU(2), pode ser generalizado para: (129) [ Λ a , Λ b ] = Λ a ⁢ Λ b - Λ b ⁢ Λ a = ∑ c = 1 3 ϵ a ⁢ b ⁢ c ⁢ Λ c , com a, b, c ∈ {1,2,3}. A álgebra expressa pelo grupo SO(3) é similar à álgebra exibida pelo grupo SU(2). Podemos ainda estabelecer a seguinte relação entre seus geradores (130) Λ i ⟷ - i ⁢ Σ i . Neste momento somos tentados a inferir que há uma correspondência um a um entre os elementos de SO(3) e SU(2), o que categorizaria a existência de um isomorfismo entre os dois grupos, contudo tal inferência não é verdade. Se considerarmos, por exemplo, duas rotações, uma de 2π e outra de 4π, na linguagem de SO(3) as matrizes que representam tais rotações são ambas matrizes identidade de ordem 3, enquanto que na linguagem de SU(2) teremos uma matriz identidade multiplicada por (−1) e a própria identidade, respectivamente. Portanto a correspondência é de 2 para 1. Dizemos assim que os grupos SO(3) e SU(2) são localmente isomorfos. consistirá da exposição da relação existente entre o grupo de rotações em três dimensões, o grupo SO(3), e o grupo SU(2). Abordamos ainda aspectos algébricos do grupo SU(3). E por fim discutimos o oscilador harmônico unidimensional, bidimensional e N-dimensional, a fim de explicitar sua correspondência com os grupos unitários.

2. Noção Intuitiva e Grupo SO(2)

Suponha que estejamos interessados em encontrar uma transformação que deixe a energia de um sistema, como por exemplo, o oscilador harmônico, inalterada. Podemos descrever a energia de um oscilador harmônico através da seguinte equação:

(1) E = p 2 2 m + 1 2 k x 2 .

Desta forma, buscar uma transformação que não altere a energia de tal sistema consiste em tentar encontrar uma transformação R que não mude o estado de energia do sistema, isto é, E′ = E. Sabemos ainda que a quantidade p2 é formalmente descrita através do produto escalar entre p e p, isto é, p2=pp, bem como x2=xx.

Aqui o conceito fundamental é a ideia de invariância. Note ainda que uma das formas de efetuar uma transformação a fim de manter E invariante é encontrar uma transformação R que mantenha o produto escalar em si invariante. Buscamos então encontrar uma transformação que atue em vetores de modo a não alterar o produto escalar, isto é, uma transformação R tal que sendo v=Rv tenhamos vv=vv.

Para tal vamos relembrar que o produto interno entre dois vetores v=(v1,v2) e w=(w1,w2) é definido como

(2) v w = v 1 w 1 + v 2 w 2 .

Aqui consideramos que v,w2, muito embora a definição acima seja válida para um espaço euclidiano com dimensão arbitrária. Os dois vetores v e w acima descritos podem ser expressos matricialmente como

(3) V = ( v 1 v 2 ) , W = ( w 1 w 2 ) .

Usando a notação matricial, o produto interno entre esses dois vetores pode ser escrito da seguinte maneira

(4) V T W = ( v 1 v 2 ) ( w 1 w 2 )
(5) = v 1 w 1 + v 2 w 2 = v w .

Partindo então da notação matricial, estamos interessados em uma transformação R tal que o produto interno permaneça invariante. Note que, sendo v e w pertencentes a 2, então a matriz de transformação R deve pertencer ao espaço das matrizes de ordem 2 com entradas reais, que denotaremos por 𝕄 (2, ). Definindo os vetores V′ = RV e W′ = RW, o produto escalar entre V′ e W′ passa a ser escrito como:

(6) V T W = V T R T R W .

Vemos então que, para que o produto escalar seja invariante, é necessário que RT R = I, sendo I a matriz identidade de ordem 2. Note que, dessa forma, temos que RT = R−1. Matrizes cujas transpostas são iguais às suas inversas são chamadas de matrizes ortogonais.

Vamos então definir o conjunto de todas as matrizes ortogonais de ordem 2 com entradas reais. Tal conjunto é escrito como:

(7) O ( 2 ) = { M 𝕄 ( 2 , ) ; M T = M - 1 } .

Sobre o conjunto O(2) acima descrito podemos ver que I ∈ O(2), uma vez que a I = IT = I−1. Além disso, dadas duas matrizes M1, M2 ∈ O(2), o produto M1M2 ∈ O(2), pois,

(8) ( M 1 M 2 ) T = M 2 T M 1 T = M 2 - 1 M 1 - 1 = ( M 1 M 2 ) - 1 .

Outra propriedade que pode ser notada é que, dada uma matriz M ∈ O(2), a matriz M−1 ∈ O(2). Tal propriedade é consequência do fato de (M−1)T = (MT)−1. E por fim, a última propriedade que pode ser imediatamente verificada é que, dadas três matrizes M1,M2,M3 ∈ O(2), então é valido que:

(9) M 1 ( M 2 M 3 ) = ( M 1 M 2 ) M 3 .

Dizemos então que um dado conjunto não vazio G, munido de uma operação (⋅) é chamado de grupo se são satisfeitas as quatro propriedades acima listadas para o conjunto (que de agora em diante chamaremos de grupo) O(2), isto é:

(10a) g 1 g 2 G g 1 , g 2 G ,
(10b) g 1 ( g 2 g 3 ) = ( g 1 g 2 ) g 3 g 1 , g 2 , g 3 G ,
(10c) e G ; g e = e g = g g G ,
(10d) g - 1 G ; g - 1 g = g g - 1 = e g G .

Nas equações acima a quantidade e é chamada de elemento neutro do grupo, justamente por possuir a propriedade de que quando multiplicada (aqui entenda multiplicação como uma operação arbitrária a ser definida) por qualquer elemento g do grupo resulta no próprio elemento g.

Agora que definimos formalmente a estrutura de um grupo, vamos analisar mais atentamente as matrizes pertencentes ao grupo O(2). Uma característica importante do grupo O(2) (na verdade sendo válida para o grupo O(n), que é uma generalização do grupo O(2) para matrizes com qualquer ordem n) é que as matrizes a ele pertencentes têm determinante det M = ±1.

Demonstração: Considerando uma matriz M ∈ O(2), logo

(11) 1 = det ( I ^ ) = det ( M 1 M ) = det ( M T M ) = det ( M T ) det ( M ) = det ( M ) 2 det ( M ) = ± 1 ,

como queríamos demonstrar. Desta forma, fica claro que o grupo O(2) contém duas categorias de subconjuntos, um subconjunto formado por matrizes com det (M) = + 1 e outro por matrizes com det (M) = −1, de modo que definimos,

(12) X = { M O ( 2 ) ; det ( M ) = - 1 }
(13) SO ( 2 ) = { M O ( 2 ) ; det ( M ) = + 1 } .

Note que o conjunto X nem mesmo é grupo, uma vez que IX. Vamos agora estudar mais detalhadamente o grupo SO(2) ⊂ O(2). Considere uma matriz M ∈ SO(2) arbitrária,

(14) M = ( a b c d ) .

De acordo com a definição do grupo SO(2), MT = M−1, o que implica em

(15) ( a c b d ) = ( d - b - c a ) .

Logo, a = d e b = −c. Como det M = 1, obtemos a seguinte relação a2 + b2 = 1 entre os elementos de M. Isto nos diz que (a, b) deve estar no círculo unitário. Agora veja que ∀M ∈ SO(2), temos:

(16) M = ( a b - b a )

com a2 + b2 = 1. A condição expressa sobre a e b nos permite tomar a seguinte transformação:

(17) a = cos θ
(18) b = sen θ

onde θ ∈ (−π, π), logo

(19) M = M ( θ ) = ( cos θ sen θ - sen θ cos θ ) .
Figura 1
Círculo unitário.

Portanto,

(20) SO ( 2 ) = { M ( θ ) = ( cos θ sen θ - sen θ cos θ ) ; θ ( - π , π ) }

onde M(0)=I^. Considere agora um vetor v=(1,0), que pode ser expresso como um vetor coluna V,

(21) V = ( 1 0 ) ,

e uma matriz M(90°) que é escrita como:

(22) M = M ( 90 ) = ( 0 1 - 1 0 ) .

A ação de M(90°) em V, isto é, o vetor V′ = M(90°)V é dado por:

(23) V = ( 0 - 1 ) .

Geometricamente, isso pode ser visto na Figura 2. Portanto, a ação de M ∈ SO(2) em um dado vetor promove a rotação deste vetor sobre um ângulo θ. A ação de M ∈ SO(2) também pode ser interpretada como uma rotação passiva do sistema de coordenadas no sentido anti-horário, como pode ser visto na Figura 3. Outra propriedade que pode ser verificada de maneira imediata é que, dados dois ângulos θ1 e θ2, as matrizes de transformação associadas a tais ângulos obedecem a seguinte relação:

Figura 2
Ação de M(θ).
Figura 3
Rotação.
(24) M ( θ 1 ) M ( θ 2 ) = M ( θ 1 + θ 2 ) = M ( θ 2 + θ 1 ) = M ( θ 2 ) M ( θ 1 ) ,

o que mostra que o grupo SO(2) é um grupo comutativo (ou abeliano).

É importante ressaltar aqui que, como vimos anteriormente, o grupo SO(2) surge como uma consequência da imposição de uma invariância no produto escalar. Estando o produto escalar entre dois vetores relacionados a módulos e ângulos, é natural que a matriz de rotação seja uma possível representação do grupo SO(2) (que é também conhecido como grupo de rotações em duas dimensões), uma vez que rotacionar dois vetores por um mesmo ângulo preserva o produto escalar entre eles.

Analogamente ao que foi feito no caso do grupo SO(2), podemos parametrizar os elementos das matrizes RX em termos de funções trigonométricas, de modo que,

(25) R = R ( θ ) = ( cos θ sen θ sen θ - cos θ ) .

Note ainda que a identidade não se encontra no conjunto, explicitando que este não possui a estrutura de grupo. Além do mais, qualquer elemento do grupo pode ainda ser escrito como

(26) R ( θ ) = ( 1 0 0 - 1 ) M ( θ ) .

Portanto, concluímos que toda matriz RX pode ser escrita como apresentada na equação anterior, o que representa uma rotação rígida e seguida de uma reflexão.

Voltando à análise do grupo SO(2), é sabido que qualquer matriz que possui determinante igual à unidade pode ser escrita como a exponencial [1313. F.U. Coelho, Introdução à álgebra linear (Edusp, São Paulo, 2003), 3a ed.] de uma matriz que possui traço nulo. De modo que existe Ω ∈ 𝕄 (2, ) tal que

(27) M = e Ω

sendo Tr(Ω) = 0. Portanto, como M ∈ SO(2), temos que,

(28) M T = M - 1 Ω T = - Ω .

Desta forma, tomando uma matriz arbitrária Ω

(29) Ω = ( a b c d )

e impondo a condição acima, obtemos

(30) Ω = b ε = b ( 0 1 - 1 0 ) .

A matriz ε, conhecida como matriz simplética, é o que chamamos de gerador do grupo, enquanto que b é chamado de parâmetro do grupo. Note ainda que, se tomarmos b = θ, a matriz M passa a ser escrita como

(31) M = e θ ε .

Veja que ε2 = −I. Agora vamos expandir em série a quantidade eθε

(32) e θ ε = k = 0 1 k ! θ k ε k = l = 0 1 ( 2 l ) ! θ 2 l ε 2 l + l = 0 1 ( 2 l + 1 ) ! θ 2 l + 1 ε 2 l + 1 .

Na última passagem, separamos a soma em seus termos pares e ímpares. Vamos agora usar as seguintes identidades,

(33) ε 2 l = ( - 1 ) l I
(34) ε 2 l + 1 = ( - 1 ) l ε ,

portanto,

(35) e θ ε = l = 0 1 ( 2 l ) ! θ 2 l ( 1 ) l I + l = 0 1 ( 2 l + 1 ) ! θ 2 l + 1 ( 1 ) l ε = cos θ I + sin θ ε = ( cos θ sen θ sen θ cos θ ) = M ( 0 )

Vemos assim que todo elemento do grupo pode ser escrito como a exponenciação de seus geradores. O grupo SO(2) é um grupo de dimensão 1, uma vez que o grupo é inteiramente determinado pela matriz simplética. A ideia por trás do conceito de geradores de um grupo está na capacidade de expressar todos os elementos de um dado grupo através da exponenciação seus geradores. O leitor pode ainda perceber que a matriz simplética é a representação matricial do tensor Levi-Civita (εij,i, j = {1, 2}) de ordem 2. O tensor de Levi-Civita é tal que εij = 0 se i=j, ε12 = + 1 e ε21 = −1.

Quando o elemento geral de um grupo depende apenas de um parâmetro (θ, no caso do grupo SO(2)), dizemos que tal grupo é um grupo uniparamétrico. Para tais grupos, o gerador pode ser calculado através da seguinte relação:

(36) ε = d M ( θ ) d θ | θ = 0 .

Os conceitos desenvolvidos durante esta seção serão utilizados para o desenvolvimento das seções que se seguem.

3. Grupo U(1) e a Eletrodinâmica

Até este ponto ficou claro que dado um vetor v2, que pode ser escrito em forma de vetor como v=(x,y) ou em forma de matriz

(37) V = ( x y ) ,

escrito em um sistema de coordenadas S, pode ser relacionado a um vetor v2 de coordenadas v=(x,y) em um sistema de coordenadas S′ que foi passivamente rotacionado em relação ao sistema S de um ângulo θ, como na Figura 3.

A relação entre tais vetores é tal que

(38) ( x y ) = R ( θ ) ( x y ) ,

sendo R(θ) uma matriz pertencente ao grupo SO(2), portanto:

(39) ( x y ) = ( cos θ sen θ - sen θ cos θ ) ( x y ) .

Agora considere z escrito como z = x + iy e uma matriz W escrita como:

(40) W = ( z z * ) .

Qual grupo está por trás da conexão entre W e W′?

(41) ( x y ) M ( θ ) ( x y ) ,
(42) ( z z * ) ? ( z z * ) .

Para tal investigação lembremos inicialmente que em 2, a conexão é tal que V′ = M(θ)V, o que nos dá que

(43) x = cos θ x - sen θ y
(44) y = sen θ x + cos θ y .

A partir da definição de z como um número complexo da forma z = x + iy, podemos escrever x e y como sendo

(45) x = z + z * 2
(46) y = z - z * 2 i ,

o que consequentemente nos permite escrever x′ e y′, fazendo uso das equações (43) e (44), em termos de z e z da seguinte forma

(47) x = z 2 e i θ + z * 2 e - i θ
(48) i y = z 2 e i θ - z * 2 e - i θ .

Portanto, escrevendo naturalmente z′ = x′ + iy′ bem como z*=x-iy chegamos às seguintes leis de transformação

(49) z = e i θ z
(50) z * = e - i θ z * .

Note portanto que, diferentemente da lei de transformação entre V e V′, em que as componentes x′ e y′ dependem simultaneamente de x e y, no caso da relação entre W e W′ as componentes desacoplam, isto é, z′ transforma só com z (eq. (49)) e z* transforma só com z (eq. 50). Podemos então escrever

(51) ( z z * ) = ( e i θ 0 0 e - i θ ) ( z z * ) .

Como as equações desacoplam, podemos usar somente a eq. (49) para explicitar a relação entre z′ e z, que é feita através de uma matriz pertencente à M(,1), isto é e tal que a sua inversa é igual à sua transposta conjugada. Este conjunto define um grupo conhecido como U(1), explicitamente definido como:

(52) U ( 1 ) = { Z M ( , 1 ) ; Z - 1 = Z } .

Tal grupo preserva o módulo de z perante transformação, porém não sua fase angular, sendo a relação (49) muitas vezes conhecida como transformação de fase. Vemos assim que, o grupo U(1) possui dimensão 1, possui um único gerador e que os elementos do grupo são matrizes de ordem 1, isto é, um número. Em teoria de grupos dizemos que, quando o número de geradores de um grupo for igual à ordem das matrizes do grupo, estaremos diante de uma representação adjunta ou regular daquele grupo. Discutiremos a importância da representação adjunta dos grupos mais adiante.

Um ponto importante que deve ser ressaltado aqui é a íntima relação do grupo U(1) com a eletrodinâmica. Mesmo que o leitor não esteja familiarizado com a ação para férmions relativísticos, o presente exemplo se faz instrutivo. Considere a seguinte ação

(53) S = d 4 x ψ ¯ ( i γ μ μ - m ) ψ

que descreve férmions relativísticos. Sendo γμ com μ = {0, 1, 2, 3} as matrizes de Dirac e m a massa do férmion. A ação acima é invariante perante a seguinte transformação:

(54) ψ e i θ ψ .

Veja então que a quantidade e ∈ U(1). Se considerarmos uma fase local, o que implica em impor uma dependência em θ, isto é, tomar θ = θ(x), a invariância é perdida, uma vez que,

(55) ψ ¯ i γ μ μ ψ = ψ ¯ i γ μ μ ψ ψ ¯ γ μ ( μ θ ) ψ ψ ¯ i γ μ μ ψ .

Para recuperar a invariância sob transformações de U(1) com uma fase local é necessário definir uma derivada, conhecida como derivada covariante, da seguinte maneira:

(56) D μ = μ - i e A μ ,

e a seguinte lei de transformação para AμAμ=Aμ+(1/e)(μθ), sendo Aμ = (A0,Ai) o campo de gauge, com A0 sendo o potencial escalar e Ai as componentes do potencial vetor. Desta forma, identificando a quantidade e com a carga elétrica, o grupo U(1) torna-se o “responsável” pela interação entre os férmions com o campo eletromagnético (representado pelo campo de gauge Aμ). E assim começa a aparecer a estrutura matemática por trás da QED (quantum electrodynamics ), descrita essencialmente pela lagrangiana:

(57) = - 1 4 F μ ν F μ ν + ψ ¯ ( i D μ γ μ - m ) ψ .

com Fμν = ∂μ Aν − ∂ν Aμ.

4. Grupo Sp(2) e o Espaço AdS3

Já vimos que o grupo SO(2) mantém invariante o produto interno entre dois vetores quaisquer e que, portanto, preserva comprimentos e ângulos. Considere agora dois vetores no plano v=(v1,v2) e w=(w1,w2). O produto vetorial em duas dimensões também pode ser escrito em forma matricial como

(58) Z = V T ε W = ( υ 1 υ 2 ) ( 0 1 1 0 ) ( w 1 w 2 ) = v 1 w 2 v 2 w 1 = v × w .

Veja que a matriz simplética, além de ser o gerador do grupo SO(2), é utilizada também para estabelecer a representação matricial do produto vetorial em duas dimensões. Considere agora uma transformação de SO(2) atuando em dois vetores V e W. De modo que definamos V′ = M(θ)V e W′ = M(θ)W. Desta forma, o produto vetorial entre V′ e W′ passa a ser escrito como:

(59) Z = ( V ) T ε W = [ M ( θ ) V ] T ε M ( θ ) W = V T M ( θ ) T ε M ( θ ) W .

É fácil ver que M(θ)T εM(θ) = ε e que portanto uma transformação de SO(2) deixa Z invariante, isto é, Z′ = Z. Uma questão natural que surge é a seguinte: o grupo de transformações de SO(2) é o conjunto mais geral de transformações que deixa o produto vetorial invariante? A fim de responder tal questão podemos escrever uma matriz SM (2, ) arbitrária tal que:

(60) S T ε S = ε .

Sendo S definida como:

(61) S = ( a b c d ) ,

a relação (60) nos dá que:

(62) ( 0 a d - b c - a d + b c 0 ) = ( 0 1 - 1 0 ) .

Da relação acima obtemos o seguinte vínculo:

(63) a d - b c = 1 d e t ( S ) = 1 .

Portanto, a transformação mais geral que deixa o produto vetorial invariante requer uma matriz cujo determinante seja igual à unidade. Note então que,

(64) SO ( 2 ) { a = d = cos θ b = - c = sen θ

o grupo SO(2) é um caso particular de uma matriz M que deixa o produto vetorial invariante. Assim, podemos definir um conjunto

(65) Sp ( 2 ) = { S M ( 2 , ) ; S T ε S = ε }

como o conjunto das matrizes S que deixa invariante o produto vetorial. É possível então mostrar que Sp(2) é grupo. Tal grupo é conhecido como grupo simplético em duas dimensões. O vínculo imposto nas matrizes de Sp(2) que implica que seus determinantes sejam iguais à unidade (eq.(63)) estabelece que na matriz de Sp(2) há três parâmetros livres e que, portanto, o grupo Sp(2) tem dimensão igual a três. Assim como no caso do grupo SO(2), ao qual está associado o espaço geométrico do círculo unitário, pode-se perguntar qual a geometria associada ao grupo Sp(2). Note que a relação (63) é uma quádrica, e que portanto pode ser expressa como:

(66) a d b c = 1 2 ( a b c d ) ( 0 0 0 1 0 0 1 0 0 1 0 0 1 0 0 0 ) ( a b c d ) = 1 2 ( a b c d ) T ( a b c d ) .

A matriz T acima é simétrica e possui autovalores τ = ±1, sendo portanto diagonalizável. Desta forma, pelo teorema espectral, existe uma matrix J ortogonal [1313. F.U. Coelho, Introdução à álgebra linear (Edusp, São Paulo, 2003), 3a ed.] tal que:

(67) J T J T = ( 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 1 ) .

Desta forma podemos inserir dois operadores identidade na forma JT J de modo que a quantidade ad-bc assume a seguinte forma:

(68) a d - b c = a ~ 2 + b ~ 2 - c ~ 2 - d ~ 2 = 1 .

Note, portanto, que a equação anterior define um hiperboloide (ver Figura 4). Isso significa dizer que os elementos do grupo Sp(2) vivem sob a superfície de um hiperboloide. Tal geometria é também conhecida como AdS3.

Figura 4
Hipersuperfície (d~=0) do hiperboloide em 4 dimensões.

O espaço AdS3 (Anti de Sitter em 3-dimensões) é um espaço muito estudado em física, tanto no que diz respeito à física de altas energias, como em física da matéria condensada. Em um trabalho futuro pretendemos discutir com mais detalhes a íntima relação entre as estruturas de grupo dos espaços do tipo de Sitter, anti de Sitter e as dualidades em física de altas energias.

Vamos agora discutir os geradores e a álgebra associada ao grupo Sp(2). Como já é sabido que qualquer matriz de determinante igual à unidade pode ser escrita como a exponencial de uma matriz de traço zero, estamos procurando uma matriz Ω tal que

(69) M = e Ω .

Desta forma, a relação (60) nos dá que

(70) ( e Ω ) T ε e Ω = ε e Ω T ε e Ω = ε .

A fim de encontrar Ω, podemos expandir as exponenciais até primeira ordem, de modo que

(71) [ 1 + Ω T ] ε [ 1 + Ω ] = ε .

Distributindo e excluindo o termo de segunda ordem, obtemos a seguinte relação

(72) ε Ω = - Ω T ε ε Ω ε = Ω T .

O motivo pelo qual consideramos apenas termos de primeira ordem no desenvolvimento acima ficará mais claro adiante. Se definirmos uma matriz Ω arbitrária e usarmos a relação (72) obtemos uma matriz Ω tal que tr(Ω) = 0, como esperado, com três parâmetros livres, o que nos diz que dim[Sp(2)] = 3. De modo geral Ω pode ser escrito da seguinte forma

(73) Ω = α ( 1 0 0 1 ) + ( 1 0 0 0 ) + γ ( 1 0 0 1 ) = α λ 1 + β λ 2 + γ λ 3 .

As matrizes λi definem os geradores do grupo Sp(2), cuja álgebra de Lie associada (álgebra sp(2)) é expressa por suas relações de comutação, isto é, dadas duas matrizes A e B, definimos o comutador entre A e B como [A, B] = ABBA. Portanto, a álgebra sp(2) é expressa por:

(74) [ λ 1 , λ 2 ] = 2 λ 2 ,
(75) = - 2 λ 3 ,
(76) = λ 1 .

De maneira heurística, pode-se dizer que, para grupos de Lie [1212. L.S. Martin, Grupos de lie (Unicamp, Campinas, 2017).], a seguinte relação é sempre válida:

(77) G = e A ,

sendo G o grupo e A a álgebra associada ao grupo. Note que as matrizes que pertencem ao grupo não obrigatoriamente pertencem à álgebra, por exemplo, a matriz identidade pertence ao grupo Sp(2), mas não à álgebra sp(2), visto que não possui traço nulo.

5. Grupo SU(2) e a Mecânica Quântica

Na interpretação de Copenhague da mecânica quântica [1414. J.J. Sakurai e J. Napolitano, Mecânica quântica moderna (Bookman, Porto Alegre 2012), 2a ed.] a função de onda ψ(r,t) tem o papel fundamental de indicar a amplitude de probabilidade de que uma dada partícula encontre-se em uma caixa infinitesimal dV = dxdydz, centrada em r=(x,y,z), em um dado instante de tempo t. De modo que a densidade de probabilidade é dada por:

(78) | ψ ( r , t ) | 2 = ψ , ψ = ψ * ψ .

Na notação de Dirac, por exemplo, o estado quântico de um sistema é dado por um vetor que pertence ao espaço dos estados, digamos, |ψ⟩ ∈ 𝔼. Enquanto que a amplitude de probabilidade de que este estado arbitrário |ψ⟩ encontre-se no estado |α⟩ é dada pelo produto interno entre estes dois vetores, contudo, como tais vetores de modo geral estão em n, o produto interno obedece uma forma sesquilinear. Para o presente objetivo vamos considerar dois vetores z = (z1,z2) e w = (w1,w2) em 2. O produto interno entre estes dois vetores é dado por:

(79) z | w = z 1 * w 1 + z 2 * w 2 .

Assim como foi feito anteriormente, podemos expressar este produto interno em forma matricial, bastando, para isso, definir

(80) Z = ( z 1 z 2 ) , W = ( w 1 w 2 ) ,

e assim, é possível notar que

(81) Z W = ( z 1 * z 2 * ) ( w 1 w 2 )
(82) = z 1 * w 1 + z 2 * w 2 = z | w .

É importante lembrar aqui que Z = (ZT)*. Portanto, a pergunta imediata que surge é saber se existe uma transformação que deixe o produto interno em ℂ invariante. Assim como no caso do grupo SO(2), a grande importância em encontrar uma transformação tal que mantenha o produto interno em ℂ invariante reside no fato de que desta forma encontraremos transformações que preservarão a probabilidade de um sistema quântico. Analogamente, consideraremos vetores transformados Z′ = QZ e W′ = QW, então

(83) Z W = Z Q Q W = Q Z | Q W .

Para manter invariância é necessário, desta forma, que QQ = I o que implica em Q = Q−1. Matrizes com a propriedade tal que o transposto conjugado seja igual à inversa são chamadas de matrizes unitárias. É possível mostrar que o conjunto

(84) U ( 2 ) = { Q 𝕄 ( 2 , ) ; U = U - 1 }

forma um grupo. Tal grupo é conhecido como grupo unitário em duas dimensões. Vamos investigar agora algumas das propriedades básicas de matrizes Q ∈ U(2). Considere uma matriz Q ∈ U(2) arbitrária

(85) Q = ( a b c d ) .

A condição Q = Q−1 nos dá o seguinte vínculo entre os elementos da matriz

(86) ( a * c * b * d * ) = 1 d e t ( Q ) ( d - b - c a ) .

Da equação anterior obtemos as seguintes equações

(87) { d = d e t ( Q ) a * a = d e t ( Q ) d *

Quando combinamos as equações acima obtemos que |det(Q)| = 1. Portanto, toda e qualquer matriz Q ∈ U(2) possui determinante com módulo igual a unidade. Vamos nos deter ao subconjunto SU(2) ⊂ U(2) das matrizes que possuem det(Q) = 1, isto é,

(88) SU ( 2 ) = { Q U ( 2 ) ; d e t ( Q ) = 1 } .

Impondo a condição de SU(2) na matriz Q vemos que a forma geral de uma matriz de SU(2) é

(89) Q = ( a b - b * a * ) ,

de modo que a condição det(Q) = 1 implica em |a|2 + |b|2 = 1. Buscando agora investigar em qual espaço geométrico os elementos do grupo SU(2) vivem, é conveniente escrever a matriz Q em termos de suas componentes reais, de modo que

(90) Q = ( α + i β γ + i δ - γ + i δ α - i β )

e assim, a condição imposta pelo determinante nos diz que

(91) α 2 + β 2 + γ 2 + δ 2 = 1 ,

determinando assim uma esfera S3.

Veja que a matriz (90) pode ser expandida em uma base, da seguinte maneira

Figura 5
Hipersuperfície (δ = 0) da esfera em 4 dimensões.
(92) ( α + i β γ + i δ - γ + i δ α - i β ) = α ( 10 01 ) + β ( i 0 0 - i ) + γ ( 01 - 10 ) + δ ( 0 i i 0 )
(93) = α I + i δ σ 1 + i γ σ 2 + i β σ 3 .

sendo as matrizes σ1, σ2 e σ3 chamadas de matrizes de Pauli e definidas como

(94) σ 1 = ( 0 1 1 0 )
(95) σ 2 = ( 0 - i i 0 )
(96) σ 3 = ( 1 0 0 - 1 ) .

Portanto, o conjunto composto pela matriz identidade e pelas matrizes {1,2,3} formam uma base para o grupo SU(2). Além disso, o conjunto formado pelas matrizes {1,2,3} define o sistema numérico conhecido como números quaterniônicos (representados pela letra ℍ), que é uma extensão dos números complexos. Maiores detalhes sobre os quatérnions podem ser vistos em [1515. A.B. Jambersi e S. Silva, Rev. Bras. Ensino de Fís. 38, e2313 (2016).]. A fim de encontrar os geradores do grupo SU(2), a matriz Ω cuja exponenciação dará origem aos elementos do grupo SU(2) deverá ser tal que

(97) ( e Ω ) = ( e Ω ) - 1 Ω = - Ω .

Como uma consequência da imposição acima e do fato de que a matriz Ω possui traço nulo, esta passa a ser escrita genericamente como:

(98) Ω = ( a b - b * - a ) ,

com a sendo um número puramente imaginário. De modo que podemos expressar a matriz Ω da seguinte forma

(99) Ω = ( i α β + i γ β + i γ i α ) = i γ σ 1 + i β σ 2 + i α σ 3 = i Δ ,

com Δ = γσ1 + βσ2 + ασ3. Assim, podemos expressar a matriz Q em termos de Δ como Q = eiΔ, e a condição imposta em Δ é tal que

(100) ( e Ω ) = ( e Ω ) - 1 Δ = Δ .

Dizemos então que as matrizes de Pauli {σ1, σ2, σ3} são os geradores do grupo SU(2). Antes de desenvolver mais detalhadamente a álgebra su(2), é importante notar que a matriz identidade não pertence à álgebra su(2), uma vez que tais matrizes devem ser hermitianas e ter traço nulo. A matriz identidade é hermitiana, porém não possui traço nulo.

A álgebra de Lie su(2) é dada pelas relações de comutação entre os geradores do grupo associado, isto é, o grupo SU(2). A partir do grupo SU(2) podemos obter também uma álgebra de Clifford (para mais detalhes vide [1616. J. Vaz Jr. e R. Rocha Jr., Álgebras de Clifford e Espinores (Livraria da Física, São Paulo, 2012).]), dada pelas relações de anticomutação1 1 Dadas duas matrizes A e B de mesma ordem, a relação de anticomutação entre elas é dada por {A, B} = AB + BA. entre os geradores do grupo associado. Um cálculo direto nos mostra que tais relações são as seguintes:

(101) [ σ 1 , σ 2 ] = σ 1 σ 2 - σ 2 σ 1 = 2 i σ 3 ,
(102) [ σ 2 , σ 3 ] = σ 2 σ 3 - σ 3 σ 2 = 2 i σ 1 ,
(103) [ σ 3 , σ 1 ] = σ 3 σ 1 - σ 1 σ 3 = 2 i σ 2 ,
(104) { σ 1 , σ 1 } = { σ 2 , σ 2 } = { σ 3 , σ 3 } = 2 I ,
(105) { σ 1 , σ 2 } = { σ 2 , σ 3 } = { σ 3 , σ 1 } = 0 .

As relações de comutação e anticomutação podem ser simplificadas através do uso da notação tensorial

(106) [ σ a , σ b ] = σ a σ b - σ b σ a = 2 i c = 1 3 ε a b c σ c
(107) { σ a , σ b } = σ a σ b + σ b σ a = 2 δ a b I ^

e a seguinte identidade pode ser facilmente verificada

(108) σ a σ b = δ a b I ^ + i c = 1 3 ε a b c σ c .

Nas equações acima os índices livres podem assumir valores {1, 2, 3}, o delta de Kronecker δab = 0 se ab e δab = 1 se a = b. O tensor de Levi-Civita em três dimensões é tal que εabc = + 1 se {a, b, c} for qualquer permutação par de {1, 2, 3}, εabc = −1 se {a, b, c} for qualquer permutação ímpar de {1, 2, 3} e zero se houver índices repetidos, isto é:

(109) ε a b c = { + 1 s e { a , b , c } = { 1 , 2 , 3 } , { 2 , 3 , 1 } o u { 3 , 1 , 2 } - 1 s e { a , b , c } = { 3 , 2 , 1 } , { 1 , 3 , 2 } o u { 2 , 1 , 3 } 0 s e a = b , b = c , o u c = a

Uma observação importante que merece ser feita aqui é a seguinte: o grupo SU(2) possui 3 geradores, as matrizes de Pauli, mas as matrizes do grupo são de ordem 2. Será se existe uma representação do grupo SU(2), mas de modo que as matrizes sejam de ordem 3? Veja então que, se definirmos três matrizes Σ1, Σ2 e Σ3 da seguinte maneira

(110) Σ 1 = ( 0 0 0 0 0 i 0 - i 0 ) ,
(111) Σ 2 = ( 0 0 - i 0 0 0 i 0 0 ) ,
(112) Σ 3 = ( 0 i 0 - i 0 0 0 0 0 ) ,

as seguinte relações de comutação são válidas

(113) [ Σ 1 , Σ 2 ] = Σ 1 Σ 2 - Σ 2 Σ 1 = i Σ 3 ,
(114) [ Σ 2 , Σ 3 ] = Σ 2 Σ 3 - Σ 3 Σ 2 = i Σ 1 ,
(115) [ Σ 3 , Σ 1 ] = Σ 3 Σ 1 - Σ 1 Σ 3 = i Σ 2 .

Note ainda que todas as matrizes Σ são hermitianas e possuem traço nulo, assim como as matrizes de Pauli. De maneira simplificada podemos, portanto, escrever a seguinte relação para as matrizes Σ,

(116) [ Σ a , Σ b ] = Σ a Σ b - Σ b Σ a = i c = 1 3 ε a b c Σ c ,

com a, b, c ∈ {1,2,3}. Estamos diante, desta forma, de uma representação do grupo SU(2) com matrizes de ordem 3. Esta representação, como já vimos, é chamada de representação adjunta.

Em física de interações fundamentais a ideia de representação adjunta tem um papel fundamental, pois veja que, a interação forte possui simetria regida pelo grupo SU(3), que possui 8 geradores (como veremos mais adiante), e em sua representação adjunta as matrizes do grupo são matrizes quadradas de ordem 8. A interação forte possui 8 gluons como partículas mediadoras e, estando o grupo na representação adjunta, cada gerador estará relacionado a uma partícula mediadora da interação. Analogamente, a interação fraca possui simetria regida pelo grupo SU(2), que na representação adjunta possui 3 matrizes de ordem 3 como seus geradores, cada um destes geradores estando relacionados aos bósons vetoriais W+, W e Z0, que são as partículas mediadoras da interação fraca.

Veja também que calculando as seguintes quantidades

(117) σ 2 2 = i = 1 3 σ i 2 σ i 2 = ( σ 1 2 ) 2 + ( σ 2 2 ) 2 + ( σ 3 2 ) 2 = 3 4 I 2
(118) Σ 2 = i = 1 3 Σ i Σ i = Σ 1 2 + Σ 2 2 + Σ 3 2 = 2 I 3 ,

podemos identificar os fatores que acompanham a matriz identidade como 34=12(12+1), bem como 2 = 1(1 + 1), que, de modo geral, pode ser escrito como, s(s + 1). O leitor que já estudou mecânica quântica, consegue então perceber claramente que a álgebra su(2) descreve o spin, em mecânica quântica, sendo a quantidade j(j + 1) justamente o autovalor do operador momento angular J2.

O papel da mecânica quântica consiste justamente em adicionar o fator ℏ às matrizes σi2 a fim de produzir o operador de spin Si=(σi2), que obedece à seguinte relação de comutação [Si, Sj] = ijkSk, tal qual a relação (116).

6. Grupo SO(3) e as Rotações em Três Dimenões

Nesta seção estudaremos o caso do grupo SO(3), que é basicamente uma extensão do grupo de rotações em duas dimensões (o grupo SO(2)) para três dimensões. Apesar de estarmos lidando também com um grupo composto somente por matrizes ortogonais com determinante igual à unidade, algumas propriedades especiais desse grupo, que emergem por conta da dimensionalidade das matrizes, devem ser ressaltadas.

Primeiramente é importante ressaltar que o grupo SO(3) reúne todas as rotações realizadas no espaço euclidiano tridimensional real e que estas estão associadas a 3 tipos de geradores. Cada gerador está, portanto, relacionado à rotação em torno de cada um dos eixos perpendiculares aos planos cartesianos.

As matrizes responsáveis pela rotação de um dado vetor em torno de cada um dos eixos do 3 são as seguintes:

(119) R z ( θ ) = ( cos θ sen θ 0 - sen θ cos θ 0 0 0 1 ) ,
(120) R y ( β ) = ( cos β 0 - sen β 0 1 0 sen β 0 cos β ) ,
(121) R x ( α ) = ( 1 0 0 0 cos α sen α 0 - sen α cos α ) .

Estas matrizes são as conhecidas rotações de Euler. Para mais detalhes acerca da construção de tais matrizes, veja o apêndice. Desta forma, o elemento geral do grupo SO(3) é dado pela multiplicação das matrizes de Euler, isto é, R(α, β, θ) = Rz(α)Ry(β)Rz(θ). Uma verificação direta simples pode mostrar que o grupo SO(3), diferentemente do grupo SO(2), não é abeliano, como podemos ver também na Figura (6).

Figura 6
Não comutatividade das rotações em três dimensões (Fonte [1414. J.J. Sakurai e J. Napolitano, Mecânica quântica moderna (Bookman, Porto Alegre 2012), 2a ed.]).

Em segundo lugar, uma vez que as matrizes de SO(3) possuem todas determinante igual à unidade, sabemos que existe uma matriz Ω de traço nulo cuja exponencial gerará todos os elementos de SO(3). Usando um procedimento análogo ao que foi desenvolvido para o grupo SO(2), chegamos a condição (28), que define agora uma matriz de ordem 3 antissimétrica. Esta matriz Ω pode ser expressa como:

(122) Ω = a Λ 1 + b Λ 2 + c Λ 3 ,

sendo a, b, c e as matrizes Λ12 e Λ3 definidas da seguinte forma:

(123) Λ 3 = ( 0 1 0 - 1 0 0 0 0 0 ) ,
(124) Λ 2 = ( 0 0 - 1 0 0 0 1 0 0 ) ,
(125) Λ 1 = ( 0 0 0 0 0 1 0 - 1 0 ) .

As matrizes Λ1, Λ2 e Λ3 são as matrizes geradoras do grupo SO(3) e formam uma base para todas as matrizes antissimétricas em três dimensões. Tais matrizes podem ainda ser obtidas através da relação (36). Além disso note que as matrizes (121), (120) e (119) podem ser obtidas através da exponenciação dos geradores. Veja agora que, se calcularmos as relações de comutação entre os geradores de SO(3), obteremos:

(126) [ Λ 1 , Λ 2 ] = Λ 1 Λ 2 - Λ 2 Λ 1 = Λ 3 ,
(127) [ Λ 2 , Λ 3 ] = Λ 2 Λ 3 - Λ 3 Λ 2 = Λ 1 ,
(128) [ Λ 3 , Λ 1 ] = Λ 3 Λ 1 - Λ 1 Λ 3 = Λ 2 ,

que, assim como foi feito no caso do grupo SU(2), pode ser generalizado para:

(129) [ Λ a , Λ b ] = Λ a Λ b - Λ b Λ a = c = 1 3 ϵ a b c Λ c ,

com a, b, c ∈ {1,2,3}. A álgebra expressa pelo grupo SO(3) é similar à álgebra exibida pelo grupo SU(2). Podemos ainda estabelecer a seguinte relação entre seus geradores

(130) Λ i - i Σ i .

Neste momento somos tentados a inferir que há uma correspondência um a um entre os elementos de SO(3) e SU(2), o que categorizaria a existência de um isomorfismo entre os dois grupos, contudo tal inferência não é verdade. Se considerarmos, por exemplo, duas rotações, uma de 2π e outra de 4π, na linguagem de SO(3) as matrizes que representam tais rotações são ambas matrizes identidade de ordem 3, enquanto que na linguagem de SU(2) teremos uma matriz identidade multiplicada por (−1) e a própria identidade, respectivamente. Portanto a correspondência é de 2 para 1. Dizemos assim que os grupos SO(3) e SU(2) são localmente isomorfos.

7. Quarks e o Grupo SU(3)

Nesta seção estudaremos o grupo SU(3). Não nos deteremos a discorrer sobre os aspectos históricos que levaram à associação da simetria regida pelo grupo SU(3) com os quarks. O leitor interessado em uma discussão histórica e em aspectos fenomenológicos acerca do modelo de quarks pode consultar a referência [1717. C.O. Silva e P.L. Natti, Rev. Bras. Ensino de Fís. 29, 175, 2007.].

Assim como o grupo SO(3), que é uma extensão do grupo SO(2) para três dimensões, o grupo SU(3) é uma extensão do grupo SU(2) para três dimensões. Como mostramos anteriormente para o grupo SU(2), a álgebra que rege o grupo das matrizes especiais unitárias é governada por matrizes hermitianas. No caso do grupo SU(3), a matriz Ω cuja exponenciação dará origem aos elementos do grupo SU(3) é tal que

(131) Ω = Ω ,

com Ω ∈ 𝕄 (3, ). O vínculo acima imposto sob a matriz Ω a simplifica à seguinte forma geral:

(132) Ω = ( a b c b * e f c * f * i ) .

O vínculo da hermiticidade de Ω impõe que {a, e, i} ∈ enquanto que {b, c, f} ∈ . Dessa forma, podemos expressar a matriz Ω, de maneira mais geral, como:

(133) Ω = ( a β 1 i β 2 γ 1 i γ 2 β 1 + i β 2 e ϕ 1 i ϕ 2 γ 1 + i γ 2 ϕ 1 + i ϕ 2 i ) .

Existe certa arbitrariedade na forma como construir a matriz Ω. Aqui, escolhemos a construção mais utilizada em física de partículas, que consiste em definir b = β12, c = γ12, bem como f = ϕ12. Podemos então escrever a matriz Ω como uma soma de seus geradores λi, da seguinte maneira:

(134) Ω = β 1 λ 1 + β 2 λ 2 + a λ 3 + γ 1 λ 4 + γ 2 λ 5 + ϕ 1 λ 6 + ϕ 2 λ 7 + e λ 8 ,

com as matrizes λi definidas como

(135) λ 1 = ( 0 1 0 1 0 0 0 0 0 ) , λ 2 = ( 0 i 0 i 0 0 0 0 0 ) ,
(136) λ 3 = ( 1 0 0 0 1 0 0 0 0 ) , λ 4 = ( 0 0 1 0 0 0 1 0 0 ) ,
(137) λ 5 = ( 0 0 i 0 0 0 i 0 0 ) , λ 6 = ( 0 0 0 0 0 1 0 1 0 ) ,
(138) λ 7 = ( 0 0 0 0 0 i 0 i 0 ) , λ 8 = 1 3 ( 1 0 0 0 1 0 0 0 2 ) ,

O fator 1/3 em λ8 foi posto para manter a propriedade

(139) t r ( λ i λ j ) = 2 δ i j ,

com i, j = {1,2,…,8}. Note que todas as matrizes λi são hermitianas e tem traço nulo, assim como as matrizes de Pauli. A relação (139) estabelece um princípio de ortogonalidade em SU(3), além disso, um cálculo simples e direto nos mostra que a seguinte relação de comutação

(140) [ λ i , λ j ] = k = 1 3 2 i ϵ i j k λ k

é válida para o grupo SU(3). No entanto, se não nos restringirmos somente às matrizes λ1, λ2 e λ3 a relação de comutação ganha uma nova forma e passa a ser escrita como:

(141) [ λ i , λ j ] = k = 1 8 2 i f i j k λ k .

O parâmetro fijk é chamado de constante de estrutura do grupo SU(3), bem como o tensor de Levi-Civita ϵijk é a constante de estrutura dos grupos SU(2) e SO(3). Analogamente, um cálculo direto mostra que a estrutura de anticomutador inerente às matrizes λ pode ser expressa através da relação:

(142) { λ i , λ j } = 4 3 δ i j I + k = 1 8 2 d i j k λ k ,

sendo os coeficientes dijk simétricos com relação a permutação dos índices, isto é,

(143) d i j k = d i k j = d j i k = ,

enquanto que os coeficientes fijk são antissimétricos perante a permutação de quaisquer dois índices, ou seja,

(144) f i j k = - f j i k = - f i k j .

Os valores não nulos da constante de estrutura fijk bem como da constante dijk estão listados na tabela abaixo.

ijk f ijk ijk d ijk
123 1 118 1 / 3
147 1/2 146 1/2
156 −1/2 157 1/2
246 1/2 228 1 / 3
257 1/2 247 −1/2
345 1/2 256 1/2
367 −1/2 338 1 / 3
458 3 / 2 344 1/2
678 3 / 2 355 1/2
366 −1/2
377 −1/2
448 - 1 / ( 2 3 )
558 - 1 / ( 2 3 )
668 - 1 / ( 2 3 )
778 - 1 / ( 2 3 )
888 - 1 / 3

8. Oscilador Harmônico N-dimensional e o Grupo SU(N)

Agora que já galgamos um bom caminho acerca de alguns dos grupos mais fundamentais por trás da descrição de sistemas físicos, voltemos ao exemplo inicial que demos na seção 2 2. Noção Intuitiva e Grupo SO(2) Suponha que estejamos interessados em encontrar uma transformação que deixe a energia de um sistema, como por exemplo, o oscilador harmônico, inalterada. Podemos descrever a energia de um oscilador harmônico através da seguinte equação: (1) E = p 2 2 ⁢ m + 1 2 ⁢ k ⁢ x 2 . Desta forma, buscar uma transformação que não altere a energia de tal sistema consiste em tentar encontrar uma transformação R que não mude o estado de energia do sistema, isto é, E′ = E. Sabemos ainda que a quantidade p2 é formalmente descrita através do produto escalar entre p→ e p→, isto é, p2=p→⋅p→, bem como x2=x→⋅x→. Aqui o conceito fundamental é a ideia de invariância. Note ainda que uma das formas de efetuar uma transformação a fim de manter E invariante é encontrar uma transformação R que mantenha o produto escalar em si invariante. Buscamos então encontrar uma transformação que atue em vetores de modo a não alterar o produto escalar, isto é, uma transformação R tal que sendo v→′=R⁢v→ tenhamos v→′⋅v→′=v→⋅v→. Para tal vamos relembrar que o produto interno entre dois vetores v→=(v1,v2) e w→=(w1,w2) é definido como (2) v → ⋅ w → = v 1 ⁢ w 1 + v 2 ⁢ w 2 . Aqui consideramos que v→,w→∈ℝ2, muito embora a definição acima seja válida para um espaço euclidiano com dimensão arbitrária. Os dois vetores v→ e w→ acima descritos podem ser expressos matricialmente como (3) V = ( v 1 v 2 ) , W = ( w 1 w 2 ) . Usando a notação matricial, o produto interno entre esses dois vetores pode ser escrito da seguinte maneira (4) V T ⁢ W = ( v 1 ⁢ v 2 ) ⁢ ( w 1 w 2 ) (5) = v 1 ⁢ w 1 + v 2 ⁢ w 2 = v → ⋅ w → . Partindo então da notação matricial, estamos interessados em uma transformação R tal que o produto interno permaneça invariante. Note que, sendo v→ e w→ pertencentes a ℝ2, então a matriz de transformação R deve pertencer ao espaço das matrizes de ordem 2 com entradas reais, que denotaremos por 𝕄 (2, ℝ). Definindo os vetores V′ = RV e W′ = RW, o produto escalar entre V′ e W′ passa a ser escrito como: (6) V ′ ⁣ T ⁢ W ′ = V T ⁢ R T ⁢ R ⁢ W . Vemos então que, para que o produto escalar seja invariante, é necessário que RT R = I, sendo I a matriz identidade de ordem 2. Note que, dessa forma, temos que RT = R−1. Matrizes cujas transpostas são iguais às suas inversas são chamadas de matrizes ortogonais. Vamos então definir o conjunto de todas as matrizes ortogonais de ordem 2 com entradas reais. Tal conjunto é escrito como: (7) O ( 2 ) = { M ∈ 𝕄 ( 2 , ℝ ) ; M T = M - 1 } . Sobre o conjunto O(2) acima descrito podemos ver que I ∈ O(2), uma vez que a I = IT = I−1. Além disso, dadas duas matrizes M1, M2 ∈ O(2), o produto M1M2 ∈ O(2), pois, (8) ( M 1 ⁢ M 2 ) T = M 2 T ⁢ M 1 T = M 2 - 1 ⁢ M 1 - 1 = ( M 1 ⁢ M 2 ) - 1 . Outra propriedade que pode ser notada é que, dada uma matriz M ∈ O(2), a matriz M−1 ∈ O(2). Tal propriedade é consequência do fato de (M−1)T = (MT)−1. E por fim, a última propriedade que pode ser imediatamente verificada é que, dadas três matrizes M1,M2,M3 ∈ O(2), então é valido que: (9) M 1 ⁢ ( M 2 ⁢ M 3 ) = ( M 1 ⁢ M 2 ) ⁢ M 3 . Dizemos então que um dado conjunto não vazio G, munido de uma operação (⋅) é chamado de grupo se são satisfeitas as quatro propriedades acima listadas para o conjunto (que de agora em diante chamaremos de grupo) O(2), isto é: (10a) g 1 ⋅ g 2 ∈ G ⁢ ∀ g 1 , g 2 ∈ G , (10b) g 1 ⋅ ( g 2 ⋅ g 3 ) = ( g 1 ⋅ g 2 ) ⋅ g 3 ⁢ ∀ g 1 , g 2 , g 3 ∈ G , (10c) ∃ e ∈ G ; g ⋅ e = e ⋅ g = g ⁢ ∀ g ∈ G , (10d) ∃ g - 1 ∈ G ; g - 1 ⋅ g = g ⋅ g - 1 = e ⁢ ∀ g ∈ G . Nas equações acima a quantidade e é chamada de elemento neutro do grupo, justamente por possuir a propriedade de que quando multiplicada (aqui entenda multiplicação como uma operação arbitrária a ser definida) por qualquer elemento g do grupo resulta no próprio elemento g. Agora que definimos formalmente a estrutura de um grupo, vamos analisar mais atentamente as matrizes pertencentes ao grupo O(2). Uma característica importante do grupo O(2) (na verdade sendo válida para o grupo O(n), que é uma generalização do grupo O(2) para matrizes com qualquer ordem n) é que as matrizes a ele pertencentes têm determinante det M = ±1. Demonstração: Considerando uma matriz M ∈ O(2), logo (11) 1 = det ( I ^ ) = det ( M − 1 M ) = det ( M T M ) = det ( M T ) det ( M ) = det ( M ) 2 ⇒ det ( M ) = ± 1 , como queríamos demonstrar. Desta forma, fica claro que o grupo O(2) contém duas categorias de subconjuntos, um subconjunto formado por matrizes com det (M) = + 1 e outro por matrizes com det (M) = −1, de modo que definimos, (12) X = { M ∈ O ( 2 ) ; det ( M ) = - 1 } (13) SO ( 2 ) = { M ∈ O ( 2 ) ; det ( M ) = + 1 } . Note que o conjunto X nem mesmo é grupo, uma vez que I∉X. Vamos agora estudar mais detalhadamente o grupo SO(2) ⊂ O(2). Considere uma matriz M ∈ SO(2) arbitrária, (14) M = ( a b c d ) . De acordo com a definição do grupo SO(2), MT = M−1, o que implica em (15) ( a c b d ) = ( d - b - c a ) . Logo, a = d e b = −c. Como det M = 1, obtemos a seguinte relação a2 + b2 = 1 entre os elementos de M. Isto nos diz que (a, b) deve estar no círculo unitário. Agora veja que ∀M ∈ SO(2), temos: (16) M = ( a b - b a ) com a2 + b2 = 1. A condição expressa sobre a e b nos permite tomar a seguinte transformação: (17) a = cos ⁡ θ (18) b = sen ⁢ θ onde θ ∈ (−π, π), logo (19) M = M ⁢ ( θ ) = ( cos ⁡ θ sen ⁢ θ - sen ⁢ θ cos ⁡ θ ) . Figura 1 Círculo unitário. Portanto, (20) SO ( 2 ) = { M ( θ ) = ( cos ⁡ θ sen ⁢ θ - sen ⁢ θ cos ⁡ θ ) ; θ ∈ ( - π , π ) } onde M⁢(0)=I^. Considere agora um vetor v→=(1,0), que pode ser expresso como um vetor coluna V, (21) V = ( 1 0 ) , e uma matriz M(90°) que é escrita como: (22) M = M ⁢ ( 90 ∘ ) = ( 0 1 - 1 0 ) . A ação de M(90°) em V, isto é, o vetor V′ = M(90°)V é dado por: (23) V ′ = ( 0 - 1 ) . Geometricamente, isso pode ser visto na Figura 2. Portanto, a ação de M ∈ SO(2) em um dado vetor promove a rotação deste vetor sobre um ângulo θ. A ação de M ∈ SO(2) também pode ser interpretada como uma rotação passiva do sistema de coordenadas no sentido anti-horário, como pode ser visto na Figura 3. Outra propriedade que pode ser verificada de maneira imediata é que, dados dois ângulos θ1 e θ2, as matrizes de transformação associadas a tais ângulos obedecem a seguinte relação: Figura 2 Ação de M(θ). Figura 3 Rotação. (24) M ⁢ ( θ 1 ) ⁢ M ⁢ ( θ 2 ) = M ⁢ ( θ 1 + θ 2 ) = M ⁢ ( θ 2 + θ 1 ) = M ⁢ ( θ 2 ) ⁢ M ⁢ ( θ 1 ) , o que mostra que o grupo SO(2) é um grupo comutativo (ou abeliano). É importante ressaltar aqui que, como vimos anteriormente, o grupo SO(2) surge como uma consequência da imposição de uma invariância no produto escalar. Estando o produto escalar entre dois vetores relacionados a módulos e ângulos, é natural que a matriz de rotação seja uma possível representação do grupo SO(2) (que é também conhecido como grupo de rotações em duas dimensões), uma vez que rotacionar dois vetores por um mesmo ângulo preserva o produto escalar entre eles. Analogamente ao que foi feito no caso do grupo SO(2), podemos parametrizar os elementos das matrizes R ∈ X em termos de funções trigonométricas, de modo que, (25) R = R ⁢ ( θ ) = ( cos ⁡ θ sen ⁢ θ sen ⁢ θ - cos ⁡ θ ) . Note ainda que a identidade não se encontra no conjunto, explicitando que este não possui a estrutura de grupo. Além do mais, qualquer elemento do grupo pode ainda ser escrito como (26) R ⁢ ( θ ) = ( 1 0 0 - 1 ) ⁢ M ⁢ ( θ ) . Portanto, concluímos que toda matriz R ∈ X pode ser escrita como apresentada na equação anterior, o que representa uma rotação rígida e seguida de uma reflexão. Voltando à análise do grupo SO(2), é sabido que qualquer matriz que possui determinante igual à unidade pode ser escrita como a exponencial [13] de uma matriz que possui traço nulo. De modo que existe Ω ∈ 𝕄 (2, ℝ) tal que (27) M = e Ω sendo Tr(Ω) = 0. Portanto, como M ∈ SO(2), temos que, (28) M T = M - 1 ⇒ Ω T = - Ω . Desta forma, tomando uma matriz arbitrária Ω (29) Ω = ( a b c d ) e impondo a condição acima, obtemos (30) Ω = b ⁢ ε = b ⁢ ( 0 1 - 1 0 ) . A matriz ε, conhecida como matriz simplética, é o que chamamos de gerador do grupo, enquanto que b é chamado de parâmetro do grupo. Note ainda que, se tomarmos b = θ, a matriz M passa a ser escrita como (31) M = e θ ⁢ ε . Veja que ε2 = −I. Agora vamos expandir em série a quantidade eθε (32) e θ ε = ∑ k = 0 ∞ 1 k ! θ k ε k = ∑ l = 0 ∞ 1 ( 2 l ) ! θ 2 l ε 2 l + ∑ l = 0 ∞ 1 ( 2 l + 1 ) ! θ 2 l + 1 ε 2 l + 1 . Na última passagem, separamos a soma em seus termos pares e ímpares. Vamos agora usar as seguintes identidades, (33) ε 2 ⁢ l = ( - 1 ) l ⁢ I (34) ε 2 ⁢ l + 1 = ( - 1 ) l ⁢ ε , portanto, (35) e θ ε = ∑ l = 0 ∞ 1 ( 2 l ) ! θ 2 l ( − 1 ) l I + ∑ l = 0 ∞ 1 ( 2 l + 1 ) ! θ 2 l + 1 ( − 1 ) l ε = cos θ I + sin θ ε = ( cos θ sen θ − sen θ cos θ ) = M ( 0 ) Vemos assim que todo elemento do grupo pode ser escrito como a exponenciação de seus geradores. O grupo SO(2) é um grupo de dimensão 1, uma vez que o grupo é inteiramente determinado pela matriz simplética. A ideia por trás do conceito de geradores de um grupo está na capacidade de expressar todos os elementos de um dado grupo através da exponenciação seus geradores. O leitor pode ainda perceber que a matriz simplética é a representação matricial do tensor Levi-Civita (εij,i, j = {1, 2}) de ordem 2. O tensor de Levi-Civita é tal que εij = 0 se i=j, ε12 = + 1 e ε21 = −1. Quando o elemento geral de um grupo depende apenas de um parâmetro (θ, no caso do grupo SO(2)), dizemos que tal grupo é um grupo uniparamétrico. Para tais grupos, o gerador pode ser calculado através da seguinte relação: (36) ε = d ⁢ M ⁢ ( θ ) d ⁢ θ | θ = 0 . Os conceitos desenvolvidos durante esta seção serão utilizados para o desenvolvimento das seções que se seguem. deste trabalho. Como já foi dito e mostrado, o oscilador harmônico descrito em (1) possui simetria O(N), isto é, se definirmos

(145) p = ( p 1 . . . p n ) e x = ( x 1 . . . x n ) ,

uma transformação p′ = Rp e ex′ = Rx deixará a energia do oscilador harmônico invariante se R ∈ O(N). Vamos trabalhar com mais detalhes agora alguns casos particulares.

8.1. Oscilador harmônico unidimensional

O oscilador harmônico unidimensional é um sistema trabalhado tradicionalmente em qualquer livro texto de mecânica clássica e mecânica quântica. Tal sistema será aqui utilizado como base para os sistemas subsequentes. Considere então o hamiltoniano que descreve um oscilador harmônico unidimensional, dado por:

(146) H = p 2 2 m + 1 2 k x 2 .

Vamos então definir as seguinte quantidades adimensionais:

(147) P = p 2 m E 0 e X = k 2 E 0 x ,

sendo E0 a energia do oscilador. Substituindo as novas variáveis (147) no hamiltoniano do oscilador (146), obtemos

(148) H = E 0 ( P 2 + X 2 ) .

Podemos ainda definir uma nova variável Π da seguinte maneira:

(149) Π = P - i X ,

de modo que, sabendo que P e X são quantidades inteiramente reais, Π = PiX. Sendo assim, o produto

(150) Π * Π = ( P + i X ) ( P i X ) = P 2 + X 2 + i [ X , P ] ,

nos permite reescrever o hamiltoniano do sistema como

(151) H = E 0 ( Π * Π - i [ X , P ] ) .

Aqui reside a grande diferença entre a mecânica newtoniana e a mecânica quântica no que diz respeito ao estudo do oscilador harmônico. Na mecânica newtoniana o comutador [X, P] = 0, enquanto que na mecânica quântica, fazendo uso da relação de comutação [x^,p^]=iI^, o comutador [X^,P^]=(i/2)I^, de modo que, para a mecânica quântica, o hamiltoniano do oscilador harmônico passa a ser escrito como

Figura 7
Densidade de probabilidade para o estado fundamental (linha contínua) e para o primeiro estado excitado (linha tracejada).
Figura 8
Os primeiros quatro níveis de energia para o oscilador harmônico quântico unidimensional.
(152) H ^ = ω ( a ^ a ^ + 1 2 ) .

Para a obtenção do hamiltoniano acima, consideramos E0 = ℏω e identificamos o operador de aniquilação a^=Π.

Para o caso quântico, lembremos que o operador número N^=a^a^ é hermitiano, tendo portanto somente autovalores n e n≥0. Desta forma, o valor de menor energia para o sistema é quando n=0 e portanto En = 0 = (1/2)ℏω. É possível ainda mostrar que n deve ser um número inteiro. Desta forma, o primeiro estado excitado do oscilador harmônico é quando n=1, logo, En = 1 = (3/2)ℏω. Como N^|n0, avaliemos o caso da igualdade em zero. Como

(153) N ^ | 0 = a ^ a ^ | 0 = 0 0 | a ^ a ^ | 0 = 0 ,

temos que a^|0=0. Atuando ⟨x| pela esquerda, isto é,

(154) x | a ^ | 0 = a ^ ψ 0 ( x ) = 0 ,

e substituindo a^=P-iX, chegamos à seguinte equação diferencial

(155) 2 m ω d ψ 0 ( x ) d x = - m ω 2 x ψ 0 ( x ) ,

cuja solução nos dá a função de onda do oscilador harmônico quântico unidimensional como sendo

(156) ψ 0 ( x ) = α e - m ω 2 x 2 .

A constante α pode ser obtida através da condição de normalização da função de onda, de modo que α = (/πℏ)1/4. Note que a função de onda exibe o comportamento de uma gaussiana centrada na origem. A função de onda para o primeiro estado excitado pode ser obtida através da aplicação do operador de criação a^ na função de onda para o estado fundamental.

As equações (151) e (152) foram reescritas a partir de um hamiltoniano para o oscilador harmônico, mas note que tais equações expressam uma invariância por transformações do grupo unitário, isto é, se definirmos a^=Ma^, o hamiltoniano (152) se manterá invariante se a matriz M for unitária. Ou seja, o oscilador harmônico possui na verdade simetria perante transformações do grupo unitário, que é um grupo bem maior que o grupo das transformações ortogonais.

8.2. Oscilador harmônico bidimensionalisotrópico

O oscilador harmônico bidimensional isotrópico é descrito pelo seguinte hamiltoniano:

(157) H = 1 2 m ( p x 2 + p y 2 ) + 1 2 k ( x 2 + y 2 ) .

A isotropia é expressa pelo fato de que a constante elástica k é a mesma tanto para a componente x do movimento quanto para a componente y. Aqui, procederemos exatamente como fizemos para o oscilador unidimensional. Vamos definir as seguintes quantidades adimensionais:

(158) P x = p x 2 m E 0 , X = k 2 E 0 x
(159) P y = p y 2 m E 0 , Y = k 2 E 0 y .

Analogamente, definiremos as variáveis Πx e Πy como

(160) Π x = P x - i X
(161) Π y = P y - i Y .

Desenvolvendo, portanto, o hamiltoniano em (157) incorporando as novas variáveis, chegamos à seguinte expressão

(162) H = E 0 ( Π x * Π x + Π y * Π y - i [ X , P x ] - i [ Y , P y ] ) .

Salientamos novamente aqui que a diferença entre a mecânica clássica e a mecânica quântica está no fato de que as relações de comutação entre coordenada e momento se anulam no regime clássico. Para o caso quântico vale ressaltar uma diferença pontual do caso bidimensional para com o caso unidimensional. Note que, fazendo uso das relações de comutação entre coordenada e momentum e tomando E0 = ℏω chegamos à seguinte expressão para o hamiltoniano:

(163) H ^ = ω ( a ^ x a ^ x + a ^ y a ^ y + 1 ) .
Figura 9
Níveis de energia e degenerescências (entre parêntesis) para o oscilador harmônico quântico bidimensional isotrópico.

Façamos agora algumas considerações a fim de apontar as diferenças entre os casos unidimensional e bidimensional. Primeiramente, é possível ver que o mínimo de energia para o caso bidimensional não é mais En=0uni=(1/2)ω, mas sim En=0bi=ω, uma diferença caracterizada por um fator multiplicativo de 2. Tal qual o caso unidimensional, vemos que no caso bidimensional o hamiltoniano de partida (157) é invariante por transformações de O(2), enquanto que o hamiltoniano (162) é invariante por transformações de U(2). Dizemos então que a simetria SO(2) do hamiltoniano é uma simetria “estática”, uma vez que relaciona as coordenadas e momento independentemente, enquanto que a simetria SU(2) é dita simetria dinâmica, pois esta simetria “mistura” coordenadas e momentos em uma única simetria.

Outra diferença crucial entre o caso unidimensional e o caso bidimensional é o fato de que, com exceção do estado fundamental, todos os demais estados são degenerados, isto é, existem vários estados quânticos com a mesma energia. Para verificarmos tal fato tomemos os autovalores do hamiltoniano em (163), o que nos dá a seguinte expressão para a energia do sistema:

(164) E ( n x , n y ) = ω ( n x + n y + 1 ) .

Veja então que o estado fundamental ocorre quando tanto nx quando ny são iguais a zero simultaneamente, assim temos E0,0 = ℏω. No entanto, para o primeiro estado excitado, podemos ter nx = 0 e ny = 1, bem como nx = 1 e ny = 0, de modo que teremos dois estados com energia E0 ,1 = E1, 0 = 2ℏω. Dizemos então que o primeiro estado excitado do oscilador harmônico quântico bidimensional isotrópico possui degenerescência igual a 2. Podemos proceder de maneira análoga para os estados excitados subsequentes.

O cálculo para obter a função de onda para o estado fundamental no caso bidimensional é semelhante ao que foi feito para o caso unidimensional, com o único adicional de termos que usar duas condições, a saber, a^xψ0(x,y)=0 e a^yψ0(x,y)=0. Podemos então, de maneira análoga, obter a função de onda ψ0(x, y) para oscilador harmônico quântico bidimensional como

(165) ψ 0 ( x , y ) = m ω π e - m ω 2 x 2 e - m ω 2 y 2 .

A fim de explicitarmos as degenerescências nos estados excitados, calcularemos as duas funções de onda cujas energias são iguais a ℏω. Para calcularmos estas funções de onda, aplicaremos os operadores de criação a^x e a^y na função de onda do estado fundamental. Desta forma, obtemos,

Figura 10
Densidade de probabilidade para o estado fundamental do oscilador harmônico quântico bidimensional isotrópico.
Figura 11
Densidade de probabilidade para o primeiro estado excitado |ψ1(x, y)|2.
Figura 12
Densidade de probabilidade para o primeiro estado excitado |ψ1(x,y)|2.
(166) ψ 1 ( x , y ) = i 2 π m ω x e - m ω 2 x 2 e - m ω 2 y 2
(167) ψ 1 ( x , y ) = i 2 π m ω y e - m ω 2 x 2 e - m ω 2 y 2 .

8.3. Oscilador harmônico N-dimensionalisotrópico

Uma extensão imediata do oscilador harmônico em duas dimensões permite que escrevamos o oscilador harmônico em N-dimensões como:

(168) H = 1 2 m i = 1 N p i p i + 1 2 k i = 1 N x i x i .

Efetuando as mesmas mudanças de variáveis realizadas no caso bidimensional, agora para um número N de dimensões obtemos, para o caso clássico

(169) H = E 0 ( i = 1 N Π i * Π i - i i = 1 N [ X i , P i ] ) ,

enquanto para o caso quântico temos:

(170) H ^ = ω ( i = 1 N a ^ i a ^ i + N 2 ) .

Vemos então que o hamiltoniano de partida do oscilador harmônico N-dimensional possui uma simetria explícita O(N), mas que apresenta uma simetria dinâmica mais geral, U(N), após uma mudança de variáveis.

9. Conclusão

Visando ser um possível material de apoio ao estudante de Graduação, seja de Bacharelado ou de Licenciatura, nesta contribuição buscamos abordar de maneira sucinta e intuitiva a poderosa ferramenta da teoria de grupos, focando nossa atenção em grupos que são de grande importância no estudo de física de partículas, e em geral de física de altas energias. Adotamos uma abordagem que parte de um grupo de Lie muito simples, comutativo, o grupo SO(2), relacionando este grupo com o princípio de invariância do produto escalar e estabelecendo a conexão deste com as rotações em duas dimensões. Nas seções subsequentes abordamos, os grupos Sp(2), SU(2), SO(3) e SU(3), sempre partindo de princípios de invariância e simetria para que assim um paralelo com a física, em especial com a física do modelo padrão, seja estabelecido. Discutimos ainda alguns aspectos importantes no que diz respeito ao oscilador harmônico isotrópico bidimensional e N-dimensional dentro da perspectiva da teoria de grupos.

Um dos pontos de grande importância no estudo de teoria de grupos consiste na fundamentação de um conhecimento mais sólido no que diz respeito à física básica. Outro ponto igualmente importante que é propiciado pelo estudo de teoria de grupos é a possibilidade de uma compreensão mais plena de tópicos de pesquisa em física, que muitas vezes estão fora do domínio de compreensão do estudante de graduação por requerer um arcabouço matemático muito sofisticado.

Agradecimentos

Gostariamos de agradecer aos revisores do artigo pelas valorosas sugestões e comentários.

Material Suplementar

Apêndice: Matrizes de Euler

Neste apêndice mostraremos como são construídas as matrizes de Euler em uma abordagem algebrista, diferentemente da abordagem geométrica usualmente estudada. Para tal, considere o seguinte lema:

Lema: Seja R ∈ SO(n) com n ímpar. Então, 1 é um auto valor de R e, portanto, existe ao menos um vetor não nulo vn tal que Rv=v.

Prova: Como R ∈ SO(n), det(R) = 1. Logo,

(171) d e t ( I R ) = d e t [ R ( R T I ) ] = d e t ( R ) d e t [ ( R I ) T ] = d e t ( R I ) = d e t [ ( I R ) ] = d e t ( I R ) ,

desta forma, det(IR) = 0, que implica que 1 é autovalor de R, isto é, existe v3 tal que Rv=v. □

De maneira mais simples isto quer dizer que, para todo grupo SO(n) com n ímpar, existe um vetor vn cuja atuação de R sob tal vetor o deixará invariante. No caso particular do grupo SO(3) existirá sempre um vetor que será deixado invariante perante atuação de uma matriz R ∈ SO(3). Ainda para o caso particular de SO(3), podemos dizer que o subespaço V de 3 formado pelos vetores que são deixados invariantes perante atuação de R ∈ SO(3) (RI) é unidimensional.

Veja ainda que o subespaço V pode não ser o mesmo para matrizes R distintas. Veja também que foi excluído o caso R = I, uma vez que qualquer vetor de 3 é invariante por I e não apenas um subespaço unidimensional.

Vamos agora provar que o subespaço V3 formado pelos vetores que são deixados invariantes perante atuação de R ∈ SO(3) (RI) é unidimensional. Para tal considere RI uma matriz qualquer de SO(3) e considere também

(172) V = { v 3 ; R v = v } .

Pelo lema acima demonstrado, sabemos que V ≠ ∅ e que sua dimensão pode ser, portanto, 1, 2 ou 3. Note ainda que, se vV, então, aplicando RT à esquerda de Rv=v, vemos que RTv = v, uma vez que RTR = I. Considere agora V como sendo o conjunto de todos os vetores u ortogonais à todos os vetores de V. Vamos ver agora que a aplicação de R também deixa os vetores ortogonais à vV invariantes, isto é, para todo uV então RuV. Para tal, seja vV e uV. Como uv=0, em notação matricial, temos

0 = U T V = U T ( R T V ) = ( R U ) T V .

Como isso vale para todo vV, temos que RuV. Por fim, vamos mostrar agora que a dimensão de V tem que ser obrigatoriamente 1, isto é, que os casos de V com dimensão 2 e 3 não são possíveis.

Se a dimensão de V fosse igual a 3, V seria idêntico ao 3 e neste caso Rv=v para todo v3, o que implica em R=I, situação que foi excluída.

Considerando que dim(V) = 2, a dimensão de seu complemento ortogonal V é igual a 1. Como mostramos que V é invariante pela ação de R ∈ SO(3), então existe λ tal que Ru = λu para todo uV. A invariância de uV por R requer que UTU = (RU)T(RU). Usando a equação de autovalor chegamos a UTU = λ2UTU, que nos dá que λ = ±1. Se λ = + 1 então uV ao invés de uV. Logo λ = −1. Neste caso a matriz R teria dois autovalores iguais a + 1 e um autovalor igual a –1, o que a faria ter determinante igual a –1, o que é uma contradição uma vez que R ∈ SO(3). Portanto a dimensão de V só pode ser igual a 1, como queríamos demonstrar.

Suponha agora que escolhemos em 3 uma base ortonormal formada pelos vetores v, u1 e u2 com vV e u1,u2V. Como v é deixado invariante pela ação de R, bem como V, então a matriz tem que ter a seguinte forma:

(173) R = ( 1 0 0 0 ? ? 0 ? ? ) .

A submatriz r formada pelos elementos indeterminados deve ser tal que, para todo uV então UTU = (rU)T(rU), uma vez que a propriedade geral de R é manter o produto escalar invariante. Logo r deve ser ortogonal. Além disso, 1 = det(R) = det(r). Sendo assim r ∈ SO(2) e tem a forma (19). Portanto R tem a forma apresentada em (121).

References

  • 1.
    P.A.M. Dirac, Proc. Roy. Soc. Lond. A 117, 610 (1928).
  • 2.
    J.J. Thomson, Phil. Mag. 44, 269 (1897).
  • 3.
    D. Griffiths, Introduction of Elementary Particles (Wiley-vch, Oregon, 2012), 2a ed.
  • 4.
    E. Rutherford, Lond. Edinb. Dubl. Phil. Mag. 37, 222 (1919).
  • 5.
    A. Einstein, Annalen der Physik 17, 6 (1905).
  • 6.
    A. Compton, Phys. Rev. 21, 5 (1923).
  • 7.
    P.A.M. Dirac, Proc. Roy. Soc. Lond. A 126, 360 (1930).
  • 8.
    H. Weyl, The theory of groups and quantum mechanics (Dover, New York, 1950).
  • 9.
    P.A.M. Dirac, Proc. Roy. Soc. Lond. A 133, 60 (1931).
  • 10.
    C.D. Anderson, Phys. Rev. 43, 6 (1933).
  • 11.
    M. Gell-Mann, Phys. Rev. 125, 3 (1962).
  • 12.
    L.S. Martin, Grupos de lie (Unicamp, Campinas, 2017).
  • 13.
    F.U. Coelho, Introdução à álgebra linear (Edusp, São Paulo, 2003), 3a ed.
  • 14.
    J.J. Sakurai e J. Napolitano, Mecânica quântica moderna (Bookman, Porto Alegre 2012), 2a ed.
  • 15.
    A.B. Jambersi e S. Silva, Rev. Bras. Ensino de Fís. 38, e2313 (2016).
  • 16.
    J. Vaz Jr. e R. Rocha Jr., Álgebras de Clifford e Espinores (Livraria da Física, São Paulo, 2012).
  • 17.
    C.O. Silva e P.L. Natti, Rev. Bras. Ensino de Fís. 29, 175, 2007.
  • 1
    Dadas duas matrizes A e B de mesma ordem, a relação de anticomutação entre elas é dada por {A, B} = AB + BA.

Datas de Publicação

  • Publicação nesta coleção
    18 Dez 2020
  • Data do Fascículo
    2021

Histórico

  • Recebido
    12 Ago 2020
  • Revisado
    28 Out 2020
  • Aceito
    03 Nov 2020
Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
E-mail: marcio@sbfisica.org.br