quinta-feira, 25 de outubro de 2007

EQUIVOCOS DA COSMOLOGIA PADRÃO

Muitas das discrepâncias notadas quando se cruza as informações teóricas aceitas pela comunidade científica com fatos oserváveis no Universo acabam não chegando ao conhecimento público.E na maioria das vezes, fica valendo por muitos e muitos anos a teoria ultrapassada, ou ainda acabam por serem feitos tantos remendos na teoria antiga que se torna deveras difícil acreditar que se constitua realmente de uma verdade física.

==INTRODUÇÃO==

Há cem anos a ciência desconhecia a existência de galáxias e acreditava que o universo era estático. Tampouco se conhecia o mecanismo pelo qual a energia é gerada nas estrelas, e a idade do universo era estimada em apenas alguns milhões de anos. Hoje a ciência tradicional reza que vivemos em um universo em expansão, com bilhões de galáxias dentro de nosso horizonte, que iniciaram seu processo de formação há mais de 10 bilhões de anos. Os avanços alcançados nesses últimos cem anos são enormes. Mas infelizmente apezar destes avanços no que se refere a as técnicas de observação tudo o que a Ciência afirma a respeito do Universo é baseada no chamado modelo padrão da cosmologia (MPC) que representa, sem dúvida alguma, um quadro cada vez mais hipotético do que real,de forma estremamente abrupta os conteúdos originais vem sendo alterados ante a cada nova descoberta da física atômica, quântica, nuclear, de partículas elementares e gravitacional. Se apoiando quase sempre em algoritmos forçadamente extraídos da Teoria da Relatividade Geral de Einstein, em combinação com física fundamental, para fazer afirmações a respeito da evolução do universo desde as primeiras frações de segundo até hoje, aproximadamente 14 bilhões de anos depois. Posso por exemplo, me recordar dos seguintes casos que terão sua ênfase no momento oportuno no contexto deste artigo: a natureza da matéria escura fria, uma componente com pressão nula responsável pela formação de estruturas como galáxias e seus aglomerados, permanece um mistério. Não se sabe ainda, com grande precisão, sua densidade. Embora o chamado modelo de matéria escura fria seja muito bem sucedido em escala cosmológica, ele encontra dificuldades em escalas galácticas, prevendo, via simulações numéricas, um número significativamente maior de galáxias satélites do que o observado. Desconhece-se igualmente se a energia escura, uma componente uniformemente distribuída com pressão suficientemente negativa (e, portanto, gravitacionalmente repulsiva) é uma constante cosmológica ou um campo escalar dinâmico (quintessência). Há ainda a possibilidade teórica de que a aceleração cósmica seja conseqüência de uma teoria de gravitação alternativa ou da existência de dimensões extras. Na verdade, não estamos completamente seguros se a matéria e a energia escuras constituem, de fato, duas substâncias distintas: atualmente têm sido sugeridas propostas para sua unificação (quartessência).

==GRANDES PROBLEMAS COM O MODELO PARDÃO DE COSMOLOGIA==

Considere por Modelo Padrão de Cosmologia aquele que se embasa na Teoria do Big Bang.

O primeiro enigma do MPC é conhecido como o problema da chateza (ou problema da entropia) do universo. Ele foi apresentado pela primeira vez por R.H. Dicke e P.J.E. Peebles, ambos da Universidade de Princeton, em 1979. Segundo o modelo padrão da cosmologia, o universo possui curvatura espacial constante, que pode ser nula, positiva ou negativa. Em cosmologia é comum expressarmos a densidade de energia de qualquer componente existente no universo em unidades de uma densidade crítica . A razão entre a densidade de energia de uma componente ("i") qualquer e a densidade crítica é chamada de parâmentro de densidade. Para denotar essa quantidade usamos a letra grega Ômega . Denotamos por parâmetro ômega de densidade TOTAL, a soma do parâmetro de densidade de todas as componentes existentes no universo. Temos um universo espacialmente chato (curvatura nula) se ômega TOTAL = 1. Em um universo com curvatura espacial positiva temos ômega TOTAL > 1, e a curvatura espacial é negativa se ômega TOTAL <> 1, mostra-se que, com o passar do tempo, o valor de ômega TOTAL aumenta, ou seja, a diferença desta quantidade para a unidade é sempre positiva e cada vez maior. No caso em que o universo inicia com ômegaTOTAL < total =" 1"> 10 elevado potência 87)!
O segundo problema do MPC é conhecido como o problema do horizonte, ou o problema da isotropia. O horizonte (de partícula) pode ser pensado como a máxima distância com a qual um observador, em um determinado instante, pode ter conexão causal.De acordo com a relatividade especial, sabemos que a máxima velocidade com que uma informação pode se propagar é a velocidade da luz. Suponhamos então que a idade do universo seja 14 bilhões de anos e admitamos também, para efeito de raciocínio, que ele seja estático. É claro que um fóton que tenha saído em t = 0, em nossa direção, de uma região do universo que diste da Terra mais do que 14 bilhões de anos luz, não terá tido tempo de chegar até nós. Neste exemplo, a distância de horizonte é igual a 14 bilhões de anos luz e significa que não podemos ter acesso a nenhum tipo de informação vinda de regiões mais distantes. Caso não trabalhássemos com a hipótese de um universo estático e tivéssemos levado em conta a expansão, o horizonte seria maior, pois enquanto o fóton viaja até nós, a distância que ele já percorreu, devido à expansão do espaço, aumenta. Contudo, mesmo considerando a expansão, a distância de horizonte não será muito maior do que o valor estimado no caso estático. O MPC considera que a radiação cósmica de fundo sofreu seu último espalhamento quando a idade do universo era de aproximadamente 300.000 anos. Mostra-se que a distância de horizonte, nesta época, era da ordem de 600.000 anos luz. Considera-se que a radiação cósmica de fundo é altamente isotrópica, isto é, a menos de pequenas inomogeneidades, sua temperatura é da ordem de 3 graus Kelvin qualquer que seja a direção apontada pela antena que a detecta. Acontece que, dois fótons vindos de direções opostas, saíram de regiões, na superfície de último espalhamento, que estavam separadas por uma distância cem vezes maior que a distância de horizonte na época! Isto significa que, no quadro usual do MPC, essas regiões ainda não tinham tido tempo de se comunicar. O problema da isotropia ou do horizonte, é então entender como regiões sem conexão causal naquela época poderiam gerar o que hoje nos chega com o mesmo tipo de informação. Observe que os fótons foram emitidos a partir dessas regiões e seguiram livres, apenas esfriaram devido à expansão. Para ilustrar esse problema, suponhamos que em uma sala de aula cheia de estudantes um professor pedisse que cada aluno, sem se comunicar com nenhum outro colega, escrevesse um número qualquer em um papel. Após os papéis serem entregues, ele constata que todos os números são iguais. É difícil entender essa coincidência! É mais razoável pensar que os estudantes estabeleceram alguma forma de comunicação antes de entrarem na sala. De forma análoga, no âmbito do MPC não há uma explicação dinâmica para a isotropia da radiação cósmica de fundo.
O terceiro problema do MPC que abordaremos é sutil e envolve alguns aspectos mais técnicos. Uma antiga questão da cosmologia é entender como as galáxias (e outra estruturas, como aglomerados de galáxias) se formaram. Desejamos saber, por exemplo, qual é a origem das perturbações na matéria que posteriormente, por instabilidade gravitacional, cresceram e geraram essas estruturas. No âmbito do modelo padrão não há uma explicação para a origem dessas perturbações na densidade de energia. Esse problema torna-se mais agudo quando observamos que o espectro de flutuações de densidade precisa ter características especiais. Mas o que é exatamente esse espectro de flutuações de densidade? Para entender melhor o significado dessa quantidade, vamos denotar a densidade de energia em um ponto arbitrário do espaço pela soma da densidade média de energia (função apenas do tempo) com a densidade de uma pequena perturbação que varia de ponto a ponto. Tanto a densidade média de energia como a densidade de uma pequena perturbação , decrescem com o tempo devido à expansão. Contudo, o contraste de densidade, que é a razão entre a densidade da pequena perturbação com a densidade média de energia , em geral, cresce com o tempo. Da mesma forma que podemos decompor uma onda sonora (ou luminosa) em uma soma de ondas de forma conhecida, cada qual com um determinado comprimento de onda , podemos decompor o contraste de densidade em uma soma de ondas planas, cada onda possuindo um certo valor para o comprimento de onda. O que chamamos de espectro de flutuações de densidade é a intensidade com que cada componente, com comprimento de onda definido, contribui na soma que gera a perturbação. Na década de 70, antes do surgimento da idéia de inflação, Edward Harrison da Universidade de Massachusetts e o famoso físico russo Yakov B. Zeldovich, de forma independente, mostraram que o mais simples espectro de perturbações em acordo com as observações cosmológicas possui a característica de ser invariante de escala. Este é um termo técnico que signifca que a contribuição de cada escala é a mesma, ou de forma mais precisa, é a mesma quando a escala (comprimeto de onda) é do tamanho do raio de Hubble.
O quarto problema do MPC é o chamado problema da super-abundância de monopolos magnéticos. Esses monopolos são previstos surgir se certos tipos de transição de fase de grande unificação ocorreram no universo primitivo. Argumentos de causalidade impõem um limite inferior para a densidade numérica dessas partículas. Mesmo considerando a diluição desses objetos, devido ao processo de aniquilação monopolo-antimonopolo, o resultado obtido está muito distante do que seria aceitável pelas observações.Os defensores do MPC tem tentado nos últimos anos resolver este problema com o modelo infácionário para o Universo: Alan Guth, no final da década de 70, observou que os problemas cosmológicos poderiam ser resolvidos se a hipótese de adiabaticidade da expansão do universo estivesse incorreta. Ele sugeriu um quadro no qual há uma grande produção de entropia logo após a transição de fase de grande unificação. Semelhante ao que observamos quando fervemos uma panela com água, essa transição de fase ocorreria pela nucleação e crescimento de bolhas da nova fase (fase de simetria quebrada) dentro da velha. Existe uma temperatura crítica (que corresponde a energias da ordem de 10 elevado a décima quarta potência de GeV) em que essa transição sucederia. Contudo, é preciso que este processo de transição de fase seja lento para que os problemas cosmológicos possam ser resolvidos. Segundo o modelo de Guth, antes da transição de fase, o universo entraria em uma fase de super-esfriamento e de expansão acelerada (inflação), na qual haveria um crescimento exponencial de todas as distâncias. Para resolver os problemas cosmológico é necessário um fator de crescimento das distâncias de pelo menos 28 ordens de magnitude (1. Nessa fase a temperatura do universo decresceria também exponencialmente, pelo mesmo fator, e toda a matéria existente seria diluida. Finalmente a transição de fase se completaria com uma rápida termalização do calor latente (energia do vácuo acumulada na parede das bolhas), e o universo seria reaquecido a uma temperatura próxima à temperatura crítica. Após a inflação o universo entraria na fase de expansão usual desacelerada. A geração de entropia ocorreria com o reaquecimento do universo e o problema da chateza seria também resolvido. Observamos que, com o crescimento exponencial das distâncias na fase inflacionária, qualquer curvatura existente seria tremendamente suprimida. O problema de horizonte (ou isotropia) seria também resolvido, pois a região que constituiria hoje o universo observável, adviria de uma região bem menor que o horizonte naquela época e, portanto, poderia estar causalmente conectada. O cenário inflacionário como proposto por Guth depende para o seu sucesso de dois fatos. Em primeiro lugar é preciso que o universo infle por um intervalo de tempo de pelo menos 10 elevado a -32 segundos. Para isso, a taxa de nucleação de bolhas deve ser inicialmente pequena. Caso contrário, a transição de fase se completaria rapidamente e não daria tempo para que os problemas cosmológicos fossem resolvidos. Em segundo lugar, é necessário que após o universo ter inflado suficientemente, a transição de fase ocorra subitamente com uma rápida termalização da energia. Infelizmente essas duas condições são incompatíveis. Mostra-se que existe um valor assintótico para o raio da bolha da nova fase que depende do instante em que ela é formada. Quanto mais tarde ela se forma menor é esse raio. Assim, o intervalo de tempo necessário para resolver os problemas cosmológicos impede que a transição de fase complete-se adequadamente. Técnicamente diz-se que não há percolação, isto é, ao final do processo, não há uma região finita considerável na fase de simetria quebrada (nova fase), que pudesse constituir o que hoje é o universo observado. O problema do cenário original descrito acima, de uma volta bem sucedida ao estágio de expansão desacelerada, levou Linde e posteriormente Steinhardt e Andreas Albrecht a sugerirem um novo cenário inflacionário. Esses autores observaram que, sob certas condições especiais, a inflação poderia acontecer após a transição de fase. Nesse novo quadro, o universo teria emergido de uma única bolha ou, mais exatamente, de uma única região de flutuação. Tanto no cenário original como no novo cenário inflacionário, o campo que dirige e gera a inflação é o campo de Higgs, que é também responsável pela transição de fase de grande unificação. Mostra-se, contudo, que para funcionar o novo cenário inflacionário necessita que esse campo tenha interações extremamente fracas, o que não é natural nessas teorias. Assim, a principal crítica a esses modelos, é que estariamos simplesmente transferindo um ajuste fino na cosmologia para um ajuste fino na física de partículas. Sem uma sólida motivação na física de partículas, os cenários inflacionários perdem grande parte de seu apelo. Os atuais modelos inflacionários, em geral, fazem uso de um campo escalar cuja única função é gerar a inflação. Embora não exista um modelo inflacionário que se possa chamar de "modelo inflacionário padrão", ele é amplamente divulgado pelos defensores do MPC pelo simples fato de que sem ele por mais que se torcese as leis físicas e se estrangulasse a matemática não se chegaria a um algoritimo que pudesse justificar o MPC.
O quinto problema para o MPC é a aceleração cósmica.Observações de supernovas distantes sugerem que a expansão está acelerando. Isso não significa contudo que a expansão do universo foi sempre acelerada. Na verdade o que as observações indicam é que o universo entrou em uma fase de aceleração mais recentemente e que no passado remoto a expansão era desacelerada. Mas o que pode estar causando a aceleração da expansão do universo? Essa é uma questão crucial para a qual ainda o MPC não tem resposta. Na verdade temos algumas respostas possíveis, mas as observações atuais ainda não permitem definir qual delas (ou quem sabe alguma outra) é a adequada. Podemos dividir as diversas possibilidades consideradas até agora em dois grandes grupos. A alternativa mais radical é admitir que a teoria de gravitação que usamos para analisar as observações cosmológicas está incorreta ou incompleta. Nesse grupo há ainda duas possibilidades. A primeira modifica a teoria da gravitação de Einstein, acrescentando um novo termo que só seria relevante quando a curvatura do espaço-tempo é suficientemente pequena, isto é, mais recentemente na evolução cósmica. A segunda possibilidade admite também uma modificação da gravitação, mas de uma forma mais extrema. Segundo essa teoria a aceleração cósmica é a manifestação da existência de uma dimensão espacial extra. Ambas possibilidades tem sido investigadas intensamente mas existem grandes dificuldades nessas teorias. A alternativa mais conservadora é manter válida a relatividade geral de Einstein, mas admitir que exista uma componente exótica desconhecida no universo que causa a aceleração cósmica. A gravidade decorrente da matéria ordinária (prótons, elétrons, fótons etc) é atrativa e portanto ela desacelera a expansão. Assim, é preciso uma outra força ou alguma matéria com propriedades bem distintas da matéria usual para explicar esse fenômeno. A constante cosmológica (ad hoc), introduzida por Einstein em seu primeiro modelo cosmológico, é o candidato mais popular capaz de gerar essa repulsão cósmica. Como vimos, ela foi introduzida nas equações de campo da relatividade geral para compatibilizá-las com a idéia de um universo estático. Mas como ad hoc pode gerar uma expansão acelerada? Segundo a teoria Newtoniana da gravitação a massa é a fonte de gravidade, e como esta é positiva, a força gravitaçional é sempre atrativa. Para um fluido, por exemplo, o limite Newtoniano deixa de valer quando a pressão é relativamente alta. Isso ocorre para fluidos cuja pressão é da ordem da densidade de energia. Nesses casos é preciso usar a teoria da relatividade. Para a relatividade geral toda energia é fonte de gravitação. De uma forma mais precisa, a "massa efetiva" que gera gravitação é proporcional a densidade de energia mais três vezes a pressão. Assim, existindo uma matéria exótica com uma pressão suficientemente negativa, a "massa efetiva", que gera gravitação será negativa e teremos repulsão gravitacional. A constante cosmológica possui essa propriedade. Várias vezes na história da cosmologia moderna ad hoc foi introduzida quando havia uma discrepância entre teoria e observações. Posteriormente, com a obtenção de melhores dados observacionais ou quando novas interpretações surgiam essa constante era descartada por uma questão de simplicidade. Não é impossível que isso ocorra novamente. Contudo há agora algo novo, que precisa ser explicado, e que torna a questão da constante cosmológica um dos problemas mais importantes (e complicados) da física de partículas e campos. Trata-se da questão da energia do vácuo.
O sexto problema do MPC,é como já foi citado é a energia do vácuo.Quando pensamos em vácuo, a maioria de nós associa essa idéia ao espaço vazio, isto é, a de um espaço desprovido de qualquer matéria. Contudo, para o físico de partículas a palavra "vácuo" possui um significado distinto. Para ele vácuo significa o estado de mínima energia de um sistema. Mas como pode o espaço vazio ter energia? Segundo a mecânica quântica, todas as quantidades físicas tendem a flutuar, particularmente isso ocorre também com o estado de vácuo. A teoria indica que, no estado de vácuo, partículas e antipartículas virtuais aparecem e desaparecem no espaço, contribuindo assim para a sua energia. Em geral, fora da relatividade geral a energia do vácuo não é importante, pois podemos redefini-la através de uma constante aditiva. Contudo, isso não é possível quando lidamos com a gravitação. Segundo a relatividade geral a gravitação é sensível a toda forma de energia, inclusive a do vácuo. É apenas no contexto da gravitação descrita pela relatividade geral que podemos atribuir um valor ou significado absoluto à energia do vácuo. Pode-se mostrar que a condição de que o estado de vácuo seja independente do observador inercial, implica que a sua contribuição à gravidade tenha a mesma forma que a de uma constante cosmológica. Assim, a constante cosmológica efetiva, isto é o ad hoc que pode ser observado pelos testes cosmológicos, é a soma de dois termos. O primeiro termo é a chamada constante cosmológica nua, ou seja, um termo nas equações, como o introduzido por Einstein A segunda contribuição é a advinda da densidade de energia do vácuo. O problema é que essa contribuição é muito, mas muito maior que o limite observacional. Há uma discrepância entre as estimativas teóricas e as observações de um fator da ordem de 10 elevado a potência 120, ou na melhor das hipóteses de 10 elevado a potência de 50! Sem dúvida, essa é a maior divergência conhecida entre teoria e observação. Isso pode significar que: 1) Existe uma espécie de cancelamento (ou quase cancelamento) milagroso entre a constante cosmológica nua e a densidade de energia do vácuo. Esse extremo ajuste fino é inaceitável e precisaria ser explicado. 2)Existe alguma simetria ou mecanismo, que ainda não conhecemos, e que leva a um cancelamento da densidade de energia do vácuo. Nesse caso, como as observações indicam uma expansão acelerada, alguma outra componente desempenharia o papel de ad hoc. Essa componente é chamada, genericamente, de energia escura (ou quintessência) e sua característica principal é apresentar uma pressão efetiva negativa. Quando admitimos a existência de uma componente exótica responsável pela aceleração cósmica (e que pode ou não depender do tempo), nos deparamos com mais duas questões que precisam ser explicadas. A primeira é conhecida como o problema da coincidência cósmica e consiste em entender porque o universo começou a se expandir de forma acelerada só mais recentemente. Dito de outra forma; porque a densidade de energia da matéria escura e a densidade de energia da energia escura são da mesma ordem de magnitude? Caso o valor de ad hoc fosse dez vezes maior que a sua estimativa atual, o universo já teria iniciado a aceleração há muito mais tempo atrás. Mostra-se, que nesse caso, não haveria tempo para formar estruturas como galáxias e seus aglomerados. Caso ad hoc fosse dez vezes menor, nós não observaríamos a aceleração cósmica e esta só poderia ser detectada em um futuro bem distante. No caso em que a componente exótica é uma constante cosmológica, o problema da coincidência cósmica confunde-se com o chamado problema das condições iniciais. Isto é, foram necessárias condições iniciais muito especiais no início do universo para que L começasse a dominar a dinâmica da expansão só mais recentemente. Mostra-se que em certos modelos em que a energia escura é dinâmica, há soluções atratoras (chamadas de "tracking") em que o problema das condições iniciais é reduzido. Contudo, isto só ocorre às custas de ajustes de parâmetros do modelo, o que não é o ideal. O problema da coincidência cósmica também pode ser aliviado admitindo-se uma interação entre a energia escura e a matéria escura ou, de uma forma mais radical, supondo que a matéria escura e energia escura são manifestações distintas de uma mesma componente (chamada de quartessência). Contudo para funcionar adequadamente, aqui também é necessário introduzir-se no modelo uma escala de massa (ou energia). Sendo que o correto seria que fosse formulada uma teoria fundamental a partir da qual essa escala surgisse naturalmente. Tendo em vista que estas foram citados até então os maiores problemas com riqueza de detalhes cito agora outros problemas que valem a pena serem mencionados:
I.A causa do deslocamento para o vermelho não é necessariamente o afastamento das galáxias. Há outros fenômenos que podem causar um deslocamento para o vermelho. Entre estes, o assim-chamado “deslocamento gravitacional para o vermelho” implica em massas incrivelmente grandes para as galáxias mais distantes; e o assim-chamado “efeito Doppler transversal” exigiria uma revolução muito rápida ao redor de um centro. deveríamos admitir esta possibilidade, especialmente uma vez que a revolução em volta de um centro é uma caraterística geral de objetos cósmicos. Finalmente há também a idéia de que, por interação com a matéria, a luz perderia parte de sua energia durante a longa viagem de uma galáxia distante até a Terra: Fritz Zwicky, astrônomo suiço, nascido na Bulgária em 1898, propôs, ainda em 1929, após a publicação do trabalho de Hubble, um novo mecanismo de arrasto gravitacional, pelo qual fótons (partículas de luz), não seriam apenas defletidos mas também, perderiam energia e momentum para o meio material gerador do campo gravitacional. Zwicky sugeriu que o desvio para o vermelho da luz das galáxias não seria causado pela expansão do universo e sim, uma conseqüência desse arrasto, que geraria uma diminuição na frequência (ou aumento do comprimento de onda) dos fótons à medida que eles viajassem das galáxias distantes até nós. Quanto mais distante a galáxia maior a perda de energia, e portanto maior o desvio para o vermelho, de tal forma que, segundo ele, a lei distância vs. desvio para o vermelho poderia ser explicada através desse mecanismo. Uma conseqüência dessa teoria é que a variação da largura das linhas de emissão e absorção com a distância seriam bem distintas
II.Na teoria do Big Bang, as partículas elementares como elétrons, prótons, neutrinos, nêutrons e outras, foram produzidas nos primeiros momentos do universo. De acordo com a melhor informação, bem apoiada por experiências de laboratório, tais partículas elementares são formadas em pares: com cada partícula aparece uma antipartícula, feita de antimatéria: pósitrons com elétrons, antiprótons com prótons, etc. Quando uma partícula encontra sua antipartícula, as duas desaparecem num fulgor de energia. No universo muito denso, justamente depois que partículas e antipartículas foram formadas, teria sido inevitável que toda partícula tivesse encontrado sua antipartícula. Como resultado, o universo estaria cheio de radiação e destituído de matéria, exceto partículas como os nêutrons, que não têm antipartículas. Todavia, há muita matéria normal no universo. Ou devia haver alguma assimetria na produção de partículas elementares — com mais partículas normais do que “antis”, ou então cerca da metade do universo devia consistir de antimatéria, cuidadosamente isolada da matéria normal. Mas não há indicação disso.
III. Einstein modificou as suas equações originais do campo gravitacional introduzindo um termo repulsivo, a chamada constante cosmológica (ad hoc). Einstein acreditava que seu modelo possuía as seguintes virtudes: 1) podia relacionar a massa do universo com a constante cosmológica, o que estava em acordo com o princípio de Mach; 2) mostrou ser possível construir um modelo cosmológico consistente com a relatividade geral; 3) acreditava ser este o único modelo com essas características. Mas ao ser evidenciado um universo em expansão a constante teve de ser abandonada, o próprio Einsten reconheceu que foi um de seus maiores fracassos , todavia por várias ocasiões esta constante tem sido utilizada para remendar o Conceito Cosmológico Padrão que ante a tantos evidencias contrárias propiciadas pela real observação está agonizando e precisa de remendos cada vez maiores.
IV.Modelos do universo estático se ajustam melhor aos dados observados do que modelos do universo em expansão. Modelos do universo estático se adequam melhor a observações com parâmetros não ajustáveis. O Big Bang pode se ajustar com cada uma das observações criticas, mas apenas com parâmetros ajustáveis, um dos quais( o parâmetro da desaceleração cósmica) requere mutuamente valores exclusivos para se ajustar a diferentes testes[[2],[3]], sem a teoria da constante cosmológica , este ponto já invalida o big bang. Igualmente se a discrepância pode ser explicada, a razão de Occam favorece o modelo com os parâmetros menos ajustáveis- o modelo do universo estático.
V. A microonda de fundo faz mais sentido com uma temperatura limite de um espaço aquecido pelas estrelas do que um remanescente de uma bola de fogo. A expresão “a temperatura do espaço”é o título do capítulo 13 da famosa obra de 1926 do Sir Arthur Eddington, [[4]] Eddington calculou a temperatura mínima que qualquer corpo no espaço pode alcançar, sendo que se deve considerar o corpo estando imerso na radição de uma estrela distante. Com parâmetros não ajustáveis, ele obteve 3ºK(depois corrigido para 2,8ºK[[5]]), exatamente o mesmo resultado que foi observada, então a chamou de temperatura de fundo. Um cálculo similar, embora com menos exato, aplica-se a temperatura limitada do espaço intergalático por causa da radiação da luz da galáxia. [ [ 6 ] ] assim a matéria intergaláctica é como uma "névoa", e forneceria conseqüentemente uma explanação mais simples para a radiação da microonda, incluindo seu espectro em forma de corpo escuro. Tal névoa explica também a relação de outra maneira incômoda do infravermelho às intensidades de radiação das galáxias de rádio. [ [ 7 ] ] a quantidade de radiação emitida por galáxias distantes cai com comprimento de ondas crescentes, como esperado se os comprimento de ondas mais longos forem dispersados pelo meio intergaláctico. Por exemplo, a relação da radiação infravermelha das galáxias e da radiação do comprimento de ondas muda com a distância de maneira que implique a absorção. Bàsicamente, isto significa que os comprimento de ondas mais longos são absorvidos mais fàcilmente pelo material entre as galáxias. Mas então a radiação da microonda (entre os dois comprimento de ondas) deve ser absorvida por esse meio também, e não tem nenhuma possibilidade alcançar-nos de tais distâncias grandes, ou remanescer perfeitamente uniforme ao fazê-lo. Deve preferivelmente resultar da radiação das microondas do meio intergaláctico. Este argumento sozinho implica que as microondas não poderiam nos vir diretamente de uma distância além de todas as galáxias, e conseqüentemente de que a teoria Big Bang não pode estar correta. Nenhuma das predições da temperatura de fundo baseada no big bang eram próximas bastante para serem qualificadas como sucessos, sendo a pior estimativa aproximada de Gamow de 50°K feito em 1961, apenas dois anos antes da descoberta real. Claramente, sem uma predição quantitativa realística, a "bola de fogo hipotética" do Big Bang torna-se indistinguível da temperatura mínima natural de toda a matéria fria no espaço. Mas nenhumas das predições, que variaram entre 5°K e 50°K, combinaram observações. [ [ 8 ] ] e o big bang não oferece nenhuma explanação para o tipo de variações da intensidade com o comprimento de onda da radiação das galáxias visível.
VI.Previsões de elementos abundantes usando o Big Bang requere também muitos parâmetros ajustáveis para que se possa trabalhar. A abundância universal da maioria dos elementos foi predita corretamente por Hoyle no contexto do modelo cosmológico original do estado constante.Este modelo se ajustou para todos os elementos mais pesados do que o lítio. O Big Bang reuniu aqueles resultados e concentrou-os em predizer a abundância dos elementos leves. Cada previsão de elemento requer ao menos um parâmetro ajustável original . Frequentemente, uma pergunta que fica sem resposta é porque o elemento foi criado ou destruído em algum grau que segue o Big Bang . Quando você remove estes graus de liberdade, nenhuma predição genuína remanesce. O melhor que o Big Bang pode reivindicar é consistência com observações usando vários modelos da constante cosmológica para explicar os dados para cada elemento leve. Exemplos: [ [ 9], [10 ] ] para hélio-3; [ [ 11 ] ] para lítio-7; [ [ 12 ] ] para o deutério; [ [ 13 ] ] para o berílio; e [ [ 14], [15 ] ] para vistas gerais. Para uma discussão cheia de uma origem alternativa dos elementos leves, veja [ [ 16 ] ].
VII.O universo tem uma escala de estrutura muito grande (intercalando barreiras e vácuos) para ser formado em um tempo tão curto como 10-20 bilhões de anos. A velocidade média das galáxias através do espaço é uma medida confiável. Naquelas velocidades, as galáxias precisariam aproximadamente da idade do universo para montar as estruturas maiores (super aglomerados e paredes) que nós vemos no espaço [ [ 17 ] ], e ao espaço livre todos os vácuos entre as barreiras da galáxia. Mas isto supõe que os sentidos iniciais do movimento são especiais, por exemplo, dirigido afastado dos centros dos vácuos. Para começar em torno deste problema, deve-se propor que as velocidades da galáxia eram inicialmente muito mais elevadas e ter retardado devido a alguma sorte de "viscosidade" do espaço. Dar forma a estas estruturas construindo acima dos movimentos requereria apenas com a aceleração gravitacional um excesso de 100 bilhões anos.
VIII.A luminosidade media dos quasares deve decrescer com o tempo apenas na maneira direita de modo que a sua média aparente de brilho é a mesma em todos os desvios da luz para o vermelho o que é extremamente improvável. De acordo com a teoria big bang, um quasar em um desvio da luz para o vermelho de 1 está aproximadamente dez vezes tão distantes quanto um em um desvio da luz para o vermelho de 0.1. (a relação entre o desvio da luz para o vermelho e a distância não é completamente linear, mas esta é uma aproximação justa.) Se os dois quasars fossem intrìnseca similares, o elevado desvio da luz para o vermelho de um seria aproximadamente 100 vezes mais fraco por causa da lei do inverso do quadrado. Mas está, na média, do brilho aparente comparável. Isto deve ser explicado como os quasars "que evoluem" suas propriedades intrínsecas de modo que comecem menores e mais fracas enquanto o universo evolui. dessa maneira, o quasar no desvio da luz para o vermelho 1 pode ser intrìnseca 100 vezes mais brilhante do que essa em 0.1, explicando porque parecem (na média) ser comparàvel brilhante. Não é como se o big bang tem uma razão porque os quasars devem evoluir apenas nesta maneira mágica. Mas para isso é requerido explicar as observações usando a interpretação big bang do desvio da luz para o vermelho dos quasars como uma medida da distância cosmológica. Veja [ [ 19], [20 ] ].. Em constraste a, relação entre aparente valor e distância para quasars é uma simples lei alternativa do, inverso do quadrado da cosmologia. _ [ 20 ], Arp mostra grande quantidade de evidências que um quasar com grande desvio da luz para o vermelho é um fator de combinação cosmológica e também um fator intrínseco, com último dominante na maioria dos casos. _ o maior desvio da luz para o vermelho (por exemplo, z > _ 1) conseqüentemente tem uma pequena correlação com a distância. _ um grupo de 11 quasares perto de NGC 1068,tem um padrão nominal de ejeção em correlação com a rotação da galáxia ,o que fornece a mais forte evidência de que o desvio da luz para o vermelho dos quasares é intrínseco. _ [ [ 21 ] ]
IX.as idades de conjuntos globulares parecem mais velhas do que o universo. Mesmo que os dados sejam esticados no sentido para resolver isto desde que do "a lista Top dez" apareceu primeiramente, as barras do erro na idade estimada pelo Telescópio Hubble do universo (12+/-2 Gyr) ainda não sobrepõem completamente as barras do erro nos conjuntos globular os mais velhos (16+/-2 Gyr). Os astrônomos estudaram este para a década passada, mas resistem "a explanação do erro observational" porque aquela empurraria quase certamente a idade estimada pelo telescópio Hubble mais antiga (enquanto Sandage tem discutido por anos), que cría diversos problemas novos para o Big Bang. Ou seja a cura é pior do que a doença para a teoria. De fato, uma técnica observational nova, relativamente polarização-livre foi a maneira oposta, abaixando a estimativa da idade pelo telescópio Hubble a 10 Gyr, fazendo a discrepância piorar outra vez. [ [ 22], [23 ] ]
X.a matéria escura invisível de uma natureza desconhecida mas não -barionica deve ser o ingrediente dominante do universo inteiro. A teoria do big bang requer polvilhar galáxias, conjuntos, super aglomerados, e o universo com as quantidades crescentes desta "matéria escura invisível, ainda não detectada" para manter a teoria viável. Total, sobre 90% do universo deve ser feito de algo que nós nunca detectamos. Pelo contraste, o modelo de Milgrom (a alternativa "matéria escura") fornece uma explanação de um parâmetro que trabalhos em todas as escalas e não requer nenhuma "matéria escura" existir em nenhuma escala. (eu excluo a 50%-100% adicional da matéria ordinária invisível dedutível para existir perto, por exemplo, estudos MACHO.) Alguns físicos não gostam de modificar a lei da gravidade nesta maneira, mas numa escala finita para forças naturais é uma necessidade lógica (teoria nao justa) falada desde do século 17. [ [ 29], [30 ] ] O modelo de Milgrom não requer nada disto. Milgrom é um modelo operacional melhor que é baseados em fundamentos sólidos. Mas é consistente com os modelos mais completos que invocam uma escala finita para a gravidade. Assim o modelo de Milgrom fornece uma base para eliminar a necessidade para "a matéria escura" no universo em toda a escala. Isto representa a não necessidade do big bang .
XI. as galáxias as mais distantes no campo profundo de Hubble mostram uma evidência insuficiente para a evolução, com o alguma deles que têm desvios para o vermelho mais elevados (z = 6-7) do que os quasars com o mais elevado desvio para o vermelho. O big bang requer que as estrelas, os quasars e as galáxias no universo adiantado sejam "primitivos", significando na maior parte metal-livre, porque requer muitas gerações de super novas para formar o elevado índice de metal nas estrelas. Mas as últimas evidências sugere lotes do metal nos quasars e nas galáxias " mais adiantados". [ [ 31], [32], [33 ] ] além disso, nós temos agora a evidência para numerosas galáxias ordinárias em o que o big bang esperou alcançar "a idade escura" da evolução do universo, quando a luz de poucas galáxias primitivas na existência seria obstruída da vista por nuvens do hidrogênio. [ [ 34 ] ]
XII.se no universo que nós vemos hoje representa as origens, a relação da densidade real da matéria no universo à densidade crítica deve diferir da unidade apenas por uma parte em 10 elevado a potência 59. Todo o desvio maior resultaria em um universo que já desmoronou ou já se dissipou. A inflação não conseguiu seu objetivo quando muitas observações foram de encontro a ela. Para manter a consistência e salvar a inflação, o big bang tem introduzido agora dois parâmetros ajustáveis novos: (1) a constante cosmológica, que tem um problema de ajuste fino principal do seus próprios porque a teoria sugere que deva ser da ordem 10 elevado a potência 120, e observações sugere um valor mais menos de 1; e (2) "quintessence" ou "energia escura". [ [ 35], [36 ] ] esta última substância teórica resolve o problema de ajuste fino introduzindo a energia invisível, indetectável polvilhada na vontade como necessitada durante todo o universo de forma a manter a consistência entre a teoria e as observações. Pode conseqüentemente exatamente ser descrita como "o fator final do absurdo". Qualquer um que duvida do big bang em seu formulário atual (que inclui a maioria dos pesquisadores auto didatas da astronomia, de acordo com um exame recente) teria uma boa causa para essa opinião e poderia fàcilmente defender tal posição. Esta é uma matéria fundamental diferente do que provar que o big bang não aconteceu, que estaria provando um negativo - algo que é normalmente impossível. (por exemplo, nós não podemos provar que Papai Noel não existe.) O big bang, parece muito com a hipótese de Papai Noel, nenhuma predições testáveis ao longo do tempo a podem confirmar a hipótese os pesquisadores concordam que há uma falha e que a hipótese precisa ser mudada. Em vez disto , a teoria é emendada continuamente para esclarecer todas as descobertas novas, inesperadas. Certamente, muitos cientistas novos pensam agora deste como um processo normal na ciência! Esquecem-se ou estiveram ensinados nunca que um modelo tem o valor somente quando pode predizer as coisas novas que diferenciam o modelo da possibilidade e de outros modelos antes que as coisas novas estejam descobertas. As explanações de coisas novas são supostas para fluir da teoria básica própria com no a maioria um parâmetro ajustável ou dois, e não aos bocados adicionados em uma nova teoria. Naturalmente, a literatura contem também o papel de revisão ocasional na sustentação do big bang . [ [ 37 ] ] mas estes geralmente não contam algumas das falhas ou das surpresas da predição como falhas da teoria tão por muito tempo como alguns teoria contante cosmológica puderam as explicar. E da "os sucessos predição" em quase cada caso não distinguem o big bang de alguns dos quatro modelos principais do concorrente: Quasi-Constante-Estado [ 16, [38 ] ], cosmologia do plasma [ 18 ], modelo do meta [ 3 ], e cosmologia da Massa Variável [ 20 ]. Muitas pressuposições astronômicas são como um castelo de cartas. Por exemplo, a constante astronômica de Hubble, um ponto de referência nos cálculos uniformitarianos de distância, recentemente foi determinada ser consideravelmente diferente do que se pensava antes, resultando assim no "colapso" da noite para o dia do tamanho do universo em 50% do seu valor antigo.
==IDÉIAS ALTERNATIVAS==
Se a luz que transpõe 300.000 km/s, viaja trilhões do kmlano. A distância assim percorrida é chamada de um ano-luz. Existem galáxias que estão, segundo se alega. a bilhões de anos-luz distantes do nós no espaço. Isso significa que a luz que saiu das galáxias há 5 bilhões de anos, estaria agora nos alcançando. Isso pareceria indicar que o universo e a criação devem ter pelo menos, 5 bilhões de anos ou então não estaríamos vendo essa luz. Em outras palavras, se as estrelas tivessem apenas de 6 a 10.000 anos de idade por exemplo, a luz dessas distantes galáxias ainda não nos teria alcançado.Este é o chavão que impulsionou a astronomia a buscar caminhos alternativos aos defendidos pela igreja que defendia uma terra e um Universo de 6000 anos apenas.
PONTOS DE VISTA IGNORADOS PELA CIÊNCIA TRADICIONAL:
1) As distâncias espaciais não podem ser medidas de maneira exata. Obviamente não podemos estender um barbante no espaço cósmico ou medir tais distâncias com uma fita métrica, por isso as distâncias são calculadas e não medidas. Isso se faz através de uma técnica conhecida como triangulação, ou paralaxe. Topógrafos usam esse método com as leis da trigonometria que afirmam que, se a linha de base e dois ângulos de um triângulo são conhecidos, então a altura desse triângulo pode ser calculada. Distâncias curtas de algumas poucas centenas de milhares de quilômetros podem ser medidas pala triangulação de observações simultâneas de observatórios em lados opostos da terra, mas, quando a proporção das distâncias entre o conhecido e o desconhecido aumentam, os ângulos da linha da base se tornam cada vez maiores de modo que além de uma proporção de 28,5 para 1 entre a altitude e a linha de base, o ângulo se torna maior que 89º e deve ser subdividido em minutos e segundos do arco. As limitações deste método são evidentes, até mesmo dentro do nosso próprio sistema solar, pois o ângulo vértice até o sol teria apenas 10 segundos do arco (1/360 de um grau). As distâncias até mesmo às estrelas mais próximas são tão grandes que se torna necessário uma linha de base triangulacional maior, de modo que se usa a órbita da terra ao redor do sol, permitindo uma linha de base de cerca de 300 milhões de quilômetros. As observações são feitas com seis meses de intervalo, os ângulos são comparados e a distância é computada com a trigonometria. Considerando que as distâncias entre as estrelas são tão grandes, os lados do triângulo são praticamente perpendiculares e assim apenas as distancias até as estrelas mais próximas (até cerca de 200 anos-luz) podem ser medidas através desta técnica. Por exemplo, o nosso sol dista 8 minutos-luz de nós, portanto a linha de base do triângulo teria 16 minutos-luz. Mas a estrela mais próxima, Alfa Centauro, fica a 4 1/2 anos-luz ou 2.365.000 minutos-luz da terra, numa proporção aproximada de 148.000 para 1. Nessa proporção, uma linha do 215 mm, traçada numa página. A4 teria o vértice do seu ângulo a 322 km do distância! Distâncias maiores são determinadas pelos tamanhos presumidos e pela intensidade das estrelas, pelo desvio para o vermelho.e muitos fatores questionáveis que talvez não tenham nada a ver com a distância.1 Na verdade, alguns astrônomos acham que é possível que todo o universo possa ser encaixado em uma área de 200 anos luz de raio a partir da terra! Portanto não temos nenhuma garantia de que as distâncias reais no espaço sejam tão grandes como as que têm sido divulgadas, e a luz vinda do ponto mais distante no universo, tenha nos alcançado em apenas algumas centenas de anos. A causa do deslocamento para o vermelho(redshift) não é necessariamente o afastamento das galáxias. Há outros fenômenos que podem causar um deslocamento para o vermelho. Entre estes, o assim-chamado “deslocamento gravitacional para o vermelho” implica em massas incrivelmente grandes para as galáxias mais distantes; e o assim-chamado “efeito Doppler transversal” exigiria uma revolução muito rápida ao redor de um centro,e uma vez que a revolução em volta de um centro é uma caraterística geral de objetos cósmicos esta hipótese pode ser considerada . Finalmente há também a idéia de que, por interação com a matéria, a luz perderia parte de sua energia durante a longa viagem de uma galáxia distante até a Terra.
2) A luz pode tomar um "atalho" em sua viagem através do espaço. Isto é difícil de ilustrar mas basta dizer que há dois conceitos sobre a "forma" do espaço cósmico. Um diz que ele é em linha reta (Euclideano), e o outro, que ele é curvo (Riemanniano). Com base em observações de 27 sistemas binários de estrelas, parece que a luz no espaço profundo viaja em linhas curvas sobre superfícies riemannianas. (78) A fórmula para converter o espaço reto em curvo é S = 2R tan elevado a -1 (r/2R), onde r é a distância euclideana ou em linha reta, e R é o raio da curvatura do espaço riemanniano. Com esta fórmula, a um raio de curvatura de 5 anos-luz para o espaço riemanniano, o tempo que a luz leva para alcançar-nos de diversos pontos em nosso sistema solar é praticamente o mesmo, tanto nas distâncias euclideanas como nas riemannianas, e não há grande alteração, mesmo em relação à estrela mais próxima (41/2 anos-luz). Mas se nós inserirmos uma distância euclideana infinita para a estrela mais distante que possamos conceber, levaria apenas 15,71 anos para a luz chegar até nós vinda dessa distância. O quadro abaixo nos dá uma idéia da conversão distância-tempo:
Distância Euclideana-anos Luz /Distância Riemanneana-tempo real
..........................1....................../..... 0,997 anos .....
..........................4...................../........ 3,81 ..............
.........................30 ................../..........12,5...............
.......................100.................../.......... 14,7 ..............
......................1000................./.......... 15,6 ..............
.....................10.000............../............ 15,7 ..............
.....................infinito............../.............15,71 ............
Observe que pela natureza da fórmula, o limite máximo do tempo no espaço riemanniano tem sua definição, e mesmo quando o raio da curvatura é modificado através de novas descobertas, ele nunca fica muito grande. Conclusão: Parece que a luz pode tomar um "atalho" ao viajar através do espaço profundo, e mesmo quando assumimos por certo que as distâncias uniformitarianas são válidas, o tempo que a luz leva para chegar aqui, vinda dos extremos do universo, seria de apenas 15 anos.
3)Talvez a expansão universal do espaço seja acompanhada por uma expansão universal do período de tempo no qual tudo isto acontece. Ou talvez a expansão espacial seja apenas uma ilusão causada pela expansão do tempo.O que sugere fortemente que em algum tempo finito no futuro a idade estimada do universo será infinita. Isto terá várias conseqüências importantes: (1) Todas as perguntas relativas às circunstâncias tendo lugar na hora do começo do universo serão relegadas à história. (2) Toda especulação sobre o que havia antes da origem do universo será igualmente vista como obviamente sem sentido.
==REFERÊNCIAS==

[[1]] T. Van Flandern (1997), MetaRes.Bull. 6, 64; <http://metaresearch.org%3e/, “Cosmology” tab, “Cosmology” sub-tab.
[[2]] T. Van Flandern, “Did the universe have a beginning?”, Apeiron 2, 20-24 (1995); MetaRes.Bull. 3, 25-35 (1994); http://metaresearch.org/, “Cosmology” tab, “Cosmology” sub-tab.
[[3]] T. Van Flandern (1999), Dark Matter, Missing Planets and New Comets, North Atlantic Books, Berkeley (2nd ed.).
[[4]] Sir Arthur Eddington (1926), “The temperature of space”, Internal constitution of the stars, Cambridge University Press, reprinted 1988, chapter 13.
[[5]] Regener (1933), Zeitschrift fur Physiks; confirmed by Nerost (1937).
[[6]] Finlay-Freundlich (1954).
[[7]] E.J. Lerner, (1990), “Radio absorption by the intergalactic medium”, Astrophys.J. 361, 63-68.
[[8]] T. Van Flandern, “Is the microwave radiation really from the big bang 'fireball'?”, Reflector (Astronomical League) XLV, 4 (1993); and MetaRes.Bull. 1, 17-21 (1992).
[[9]] (2002), Nature 415, vii & 27-29 & 54-57.
[[10]] (1997), Astrophys.J. 489, L119-L122.
[[11]] (2000), Science 290, 1257.
[[12]] (2000), Nature 405, 1009-1011 & 1025-1027.
[[13]] (2000), Science 290, 1257.
[[14]] (2002), Astrophys.J. 566, 252-260.
[[15]] (2001), Astrophys.J. 552, L1-L5.
[[16]] C.F. Hoyle, G. Burbidge, J.V. Narlikar (2000), A different approach to cosmology, Cambridge University Press, Cambridge, Chapter 9: “The origin of the light elements”.
[[17]] (2001), Science 291, 579-581.
[[18]] E.J. Lerner (1991), The Big Bang Never Happened, Random House, New York, pp. 23 & 28.
[[19]] T. Van Flandern (1992), “Quasars: near vs. far”, MetaRes.Bull. 1, 28-32; <http://metaresearch.org%3e/, “Cosmology” tab, “Cosmology” sub-tab.
[[20]] H.C. Arp (1998), Seeing Red, Apeiron, Montreal.
[[21]] (2002), Astrophys.J. 566, 705-711.
[[22]] (1999), Nature 399, 539-541.
[[23]] (1999); Sky&Tel. 98 (Oct.), 20.
[[24]] D.S. Mathewson, V.L. Ford, & M. Buchhorn (1992), Astrophys.J. 389, L5-L8.
[[25]] D. Lindley (1992), Nature 356, 657.
[[26]] (1999), Astrophys.J. 512, L79-L82.
[[27]] (1993), Science 257, 1208-1210.
[[28]] (1996), Astrophys.J. 470, 49-55.
[[29]] T. Van Flandern (1996), “Possible new properties of gravity”, Astrophys.&SpaceSci. 244, 249-261; MetaRes.Bull. 5, 23-29 & 38-50; <http://metaresearch.org%3e/, “Cosmology” tab, “Gravity” sub-tab.
[[30]] T. Van Flandern (2001), “Physics has its principles”, Redshift and Gravitation in a Relativistic Universe, K. Rudnicki, ed., Apeiron, Montreal, 95-108; MetaRes.Bull. 9, 1-9 (2000). [[31]] (2001), Astron.J. 122, 2833-2849.
[[32]] (2001), Astron.J. 122, 2850-2857.
[[33]] (2002), Astrophys.J. 565, 50-62.
[[35]] (2000), Astrophys.J. 530, 17-35.
[[36]] (1999), Nature 398, 25-26.
[[37]] (2000), Science 290, 1923.
[[38]] (1999), Phys.Today Sept, 13, 15, 78.
[[40]] (2001), Astron.J. 122, 1084-1103.
[[41]] H. Kurki-Suonio (1990), Sci.News 137, 287.
[[42]] C. Seife (2000), “Fly’s Eye spies highs in cosmic rays’ demise”, Science 288, 1147.
[[43]] (2000), Sci.News 158, 86.
[[44]] (1997), Science 278, 226.
[[45]] (2000), Astrophys.J. 530, 1-16.
[[47]] (2000), Astrophys.J. 538, 1-10.
[[48]] B.R. Bligh (2000), The Big Bang Exploded!, .
[[49]] (2000), Astrophys.J. 541, 519-526.
[[50]] (1999), Nature 397, 225.
[[51]] (1998), Seeing Red, H. Arp, Apeiron, Montreal, 124-125.
[[52]] McGaugh (2001), Astronomy 29#3, 24-26.
[[53]] (1992), Astrophys.J. 393, 59-67.
[[54]] Guthrie & Napier (1991), Mon.Not.Roy.Astr.Soc. 12/1 issue.
[[55]] (2001), Astron.J. 121, 21-30.
[[56]] (1999), Astron.&Astrophys. 343, 697-704.
[[57]] (2001), Astron.J. 121, 54-65.
[[58]] (2001), Astrophys.J. 557, 519-526.
[[59]] (2001), Phys.Rev.Lett. 9/03 issue.
[[60]] (2001), Astrophys.J. 558, L1-L4.
[[61]] (2002), Astrophys.J. 565, 50-62.
[[62]] (2002), Astrophys.J. 565, 63-77.
[[63]] (2002), Astrophys.J. 566, 51-67.
[[64]] (2002), Astrophys.J. 566, 68-92.
[[65]] (2002), Astrophys.J. 566, 103-122.
[[66]] (2002), Astrophys.J. 566, L1-L4.
[[67]] (1992), Nature 355, 55-58.
[68] E.R. Harrisson, Cosmology: The Science of the Universe, second edition (Cambridge University Press, Cambridge, 2000).
[69] H. Kragh, Cosmology and Controversy: The Historical Development of Two Theories of the Universe (Princeton University Press, Princeton, 1996).
[70] S.V.D. Bergh, astro-ph/9904251.
[71] J. Berenstein, Introduction to Cosmology (Prentice Hall, Englewood Cliffs, 1985).
[72] B. Ryden, Introduction to Cosmology (Addison Wesley, San Francisco, 2003).
[73] T.F. Jordan, astro-ph/0309756.
[74] S. Weinberg, The First Three Minutes (Perseus Books, New York, 1993).
[75] C.J. Hogan, The Little Book of the Big Bang: A Cosmic Primer (Springer Verlag, New York, 1998).
[76] Cosmological Constants: Papers in Modern Cosmology, edited by Jeremy Bernstein and Gerald Feinberg (Columbia University Press, New York, 1986).
[77] A.S. Sharov and I.D. Novikov, Edwin Hubble the Discoverer of the Big Bang (Cambridge University Press, Cambridge, 2003).
78. Harold S. Slusher, "Travelling of Light in Space" ( Viagem da Luz no Espaço), em Age of the Cosmos (Idade do Cosmos), ( San Diego, CA, EUA; ICR 1980), págs. 25-37. Para analisar um outro ponto de vista sobre a geometria hiperbólica ou não euclideana do espaço, veja Mayne M. Zage, "The Geometry of Binocular Visual Space" ( A Geometria da Espaço Visual Binocular) Mathematics Magazine 53 (Nov. 1980), págs. 289-293.

Nenhum comentário: